KI-Misstrauen: Randgruppen sehen KI kritisch
Künstliche Intelligenz integriert sich rapide in den Alltag und operiert oft diskret in kritischen Sektoren, von Gesundheitsdiagnosen über Einstellungsprozesse bis hin zur Beeinflussung der Nachrichten, die Menschen konsumieren. Doch dieser allgegenwärtige Einfluss ist nicht immer gerecht. Umfangreiche Forschung hat immer wieder gezeigt, dass algorithmische Voreingenommenheit marginalisierte Gemeinschaften häufig benachteiligt. Beispielsweise klassifizieren Gesichtserkennungssysteme transgeschlechtliche und nicht-binäre Personen häufig falsch, KI-Tools, die in der Strafverfolgung eingesetzt werden, wurden mit unverhältnismäßig hohen Raten unbegründeter Verhaftungen für Schwarze Menschen in Verbindung gebracht, und algorithmische Diagnosesysteme können Barrieren für die grundlegende Gesundheitsversorgung von Menschen mit Behinderungen errichten.
Diese dokumentierten Ungleichheiten werfen eine entscheidende Frage auf: Hege Geschlechts- und Rassminderheiten sowie Menschen mit Behinderungen negativere Wahrnehmungen der KI im Vergleich zur breiteren US-Bevölkerung? Eine aktuelle Studie unter der Leitung von Oliver L. Haimson, einem Forscher, der sich darauf spezialisiert hat, wie marginalisierte Gemeinschaften mit sozialen Technologien interagieren, versuchte, dies zu beantworten. Zusammen mit seinen Kollegen Samuel Reiji Mayworm, Alexis Shore Ingber und Nazanin Andalibi befragte Haimson über 700 Personen in den USA. Die Stichprobe umfasste eine national repräsentative Gruppe, ergänzt durch eine gezielte Überabtastung von transgeschlechtlichen, nicht-binären, behinderten und rassischen Minderheiten-Teilnehmern. Die Umfrage untersuchte allgemeine Einstellungen zur KI, einschließlich Überzeugungen über ihr Potenzial, Leben oder Arbeit zu verbessern, das allgemeine positive Gefühl und Absichten für die zukünftige persönliche Nutzung.
Die Ergebnisse zeigen eine deutliche Divergenz in den Einstellungen. Transgeschlechtliche, nicht-binäre und behinderte Teilnehmer berichteten im Durchschnitt durchweg deutlich negativere Ansichten über KI als ihre cisgeschlechtlichen und nicht-behinderten Gegenstücke. Dies deutet darauf hin, dass diese Geschlechtsminderheiten und Menschen mit Behinderungen, wenn sie gezwungen sind, mit KI-Systemen zu interagieren, beispielsweise in beruflichen oder medizinischen Umgebungen, dies mit tiefgreifenden Vorbehalten oder Misstrauen tun könnten. Solche Ergebnisse stellen die vorherrschende Erzählung innerhalb der Technologiebranche, die KI als eine unvermeidliche, universell vorteilhafte Kraft für die Gesellschaft darstellt, direkt in Frage. Die öffentliche Wahrnehmung ist maßgeblich an der Gestaltung der Entwicklung, Akzeptanz und Regulierung von KI beteiligt, und wenn KI hauptsächlich denjenigen dient, die bereits an der Macht sind, wird ihre angebliche Rolle als soziales Gut fragwürdig. Wenn Einzelpersonen KI nutzen müssen, obwohl sie sie nicht mögen oder ihr misstrauen, kann die Beteiligung nachlassen, das Vertrauen schwinden und bestehende Ungleichheiten sich vertiefen.
Tiefer in die Studiendetails eintauchend, äußerten nicht-binäre Teilnehmer die negativsten Einstellungen zur KI. Transgeschlechtliche Personen insgesamt, sowohl Transmänner als auch Transfrauen umfassend, zeigten ebenfalls signifikant negative Ansichten. Unter cisgeschlechtlichen Personen – deren Geschlechtsidentität mit dem bei der Geburt zugewiesenen Geschlecht übereinstimmt – berichteten Frauen negativere Einstellungen als Männer, ein Trend, der frühere Forschungen widerspiegelt, obwohl diese Studie den Umfang durch die Einbeziehung nicht-binärer und transgeschlechtlicher Perspektiven deutlich erweitert. Ebenso hatten behinderte Teilnehmer signifikant negativere Ansichten über KI als nicht-behinderte Teilnehmer, wobei dieses Gefühl besonders ausgeprägt war unter denen, die neurodivergent sind oder psychische Erkrankungen bewältigen. Diese Ergebnisse stimmen mit einer wachsenden Anzahl von Forschungsarbeiten überein, die illustrieren, wie KI-Systeme häufig transgeschlechtliche und behinderte Personen falsch klassifizieren, Diskriminierung aufrechterhalten oder anderweitig schädigen, oft weil das Design der KI, das Komplexität in starre Kategorien vereinfacht, mit Identitäten kollidiert, die solche engen Definitionen ablehnen. Diese inhärente Vereinfachung kann unbeabsichtigt gesellschaftliche Vorurteile reproduzieren und verstärken, eine Realität, der sich die Nutzer sehr bewusst sind.
Im Gegensatz zu den klaren Mustern, die bei Geschlechtsidentität und Behinderung beobachtet wurden, präsentierte die Studie ein komplexeres Bild bezüglich der Rasse. People of Color, und Schwarze Teilnehmer insbesondere, vertraten überraschenderweise positivere Ansichten zur KI als weiße Teilnehmer. Dieser Befund ist besonders komplex angesichts der umfangreichen vorherigen Dokumentation von Rassismus in KI-Systemen, von diskriminierenden Einstellungsalgorithmen bis hin zu unverhältnismäßiger Überwachung. Die Studienautoren legen nahe, dass diese Ergebnisse nicht implizieren, dass KI für Schwarze Gemeinschaften gut funktioniert. Stattdessen könnten sie eine pragmatische Sichtweise oder eine hoffnungsvolle Offenheit gegenüber dem Potenzial der Technologie widerspiegeln, selbst angesichts des dokumentierten Schadens. Zukünftige qualitative Forschung könnte dieses ambivalente Gleichgewicht aus Kritik und Optimismus unter Schwarzen Individuen bezüglich KI weiter untersuchen.
Diese Unterschiede in der KI-Wahrnehmung haben erhebliche Auswirkungen sowohl auf die Politik als auch auf die Technologieentwicklung. Wenn marginalisierte Gemeinschaften aus triftigen Gründen der KI nicht vertrauen, sind handlungsfähige Schritte unerlässlich. Erstens müssen Entwickler und Institutionen Optionen für eine bedeutsame Zustimmung bereitstellen, die Arbeitgeber, Gesundheitsdienstleister und andere Einrichtungen dazu verpflichten, offenzulegen, wann und wie KI eingesetzt wird, und entscheidend, echte Möglichkeiten für Einzelpersonen zu bieten, sich ohne Strafe abzumelden. Zweitens sind robuste Datentransparenz und Datenschutz unerlässlich, die es den Menschen ermöglichen, die Quelle der Daten, die KI-Systeme informieren, zu verstehen, wie ihre Daten behandelt und wie sie geschützt werden. Solche Datenschutzmaßnahmen sind besonders wichtig für marginalisierte Gruppen, die bereits algorithmische Überwachung und Datenmissbrauch erlebt haben. Darüber hinaus sollten während der Entwicklung von KI-Systemen zusätzliche Schritte unternommen werden, um die Auswirkungen auf marginalisierte Gruppen rigoros zu testen und zu bewerten, möglicherweise unter Einbeziehung partizipativer Designansätze, bei denen betroffene Gemeinschaften direkt zum Systemdesign beitragen. Wenn eine Gemeinschaft Einspruch gegen eine KI-Lösung erhebt, müssen Entwickler bereit sein, ihre Bedenken zu berücksichtigen. Letztendlich dienen die negativen Einstellungen, die von marginalisierten Gruppen – denjenigen, die am anfälligsten für algorithmischen Schaden sind – geäußert werden, als kritisches Signal für KI-Designer, -Entwickler und -Politiker, ihre Bemühungen grundlegend neu zu bewerten. Eine auf KI aufbauende Zukunft muss gewissenhaft die sehr Menschen berücksichtigen, die die Technologie benachteiligen könnte.