KI in Australien: Droht Diskriminierung statt Fortschritt?

Theguardian

Die rasche Integration künstlicher Intelligenz in die australische Gesellschaft birgt, obwohl sie erhebliche Produktivitätsgewinne verspricht, ein ernstes Risiko, bestehende soziale Ungleichheiten zu verschärfen. Dies geht aus einer deutlichen Warnung der Menschenrechtskommissarin des Landes hervor. Während sich die Bundesregierung darauf vorbereitet, das wirtschaftliche Potenzial von KI auf einem bevorstehenden Gipfel zu erörtern, schlagen immer mehr Stimmen, darunter Gewerkschaften und Industrieverbände, Alarm über das Potenzial der Technologie, Rassismus und Sexismus zu verfestigen, wenn sie unreguliert bleibt.

Menschenrechtskommissarin Lorraine Finlay hat gewarnt, dass das Streben nach wirtschaftlichen Vorteilen aus der KI nicht auf Kosten zunehmender Diskriminierung gehen darf. Sie hebt einen kritischen Mangel an Transparenz bei den zur Schulung von KI-Tools verwendeten Datensätzen hervor, was es schwierig macht, inhärente Verzerrungen zu identifizieren und zu mindern. Finlay erklärte, dass „algorithmische Voreingenommenheit“ bedeutet, dass Ungerechtigkeit direkt in die Technologie eingebaut ist, was zu voreingenommenen Ergebnissen führt. Dies wird durch „Automatisierungs-Voreingenommenheit“ verstärkt, bei der Menschen zunehmend auf Maschinenentscheidungen vertrauen und diskriminierende Muster möglicherweise unbewusst übersehen oder sogar verstärken. Die Kommission hat sich konsequent für ein spezielles KI-Gesetz eingesetzt, zusammen mit der Stärkung bestehender Gesetze wie dem Datenschutzgesetz und der Implementierung strenger Tests auf Voreingenommenheit in KI-Systemen. Finlay forderte die Regierung auf, umgehend neue gesetzliche Schutzmaßnahmen zu schaffen, und betonte die Notwendigkeit von Voreingenommenheitstests, Audits und robuster menschlicher Aufsicht.

Die Bedenken der Kommissarin treten inmitten einer internen Debatte innerhalb der Labor-Partei über den optimalen Ansatz zur KI-Governance auf. Senatorin Michelle Ananda-Rajah, eine ehemalige Ärztin und KI-Forscherin, ist bemerkenswert von einigen Parteilinien abgewichen und schlägt vor, dass alle australischen Daten für Technologieunternehmen „freigegeben“ werden sollten. Ihre Begründung ist, KI-Modelle mit vielfältigen lokalen Daten zu trainieren, um so die Perpetuierung von Übersee-Voreingenommenheiten zu verhindern und das australische Leben und die Kultur besser widerzuspiegeln. Während Ananda-Rajah ein spezielles KI-Gesetz ablehnt, ist sie fest davon überzeugt, dass Inhaltsersteller für ihre in der KI-Schulung verwendeten Arbeiten entschädigt werden müssen. Sie argumentiert, dass Australien ohne die Öffnung inländischer Daten Gefahr läuft, KI-Modelle von internationalen Tech-Giganten dauerhaft zu „mieten“, ohne Aufsicht oder Einblick in deren Funktionsweise.

Beweise für KI-Voreingenommenheit häufen sich bereits, sowohl national als auch international. Studien haben diskriminierende Ergebnisse in kritischen Bereichen wie Medizin und Personalbeschaffung aufgedeckt. Zum Beispiel ergab eine im Mai veröffentlichte australische Studie, dass Bewerber, die von KI-Personalvermittlern interviewt wurden, potenzielle Diskriminierung aufgrund ihres Akzents oder einer Behinderung erfuhren. Ananda-Rajah nannte Hautkrebs-Screening als ein weiteres Beispiel, bei dem algorithmische Voreingenommenheit in KI-Tools zu ungleicher Patientenbehandlung führen könnte, und betonte die Notwendigkeit, Modelle mit umfassenden, vielfältigen australischen Daten zu trainieren, während sensible Informationen geschützt werden.

Während die „Freigabe“ von Daten von einigen als Teil der Lösung angesehen wird, betonen andere Experten die Notwendigkeit eines mehrgleisigen Ansatzes. Judith Bishop, eine KI-Expertin an der La Trobe University, erkennt an, dass mehr australische Daten das KI-Training verbessern könnten, warnt jedoch vor einer übermäßigen Abhängigkeit von US-Modellen, die auf ausländischen Datensätzen trainiert wurden. Sie betont jedoch, dass dies nur eine Komponente einer umfassenderen Lösung ist. Ähnlich hat eSafety-Kommissarin Julie Inman Grant Bedenken hinsichtlich des mangelnden Transparenz bei KI-Trainingsdaten geäußert. Sie fordert Technologieunternehmen auf, transparent über ihre Datenquellen zu sein, robuste Berichtstools zu entwickeln und sicherzustellen, dass ihre Produkte vielfältige, genaue und repräsentative Daten verwenden. Inman Grant hob die „Undurchsichtigkeit der generativen KI-Entwicklung“ als zutiefst problematisch hervor und äußerte Befürchtungen, dass große Sprachmodelle „schädliche Voreingenommenheiten – einschließlich enger oder schädlicher Geschlechternormen und rassistischer Vorurteile – verstärken, ja sogar beschleunigen könnten“, insbesondere angesichts der Konzentration der Entwicklung auf wenige Unternehmen, was das Risiko birgt, bestimmte Stimmen und Perspektiven zu marginalisieren.

Das übergeordnete Gefühl unter diesen Experten ist, dass KI zwar ein immenses Potenzial bietet, ihre Entwicklung und ihr Einsatz in Australien jedoch dringend regulatorische Aufmerksamkeit, ein Engagement für Datenvielfalt und unerschütterliche Transparenz erfordern, um sicherzustellen, dass sie allen Australiern fair und gerecht dient, anstatt bestehende Spaltungen zu vertiefen. Die laufenden Diskussionen auf dem föderalen Wirtschaftsgipfel und in politischen Kreisen spiegeln die wachsende Erkenntnis wider, dass die Steuerung der Zukunft der KI ein sorgfältiges Gleichgewicht zwischen Innovation und ethischer Verantwortung erfordert, insbesondere in Bezug auf den Schutz des geistigen Eigentums und der Privatsphäre, die Medien- und Kunstgruppen durch „ungezügelten Diebstahl“ bedroht sehen.