Schwerpunkt KI / Zwischen Innovation und Regulierung: Der Balance-Akt der KI-Kontrolle
Künstliche Intelligenz ist hier, sie wird nicht wieder verschwinden und sie wird nach und nach alle Lebens- und Arbeitsbereiche durchdringen. Das hat Auswirkungen auf unsere Vorstellungen von der Welt und was es bedeutet, Mensch zu sein. Der dritte und letzte Teil unseres Schwerpunktthemas und die Frage, wie man KI regulieren sollte.
Künstliche Intelligenz (KI) hat ein massives Potenzial. Sie kann unsere Arbeit erleichtern, uns müßige, repetitive Tätigkeiten abnehmen – oder gar Lösungen für Menschheitsprobleme finden, wie zum Beispiel im Gesundheitssektor. Aber das ist nur eine Seite der Medaille. Gleichzeitig birgt KI die Gefahr – ähnlich wie ein Brennglas –, alle Ungerechtigkeiten, die in unserer Gesellschaft bestehen, noch weiter zu verstärken. Von der aufklaffenden Schere zwischen Arm und Reich über Sexismus bis hin zu Rassismus. Dafür müssen wir uns keine Science-Fiction-Dystopien ausmalen, von Skynet, Supercomputern, Terminatoren und dem Krieg gegen die Maschinen. Wenn KI einen falschen Weg einschlägt, kann sie schon heute verheerende Folgen auf das Leben von Menschen haben.
Die Geschichten über diskriminierende Algorithmen und KI-Systeme sind mannigfaltig. Da ist die Informatikerin Joy Buolamwini, die mit ihrer Arbeit u.a. nachwies, dass Gesichtserkennungssysteme die Gesichter schwarzer Menschen weniger gut erkennen als die weißer Menschen – mit potenziell tödlichen Folgen, wenn man zum Beispiel an selbst fahrende Fahrzeuge denkt. Oder ein Fall in den Niederlanden: 2019 wurde aufgedeckt, dass Steuerbehörden dort einen selbst lernenden Algorithmus zur Erstellung von Risikoprofilen verwendet hatten, um Betrug bei Kinderbetreuungsleistungen zu erkennen. Das Ergebnis: Die Behörden forderten schon bei einem bloßen Verdacht auf Betrug Strafzahlungen von betroffenen Familien. Zehntausende – oft mit geringem Einkommen oder Angehörige gesellschaftlicher Minderheiten – wurden in die Armut getrieben. Einige Opfer begingen Selbstmord, mehr als tausend Kinder mussten in Pflegefamilien untergebracht werden.
Das neue Datengold
Ein weiterer berühmter Fall: das in einigen US-Bundesstaaten angewandte Predictive-Policing-Werkzeug PredPol, das der Polizei dabei helfen soll, Verbrechen „frühzeitig zu erkennen“. Forscher fanden heraus, dass der zugrunde liegende Algorithmus unterkomplex ist: „Im Grunde genommen ermittelt PredPol den Durchschnitt der Orte, an denen bereits Festnahmen stattgefunden haben, und weist die Polizei an, dorthin zurückzukehren.“ Der Fachbegriff für solch ein Verhalten ist „runaway feedback loop“, eine sich verselbstständigende Feedbackschleife. Die KI schickte Polizei in eine Gegend, in der mehr Daten vorlagen, deshalb lagen dort noch mehr Daten vor und die KI schickte die Polizei wieder in diese Gegend und so weiter. Kurz: Die Katze biss sich in den Schwanz.
Daten sind der wunde Punkt der KI. Durch sie kann die Maschine Diskriminierung „lernen“ – ganz ähnlich wie ein Mensch. „Garbage in, garbage out“, sagt man dazu in der Branche. Wenn man die Maschine mit Müll füttert, kommt Müll raus. Auch ein Grund, warum Daten als Rohstoff zum Maschinenlernen immer wertvoller und begehrter werden. Um den Datenhunger ihrer KI zu stillen, verstoßen Unternehmen deshalb immer wieder gegen den Datenschutz – oder trainieren ihre KI-Systeme mit KI-generierten Daten, was in vielen Fällen aber zu einer „Verdummung“ der KI führt.
All diese Beispiele (und weitere ethische Herausforderungen aus Teil eins und zwei der Serie) machen deutlich: KI darf weder sich selbst noch dem Wirken des freien Marktes überlassen werden. Es braucht staatliche Regulierung. Aber wie sollte diese aussehen?
Die schwedische Wirtschaftswissenschaftlerin Siri Isaksson hat kürzlich beim Luxembourg Institute of Socio-Economic Research (Liser) ihre Forschungsarbeit vorgestellt, mit der Frage, ob und wie KI der Geschlechtergerechtigkeit im Weg stehen könnte. Ihre Umfrage unter Studierenden lieferte erstaunliche Ergebnisse. Isaksson fand heraus, dass weibliche Studierende ChatGPT seltener benutzen und es schlechter beherrschen als ihre männlichen Kommilitonen. Dieser Gender-Gap ist besonders ausgeprägt bei den nach Noten besten Studentinnen ihres Jahrgangs. Frauen, die laut einer weiteren Umfrage unter unternehmerischen Führungskräften von allen die besten Chancen auf einen Job hätten – jedoch eben jene KI-Kenntnisse vorausgesetzt. Die vielleicht interessanteste Erkenntnis: Wurde das Arbeiten mit ChatGPT im universitären Kontext gefördert, schloss sich der Gender-Gap. Wurde die KI-Anwendung verboten, weitete er sich, weil sich männliche Studierende eher über das Verbot hinwegsetzten als ihre Kommilitoninnen.
Der Meilenstein AI Act
In Sachen KI-Kontrolle hat die EU nun einen historischen Meilenstein gesetzt: Im August tritt das Europäische Gesetz über Künstliche Intelligenz (AI Act) in Kraft, die weltweit erste umfassende Verordnung über KI. Im Kern geht es beim AI Act um Risikoabwägung. Das Gesetz teilt KI-Systeme in vier unterschiedlich regulierte Gruppen ein. Während „harmlose“ Systeme wie Spamfilter in Mailprogrammen unberührt bleiben, müssen Anbieter von Programmen mit begrenztem Risiko (z.B. ChatGPT) in Zukunft u.a. offenlegen, mit welchen Daten sie ihre KI trainieren. Hochrisikoanwendungen, die über Menschen entscheiden, z.B. bei Asylanträgen oder Bewerbungsverfahren, werden besonders streng kontrolliert. Systeme an der Spitze der Risikopyramide, z.B. soziale Kreditsysteme nach chinesischem Vorbild oder Emotionserkennungssysteme, wie sie u.a. in Japan eingesetzt werden, sind in der EU künftig gänzlich verboten.
Kritik am AI Act gibt es von allen Seiten. Während die einen von Überregulierung sprechen, gehen den anderen die Maßnahmen nicht weit genug. Ein Beispiel: Zu den KI-Systemen mit unannehmbarem Risiko zählte das EU-Parlament ursprünglich auch sogenannte „biometrische Echtzeit-Fernidentifizierungssysteme“, beispielsweise: Gesichtserkennung. Jedoch setzten die Mitgliedstaaten vergangenen Dezember weitreichende Ausnahmen im „AI Act“ durch. So darf die Polizei in schwerwiegenden Fällen und nach gerichtlicher Genehmigung mit Gesichtserkennungstechnologie nach Verdächtigen fahnden.
Der luxemburgische EU-Abgeordnete Marc Angel (LSAP) hat für den AI Act gestimmt, ein Gesetz an dem man nun „permanent arbeiten und es auch weiterentwickeln“ müsse. „Als Sozialdemokraten fordern wir zum Beispiel auch eine Verordnung über den konkreten Einsatz von KI am Arbeitsplatz, von Bewerbungsverfahren bis zur Überwachung von Arbeitern in Fabriken.“ Bei aller notwendiger Kontrolle und Regulierung dürfe man vor KI aber nicht zu viel Angst haben, so Angel. „Wenn sie gut geregelt wird, dann bieten sich viele Chancen.“
Um eben jene Chancen fürchten andere. Vor allem im globalen Wettbewerb. Der Europäische Rechnungshof veröffentlichte Ende Mai einen Bericht, in dem er die bisherige KI-Strategie der EU hart kritisiert. „Die EU hatte bislang wenig Erfolg bei der Entwicklung eines KI-Ökosystems“, heißt es dort. Die Investitionen der Union in KI könnten nicht Schritt halten mit den weltweit führenden Akteuren. Außerdem würden die Ergebnisse von EU-geförderten KI-Projekten nicht systematisch überwacht werden. Die Koordination zwischen der Union und ihren einzelnen Mitgliedsstaaten sei ineffektiv, es fehle an Steuerungsinstrumenten.
Kontrolle und Regulierung, der Schutz von Bürgerinnen und Bürgern auf der einen Seite, Investitionen und Innovationen, die große wirtschaftliche Revolution auf der anderen Seite. Ein Balance-Akt, der die Welt in den kommenden Jahren beschäftigen wird.
- „Gladiator II“ knüpft an einen Filmklassiker an, doch gelingt die Fortsetzung? - 25. November 2024.
- Im Nahen Osten droht Trump’sches Chaos - 25. November 2024.
- Max Verstappen: Weltmeister in Las Vegas - 25. November 2024.
Sie müssen angemeldet sein um kommentieren zu können.
Melden sie sich an
Registrieren Sie sich kostenlos