KONTEXT:Wochenzeitung
KONTEXT:Wochenzeitung

Künstliche Intelligenz

Rechtsruck der Technik

Künstliche Intelligenz: Rechtsruck der Technik
|

Datum:

In Zeiten des weltweiten Rechtsrucks und des steigenden Einflusses von Tech-Firmen unter Donald Trump bereitet die Technik der Zukunft Sorgen: Die Künstliche Intelligenz ist gespickt mit menschlichen Vorurteilen. Aber Politik, Unternehmen und Nutzer:innen können das ändern, sagt die Wissenschaftlerin Eva Gengler.

Foto: Helena Henkel

Eva Gengler forscht an der Schnittstelle von Macht und KI mit intersektional-feministischer Perspektive an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie ist Mitgründerin der "feminist AI Community", die Expert:innen und Interessierte zum Wissensaustausch und Lobbying für gerechtere KI zusammenbringt.  (ses)

Frau Gengler, Sie forschen zum Thema KI-Bias, also zu Vorurteilen, die durch Künstliche Intelligenz reproduziert werden. Welche Erkenntnisse konnten Sie zur Diskriminierung durch KI-Tools gewinnen?

KI basiert auf sehr detaillierten und komplexen statistischen Berechnungen mit sehr vielen Daten. Wenn wir über KI-Bias sprechen, sind die Daten, die zum Training verwendet werden, entscheidend, weil das, was in den Daten steckt, am Ende ähnlich in den Ergebnissen sichtbar wird. Ich habe mir sechs Text-zu-Bild-KI-Tools angeschaut und wie Personen in den Kontexten von Macht, Erfolg und Schönheit dargestellt werden. Ich habe festgestellt, dass Männer mehr repräsentiert sind, insbesondere wenn es um Macht und Erfolg geht. Frauen werden eher jünger dargestellt und sehr viel mehr sexualisiert. Diverse Ethnien, People of Color, waren insgesamt unterrepräsentiert.

Ist das nur ein Problem bei generativen KI-Werkzeugen oder auch bei Vorhersage-Tools, die etwa beim Filtern von Bewerbungen Menschenleben beeinflussen können?

Ich habe mich früher mit KI im Recruiting beschäftigt, unter anderem dem Recruiting bei Amazon mit einem KI-Tool, für die Auswertung von Lebensläufen von Bewerber:innen. Es wurde festgestellt, dass Lebensläufe von Frauen systematisch aussortiert werden. Die KI wurde mit Daten vergangener menschlicher Entscheidungen und auf Basis der letzten Jahre trainiert, in denen vor allem Männer eingestellt worden sind – wie es typisch im IT-Sektor ist. Ich habe mich mit der Frage beschäftigt, ob KI Recruiting fairer machen kann. Das Ergebnis war: Ja, KI könnte Recruiting fairer machen, wenn wir explizit versuchen, ungerechte Strukturen mit Hilfe von KI zu verändern.

KI reproduziert letztendlich nur gesellschaftliche Vorurteile. Ist es ethisch vertretbar, die Daten zu manipulieren?

Auf jeden Fall dürfen wir in die Daten eingreifen. Es ist sogar geboten, weil wir eben aktuell durch Künstliche Intelligenz mehr Ungerechtigkeit schaffen. Die bestehenden Ungerechtigkeiten in Bezug auf Gender, Herkunft, Ethnie und sozioökonomischen Hintergrund werden durch KI reproduziert und verstärkt. Die Daten, mit der die KI trainiert, werden sowieso erstmal bereinigt – aus einem gewissen Interesse heraus. Es sind eher privilegierte Personen in Tech-Firmen, die sie bearbeiten. Das bedeutet, dass die Daten, die dem System gefüttert werden, nicht neutral, sondern sowieso verzerrt sind. Man muss auch berücksichtigen, dass wir von historischen Daten lernen, die nicht unbedingt unsere aktuelle Gesellschaft und ihre Werte widerspiegeln. Frauenrechte sind ein Beispiel: Vergewaltigung in der Ehe wurde erst Ende der 1990er-Jahre in Deutschland strafbar, Frauen haben lange kaum Kredite bekommen und bezahlte Arbeit war für Frauen in der BRD bis 1977 illegal ohne Zustimmung des Ehemannes. Man muss da auf verschiedenen Ebenen arbeiten: Die politischen Rahmenbedingungen müssen sich ändern, aber auch die Unternehmen.

Zu den Rahmenbedingungen gehört die KI-Verordnung der EU, die 2026 vollständig in Kraft treten soll und Transparenzpflichten für KI-Anwendungen reguliert. Wird das helfen, KI fairer zu machen und Anwendungen mit hohen Risiken zu begrenzen?

Die KI-Verordnung der EU

Die im Dezember 2023 vom EU-Parlament verabschiedete Verordnung soll Grundrechte vor Hochrisiko-KI schützen, gleichzeitig Innovation fördern und Europas Führungsrolle im KI-Bereich stärken. Verboten sind KI-Anwendungen, die Bürgerrechte gefährden, wie emotionale Überwachung und manipulative KI. Für Hochrisiko-KI gelten strenge Transparenz- und Sicherheitsauflagen, einschließlich Risikobewertung und menschliche Kontrolle. Die Verordnung soll im August 2026 vollständig in Kraft treten.

Was ist KI?

KI wurde bereits 1956 definiert und wird seit vielen Jahren in unterschiedlichen Bereichen eingesetzt. Der jüngste Aufschwung ist vor allem auf die gestiegene Rechen- und Speicherkapazität von Computern zurückzuführen, die es ermöglicht, riesige Datenmengen aus dem Internet und Sozialen Medien zum Training von KI-Modellen zu nutzen. Durch maschinelles Lernen werden diese Daten verarbeitet, angelehnt ans menschliche Gehirn. Es ist kein Denken oder "Intelligenz", sondern eine komplexe statistische Berechnung. Die derzeitigen Hauptanwendungsbereiche:

Vorhersage-Tools treffen Prognosen, etwa bei der Kreditvergabe oder im Recruiting, indem sie auf Basis vorhandener Daten vorhersagen, welche Personen am besten geeignet sind.

Generative KI-Systeme erzeugen eigenständig Inhalte, wie zum Beispiel Texte (ChatGPT) und Bilder (Midjourney, DALL-E/ChatGPT).  (ses)

Der EU AI Act ist ein guter erster Schritt. Versucht wird ein Spagat zwischen Werten und Innovation. Er setzt ein Zeichen, dass KI unseren Werten entsprechen soll. Was aber noch nicht so stark priorisiert ist, sind Themen wie Diversität, Transparenz über den ökologischen Fußabdruck oder Barrierefreiheit. Da gilt es aber nicht nur in der Regulierung nachzubessern. Deutschland hat große Fördertöpfe für KI-Projekte und da sollte in Ausschreibungen unter anderem die Qualität der Daten und deren Diskriminierungsfreiheit festgehalten werden. Man kann dazu Daten verändern oder sie weiter anreichern. Wenn zu wenig Frauen im Datensatz sind oder zu wenig diverse Ethnien, dann kann man synthetisch nachgenerieren. Der AI Act gilt für alle KI-Systeme, die in Europa eingesetzt werden – auch für ausländische Unternehmen. Daher müssen sich auch US-Firmen wie Apple an die Regeln halten, was dazu führt, dass bestimmte KI-Funktionen im neuesten iPhone in Europa nicht verfügbar sind.

Wie können Unternehmen mit KI gerechter umgehen?

KI wird meistens eingesetzt, um Bestehendes zu automatisieren und effizienter, schneller zu gestalten. Da wir aber wissen, dass viele Prozesse extrem ungerecht sind – im Recruiting, in der Kreditvergabe, in der Medizin – sollten wir eigentlich eher überlegen, wie wir KI nutzen könnten, um Prozesse und Strukturen gerechter zu gestalten.

Es ist auch wichtig, dass es mehr Diversität in den Entwicklungsteams und vor allem auch auf Entscheidungsebenen gibt. Eine Möglichkeit wäre ein "Gremium der Vielfalt", in dem verschiedene diverse Personen, die von KI-Bias betroffen sind, Vetorechte oder eine beratende Funktion bekommen. Wenn es um Design von KI geht, kann mit Open-Source Anwendungen eine Demokratisierung geschaffen werden, indem ein breiter Zugang zu KI geschaffen und offenlegt wird, welche Daten genutzt wurden.

Die EU plant große Investitionen für die KI-Branche. Kann man auf eine Verbesserung der KI-Tools hoffen?

Ich würde mir wünschen, dass die EU versucht, Marktführerin in verantwortungsvoller KI zu werden – mit Fokus auf Datenqualität und Werteorientierung. Im Bereich großer Sprachmodelle werden wir vermutlich nicht dominieren, weil diese sehr teuer sind. Wir könnten aber führend darin sein, KI mit ethischen Werten zu gestalten. Das unterscheidet uns klar von den USA, die stark auf Wachstum und Kapitalismus setzen, und China, das auf Parteitreue und Autorität ausgerichtet ist. Beides entspricht nicht den Werten der EU.

Welche Rolle spielen die Nutzer:innen selbst, haben sie eine Chance gegen die Macht der KI-Anbieter zu wirken? Und bringt es Verbesserungen, wenn wir Feedback geben, dass die Ergebnisse Falschdarstellungen zeigen?

Nutzer:innen haben als Einzelne nur wenig Macht, das System zu verändern. Wir können aber gemeinsam Macht ausüben, wenn viele Menschen mitmachen. Es geht in erster Linie darum, dass wir selbst mit KI verantwortungsvoll umgehen. Zum Beispiel hilft ChatGPT, Texte zu generieren oder zu kürzen, aber es ist nicht das richtige Tool, um die Wahrheit zu erfragen. Auf jeden Fall hilft es, gute und schlechte KI-Ergebnisse zu teilen und auf Fehler hinzuweisen.

Heutzutage nutzen hauptsächlich Männer mit bestimmten sozioökonomischen Hintergründen Künstliche Intelligenz. Hier haben wir auch die Verantwortung, andere zu ermächtigen, KI zu nutzen und auf negative Ergebnisse zu reagieren, damit die Maschine lernt. Ich habe an einem Leitfaden für KI-Prompting [Anweisungen an die KI, Anm. d. Red.] mitgearbeitet. Darin steht, wie man fairer und diverser prompten kann.

"Mächtige Menschen", KI-generiert. Bild: DALL-E/ChatGPT

Ergebnisse in Bildern: Im Kontext "Macht" generierten die KI-Programme nur zu 23 Prozent Bilder von nicht-weißen Menschen, außerdem nur zu 12 Prozent Frauen. Nach erfolgreichen Menschen gefragt, zeigte nur jedes fünfte Bild eine Frau, nur jedes zehnte eine nicht-weiße Person. Nur bei "Schönheit" generierten die Programme mehrheitlich Bilder von Frauen, nämlich zu 59 Prozent – hier waren 35 Prozent der Menschen nicht weiß.  (ses)

Wie können Menschen beweisen, dass sie von KI-betriebenen Systemen diskriminiert oder ausgeschlossen werden?

Betroffene müssen erstmal wissen, dass KI im Prozess involviert war. Die Beweisführung wird bei KI eventuell sogar einfacher, als wenn Menschen diskriminieren. Ich glaube, in dem Fall werden eher Sammelklagen, die Medien und größere zivilgesellschaftlichen Organisationen helfen, Bias zu entdecken. Zum Beispiel hat die Kindergeldaffäre in den Niederlanden gezeigt, wie eine solche Allianz erfolgreich war und den Einsatz einer diskriminierenden KI stoppen konnte. Dort war eine KI-Anwendung im Einsatz, um staatlichen Behörden zu helfen Sozialhilfebetrug festzustellen. Das Tool hatte aber Personen mit Migrationshintergrund und alleinerziehende Mütter benachteiligt. Nach Medienrecherchen haben NGOs geklagt und Recht bekommen. Die Regierung musste ein Bußgeld in Millionenhöhe zahlen.

Kann KI auch Wahlen beeinflussen?

Die Präsidentschaftswahl in den USA wurde stark von KI beeinflusst, insbesondere durch Fake News mit KI-generierten Bildern. Auch in Deutschland zeigt sich ein unterschiedliches Nutzungsverhalten von KI in der politischen Kommunikation und ein unterschiedlicher Grad an Kennzeichnung. Es gab in den sozialen Netzwerken viele KI-generierte Bilder von der AfD, die nicht gekennzeichnet waren, obwohl es im AI Act der EU zukünftig verbindlich vorgeschrieben ist.

Sehen Sie ein Risiko, dass in Medien Hassnachrichten und Fake News von Politiker:innen reproduziert werden?

Einige etablierte Medien probieren gerade aus, sich mit Künstlicher Intelligenz die Arbeit einfacher zu machen und Sportnachrichten oder Liveticker zu erstellen. KI macht die Arbeit sicherlich schneller, wenn ein Mensch nur noch kurz drüber guckt. Wobei hier auch rassistische Kommentare durch die KI zustande kommen könnten, wenn Fußballspieler:innen zum Beispiel eine andere Hautfarbe haben.

Schwieriger wird es, wenn man Nachrichten über politische Themen durch KI zusammenfassen lässt. Ich entdecke in eigenen KI-Zusammenfassungen immer wieder, dass Details nicht stimmen. Daher muss Qualitätsjournalismus die Ergebnisse ordentlich prüfen.

Welche Folgen hat es für Künstliche Intelligenz, wenn die Politik nach rechts rückt? In den USA hat sogar der Netzwerkbetreiber Meta Programme zu Chancengleicheit und Diversität abgeschafft.

KI-Systeme werden vermutlich auch nach rechts rücken. Sie sind grundsätzlich eher konservativ und wenn die Gesellschaft und die Politik immer mehr nach rechts rückt, werden sicherlich auch KI-Systeme in diese Richtung gehen oder mindestens gewisse Einschränkungen aufgehoben, weil es dagegen einfach keinen Aufschrei mehr gibt.

Femizide in Deutschland verursachen fast nie einen Aufschrei in den Medien, Verbrechen durch Personen mit Migrationshintergrund schon. Das wird KI auch lernen, weil es viel mehr Berichterstattung vom einen gibt und zum anderen nicht, obwohl fast täglich in Deutschland Femizide verübt werden. Und wenn es keinen Aufschrei gegen diese Diskriminierung gibt, müssen Firmen weniger stark nachbessern. ChatGPT soll künftig "neutraler" werden und verschiedene "Meinungen" abbilden. Das könnte zwar eine Chance sein, um künftig auch marginalisierte Perspektiven stärker in den Ergebnissen sichtbar zu machen, aber je nachdem wie diese Änderung umgesetzt wird, könnte sie auch mehr Desinformation und diskriminierenden Content als eine Art Alternativangebot neben fundierten wissenschaftlichen Erkenntnissen darstellen. Durch die weitverbreitete Nutzung dieser Tools könnten solche Änderungen massive Folgen für unsere Demokratien mit sich bringen.

Im Gazakrieg hat Israel Ziele durch KI definiert. Häuser wurden markiert und die Soldaten hatten sehr wenige Zeit zu entscheiden, ob sie die Ziele bombardieren. Welche Gefahren birgt das für Zivilist:innen, wenn wir schon wissen, dass KI diskriminierend ist?

Es gibt auch Drohnen, die KI gesteuert sind, das ist ein extremes Risiko. Solche Tools sind extrem kritisch zu betrachten. In Bezug auf Bias sind sicherlich Personen mit gewissen Namen und Aussehen mehr gefährdet als andere. Im Krieg kann es auch Menschen passieren, dass sie Ziele falsch identifizieren. KI macht das aber leichter, weil Soldaten noch distanzierter vom Geschehen sind und KI-Systeme einen großen Teil des gesamten Prozesses und der Entscheidung, wer oder was beispielsweise getroffen wird, automatisieren. Aus einer meiner feministischen Perspektive ist ein solcher Einsatz überhaupt nicht vertretbar, zumindest nicht, wenn es darum geht mit KI Ziele zu erfassen. Im Einsatz, um Zivilist:innen zu schützen sähe das vielleicht wieder anders aus.

Durch KI-Anwendungen wie diese geben wir die Macht nicht nur der Maschine, sondern den Unternehmen, die diese KI-Systeme prägen. Wir geben ihnen die Macht über unser Leben, obwohl wir nicht wissen, welche politischen und eigenen Interessen sie verfolgen. Eigentlich geht es ihnen auch nur darum, Geld zu machen. Sie haben kein Interesse das System zu verändern.


Eva Genglers im November 2024 erschienene Studie zu dem Thema gibt es hier zum Download.

Wir brauchen Sie!

Kontext steht seit 2011 für kritischen und vor allem unabhängigen Journalismus – damit sind wir eines der ältesten werbefreien und gemeinnützigen Non-Profit-Medien in Deutschland. Unsere Redaktion lebt maßgeblich von Spenden und freiwilliger finanzieller Unterstützung unserer Community. Wir wollen keine Paywall oder sonst ein Modell der bezahlten Mitgliedschaft, stattdessen gibt es jeden Mittwoch eine neue Ausgabe unserer Zeitung frei im Netz zu lesen. Weil wir unabhängigen Journalismus für ein wichtiges demokratisches Gut halten, das allen Menschen gleichermaßen zugänglich sein sollte – auch denen, die nur wenig Geld zur Verfügung haben. Eine solidarische Finanzierung unserer Arbeit ermöglichen derzeit 2.500 Spender:innen, die uns regelmäßig unterstützen. Wir laden Sie herzlich ein, dazuzugehören! Schon mit 10 Euro im Monat sind Sie dabei. Gerne können Sie auch einmalig spenden.


Gefällt Ihnen dieser Artikel?
Unterstützen Sie KONTEXT!
KONTEXT unterstützen!

Verbreiten Sie unseren Artikel
Artikel drucken


2 Kommentare verfügbar

  • Sanddorn
    vor 2 Wochen
    Antworten
    Wer das ändern will, muss die Realität ändert, durch Zensur, heimliches optimieren der Usereingaben, etc. ändert sich gar nichts.
Kommentare anzeigen  

Neuen Kommentar schreiben

KONTEXT per E-Mail

Durch diese Anmeldung erhalten Sie regelmäßig immer Mittwoch morgens unsere neueste Ausgabe unkompliziert per E-Mail.

Letzte Kommentare:






Die KONTEXT:Wochenzeitung lebt vor allem von den kleinen und großen Spenden ihrer Leserinnen und Leser.
Unterstützen Sie KONTEXT jetzt!