Der EU AI Act ist ein guter erster Schritt. Versucht wird ein Spagat zwischen Werten und Innovation. Er setzt ein Zeichen, dass KI unseren Werten entsprechen soll. Was aber noch nicht so stark priorisiert ist, sind Themen wie Diversität, Transparenz über den ökologischen Fußabdruck oder Barrierefreiheit. Da gilt es aber nicht nur in der Regulierung nachzubessern. Deutschland hat große Fördertöpfe für KI-Projekte und da sollte in Ausschreibungen unter anderem die Qualität der Daten und deren Diskriminierungsfreiheit festgehalten werden. Man kann dazu Daten verändern oder sie weiter anreichern. Wenn zu wenig Frauen im Datensatz sind oder zu wenig diverse Ethnien, dann kann man synthetisch nachgenerieren. Der AI Act gilt für alle KI-Systeme, die in Europa eingesetzt werden – auch für ausländische Unternehmen. Daher müssen sich auch US-Firmen wie Apple an die Regeln halten, was dazu führt, dass bestimmte KI-Funktionen im neuesten iPhone in Europa nicht verfügbar sind.
Wie können Unternehmen mit KI gerechter umgehen?
KI wird meistens eingesetzt, um Bestehendes zu automatisieren und effizienter, schneller zu gestalten. Da wir aber wissen, dass viele Prozesse extrem ungerecht sind – im Recruiting, in der Kreditvergabe, in der Medizin – sollten wir eigentlich eher überlegen, wie wir KI nutzen könnten, um Prozesse und Strukturen gerechter zu gestalten.
Es ist auch wichtig, dass es mehr Diversität in den Entwicklungsteams und vor allem auch auf Entscheidungsebenen gibt. Eine Möglichkeit wäre ein "Gremium der Vielfalt", in dem verschiedene diverse Personen, die von KI-Bias betroffen sind, Vetorechte oder eine beratende Funktion bekommen. Wenn es um Design von KI geht, kann mit Open-Source Anwendungen eine Demokratisierung geschaffen werden, indem ein breiter Zugang zu KI geschaffen und offenlegt wird, welche Daten genutzt wurden.
Die EU plant große Investitionen für die KI-Branche. Kann man auf eine Verbesserung der KI-Tools hoffen?
Ich würde mir wünschen, dass die EU versucht, Marktführerin in verantwortungsvoller KI zu werden – mit Fokus auf Datenqualität und Werteorientierung. Im Bereich großer Sprachmodelle werden wir vermutlich nicht dominieren, weil diese sehr teuer sind. Wir könnten aber führend darin sein, KI mit ethischen Werten zu gestalten. Das unterscheidet uns klar von den USA, die stark auf Wachstum und Kapitalismus setzen, und China, das auf Parteitreue und Autorität ausgerichtet ist. Beides entspricht nicht den Werten der EU.
Welche Rolle spielen die Nutzer:innen selbst, haben sie eine Chance gegen die Macht der KI-Anbieter zu wirken? Und bringt es Verbesserungen, wenn wir Feedback geben, dass die Ergebnisse Falschdarstellungen zeigen?
Nutzer:innen haben als Einzelne nur wenig Macht, das System zu verändern. Wir können aber gemeinsam Macht ausüben, wenn viele Menschen mitmachen. Es geht in erster Linie darum, dass wir selbst mit KI verantwortungsvoll umgehen. Zum Beispiel hilft ChatGPT, Texte zu generieren oder zu kürzen, aber es ist nicht das richtige Tool, um die Wahrheit zu erfragen. Auf jeden Fall hilft es, gute und schlechte KI-Ergebnisse zu teilen und auf Fehler hinzuweisen.
Heutzutage nutzen hauptsächlich Männer mit bestimmten sozioökonomischen Hintergründen Künstliche Intelligenz. Hier haben wir auch die Verantwortung, andere zu ermächtigen, KI zu nutzen und auf negative Ergebnisse zu reagieren, damit die Maschine lernt. Ich habe an einem Leitfaden für KI-Prompting [Anweisungen an die KI, Anm. d. Red.] mitgearbeitet. Darin steht, wie man fairer und diverser prompten kann.
2 Kommentare verfügbar
Sanddorn
vor 2 Wochen