KI diskriminiert. Und wir müssen sie auch mit Kommunikation fairer machen
Ja, das hast Du richtig gelesen. KI ist nicht neutral. Sie spiegelt die Welt, in der wir leben – mit all ihren Vorurteilen und Ungerechtigkeiten. Künstliche Intelligenz (KI) ist kein autonomes, objektives System. Sie ist ein Produkt unserer Gesellschaft – voll von Stereotypen und Biases.
Im Black History Month sprechen wir über Errungenschaften Schwarzer Menschen und über die Notwendigkeit, strukturelle Ungleichheiten zu überwinden. Aber was passiert, wenn diese Ungleichheiten in unsere Technologien eingebaut werden? Was passiert, wenn sie unbemerkt reproduziert werden?
Ein paar Beispiele aus der Praxis:
- Eine Studie des King’s College London zeigt, dass KI-gesteuerte Fußgänger-Erkennungssysteme bei selbstfahrenden Fahrzeugen deutlich schlechter auf dunkel- als auf hellhäutige Menschen reagieren. Die Erkennungsrate für dunkelhäutige Fußgänger war um 7,5 Prozent niedriger. Das ist mehr als ein statistisches Problem – es kann über Leben und Tod entscheiden. Kinder werden ebenfalls schlechter erkannt.
- Vor zwei Jahren veröffentlichte die Universität Oxford eine Studie, die belegt, dass KI-Systeme zur Hautkrebserkennung bei nicht-weißen Personen schlechter funktionieren. Von 14 analysierten Bilddatensätzen enthielten 11 nur Bilder aus Europa, Nordamerika und Ozeanien. Eine diverse Datenbasis? Fehlanzeige.
- Aktuelle Untersuchungen zeigen, dass KI-gestützte Recruiting-Systeme immer noch Geschlechterbias enthalten. So werden männliche Bewerber:innen in technischen Berufen bevorzugt. Sogar die Ausspielung von Stellenanzeigen spiegelt diese Verzerrungen wider.
Das ist die Realität. Und genau hier liegt die Herausforderung – und die Chance.
KI: Teil des Problems oder Teil der Lösung?
KI kann diskriminieren. Aber sie kann auch dazu beitragen, gerechtere Systeme zu schaffen. Wie? Durch bewusste Entscheidungen.
Drei Ansätze, die Mut machen:
- Bias-Audits und Fairness-Indikatoren
Viele Unternehmen setzen inzwischen auf regelmäßige Bias-Audits und Fairness-Indikatoren. Diese Tools helfen, Verzerrungen in den Algorithmen frühzeitig zu erkennen und anzupassen. So können Modelle fairer und gerechter gestaltet werden. - Transparente Algorithmen
Algorithmen, deren Entscheidungsprozesse offen und nachvollziehbar sind, können problematische Muster schneller identifizieren. Transparenz ist der erste Schritt, um Vertrauen und Fairness zu fördern. - Diversität in der Entwicklung
Die Teams, die KI entwickeln, müssen genauso divers sein wie die Gesellschaft, die von diesen Technologien betroffen ist. Nur so können unterschiedliche Perspektiven einfließen und blinde Flecken vermieden werden.
Warum Kommunikation entscheidend ist: KI-Bias sichtbar machen
Die Auseinandersetzung mit KI-Bias endet nicht bei den Algorithmen. Ebenso entscheidend ist, wie darüber gesprochen wird. Als PR-Expertin weiß ich: Worte schaffen Aufmerksamkeit. Sie prägen Meinungen. Und genau hier liegt eine enorme Chance für uns alle – von Entwickler:innen über Unternehmen bis hin zur breiten Öffentlichkeit.
- Storytelling nutzen, um Komplexität greifbar zu machen: Statistiken und technische Details erreichen oft nur Fachleute. Geschichten hingegen, die die konkreten Auswirkungen von KI-Bias zeigen, können Menschen berühren, sie aufrütteln und zum Handeln motivieren.
- Unternehmen in die Verantwortung nehmen: In der Pressearbeit liegt eine immense Chance, Transparenz zu fördern. Es braucht offene Kommunikation über Herausforderungen und Fortschritte bei der Entwicklung fairer Technologien. Diese Offenheit schafft Vertrauen und zeigt, dass Unternehmen Verantwortung übernehmen.
- Diversität auch in der Sprache fördern: Sprache beeinflusst Wahrnehmung. In Texten, Kampagnen und Botschaften können wir sicherstellen, dass unterschiedliche Perspektiven repräsentiert werden. Das beginnt bei inklusiver Wortwahl und endet bei den Gesichtern, die wir in Medien zeigen.
Die Debatte um KI-Bias ist also nicht nur eine technologische, sondern auch eine kommunikative Herausforderung. Die Presse- und Öffentlichkeitsarbeit kann dazu beitragen, KI nicht nur zu einer technischen, sondern zu einer sozialen Innovation zu machen.
Praktische Beispiele, die inspirieren:
- Diversifizierte Bilderkennung: Adobe Firefly zeigt Fortschritte in der Darstellung von Diversität. Bei Suchanfragen wie „A photo of a medicine student“ wird ein ausgewogeneres Geschlechterverhältnis dargestellt. Bei ethnischer Vielfalt gibt es jedoch noch Nachholbedarf.
- Faire Personalauswahl: Einige Unternehmen entwickeln KI-gestützte Recruiting-Systeme, die Geschlechter- und ethnische Vorurteile bewusst minimieren. Sie nutzen anonymisierte Bewerbungsdaten und fokussieren auf relevante Fähigkeiten statt auf demografische Merkmale.
- Medizinische Diagnostik: Interdisziplinäre Teams arbeiten an Diagnosesystemen, die auf einer breiteren Datenbasis beruhen. Das Ziel: Genauere Diagnosen für alle ethnischen Gruppen und eine gerechtere medizinische Versorgung.
Herausforderungen, die wir anpacken müssen
Die Entwicklung fairer KI-Systeme ist kein Sprint, sondern ein Marathon. Einzelne Probleme zu lösen, reicht nicht aus. Vielmehr müssen wir die gesamte Pipeline von der Entwicklung bis zur Umsetzung kritisch hinterfragen und kontinuierlich verbessern.
Was genau braucht es, um Fortschritte zu erzielen?
- Ständige Überprüfung und Anpassung von Systemen: KI ist nie "fertig". Modelle müssen regelmäßig auditiert werden, um neue Biases aufzudecken und anzupassen. Dynamische Daten erfordern dynamische Überwachungsprozesse.
- Diversifizierung von Datensätzen und Entwicklungsteams: Datensätze sind das Fundament jeder KI. Ohne Vielfalt in den Daten bleibt die KI einseitig und ungerecht. Ebenso wichtig sind diverse Teams, die unterschiedliche Perspektiven einbringen und blinde Flecken vermeiden.
- Verbindliche Standards zur Kontrolle von Biases: Klare Richtlinien und Normen müssen implementiert werden, um sicherzustellen, dass Fairness messbar wird. Standards wie Bias-Audits und Fairness-Indikatoren sollten verpflichtend sein.
- Intersektionale Perspektiven in der Ausbildung von KI-Entwickler:innen: Entwickler:innen müssen nicht nur technische, sondern auch gesellschaftliche Zusammenhänge verstehen. Eine fundierte Ausbildung, die intersektionale Ansätze einbezieht, ist entscheidend.
Ein Lichtblick ist der AI Act der EU. Er setzt erste rechtliche Rahmenbedingungen, um Diskriminierung durch KI zu verhindern. Allerdings bleibt abzuwarten, wie effektiv diese Regelungen in der Praxis sind.
Die Aufgabe ist komplex, aber nicht unüberwindbar. Fortschritt erfordert Engagement, Mut und einen klaren Fokus darauf, dass Technologie den Menschen dient – und nicht umgekehrt.
Was wir aus dem Black History Month lernen können
Representation matters. In der Geschichte. In der Gesellschaft. Und in unseren Technologien. Jetzt ist es an uns, sicherzustellen, dass diese Technologien eine gerechtere Zukunft schaffen. Deine Stimme, Dein Handeln, Dein Engagement – all das zählt!
Die Verantwortung liegt bei uns – als Entwickler:innen, als Unternehmen, als Konsument:innen, als Kommunikator:innen. Wir müssen sicherstellen, dass unsere Technologien die Welt nicht schlechter, sondern besser machen.