Künstliche Intelligenz für gesellschaftliche Gerechtigkeit
Künstliche Intelligenz (KI) hat längst damit begonnen, die Arbeitswelt zu verändern. Ob in Verwaltung, Pflege, Personalwesen oder Bildung: KI-Systeme treffen Entscheidungen, erkennen Muster und strukturieren Prozesse. Diese Entwicklung birgt großes wirtschaftliches Potenzial – gleichzeitig entstehen Ängste und Befürchtungen, was all diese Neuerungen für die Zukunft bringen werden. Als Gesellschaft stehen wir zudem vor einer ethischen Bewährungsprobe: Wird KI zum Werkzeug für mehr Gerechtigkeit, oder reproduziert sie bestehende Diskriminierungen und führt so zu noch mehr Ungleichheit?
Zeitgleich hat sich die Gesellschaft in den vergangenen Jahrzehnten stark verändert und befindet sich weiter im Umbruch.
Ob soziale Herkunft, Geschlecht, Alter, Religion, sexuelle Orientierung, körperliche und geistige Fähigkeiten oder ethnische Herkunft und Nationalität - Diversität in all ihren Ausprägungen ist längst gelebte Realität. Doch in der gesellschaftlichen Akzeptanz ist sie noch lange keine Selbstverständlichkeit. Diskriminierung, strukturelle Ungleichheit und eingeschränkte Teilhabe sind weiterhin Alltag – auf dem Arbeitsmarkt, im Bildungssystem, im Gesundheitswesen.
Dabei zeigen wissenschaftliche Studien ganz klar: Vielfalt ist kein Störfaktor, sondern eine Stärke. Organisationen mit diversen Teams sind nachweislich innovativer. Gesellschaften, die Teilhabe aktiv fördern, sind resilienter. Doch: Diversität passiert nicht von selbst. Sie muss erkannt, gestaltet und verankert werden – in Strukturen, Prozessen und Denkweisen.
Dies gilt im gleichen Maße für die Nutzung Künstlicher Intelligenz. Auch hier ist es nicht damit getan, lediglich das große Potenzial von KI-gestützten Systemen für Automatisierungsprozesse zu sehen. Systeme, die Künstliche Intelligenz verwenden, bieten vielfältige Einsatzmöglichkeiten, stellen aufgrund der technischen Besonderheiten und der Komplexität von Mensch-Maschine-Schnittstellen aber auch ganz neue Anforderungen. Damit KI effizient wirken kann, muss die Implementierung sorgfältig geplant und in bestehende Strukturen von Unternehmen und Institutionen eingebettet werden. Zudem ist KI nicht nur eine technische Innovation – ihre Nutzung verändert auch, wie Entscheidungen getroffen, wie Chancen verteilt werden, wie Teilhabe ermöglicht oder verhindert wird. Sie wird zur Stellschraube gesellschaftlicher Gerechtigkeit.
Startphase aktiv steuern
Mit dieser parallelen Entwicklung bietet sich eine neue, fast historische Chance. Denn wenn es gelingt, die Einführung von KI richtig zu gestalten, kann die neue Technik zu einem wichtigen Hebel werden: Ihre Nutzung kann blinde Flecken aufdecken, Vielfalt dort sichtbar machen, wo sie längst vorhanden ist, Prozesse gerechter und inklusiver gestalten – und so ein neues Bewusstsein für die Bedeutung von Diversität in Gesellschaft, Verwaltung und Wirtschaft verankern. Dies wird nur möglich sein, wenn es gelingt, die Einführung und Verwendung von KI gerade jetzt – in der Startphase – aktiv zu steuern und mitzugestalten.
Dafür gibt es im sozialen Bereich viele Anreize. Denn KI-Systeme können beispielsweise zeitraubende dokumentarische und administrative Aufgaben übernehmen und so die Möglichkeit für mehr gestalterischen Spielraum schaffen. Doch ihr wahres Innovationspotenzial liegt tiefer: Sie können soziale Teilhabe fördern, strukturelle Benachteiligung abbauen und neue Formen der Inklusion ermöglichen. KI-gestützte Assistenzsysteme erleichtern Menschen mit Behinderung den Zugang zum Arbeitsmarkt. Sprachverarbeitungstools machen Kommunikation barrierefrei. Adaptive Lernsysteme bieten Kindern mit unterschiedlichen Voraussetzungen maßgeschneiderte Unterstützung. In der Personalentwicklung lassen sich Bewerbungsverfahren diverser gestalten, wenn Algorithmen bewusst diskriminierungskritisch trainiert werden. Kurz: KI ist nicht nur eine technische, sondern auch eine soziale Innovation – wenn sie gezielt zur Förderung von Vielfalt eingesetzt wird.
Passiert dies nicht, zeigen erschreckende Beispiele aus der Praxis immer wieder, dass KI-gestützte Systeme ohne die notwendigen Vorkehrungen bestehende Ungleichheiten erheblich verstärken und im schlimmsten Fall noch potenzieren können. Der Grund: Algorithmen lernen aus vorhandenen Daten – und diese Daten spiegeln gesellschaftliche Ungleichheiten oder Stereotype aus der Vergangenheit wider. Der sogenannte Gender-Data-Gap führt dazu, dass beispielsweise KI-gestützte Gesichtserkennungstools People of Color nachweislich schlechter identifizieren – oder Empfehlungssysteme in Bewerbungsprozessen, die mit KI arbeiten, unter Umständen Kandidat:innen mit bestimmten Namen systematisch benachteiligten.
Entscheidungen von KI-Systemen müssen transparent bleiben
Hinzu kommt: Selbst lernende KI-Systeme sind aufgrund ihrer Konstruktion weitgehend intransparent - sogenannte "Black Boxes". Entscheidungsfindung lässt sich damit schwer nachvollziehen, Verantwortlichkeiten verschwimmen. Gerade hier braucht es ethische Leitplanken, die über juristische Mindestanforderungen hinausgehen. Vielfalt darf kein Nebeneffekt sein - sie muss schon im Designprozess aktiv verankert werden, Entscheidungen müssen transparent und nachvollziehbar bleiben.
Damit stellt sich die Frage, wie dies effizient gelingen kann. Ein zukunftsweisendes Beispiel liefert hier das Forschungsprojekt KIDD – Künstliche Intelligenz im Dienste der Diversität, das 2024 abgeschlossen wurde. Initiiert wurde das Projekt vom gemeinnützigen Verein female.vision, der sich für mehr Chancengleichheit in der analogen und digitalen Welt einsetzt. Gefördert vom Bundesministerium für Arbeit und Soziales unter dem Dach der Initiative Neue Qualität der Arbeit, verfolgt KIDD einen innovativen Ansatz: Nicht nur technische Entwickler:innen, sondern auch Mitarbeitende, Führungskräfte und Stakeholder aus verschiedenen sozialen Gruppen, dem sogenannten Panel der Vielfalt (PdV), gestalten gemeinsam die Einführung von KI mit.
Werkzeuge zur Gestaltung von KI-Systemen
Zentraler Baustein ist der KIDD-Prozess: ein strukturierter Beteiligungsprozess, in dem mögliche Diskriminierungspotenziale frühzeitig erkannt und Maßnahmen zur Vermeidung entwickelt werden. Mit klar gesetzten Qualitätskriterien, Trainingseinheiten zu Technik, Ethik und Diversität sowie einem Selbst-Audit bietet der KIDD zudem wirksame Werkzeuge zur Reflexion und Gestaltung von KI-Systemen entlang
der Leitplanken Transparenz, Fairness, Vielfalt und Verantwortung.1
In den Praxislaboren, die bei den am Forschungsprojekt beteiligten Unternehmen durchgeführt wurden, zeigte sich deutlich: Wenn KI diversitätssensibel implementiert wird, steigert sich nicht nur die soziale Gerechtigkeit durch die Möglichkeit zur Mitgestaltung, sondern auch die Akzeptanz und Wirksamkeit der Technologie im beruflichen Alltag.
Seitdem im August 2024 der "EU AI Act" in Kraft getreten ist, gelten zudem neue rechtliche Rahmenbedingungen. Die europäische Regelung definiert erstmals verbindliche Anforderungen an KI und fordert neben der Risikobewertung ein hohes Maß an Transparenz und Nachvollziehbarkeit. Doch Regulierung allein wird nicht ausreichen: Es braucht eine gesellschaftliche Debatte, wie wir KI gestalten wollen – und welche Werte uns dabei leiten.
Wichtig ist: Die Einführung und Nutzung von Künstlicher Intelligenz ist nie ein neutraler Prozess - sie verändert, was als "normal" und "gerecht" verstanden wird. Umso wichtiger ist es, ihre Entwicklung aktiv und verantwortungsvoll zu gestalten. Die gute Nachricht: Wer KI systematisch auf Diversität ausrichtet, macht nicht nur seine Organisation zukunftsfähig, sondern stärkt auch die demokratische Gesellschaft.
Hier können Unternehmen und Organisationen eine aktive Rolle einnehmen. Nicht erst bei der Anwendung, sondern schon bei der Gestaltung. Und damit dafür sorgen, dass Vielfalt nicht nur ein Add-on bleibt, sondern zum Qualitätskriterium für vertrauenswürdige KI wird und damit aktiv zu einem positiven Wandel in unserer Gesellschaft beiträgt.
1. Mehr Infos zum Projekt unter www.kidd-prozess.de
Über female.vision
Der Fokus liegt auf Chancengleichheit
Female.vision ist ein gemeinnütziger Verein aus Berlin, der sich für echte Chancengleichheit in einer vielfältigen analogen und digitalen Arbeits- und Lebenswelt starkmacht. Die Vorständinnen Annette von Wedel und Katja Anclam zählen zu den Initiatorinnen des BMAS-Forschungsprojekts KIDD – Künstliche Intelligenz im Dienste der Diversität, das unter dem Dach der Initiative Neue Qualität der Arbeit (INQA) entwickelt wurde.» Mehr Infos zu female.vision: www.female.vision
- Mehr Infos zu female.vision: www.female.vision
- Mehr Infos zu KIDD: www.kidd-prozess.de