Künstliche Intelligenz (KI) ist längst Teil unseres Alltags, ob in Chatbots, Empfehlungssystemen oder in der Bild- und Spracherkennung. Doch so leistungsfähig KI-Systeme auch sind: Sie sind nicht frei von Fehlern und Verzerrungen. Das vorliegende Paper des Bundesamts für Sicherheit in der Informationstechnik (BSI) widmet sich der Frage, wie ein sogenannter Bias innerhalb einer KI entsteht, wie er erkannt und wie er reduziert werden kann. Bias bezeichnet dabei Verzerrungen in Daten oder Algorithmen, die zu ungerechten oder diskriminierenden Ergebnissen führen können.
Das Whitepaper macht deutlich: ein Bias kann in allen Phasen des Lebenszyklus von KI auftreten, von der Datenerhebung über die Modellierung bis hin zur Nutzung. So spiegeln Trainingsdaten häufig gesellschaftliche Vorurteile wider oder sind nicht repräsentativ genug. Auch algorithmische Designentscheidungen oder die Art, wie Ergebnisse präsentiert werden, können unbeabsichtigt Ungleichbehandlungen verstärken. Für Nutzer:innen kann das gravierende Folgen haben, etwa wenn Bewerbungssoftware bestimmte Gruppen benachteiligt oder biometrische Systeme Menschen ungleich behandeln.
Detektion und Mitigation als Daueraufgabe
Das BSI stellt verschiedene Methoden vor, um Bias frühzeitig zu identifizieren. Dazu gehören qualitative Datenanalysen, statistische Verfahren oder Fairness-Metriken, die Unterschiede im Verhalten eines Modells zwischen verschiedenen Gruppen sichtbar machen. Auch sprachbasierte Tests für große KI-Modelle werden aufgezeigt. Entscheidend ist, dass Bias nicht punktuell geprüft, sondern kontinuierlich überwacht wird.
Zur Vermeidung von Verzerrungen empfiehlt das Whitepaper ein mehrstufiges Vorgehen: Präprozessierungsmethoden wie sorgfältige Datenauswahl und -aufbereitung, Anpassungen im Training selbst (z. B. durch Regularisierung oder adversariales Lernen) sowie Nachbearbeitungen der Ergebnisse. Dabei betont das BSI, dass es nicht reicht, einzelne Maßnahmen einmalig umzusetzen; Bias-Management muss als Prozess in den gesamten Produktzyklus integriert werden.
Orientierung für Entwickler:innen und Betreiber:innen
Das Whitepaper richtet sich vor allem an diejenigen, die KI-Systeme entwickeln, anbieten oder einsetzen. Es fordert klare Verantwortlichkeiten, transparente Prozesse und eine kontinuierliche Auseinandersetzung mit möglichen Verzerrungen. Denn Bias ist nicht nur ein ethisches, sondern auch ein sicherheitsrelevantes Problem, gerade wenn KI in kritischen Infrastrukturen oder sicherheitsrelevanten Anwendungen genutzt wird.
Titel
Bias in der Künstlichen Intelligenz
quelle (Erscheinungsjahr)
Bundesamt für Sicherheit in der Informationstechnik (2025)
Download als PDF über die Webseite des Herausgebers: