Bias
Bias bezeichnet systematische Verzerrungen in Entscheidungsprozessen, die auf ungleich verteilten Trainingsdaten oder fehlerhaften Algorithmen beruhen. Im Kontext künstlicher Intelligenz führt Bias zu diskriminierenden Ergebnissen, die bestehende gesellschaftliche Ungleichheiten reproduzieren und verstärken. Die Erkennung und Minimierung von Bias ist eine zentrale ethische Herausforderung bei der Entwicklung und Implementierung von KI-Systemen.

