Welche Maßnahmen wurden ergriffen, um Diskriminierung oder Verzerrungen (Bias) zu vermeiden?
DeepVA setzt auf Datenbalancierung, Bias-Erkennung und den Einsatz von Focal-Loss, um faire und diskriminierungsfreie KI-Vorhersagen zu ermöglichen.
Hinweis:
Diese FAQ enthält kurze Antworten auf häufig gestellte Fragen und dient ausschließlich der allgemeinen Orientierung. Sie ersetzt keine rechtliche Beratung oder verbindliche Dokumentation. Die jeweils aktuellsten und rechtlich maßgeblichen Informationen finden Sie in unserer offiziellen Dokumentation unter Deepva.ai/legal/.
Bei rechtlichen Fragen oder Anliegen können Sie uns jederzeit direkt kontaktieren.
Zur Vermeidung von Diskriminierung oder Verzerrungen (Bias) werden umfassende Maßnahmen auf verschiedenen Ebenen umgesetzt:
-
Datenvorbereitung:
Datensätze werden sorgfältig analysiert, bereinigt und balanciert, um sicherzustellen, dass keine gesellschaftliche oder demografische Gruppe unterrepräsentiert ist. Verzerrende Inhalte oder Muster werden aktiv identifiziert und entfernt. -
Datenverteilung:
Die Standardabweichung der Varianz wird überwacht, um eine möglichst gleichmäßige Verteilung der Datenmerkmale sicherzustellen. -
Modelltraining:
Beim Training neuronaler Netze wird gezielt die Focal-Loss-Funktion eingesetzt. Diese gibt schwer erkennbaren oder unterrepräsentierten Klassen ein höheres Gewicht und hilft, Verzerrungen in den Vorhersagen zu minimieren.
Das Ziel dieser Maßnahmen ist es, faire, ausgewogene und möglichst diskriminierungsfreie Entscheidungen der KI zu ermöglichen.