In den USA wird gerade eine künstliche Intelligenz (KI) getestet, die berechnet wie hoch das Risiko ist, dass ehemalige Straftäter wieder straffällig werden.
Gleichzeitig gibt es Widerstand gegen den Algorithmus, den die amerikanische Polizei bei der Verbrechensbekämpfung zur Unterstützung einsetzt. Journalisten der NGO ProPublica haben im Rahmen ihrer umfangreichen Recherche herausgefunden, dass dunkelhäutige Personen eher mit einem verbrecherischen Vorhaben in Beziehung gesetzt werden, als weisshäutige Verdächtigte. Die Reporter verglichen die Risikoannahme der KI von 7000 Verdächtigten in den Jahren 2013 und 2014 mit tatsächlich aufgetretenen Verbrechen bis ins Jahr 2016.
Die Journalisten sind überrascht über die große statistische Verzerrung und machen die Daten dafür verantwortlich mit dem die KI trainiert wurde. Gleichzeitig fordern Sie das Justizministerium dazu auf, die Validität des Algorithmus überprüfen zu lassen bevor er in noch größerem Ausmaß eingesetzt wird und dadurch noch mehr potentiellen Bias generieren kann.