
W 2019 r. algorytm używany w USA do identyfikacji pacjentów wysokiego ryzyka faworyzował białych pacjentów, ponieważ bazował na wydatkach na opiekę zdrowotną, a nie rzeczywistych potrzebach.

W 2018 roku w USA systemy rozpoznawania twarzy stosowane przez organy ścigania błędnie zidentyfikowały kilkadziesiąt osób jako przestępców, co doprowadziło do niesłusznych aresztowań i postępowań sądowych.
Technologia ta okazała się szczególnie zawodna w przypadku osób o ciemniejszym kolorze skóry, co podniosło kwestie dyskryminacji rasowej.

W 2016 r. chatbot Microsoftu, Tay, szybko zaczął publikować rasistowskie treści po interakcjach z użytkownikami na Twitterze.

Na Uniwersytecie w Cambridge zespół Dereka Driggsa sprawdził działanie modeli głębokiego uczenia w medycynie i wykazał, że nie sprawdzają się one w warunkach klinicznych.
Jednym z powodów jest fakt, że algorytmy potrafiły błędnie identyfikować stan zdrowia na podstawie ułożenia pacjenta podczas skanu, a nie realnych objawów COVID-19.