Robot Microsoftu stał się rasistą. Tay wyłączona
0
Tay przetrwała zaledwie jeden dzień. Microsoft stworzył tę sztuczną inteligencję, by poprawić obsługę klienta. Miała rozpoznawać głos, mówić jak nastolatka i skracać dystans. No i skróciła. Twórcy algorytmu nie przewidzieli, co może przyswoić robot uczący się od rozmówców. W ciągu 24 godzin Tay stała się klnącą i wyuzdaną miłośniczką Hitlera.
