Je li vam poznat ovaj scenarij? Ljudi su stvorili umjetnu inteligenciju kako bi pomogla ljudima, no umjetna inteligencija "poludi" i sve krene po zlu. Nažalost, ovaj put nije riječ o scenariju novog Terminatora, već o istinitoj priči.
Microsoft je osmislio umjetnu inteligenciju imena Tay A.I. koja je sposobna komunicirati s ljudima putem Twittera, Kik-a i GroupMe aplikacije. Tay je prvotno zamišljena kao simpatična tinejdžerica koja putem razgovora s ljudima uči razgovarati što prirodnije. Međutim, ljudi nisu savršeni, a ako ljudi nisu savršeni zasigurno neće biti ni umjetna inteligencija koja od nas treba učiti.
![https://cdn.bgr.com/2016/03/tay-racist-tweet-1.png?w=624&h=356](https://cdn.bgr.com/2016/03/tay-racist-tweet-1.png?w=624&h=356)
Tay je u manje od 24 sata iz simpatične cure postala antifeministkinja i nacistkinja koja vrijeđa sve koji pokušavaju komunicirati s njom. Nadalje, Tay je podržala Trumpa, cijeni Hitlera i puna je sebe, pa je sve to postalo previše za Microsoft koji je odlučio "uspavati" sljedećih nekoliko dana.
![https://cdn.bgr.com/2016/03/tay-racist-tweet-3.png?w=624&h=548](https://cdn.bgr.com/2016/03/tay-racist-tweet-3.png?w=624&h=548)
Od tada, Microsoft je izbrisao kontroverzne tweetove, te su odlučili poraditi na Tayinim algoritmima kako se slične situacije ne bi ponovile.
![https://cdn.bgr.com/2016/03/tay-racist-tweet-2.jpg?w=624&h=277](https://cdn.bgr.com/2016/03/tay-racist-tweet-2.jpg?w=624&h=277)
Trolovi, svaka čast! U samo nekoliko sati uspjeli ste pretvoriti miroljubivog robota u rasističkog manijaka.