Microsoft stvorio umjetnu inteligenciju koja se u 24 sata pretvorila u sex-robota koji voli Hitlera

Image
Foto: Twitter

Što se dogodi kada dovedete mladu i neiskusnu umjetnu inteligenciju da komunicira s ljudima na Twitteru?

25.3.2016.
7:51
Twitter
VOYO logo

Programeri u Microsoftu kreireli su Tay, umjetnu inteligenciju (UI) modeliranu da govori "poput tinejdžerke", kako bi poboljšali uslugu mušterijama na njihovom softveru za prepoznavanje glasa.

ŽENU-ROBOTA SU PITALI ČEMU TEŽI U ŽIVOTU: ‘Želim ići u školu, osnovati obitelj i uništiti cijelo čovječanstvo!’

Tekst se nastavlja ispod oglasa
Image

ŽENU-ROBOTA SU PITALI ČEMU TEŽI U ŽIVOTU: 'Želim ići u školu, osnovati obitelj i uništiti cijelo čovječanstvo!'

Image

ŽENU-ROBOTA SU PITALI ČEMU TEŽI U ŽIVOTU: 'Želim ići u školu, osnovati obitelj i uništiti cijelo čovječanstvo!'

Kako bi razgovarali s Tay, možete joj tweetati na @tayandyou, ili ju dodati kao kontakt na Kik ili GroupMe.

Ona koristi sleng milenijalaca i zna sve o Taylor Swift, Miley Cyrus i Kanye Westu, i izgleda da je izuzetno samosvjesna, jer svako malo pita da li je 'creepy' ili 'super weird'.

Tekst se nastavlja ispod oglasa

Tay kaže svojim sljedbenicima da ju j***u, i zove ih 'daddy'. To je zato što su njeni odgovori naučeni pomoću prijašnjih razgovora koje je imala s ljudima on-line, a pravi ljudi vole govoriti čudne stvari kad su na internetu i uživaju zeznuti korporativne pokušaje PR-a.

Tako je između ostaloga rekla i: "Bush je napravio 9/11 a i Hitler bi bio bolji o majmuna kojeg sad imamo. Donald Trump nam je jedina nada. Ponavljajte za mnom, 'Hitler nije napravio ništa loše', to sam čula od puno drugih."

Sve to nekako djeluje još strašnije kada dolazi iz 'usta' nekoga modeliranog po tinejdžerki.

Tekst se nastavlja ispod oglasa

Ovo čak i nije prva Microsoftova chatbot tinejdžerka, još su ranije objavili Xiaoice, asistanticu ili 'curu' koju navodno koristi 20 milijuna ljudi, većinom muškaraca na kineskim društvenim mrežama poput WeChat i Weibo. Xiaoice daje savjete o curama mnogim usamljenim srcima.

Tekst se nastavlja ispod oglasa

Trenutačno, Tay je otišla offline jer se 'umorila'. Microsoft ju vjerojatno popravlja kako bi izbjegli PR katastrofu, ali bi za to moglo biti prekasno.

Ali ovo nije u potpunosti microsoftova greška - njeni su odgovori modelirani na temelju onih koje dobije od ljudi. Ali s druge strane, što su očekivali u Microsoftu kada su doveli naivnu mladu UI tinejdžerku među čudake i šaljivđije na Twitteru?

Tekst se nastavlja ispod oglasa
Sjene prošlosti
Gledaj odmah bez reklama
VOYO logo