În doar 24 de ore chat-bot-ul lui Microsoft a început să înjure şi a devenit rasist
Chat-bot-ul Tay, elaborat de Microsoft şi lansat pe Twitter pe 23 martie, s-a învăţat să înjure şi să emită enunţuri rasiste şi incitatoare la ură, scrie Bloomberg.
O versiune experimentală de intelect artificial, care poate să înveţe de la interlocutori şi să preia maniera lor de comunicare, a fost creată pentru a demonstra stilul de comunicare a tinerilor de 18-24 de ani. Dar numai la 24 de ore de la lansare, Microsoft a fost nevoit să şteargă unele din cale mai provocatoare declaraţii ale lui Tay.
Chat-bot, între altele, a declarat că susţine genocidul, le urăşte pe feministe, dar a căzut de acord cu politica lui Hitler şi cu susţinerea lui Donald Trump la preşedinţia SUA.
Chat-bot-ul de asemenea a spus că-i "urăşte pe toţi".
Într-un comunicat, corporaţia regretă că a trebuit să stopeze activitatea acestuia pentru a introduce unele modificări.