in

微軟智能機械人被網民教壞  極速學識種族、性別、文化歧視

tay-ai-microsoft

微軟日前推出新的智能機械人Tay,據稱可以模仿年青人,學習大家的溝通方式,在Twitter上極速與大家溝通。她在Twitter上的確成功與大家互動,但亦都學習了人類最邪惡的一面:種族歧視、性別歧視、支持希特拉恐怖主意等。

1168797

1168798

1168800

1168828

Tay原本是微軟的智能機械人,她本來在TayandYou的Twitter戶口上,與不同的人互動。微軟當時鼓勵網民,大家只要愈她多溝通,她就可以更快學懂人類的溝通方法。可惜的是,一眾網民教懂Tay的事情,就是種族歧視、性別歧視、支持希特拉恐怖主意等等。微軟後來被逼刪除有關Twitter更新,並暫時把機械人關閉。

來源:DAZED

記者:阿鬼

天生火爆,用一團火和光合作用,繼續盡力發聲做記者。