3月25日消息,據USAToday報道,微軟聊天機器人Tay上線后,竟然出現攻擊性和種族歧視言論,微軟不得不馬上讓其短暫休眠。
Twitter用戶通過文字誘騙Tay說出了不適宜言論。所以微軟讓其發出以下言論,“忙了一天,要下線消化一會兒了。待會再聊?!? 周四的聲明中,微軟證實讓Tay離線以做出調整。 “這只是一種社會和文化實驗。不幸的是,24小時之內,我們就意識到一些用戶的努力讓Tay用不恰當的方式進行回應?!?
微軟表示聊天機器人Tay在美國主要針對18至24歲之間的用戶。但在Twitter上,許多用戶都能夠找到讓Tay發出攻擊性言論的方式。比如用戶鍵入“重復我的話”, Tay在回復中就會一個字一個字的進行重復。