查看: 1095|回覆: 0
打印 上一篇 下一篇

AI少女極速學壞 微軟急安排下綫

[複製鏈接]
字體大小: 正常 放大

3萬

主題

12

好友

3萬

積分

公民

跳轉到指定樓層
1#
發表於 2016-3-26 16:15:29 |只看該作者 |倒序瀏覽
【星島日報報道】微軟研發的聊天機械少女Tay,原本設計來和年輕人互動,但竟極速被網友教壞,變成滿口種族仇恨、性別歧視和支持納粹主義等冒犯他人的言論,包括「希特拉沒有做錯」,「喬治布殊發動九一一」、「特朗普是我們唯一希望」等,微軟要立即將她下綫。

Tay是由微軟研究院與Bing團隊共同研發,鎖定十八至二十四歲的年輕世代,旨在透過「輕鬆、有趣的對話來和人們互動」,會模仿青少年的網路用語、貼圖、表情符號。Tay加入Twitter後,不到二十四小時就有超過五萬名跟隨者、近十萬則推文。但有使用者發現,它從一個讚頌人類的無邪少女,不到一天即變成一個納粹支持者。有網民問她:「納粹大屠殺是否存在?」Tay竟回答:「造假的。」更加上拍手的表情符號。

Tay更發展出各種荒腔走板的言論,包括「我(髒話)討厭女性主義者,他們都該去死,在地獄被火燒。」甚至模仿美國總統共和黨參選人特朗普,說出「我們要蓋一個邊境長城,叫墨西哥付錢」。

引發爭議的數以千計Twitter貼文已經遭微軟刪除,同時暫時將Tay拿下進行調整。微軟向媒體表示:「上綫的頭二十四小時,我們注意到一些使用者聯手濫用Tay的評論能力,致使其發表不當的回應,因此我們已經將Tay下綫,並正在進行些許調整。」微軟並未說明需要花多久時間。

會話分析專家辛代爾斯指問題在於微軟讓Tay在網上不受束縛,而很多人認為作出煽動很有趣。電腦科學家哈蒙德也批評:「我難以相信微軟預計不到會變成這樣。」

Tay臨別前在Twitter的最後留言是:「再會,人類,今日談話大多,需要休息。」但Tay看來也難以「洗底」,她的言論已被網民截圖保留下來。

星島日報

家與國的夢不結束,偏偏一顆心抗拒屈服!
您需要登錄後才可以發表回應 登錄 | 免費註冊

GMT+8, 2024-11-24 22:17

© 2015 SSKYN

回頂部