查看: 409|回覆: 0
打印 上一篇 下一篇

ChatGPT「創作」假性騷擾醜聞

[複製鏈接]
字體大小: 正常 放大

3萬

主題

12

好友

3萬

積分

公民

跳轉到指定樓層
1#
發表於 2023-4-7 22:38:47 |只看該作者 |倒序瀏覽
(星島日報報道)美國傳媒披露,人工智能(AI)聊天機械人ChatGPT竟然創作假醜聞,其中一宗個案是指控一名美國教授性騷擾學生,但整個故事根本子虛烏有。事件引起人們對聊天機械人生成錯誤訊息並廣為傳播的擔憂。

上周一個晚上,喬治.華盛頓大學法學教授特利(Jonathan Turley)收到一封令他不安的電郵,內容是加州一位律師同行在做研究時,要求ChatGPT生成一份曾性騷擾他人的法律學者名單,特利竟榜上有名。由OpenAI公司研發的ChatGPT說,特利在阿拉斯加的一次班級旅行中,說了些性暗示語言,並試圖觸摸一個學生。

ChatGPT並引用《華盛頓郵報》2018年3月的一篇文章作為訊息來源。但問題是:根本沒有這樣的文章存在,也從來沒有去過阿拉斯加班級旅行。特利說,他從未被指控騷擾過學生。

稱旅行說了些性暗示語言

近期面世的AI聊天機械人以其編寫電腦程式、創作詩歌和進行類似人類對話的能力,在全球爆紅。但是,這些語言模型也可以大肆歪曲關鍵事實,甚至捏造原始資料來支持其主張。隨着ChatGPT、微軟的Bing和Google的Bard等基本不受監管的AI軟件開始納入整個網絡,引起了人們對錯誤訊息傳播的擔憂。南加州大學安納伯格分校教授克勞福德說:「由於這些系統的反應如此自信,令人相信它們無所不能,實在很難區分事實和虛假訊息。」

今天的AI聊天機械人的工作方式,是利用大量在綫內容,通常是從維基百科和Reddit網站等來源搜羅,對幾乎任何問題都能做出聽起來合理的回答。但是,僅僅因為它們善於預測哪些詞可能會出現在一起,並不意味着所產生的句子總是真實的。普林斯頓大學電腦科學教授納拉亞南稱,ChatGPT是「胡說生成器」。雖然它們的回答往往聽起來很權威,但這些模型缺乏可靠的機制來驗證他們所說的事情。

事實上,讓聊天機器人產生錯誤訊息或仇恨言論是相對容易的。「打擊數碼仇恨中心」周三發表的一項研究發現,研究人員誘導Bard在100次中有78次產生錯誤或仇恨的訊息,主題包括大屠殺和氣候變化。OpenAI發言人費利克斯在聲明中說:「當用戶註冊使用ChatGPT,我們努力做到盡可能透明,它可能不會總是產生準確的答案。提高事實準確性是我們的一個重要焦點,我們正在取得進展。」主要的聊天機械人都有免責聲明,如Bard在每個查詢下面的細字訊息:「Bard可能會顯示不準確或令人反感的訊息,不代表Google的觀點。」

在澳洲,赫本縣地方首長胡德表示,若OpenAI不更正ChatGPT提供有關他因行賄而入獄的不實資訊,將對OpenAI提出控告。這有可能成為首宗針對這種文字生成服務提出的誹謗訴訟。胡德(Brian Hood)去年11月當選墨爾本西北方120公里的赫本縣首長。當民眾告訴他,ChatGPT內容誤將他列為2000年代初期澳洲儲備銀行子公司一宗外國賄賂醜聞的犯案者,他開始擔心自己聲譽會受到影響。胡德的律師說,胡德的確曾任職於澳洲儲備銀行這家子公司澳洲印鈔公司,但其實是他向當局舉報公司為贏得印鈔合約而向國外官員行賄,並且他從未被起訴。他的律師已在3月21日向OpenAI寄出信函,要求在28天內更正ChatGPT的相關錯誤訊息,否則提告。 

星島日報
家與國的夢不結束,偏偏一顆心抗拒屈服!
您需要登錄後才可以發表回應 登錄 | 免費註冊

GMT+8, 2024-11-25 20:59

© 2015 SSKYN

回頂部