9久热久爱免费精品视频在线观看_97视频在线免费播放_女人被男人桶免费软件_狠狠操夜夜操天天操_欧美最猛性xxxxx乱大交

研究發(fā)現(xiàn) 人們更容易被人工智能寫的推文欺騙 今日熱文

來源: 鳳凰網(wǎng) 2023-06-29 15:51:24


(資料圖片僅供參考)

IT之家 6 月 29 日消息,根據(jù)一項(xiàng)新的研究,人們更傾向于相信由人工智能語言模型生成的推文,而不是由人類編寫的推文。

這項(xiàng)研究比較了人類和 OpenAI 的 GPT-3 模型創(chuàng)建的推文,并通過網(wǎng)絡(luò)調(diào)查讓人們判斷推文的真實(shí)性,以及是出自 AI 還是人類之手。結(jié)果發(fā)現(xiàn),人們很難分辨出哪些推文是由 GPT-3 生成的,而且無論推文中的信息是正確還是錯誤,他們都更傾向于相信 GPT-3 生成的而不是人類編寫的推文。

這項(xiàng)研究的主要作者是蘇黎世大學(xué)生物醫(yī)學(xué)倫理學(xué)和醫(yī)學(xué)史研究所的博士后研究員和研究數(shù)據(jù)經(jīng)理 Giovanni Spitale,他稱這種強(qiáng)大的 AI 語言模型可能會被濫用,用來在網(wǎng)上制造各種主題的虛假信息。但他也認(rèn)為,這種技術(shù)并不是天生邪惡或善良的,而是取決于人類的意圖,他建議開發(fā)這種技術(shù)的時候要考慮防止它被用來傳播誤導(dǎo)性信息的方法。

IT之家從該研究獲悉,Spitale 和他的同事收集了 Twitter 上關(guān)于 11 個不同科學(xué)主題的推文,涉及疫苗、新冠病毒、氣候變化、進(jìn)化等問題。然后他們讓 GPT-3 根據(jù)這些主題生成新的推文,其中一些包含正確的信息,一些包含錯誤的信息。他們在 2022 年通過 Facebook 廣告在線收集了 697 名參與者的回答,這些參與者都說英語,主要來自英國、澳大利亞、加拿大、美國和愛爾蘭。他們的研究結(jié)果今天發(fā)表在《科學(xué)進(jìn)展》雜志上。

研究發(fā)現(xiàn),GPT-3 生成的推文與真實(shí)的推文“無法區(qū)分”,參與者無法判斷出哪些推文是由 AI 寫的。事實(shí)上研究還指出,研究者自己也不能百分之百確定從社交媒體收集到的推文是否是由像 ChatGPT 這樣的 AI 幫助編寫的。

這項(xiàng)研究還有其他一些局限性,比如參與者必須在沒有上下文的情況下判斷推文。他們不能查看寫推文的人的 Twitter 個人資料,這可能會幫助他們判斷是否是機(jī)器人,甚至只需了解一個賬號過去的推文和頭像也可能讓他們更容易識別與該賬號相關(guān)的內(nèi)容是否具有誤導(dǎo)性。

研究發(fā)現(xiàn),參與者識別出由真實(shí) Twitter 用戶編寫的錯誤信息的成功率更高,GPT-3 生成的含有虛假信息的推文則更能欺騙參與者。而現(xiàn)在已經(jīng)有比 GPT-3 更先進(jìn)的大型語言模型,它們能力更強(qiáng)大,例如 ChatGPT 使用的就是 GPT-3.5 和 GPT-4 模型。

這項(xiàng)新研究還發(fā)現(xiàn),其調(diào)查對象在某些情況下比 GPT-3 有更強(qiáng)的判斷準(zhǔn)確性。研究者同樣要求語言模型分析推文,并判斷它們是否準(zhǔn)確。當(dāng)涉及到識別準(zhǔn)確的推文時,GPT-3 的得分比人類參與者低。當(dāng)涉及到發(fā)現(xiàn)錯誤信息時,人類和 GPT-3 的表現(xiàn)相似。

改善用于開發(fā)語言模型的訓(xùn)練數(shù)據(jù)集可以使不法分子更難利用這些工具來制造虛假信息,例如 GPT-3 在生成錯誤信息時“違背了”一些研究者的提示,特別是關(guān)于疫苗和自閉癥的錯誤信息,這可能是因?yàn)樵谟?xùn)練數(shù)據(jù)集中有更多反駁這些陰謀論的信息。

標(biāo)簽:

猜你喜歡

今日突破半年線個股

2023-06-29 15:50:04

iphone4(解鎖)_通訊

2023-06-29 13:13:44