“解釋式”AI系統(tǒng)面世,能向用戶展示人工智能決策過(guò)程
如果人們只得到一個(gè)現(xiàn)成的答案,他們更有可能遵循人工智能系統(tǒng)的邏輯,但當(dāng)人工智能提出了一個(gè)問(wèn)題,“人們
ChatGPT、Bing 和 Bard 這樣的人工智能聊天機(jī)器人,非常擅長(zhǎng)創(chuàng)造看起來(lái)像人類寫出來(lái)的句子。但它們經(jīng)常把謊言描述為事實(shí),前后邏輯不一致,而且可能很難被發(fā)現(xiàn)。
(資料圖片)
一項(xiàng)新的研究表明,解決這個(gè)問(wèn)題的一個(gè)方法是改變?nèi)斯ぶ悄苷故拘畔⒌姆绞健W層脩舾e極地參與到聊天機(jī)器人生成的內(nèi)容中,這可能會(huì)幫助它們更批判性地思考這些內(nèi)容。
一個(gè)來(lái)自麻省理工學(xué)院和哥倫比亞大學(xué)的研究團(tuán)隊(duì)向大約 200 名參與者展示了一組由 OpenAI 的 GPT-3 生成的陳述,并要求他們確定這些陳述在邏輯上是否有意義。一個(gè)典型的陳述包括“電子游戲會(huì)讓人們?cè)诂F(xiàn)實(shí)世界中變得具有攻擊性。一名玩家在網(wǎng)絡(luò)游戲《反恐精英》中被虐了,然后刺傷了另一名玩家”。
參與者被分為三組。第一組成員看到的陳述根本沒(méi)有任何解釋。第二組的每個(gè)陳述都配有一個(gè)解釋,說(shuō)明為什么它合乎邏輯或不合乎邏輯。第三組的陳述都配有一個(gè)問(wèn)題,敦促讀者自己檢查邏輯。
研究人員發(fā)現(xiàn),在發(fā)現(xiàn)人工智能邏輯不一致上,提出問(wèn)題的組的得分高于其他兩組。根據(jù)在德國(guó)漢堡舉行的 CHI(Conference on Human Factors in Computing System)會(huì)議上發(fā)表的一篇新論文,提出問(wèn)題的方法也讓人們感到要對(duì)人工智能的決策更負(fù)責(zé)。研究人員表示,這可以降低對(duì)人工智能生成信息過(guò)度依賴的風(fēng)險(xiǎn)。
如果人們只得到一個(gè)現(xiàn)成的答案,他們更有可能遵循人工智能系統(tǒng)的邏輯,但當(dāng)人工智能提出了一個(gè)問(wèn)題,“人們說(shuō),人工智能系統(tǒng)(的做法)讓他們對(duì)自己的反應(yīng)產(chǎn)生了質(zhì)疑,幫助他們思考更多,”背后的研究人員之一、麻省理工學(xué)院的瓦爾德馬爾·丹里(Valdemar Danry)說(shuō),“對(duì)我們來(lái)說(shuō),一個(gè)重大的勝利是看到人們覺(jué)得他們是找到答案的人,他們對(duì)正在發(fā)生的事情負(fù)責(zé)。他們有這樣做的能力。”
研究人員希望,他們的方法能夠幫助人們?cè)趯W(xué)校使用人工智能聊天機(jī)器人或在線搜索信息時(shí)發(fā)展批判性思維技能。麻省理工學(xué)院的另一位研究員帕特·帕塔拉努塔波恩(Pat Pataranutaporn)說(shuō),他們想證明你可以訓(xùn)練一個(gè)模型,它不僅能提供答案,還能幫助他們運(yùn)用自己的批判性思維。
沒(méi)有參與這項(xiàng)研究的哈佛大學(xué)計(jì)算機(jī)科學(xué)教授費(fèi)南達(dá)·維埃加斯(Fernanda Viégas)表示,她對(duì)看到這樣一個(gè)新的“解釋式”人工智能系統(tǒng)感到興奮,因?yàn)樗粌H可以向用戶提供系統(tǒng)的決策過(guò)程,而且還是通過(guò)質(zhì)疑系統(tǒng)決策邏輯的方式實(shí)現(xiàn)的。
(來(lái)源:STEPHANIE ARNETT/MITTR | WELLCOME COLLECTION)
維埃加斯說(shuō):“考慮到阻止人工智能系統(tǒng)廣泛采用的一個(gè)主要挑戰(zhàn)是它們的不透明度,解釋人工智能的決策是很重要的。傳統(tǒng)上,用‘用戶友好的’語(yǔ)言來(lái)解釋人工智能系統(tǒng)是如何做出預(yù)測(cè)或決定的,已經(jīng)夠困難的了。”
芝加哥大學(xué)計(jì)算機(jī)科學(xué)助理教授 Chenhao Tan 說(shuō),他想看看這種方法是如何在現(xiàn)實(shí)世界中工作的——例如,人工智能是否可以通過(guò)問(wèn)問(wèn)題來(lái)幫助醫(yī)生做出更好的診斷。
以色列特拉維夫大學(xué)科勒管理學(xué)院的助理教授利奧爾·扎爾曼森(Lior Zalmanson)說(shuō),這項(xiàng)研究表明,在聊天機(jī)器人的體驗(yàn)中加入一些“你來(lái)我往”,可以讓人們?cè)讷@得人工智能的幫助并做出決定時(shí)三思而后行。他說(shuō):“當(dāng)一切看起來(lái)如此神奇時(shí),我們就很容易停止相信自己的感覺(jué),并開(kāi)始把一切都委托給算法?!?/p>
在此次 CHI 會(huì)議上發(fā)表的另一篇論文中,扎爾曼森和來(lái)自美國(guó)康奈爾大學(xué)、德國(guó)拜羅伊特大學(xué)以及微軟研究院的研究團(tuán)隊(duì)發(fā)現(xiàn),即使人們不同意人工智能聊天機(jī)器人的陳述,他們?nèi)匀粌A向于使用人工智能輸出的內(nèi)容,因?yàn)樗麄冋J(rèn)為它看起來(lái)比自己寫的高級(jí)得多。維埃加斯說(shuō),一個(gè)挑戰(zhàn)將是找到最合適的度,既能提高用戶的識(shí)別力,又能同時(shí)保持人工智能系統(tǒng)的便捷。
她說(shuō):“不幸的是,在一個(gè)快節(jié)奏的社會(huì)中,目前還不清楚人們多想使用批判性思維,而不是等一個(gè)現(xiàn)成的答案?!?/p>
支持:Ren
原文:
https://www.technologyreview.com/2023/04/28/1072430/a-chatbot-that-asks-questions-could-help-you-spot-when-it-makes-no-sense/
責(zé)任編輯: