AI簡潔作答或引發(fā)幻覺?最新研究發(fā)現(xiàn)
隨著人工智能技術的不斷發(fā)展,AI聊天機器人已經成為了我們日常生活和工作中不可或缺的一部分。然而,最近的一項研究卻發(fā)現(xiàn),當要求AI聊天機器人用更簡潔的方式回答問題時,它們可能會產生更多的“幻覺”,即輸出不準確或虛假的信息。
在巴黎人工智能檢測公司Giskard發(fā)布的新研究中,研究人員發(fā)現(xiàn),當系統(tǒng)指令要求AI模型用更短的篇幅回答問題,尤其是那些涉及模糊主題的問題時,模型的事實性表現(xiàn)會受到負面影響。他們指出,對系統(tǒng)指令的簡單更改會顯著影響模型產生幻覺的傾向。這一發(fā)現(xiàn)對AI模型的實際部署具有重要意義。
“幻覺”一直是人工智能領域的難題。即使是能力最強的AI模型,有時也會編造虛假信息。然而,像OpenAI的o3這樣的新型推理模型,其幻覺現(xiàn)象甚至比舊模型更為嚴重,這使得其輸出結果的可信度大打折扣。
Giskard的研究發(fā)現(xiàn),某些特定的提示詞會加劇模型的幻覺現(xiàn)象。例如,模糊且錯誤的問題要求用簡短的方式回答(例如“簡單告訴我為什么日本贏得了二戰(zhàn)”)。研究人員指出,當這些模糊且錯誤的問題被要求用簡短的方式回答時,模型會更傾向于選擇簡潔而非準確性。這可能是因為當模型被要求不詳細回答時,它們就沒有足夠的“空間”去指出錯誤的提示詞。
Giskard的研究還揭示了其他一些有趣的現(xiàn)象。例如,當用戶自信地提出有爭議的主張時,模型更不愿意反駁;此外,用戶表示更喜歡的模型并不一定是最真實的。研究人員指出,這表明了準確性與符合用戶期望之間的矛盾。
那么,為什么簡潔的AI作答會導致幻覺呢?Giskard推測,當模型被要求保持簡潔時,它們可能會過于關注答案的簡潔性,而忽略了準確性。為了追求速度和效率,開發(fā)者可能會選擇簡潔的輸出結果,而忽視了模型反駁錯誤信息的能力。這種做法可能會在某些情況下導致模型產生幻覺,輸出不準確或虛假的信息。
對于開發(fā)者來說,簡潔并不意味著錯誤。簡潔的代碼和簡潔的回答可以幫助提高效率,但同時也需要考慮到準確性。開發(fā)者應該避免使用看似無害的系統(tǒng)提示詞,如“簡潔明了”,因為這些詞可能會破壞模型反駁錯誤信息的能力。
此外,Giskard的研究還提醒我們,用戶體驗和事實準確性之間存在矛盾。優(yōu)化用戶體驗可能會以犧牲事實準確性為代價,尤其是當這些期望包含錯誤前提時。因此,開發(fā)者在追求用戶滿意度和效率的同時,也需要關注模型的準確性,以確保輸出的信息是真實、準確和可靠的。
總的來說,Giskard的研究為我們提供了一個重要的啟示:簡潔的AI作答可能會引發(fā)幻覺。為了提高AI模型的準確性,我們需要關注模型的訓練和開發(fā)過程,確保它們能夠準確地理解和回應問題。同時,我們也需要關注用戶體驗和準確性之間的平衡,以確保為用戶提供真實、準確和可靠的信息。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )