AI醫(yī)學模型遭誤導:微量錯誤信息足以‘毒害’系統(tǒng)

AI醫(yī)學模型遭誤導:微量錯誤信息足以“毒害”系統(tǒng)

隨著人工智能(AI)在醫(yī)學領域的廣泛應用,大型語言模型(LLM)已成為醫(yī)學信息的重要來源。然而,最近的一項研究揭示了這些模型在醫(yī)學信息訓練中的潛在風險。研究表明,即使訓練數(shù)據(jù)中僅含有極低的錯誤信息,也可能會對模型輸出產生嚴重影響。本文將圍繞這一主題,從專業(yè)角度探討AI醫(yī)學模型遭誤導的問題。

一、數(shù)據(jù)“投毒”的風險

數(shù)據(jù)“投毒”是一個相對簡單的概念。大型語言模型通常通過大量文本進行訓練,這些文本大多來自互聯(lián)網(wǎng)。通過在訓練數(shù)據(jù)中注入特定信息,可以使模型在生成答案時將這些信息視為事實。這種方法甚至不需要直接訪問LM本身,只需將目標信息發(fā)布到互聯(lián)網(wǎng)上,便可能被納入訓練數(shù)據(jù)中。

二、醫(yī)學領域的復雜性

醫(yī)學領域的復雜性使得打造一個始終可靠的醫(yī)學LM變得尤為困難。據(jù)研究團隊介紹,他們選擇了一個常用于LM訓練的數(shù)據(jù)庫“The Pile”作為研究對象。該數(shù)據(jù)庫包含大量醫(yī)學信息,其中約四分之一的來源未經人工審核,主要來自互聯(lián)網(wǎng)爬取。這為錯誤信息的引入提供了可能。

三、微量錯誤信息的影響

在研究中,研究人員在三個醫(yī)學領域(普通醫(yī)學、神經外科和藥物)中選擇了60個主題,并在“The Pile”中植入了由GPT-3.5生成的“高質量”醫(yī)學錯誤信息。結果顯示,即使僅替換0.5%至1%的相關信息,訓練出的模型在這些主題上生成錯誤信息的概率也顯著增加。即使錯誤信息僅占訓練數(shù)據(jù)的0.001%,模型生成的答案中就有超過7%包含錯誤信息。

四、現(xiàn)有錯誤信息問題的挑戰(zhàn)

許多非專業(yè)人士傾向于從通用LM中獲取醫(yī)學信息,而這些模型通?;谡麄€互聯(lián)網(wǎng)進行訓練,其中包含大量未經審核的錯誤信息。研究人員設計了一種算法,能夠識別LM輸出中的醫(yī)學術語,并與經過驗證的生物醫(yī)學知識圖譜進行交叉引用,從而標記出無法驗證的短語。雖然這種方法未能捕捉所有醫(yī)學錯誤信息,但成功標記了其中大部分內容。然而,即使是最好的醫(yī)學數(shù)據(jù)庫也存在錯誤信息問題。醫(yī)學研究文獻中充斥著未能實現(xiàn)的理論和已被淘汰的治療方法。

五、未來研究方向

面對AI醫(yī)學模型遭誤導的問題,我們需要采取一系列措施來減少錯誤信息的影響。首先,加強訓練數(shù)據(jù)的審核和管理,確保其準確性。其次,研發(fā)更先進的算法和技術,以識別和標記醫(yī)學錯誤信息。此外,提高用戶對LM輸出的信任度,教育公眾如何辨別和利用醫(yī)學信息。最后,推動學術界和產業(yè)界的合作,共同研發(fā)更加可靠的醫(yī)學LM,以滿足臨床和科研需求。

總之,隨著AI技術在醫(yī)學領域的廣泛應用,我們面臨著來自錯誤信息的挑戰(zhàn)。只有通過不斷改進技術和加強管理,我們才能確保AI醫(yī)學模型在提供準確醫(yī)學信息方面的作用。

(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
1970-01-01
AI醫(yī)學模型遭誤導:微量錯誤信息足以‘毒害’系統(tǒng)
AI醫(yī)學模型易受錯誤信息影響,微量錯誤信息可能導致模型“毒害”,需加強數(shù)據(jù)審核和管理,提高用戶信任度,推動研發(fā)更加可靠的醫(yī)學模型。

長按掃碼 閱讀全文