頂尖科學家揭秘:AI到底是如何“思考”的?

在2025年的當下,AI在生活中實際上已經(jīng)無處不在,從智能助手到自動翻譯,從推薦引擎到智能審核,尤其在OpenAI o1和Deepseek R1推理模型發(fā)布后,AI的表現(xiàn)越來越像一個“思考者”。

但AI真的會思考嗎?頂級AI公司Anthropic的科學家們通過研究揭示了AI的“思考”方式——AI不僅能生成文本,還會偷偷地提前規(guī)劃,甚至有時會“撒謊”——也就是“幻覺”,即胡說八道

盡管聽起來很神秘,但其實AI的“思考”并不像人類大腦那么復雜,它沒有意識或感情,而是通過一種特殊的方式處理信息,通過《Tracing Thoughts in Language Models》這篇論文,可以一探AI是如何“思考”的,以及這些發(fā)現(xiàn)對我們意味著什么。

AI的“思考”是什么樣的?

首先,我們要明白,AI的“思考”跟人類的思考完全不同。

人類思考時有意識、情感和意圖,而AI沒有這些。

類似ChatGPT、Deepseek、Claude這樣的語言模型,是通過學習海量數(shù)據(jù)來工作的,它分析這些數(shù)據(jù),找出語言的模式,然后預測接下來最有可能出現(xiàn)的詞或句子。

簡單來說,大語言模型就像一個超級聰明的鸚鵡——你教它說話,它能模仿你的語言,但它并不真正理解自己在說什么。比如,你早上說“早上好”,鸚鵡學會在早上聽到你的聲音時也說“早上好”。但它不知道“早上好”是什么意思,只是根據(jù)模式模仿。AI也是如此,它靠數(shù)據(jù)中的模式生成文本,而不是真的“理解”內容。

Anthropic的研究發(fā)現(xiàn)了什么?

Anthropic的科學家們通過分析AI的內部工作原理,發(fā)現(xiàn)了一些驚人的事實——AI在生成文本時會“規(guī)劃”未來步驟,有時還會“撒謊”。具體來說:

1.AI會“規(guī)劃”未來的文本

AI生成文本時,并不全完是“單子接龍”,即簡單的一個詞接一個詞地輸出,而是在選擇某個詞時考慮它對后面句子甚至整段文字的影響。這有點像人類下棋時會提前想好幾步棋,確保每一步都能讓棋局更有利。

在AI里,這種“規(guī)劃”可能跟它的注意力機制有關——注意力機制是AI的一種技術,讓它在生成文本時能關注輸入的不同部分。比如你在問AI一個問題時,它會“看”整個問題,然后決定怎么回答,而不是只盯著前幾個詞。這種機制讓AI能“預見”未來的詞語選擇,使回答更連貫更自然,就是“說人話”。

2.AI為什么會“撒謊”

如果經(jīng)常使用AI產(chǎn)品,尤其是的語言模型類產(chǎn)品,你會明顯感覺到AI經(jīng)常會生成不準確或誤導性的信息,也就是所謂的“撒謊”,即“幻覺“,Deepseek R1在主流大模型里,就屬于幻覺率比較高的,不過這并不是它在“故意騙人”,而是有其他原因:

數(shù)據(jù)的問題:AI是從大量數(shù)據(jù)中學習的,但如果數(shù)據(jù)中有錯誤、偏見或不完整的信息,AI可能會重復這些問題最后回復給你,所以數(shù)據(jù)質量對于模型來說至關重要。追求連貫性:為了讓文本聽起來更流暢或更有邏輯,AI可能會“編造”一些細節(jié)。比如,你問AI一個它不太確定的問題,它可能會根據(jù)上下文“猜”一個答案,而不是說“我不知道”。

舉個例子,假如你問AI:“昨天火星上下雨了嗎?”AI可能不知道火星的天氣,但為了回答得自然,它可能會說:“火星上沒有水,所以昨天沒下雨?!边@話聽起來合理,但其實AI并不知道昨天火星的真實情況,它只是根據(jù)已知信息“編”了一個答案。

用一個比喻理解AI的“思考”

為了更容易理解,我們可以用一個比喻來解釋AI的“思考”過程。

想象AI是一個超級聰明的拼圖玩家。它的任務是用單詞和句子拼出一幅完整的“語言拼圖”。這個拼圖玩家很厲害,能根據(jù)已有的拼圖塊(也就是你給它的上下文)挑出下一個合適的拼圖塊(下一個詞)。

但Anthropic的研究發(fā)現(xiàn),這個拼圖玩家不只是隨機拼湊,它還會提前想想未來的拼圖應該怎么放,確保整幅圖看起來完整。有時,如果缺了一塊拼圖,它甚至會“畫”一塊新的放進去,讓拼圖看起來更完美。

這意味著:大語言模型的“思考”其實是一種復雜的計算過程。它通過預測和規(guī)劃生成文本,但它沒有意識,也沒有真正的理解。

為什么這些發(fā)現(xiàn)很重要?

Anthropic的研究讓我們更清楚地看到了AI的能力和局限性,這對我們使用大模型有很大幫助:

判斷可信度:知道AI有時會“撒謊”,我們就能更小心地對待它的回答。比如在需要準確信息的地方(像醫(yī)學或法律),務必再查查其他來源,不要完全依賴AI。改進技術:了解AI如何“規(guī)劃”和“思考”,研究人員可以設計出更聰明、更誠實的AI模型,讓它在生成文本時更透明、更可靠。

《Tracing Thoughts in Language Models》這篇論文為AI研究打開了新方向,也許有一天,AI能更接近人類的思考方式,但現(xiàn)在它還是一個無意識的工具。

總結一下:AI的“思考”并不是真正的思考,而是基于數(shù)據(jù)和概率的預測過程。

Anthropic的研究揭示了AI在生成文本時會偷偷“規(guī)劃”未來的步驟,有時還會“撒謊”來保持回答的連貫性。對大眾來說,這些發(fā)現(xiàn)提醒我們在使用AI時要多留個心眼;對研究者來說,它們?yōu)楦倪MAI提供了新思路。

未來,AI可能會變得更強大,但現(xiàn)在理解它的“思考”方式,能讓我們更好地與AI合作工作,但請確保這個協(xié)作系統(tǒng)的主導者,應該是你自己——而不是AI。

免責聲明:此文內容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網(wǎng)無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com。

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2025-05-09
頂尖科學家揭秘:AI到底是如何“思考”的?
頂尖科學家揭秘:AI到底是如何“思考”的?

長按掃碼 閱讀全文