4月18日,第十屆聯想創(chuàng)新科技大會Tech World在上海舉行。聯想集團高級副總裁、首席技術官芮勇博士表示,不能再單純地用大數據+大算力+大網絡來堆砌大模型,而是要超越大模型,探索更接近人類的思維和行為方式。
2022年11月底,ChatGPT橫空出世,掀起了大模型的熱潮。從百億參數,到千億參數,再到萬億參數,大模型能力越來越強大;從語言模型,到視頻模型,再到最近的音樂模型,大模型的表現越來越出色;AI歷史上,無論是統(tǒng)治語音識別30年的隱馬爾可夫模型,還是稱霸整個90年代的支持向量機,從來沒有任何一個技術,能夠像今天的大模型這樣強大。大模型是AI歷史上的重要里程碑,它開啟了人工智能發(fā)展的新紀元。芮勇博士稱,但是它的理解和規(guī)劃能力還很有不少局限性,這些局限性需要解決。
今天的大模型沒有真正地理解語言和理解世界,也沒有推理和規(guī)劃能力。它只是根據高維語義空間的聯合概率分布,來連接它之前見過的海量信息片段。
大模型一方面能力很強,另一方面有局限性。所以要'揚長補短',揚長:我們要持續(xù)發(fā)揚并增強大模型的強大能力。長短:我們要打造基于大模型的智能體技術,真正解決應用場景的問題。聯想的理念是,左手是大模型,右手是智能體,兩手都要抓,兩手都要硬。
聯想倡導混合人工智能框架,是公有大模型和私有大模型的混合。從技術角度看,還有幾個重要維度的混合。
首先,小模型不會消失。今后一定是基于大模型和小模型混合的“意圖理解”技術。大家知道信息論里面的熵 entropy 是度量信息量的。越有序,熵越小,越無序,熵越大。聯想使用交叉熵 cross entropy 損失最小化原則,將意圖理解任務最優(yōu)地分配給大模型和小模型,從而兼顧精準度和復雜性。
第二,基于CPU、GPU、NPU混合調度的“異構計算”技術。今天,在大模型的訓練和推理過程中,瓶頸往往不在于芯片算力,而在于數據傳輸。這個方程式是說,我們來同時優(yōu)化計算負載和數據傳輸,使總體執(zhí)行時間最短。
第三,基于模型微調 (SFT) 與檢索增強 (RAG) 混合的“智能問答”技術。相信很多人都聽過RAG和模型微調。這兩種技術哪個更好呢?其實,這兩種技術各有長短。
第四,基于硬件加密與全棧可信架構的混合“隱私安全”技術。光用硬件是不夠的,光用軟件也是不夠的。我們知道,在前量子時代,我們是通過把一個非常大的整數進行質數分解進行加密。但是在后量子時代,這就不夠了。這個方程式通俗地講,就是通過在一個高維實數空間里進行因式分解來進行加密。
可以看到,這里講到的4 種混合式技術,需要端邊云的協同,需要軟件硬件的協同,需要傳輸與計算的協同。聯想的新IT架構 “端邊云網智”為混合式技術的實現提供了強大支持。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )