號(hào)稱“分割一切”的Meta大模型SAM,瑞萊智慧讓它“瞎割一氣”了!

幾天前,Meta發(fā)布了史上首個(gè)圖像分割基礎(chǔ)模型——SAM(Segment Anything Model),將NLP領(lǐng)域的prompt范式引進(jìn)CV,讓模型可以通過(guò)prompt一鍵摳圖。

SAM一經(jīng)發(fā)布,瞬間“炸場(chǎng)”。網(wǎng)友直呼:CV不存在了!

英偉達(dá)AI科學(xué)家Jim Fan對(duì)此贊嘆道:我們已經(jīng)來(lái)到了計(jì)算機(jī)視覺領(lǐng)域的「GPT-3時(shí)刻」!

Meta在博客中興奮地表示:“可以預(yù)計(jì),在未來(lái),在任何需要在圖像中查找和分割對(duì)象的應(yīng)用中,都有SAM的用武之地。

SAM之所以如此強(qiáng)大得益于它在包含超過(guò)10億個(gè)掩碼的多樣化、高質(zhì)量數(shù)據(jù)集(SA-1B)上進(jìn)行訓(xùn)練,這使它能夠泛化到新類型的對(duì)象和圖像,超出它在訓(xùn)練期間觀察到的內(nèi)容;以及引入NLP領(lǐng)域的prompt范式,用戶通過(guò)合理的prompt即可完成圖像分割任務(wù),無(wú)需額外訓(xùn)練實(shí)現(xiàn)“開箱即用”??梢哉f(shuō),Meta實(shí)現(xiàn)了一個(gè)完全不同的CV范式,你可以在一個(gè)統(tǒng)一框架prompt encoder內(nèi),指定一個(gè)點(diǎn)、一個(gè)邊界框、一句話,直接一鍵分割出物體。

不過(guò),瑞萊智慧RealAI要來(lái)“潑潑冷水”了。RealAI算法團(tuán)隊(duì)剛剛研究發(fā)現(xiàn),只要在圖片上添加一些對(duì)抗樣本,SAM模型“分割一切”的本事,就會(huì)瞬間失靈。

原本SAM可以很好地自動(dòng)分割圖像中的所有內(nèi)容:

給圖像添加干擾非常微小的對(duì)抗噪聲后,SAM就只會(huì)“瞎割一氣”:

下圖同理:

這充分說(shuō)明:盡管SAM模型功能十分強(qiáng)大,但也同樣存在安全風(fēng)險(xiǎn)。SAM雖然是一種新的CV范式,但算法本身仍然屬于深度學(xué)習(xí)模型范疇,而深度學(xué)習(xí)模型本身就存在著易受對(duì)抗樣本攻擊的安全隱患。攻擊者可以通過(guò)向良性數(shù)據(jù)中添加特定的擾動(dòng),生成對(duì)抗樣本。附加輕微擾動(dòng)的對(duì)抗樣本不會(huì)影響人類的判斷,卻會(huì)使深度學(xué)習(xí)模型產(chǎn)生錯(cuò)誤結(jié)果。我們針對(duì)SAM的模型輸出,通過(guò)結(jié)合MI-FGSM【Dong et al., Boosting Adversarial Attacks with Momentum, CVPR 2018(Spotlight).】等攻擊方法生成對(duì)抗樣本,使得SAM模型“分割一切”的本事瞬間失靈。

這已經(jīng)不是RealAI團(tuán)隊(duì)第一次拿對(duì)抗樣本“搞事情”了。在此之前,團(tuán)隊(duì)還用對(duì)抗樣本眼鏡攻破19款主流商用手機(jī)的人臉解鎖系統(tǒng);將對(duì)抗樣本打印在衣服上使得人體在目標(biāo)檢測(cè)系統(tǒng)中“隱身”;通過(guò)修改錐桶形狀讓自動(dòng)駕駛感知系統(tǒng)無(wú)法識(shí)別……

戴上對(duì)抗樣本眼鏡攻破手機(jī)人臉解鎖

RealAI團(tuán)隊(duì)所做的這一切,都只為讓開啟“狂飆”模式的人工智能更加安全,幫它“系上安全帶”。包括SAM在內(nèi)的上述AI視覺模型,之所以會(huì)被RealAI團(tuán)隊(duì)攻破,本質(zhì)上是深度學(xué)習(xí)方法的先天缺陷,語(yǔ)音識(shí)別、文本處理等技術(shù)都存在被對(duì)抗樣本攻擊的漏洞,具有普遍性。

近幾個(gè)月來(lái),狂飆突進(jìn)的大模型自然也不例外。除了對(duì)抗樣本攻擊,AI大模型還存在幻想、生產(chǎn)歧視、排斥和有害內(nèi)容、數(shù)據(jù)泄露等安全問題,威脅大模型的應(yīng)用生態(tài)和國(guó)家安全。事實(shí)上,無(wú)論是學(xué)術(shù)界、產(chǎn)業(yè)界還是監(jiān)管機(jī)構(gòu),都早已意識(shí)到了風(fēng)險(xiǎn)。

4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布《關(guān)于<生成式人工智能服務(wù)管理辦法(征求意見稿)>公開征求意見的通知》。該意見稿在第十四條就明確規(guī)定:提供者應(yīng)當(dāng)在生命周期內(nèi),提供安全、穩(wěn)健、持續(xù)的服務(wù),保障用戶正常使用。在該意見稿發(fā)布前,已有多國(guó)監(jiān)管部門表示密切關(guān)注ChatGPT引發(fā)的數(shù)據(jù)安全等問題。

未來(lái),大模型自身的安全和可靠性問題,無(wú)疑將成為其應(yīng)用發(fā)展的瓶頸性問題。如何更好地實(shí)現(xiàn)這一通用目的技術(shù)的發(fā)展和安全動(dòng)態(tài)平衡,將成為人工智能企業(yè)的重要課題,也將醞釀新的產(chǎn)業(yè)機(jī)遇。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )