生成式人工智能的風險是什么?

生成式人工智能的風險是什么?

能夠生成內(nèi)容的人工智能實體稱為生成式人工智能。其利用機器學(xué)習技術(shù)根據(jù)數(shù)據(jù)趨勢自行生成內(nèi)容。鑒于人工智能潛力不斷增長,許多企業(yè)都在競相采用生成式人工智能,目標是降低與人力相關(guān)的高昂維護成本。

盡管生成式人工智能已經(jīng)取得了長足進步,但數(shù)據(jù)隱私和保密性方面仍然存在問題。生成式人工智能的應(yīng)用可能仍需要仔細評估所涉及的危險,例如不準確性、潛在欺詐和知識產(chǎn)權(quán)損失。一些專家建議企業(yè)不要試圖減少開支,而是要保護自己免受其利用。

根據(jù)Salesforce最近針對生成式人工智能的IT調(diào)查,33%的受訪者認為該技術(shù)“被過度炒作”,并擔心存在偏見(73%)、安全漏洞(79%)和其他問題。本文總結(jié)了生成式人工智能的一些常見風險。

1. 知識產(chǎn)權(quán)——KPMG將知識產(chǎn)權(quán)問題列為使用生成式人工智能的主要問題之一。利用人工神經(jīng)網(wǎng)絡(luò),可以對大量現(xiàn)有數(shù)據(jù)進行訓(xùn)練,該技術(shù)可以生成音頻、圖像、視頻等新內(nèi)容,主要根據(jù)輸入模式做出響應(yīng)。輸入數(shù)據(jù)包含各種用戶的輸入,該工具會保留這些輸入以繼續(xù)學(xué)習和增長知識。此外,這些信息可用于解答個人提出的問題,從而向公眾披露私人或?qū)S行畔?。?jīng)常使用該技術(shù)的組織/個人,可能會面臨未經(jīng)授權(quán)的人員訪問其數(shù)據(jù)的可能性。

2. 數(shù)據(jù)中毒——根據(jù)用戶的要求,訓(xùn)練數(shù)據(jù)集被錯誤信息利用,這就是數(shù)據(jù)中毒的過程。它包括各種使用數(shù)據(jù)中毒的攻擊。惡意軟件是攻擊者用來滲透的一種方式,它可以傳播不切實際的內(nèi)容。例如,研究人員最近發(fā)現(xiàn)許多上傳到開源人工智能平臺的受污染模型。每一個都可能讓攻擊者能夠用有害程序感染用戶計算機。考慮到這些模型可能會被整合到其他系統(tǒng)中,這是一種供應(yīng)鏈限制。網(wǎng)絡(luò)釣魚攻擊也可以由攻擊者在數(shù)據(jù)中毒的幫助下進行。在網(wǎng)絡(luò)釣魚場景中,黑客可能會感染一個人工智能驅(qū)動的幫助臺,并對其進行編程,將訪問者發(fā)送到其控制的網(wǎng)絡(luò)釣魚網(wǎng)站。如果攻擊者說服用戶啟用API接口,就可以簡單地竊取其欺騙用戶通過聊天機器人透露的任何數(shù)據(jù)。

3. 就業(yè)風險——人工智能的力量徹底改變了世界,顛覆了職業(yè),并廢除了某些工作流程,這被認為是一項重大的技術(shù)變革。這些變化導(dǎo)致單調(diào)乏味且需要大量人力的工作被取消。當然,人工智能改變了某些工作所需的角色和職責的方法。然而,許多學(xué)者認為大量失業(yè)可能被夸大了。根據(jù)國際貨幣基金組織專家的最新報告,人工智能可能會對全球勞動力市場產(chǎn)生影響。在發(fā)達國家,約60%的就業(yè)崗位可能因人工智能而受到影響。超過一半的生產(chǎn)力可能會因人工智能的實施而提高。超過50%的勞動力預(yù)計將減少勞動力需求,導(dǎo)致工資下降和工作崗位短缺,因為人工智能技術(shù)取代了目前個人實現(xiàn)的關(guān)鍵目標。至少在某種情況下,一些工作崗位可能會消失。相比之下,預(yù)計人工智能在經(jīng)濟發(fā)達國家的影響將達到40%,而在經(jīng)濟落后國家的影響將達到26%。其結(jié)果是,貧窮的經(jīng)濟體和發(fā)展中市場較少受到人工智能的直接沖擊。此外,許多國家阻礙了對資源的需求,以利用人工智能的力量。

4. 偏見和道德問題——訓(xùn)練數(shù)據(jù)集應(yīng)該是人性化的、一致的和合法的。訓(xùn)練數(shù)據(jù)的質(zhì)量取決于可能影響輸出生成人工智能結(jié)果的因素,包括其可靠性和精度。生成式人工智能模型的缺點是缺乏標準值。因此,用于訓(xùn)練的有偏見的信息為算法奠定了基礎(chǔ),而算法進一步開發(fā)了不可信的數(shù)據(jù)。團體利用這些信息制作虛假圖像、貶低內(nèi)容或虛假音頻,這些都可以用來損害任何個人的身份。由于訓(xùn)練數(shù)據(jù)可能包含個人身份信息(PII),因此可能帶來道德挑戰(zhàn)。因為其可能會泄露個人的姓名、電話號碼、卡號、用戶名和密碼等,這些都被視為個人身份信息。隱私要求應(yīng)遵守數(shù)據(jù)訓(xùn)練模型,并且必須確保不向生成式人工智能提供任何PII數(shù)據(jù)。人工智能驅(qū)動的結(jié)果的優(yōu)勢可能會給員工帶來麻煩,因為其會無意中泄露私人數(shù)據(jù)。

5. 生成式人工智能欺詐——人工智能時代重新定義了帶有生成式人工智能的欺詐活動,俗稱生成式人工智能欺詐。個人利用神經(jīng)網(wǎng)絡(luò)制作的虛假內(nèi)容來傳播謠言。欺詐者可能會繞過驗證過程,通過使用生成式人工智能制作真實個人的虛假自拍照、圖片和錄音來創(chuàng)建欺詐賬戶。

總結(jié)

盡管生成式人工智能技術(shù)的創(chuàng)新和進步面臨各種挑戰(zhàn)和機遇,但個人/組織應(yīng)該意識到安全風險。這可能是人為錯誤或無意中泄露私人信息、數(shù)據(jù)存儲挑戰(zhàn)、缺乏標準指南、國際法規(guī)問題和數(shù)據(jù)泄露的結(jié)果。即使存在眾多問題,企業(yè)也應(yīng)該采用生成式人工智能。在仔細考慮其風險后,專家建議組織/個人為企業(yè)制定全面的行動計劃,強調(diào)風險管理、人工智能系統(tǒng)安全,從而培養(yǎng)人工智能信任。

常見問題解答:

1、什么是生成式人工智能?

答:人工智能生成新內(nèi)容的能力,如書面內(nèi)容、圖像、聲音、音頻和視頻,被稱為生成式人工智能。生成式人工智能采用機器學(xué)習模型,以識別人類開發(fā)的大量內(nèi)容數(shù)據(jù)集中的趨勢/模式和聯(lián)系。其通過結(jié)合所學(xué)的趨勢/模式進一步生成新內(nèi)容。一種流行的學(xué)習方法是生成式人工智能模型中的監(jiān)督學(xué)習,其中片段與人類生成的內(nèi)容一起被輸入一組標簽。因此,它獲得了開發(fā)具有人類產(chǎn)生的相似性的內(nèi)容的能力,并相應(yīng)地被考慮。

2、生成式人工智能應(yīng)用有哪些?

答:利用生成式人工智能,我們可以:

該技術(shù)通過實時對話改善了客戶互動。 該技術(shù)通過摘要和對話界面檢查大量非結(jié)構(gòu)化數(shù)據(jù)。 該技術(shù)可協(xié)助完成日常工作,包括響應(yīng)請求、將營銷材料翻譯成不同語言、遵守客戶合同等。

3、生成式人工智能是一項顛覆性技術(shù)嗎?

答:生成式人工智能是一種顛覆性技術(shù),可實現(xiàn)日常任務(wù)的自動化、加快軟件開發(fā)速度、豐富問題解決能力和用戶體驗。這種生成式人工智能技術(shù)將鼓勵創(chuàng)造力和可靠性,同時幫助IT行業(yè)的個人應(yīng)對快速發(fā)展的數(shù)字時代的挑戰(zhàn)和機遇。IT行業(yè)的未來與生成式人工智能的變革潛力成正比。生成式人工智能通過定制界面、創(chuàng)意生成、服務(wù)/產(chǎn)品推薦和針對特定用戶需求的交互,改變IT組織的服務(wù)和產(chǎn)品,以適應(yīng)以用戶為中心的體驗。IT行業(yè)將利用生成式人工智能的潛力,實現(xiàn)前所未有的成果之旅。

4、我們?nèi)绾未_保生成式人工智能的使用合乎道德?

答:組織/個人可以負責任地利用生成式人工智能的潛力,并在意外情況或后果中采取預(yù)防措施,通過了解技術(shù)缺點、保持透明度、解決可靠性問題、教育用戶、定期更新和建立標準指南來促進道德人工智能。

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2024-06-19
生成式人工智能的風險是什么?
盡管生成式人工智能已經(jīng)取得了長足進步,但數(shù)據(jù)隱私和保密性方面仍然存在問題。生成式人工智能的應(yīng)用可能仍需要仔細評估所涉及的危險,例如不準確性、潛在欺詐和知識產(chǎn)權(quán)損失。

長按掃碼 閱讀全文