認(rèn)知偏差如何影響人工智能?

認(rèn)知偏差如何影響人工智能?對人類認(rèn)知最基本層面的研究,稱為基本認(rèn)知加工,也稱為認(rèn)知科學(xué)。心理學(xué)、神經(jīng)學(xué)和認(rèn)知神經(jīng)科學(xué)是認(rèn)知科學(xué)的主要研究領(lǐng)域,其的許多發(fā)現(xiàn)對人工智能有著重要的應(yīng)用,即機器學(xué)習(xí)學(xué)科。

有趣的是,神經(jīng)生理學(xué)和微觀測繪的研究支持這樣一個觀點:復(fù)雜的心理操作可以在系統(tǒng)層面上解釋。人工智能系統(tǒng)以多種方式運作,就像我們大腦的簡化版。人工智能每天都在變得更加智能。如果人工智能達到與人類相似的智力水平,其將受到與人類相同的限制。人類對人類層次認(rèn)知的解釋和形成使人工智能系統(tǒng)在機器學(xué)習(xí)中的計算復(fù)雜化。直覺和大腦研究的原理表明,人們在表達事實之前就有特定的解釋偏好。但如果我們過度依賴人工智能,就有可能會低估人類行為的重要性。此外,即使人工智能系統(tǒng)在以無數(shù)種方式改進,我們?nèi)匀徊煌耆私馊祟惾绾卧谶@些領(lǐng)域完成類似但更困難的任務(wù)。即使我們試圖定義什么是“人”,區(qū)別也變得越來越模糊??捎眯詥l(fā)法斷言,人們通常更依賴于確認(rèn)他們當(dāng)前想法的數(shù)據(jù),當(dāng)其涉及到人工智能選擇時,是一個顯著的認(rèn)知偏差。當(dāng)面對相互沖突或模棱兩可的數(shù)據(jù)時,我們往往傾向于對給定證據(jù)做出最相關(guān)或最符合邏輯的解釋。這種策略在某些情況下可能有效,但在許多情況下,可能會導(dǎo)致無法打破的失敗循環(huán)。當(dāng)算法嚴(yán)重依賴啟發(fā)式進行決策,并最終依賴于無關(guān)或過時的信息時,就會發(fā)生內(nèi)存泄漏。這就是一個典型的例子。人類在做決定時更喜歡使用啟發(fā)式方法,這很容易觀察,但這些偏見是自動的和無意識的,使之難以識別。我們有充分的理由認(rèn)為,自狩獵采集文化的時代以來,人類在日常生活中就一直在利用偏見。人類今天擁有的許多技能,比如語言和數(shù)學(xué),都是在各種學(xué)習(xí)策略的幫助下獲得的,比如鏡像。學(xué)習(xí)信息并不難,我們的大腦可以迅速解碼。斷言偏見在人類決策中仍然起著很小的作用是不正確的。盡管不斷開發(fā)改進的過濾方法,但目前還沒有一個解決人工智能進步的單一方案。我們知道人工智能和人類的思想都很容易出錯。這意味著,任何人工智能系統(tǒng)都不會在任何計算中完全取代一個人,無論神經(jīng)網(wǎng)絡(luò)在預(yù)測下一步行動過程中的發(fā)展程度如何。由于認(rèn)知偏見根植于人類本性,不太可能消失,人工智能系統(tǒng)將需要考慮它們。完美的人工智能系統(tǒng)是無法制造出來的。目前正在使用的方法只能加強、優(yōu)化和改進,同時使系統(tǒng)的其他部分具有類似于人的質(zhì)量。越是了解認(rèn)知偏差,就愈能有效地使用機器學(xué)習(xí)和人工智能。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-07-20
認(rèn)知偏差如何影響人工智能?
人類對人類層次認(rèn)知的解釋和形成使人工智能系統(tǒng)在機器學(xué)習(xí)中的計算復(fù)雜化。

長按掃碼 閱讀全文