專家視點:沒有監(jiān)管的AI會產(chǎn)生倫理偏見

透明度通常在道德商業(yè)困境中發(fā)揮關鍵作用——我們擁有的信息越多,就越容易確定什么是可接受的和不可接受的結(jié)果。如果財務錯位,誰犯了會計錯誤?如果數(shù)據(jù)被泄露,誰負責保護數(shù)據(jù),他們的行為是否正確?

但是,當我們尋找錯誤或問題的明確來源并且找不到人時會發(fā)生什么?這就是人工智能提出獨特的道德考慮的地方。

人工智能在組織中顯示出巨大的潛力,但它在很大程度上仍然是一種正在尋找問題的解決方案。這是一個被誤解的概念,實際應用尚未在企業(yè)內(nèi)完全實現(xiàn)。再加上許多公司缺乏以真正轉(zhuǎn)型的方式應用人工智能的預算、人才和遠見,人工智能仍遠未達到臨界規(guī)模,而且容易被濫用。

但僅僅因為人工智能在日常業(yè)務中可能不是超可見的,并不意味著它在您的組織內(nèi)的某個地方?jīng)]有發(fā)揮作用。就像商業(yè)中的許多其他道德困境一樣,人工智能中的道德失誤經(jīng)常發(fā)生在陰暗處。無論有意與否,人工智能項目或應用打破道德界限的后果可能是噩夢。避免人工智能中的道德失誤的關鍵是從一開始就對項目進行公司治理。

以透明和信任構(gòu)建人工智能

到目前為止,我們都熟悉 AI 出錯的流行示例。對于深色皮膚的顧客不能正常工作的皂液器,對白種人來說更準確的脈搏血氧儀,甚至預測罪犯是否會重新入獄的算法,都是人工智能(可以說是無意中)存在偏見的故事。

這些情況不僅會引起糟糕的頭條新聞和社交媒體的強烈反對,而且還會破壞更合法的人工智能用例,如果繼續(xù)以不信任的態(tài)度看待這項技術,這些用例將無法實現(xiàn)。例如,僅在醫(yī)療保健領域,人工智能就有可能改善癌癥診斷并標記高風險再次入院的患者以獲得額外支持。除非我們學會建立人們對人工智能的信任,否則我們不會看到這些強大解決方案的全部好處。

當我與同行和商業(yè)領袖談論人工智能時,我從一開始就支持人工智能工作中的透明度和治理理念。更具體地說,這是我的建議:

1、道德人工智能不可能在真空中發(fā)生

如果實施不當,人工智能應用可能會產(chǎn)生重大的連鎖反應。當單個部門或 IT 團隊開始在沒有監(jiān)督的情況下嘗試 AI 驅(qū)動的流程時,通常會發(fā)生這種情況。如果他們的實驗出錯,團隊是否意識到可能發(fā)生的倫理影響?部署是否符合公司現(xiàn)有的數(shù)據(jù)保留和訪問策略?沒有監(jiān)督,很難回答這些問題。

而且,如果沒有治理,如果確實發(fā)生了道德失誤,那么召集糾正道德失誤所需的利益相關者可能會更加困難。監(jiān)督不應被視為對創(chuàng)新的壁壘,而是一項必要的檢查,以確保人工智能在一定的道德范圍內(nèi)運行。監(jiān)督最終應該落在擁有他們的組織中的首席數(shù)據(jù)官,或者如果 CDO 角色不存在,則由首席信息官負責。

2、始終有計劃

我們看到的關于 AI 項目出現(xiàn)問題的最糟糕的頭條新聞通常有一個共同點,即處于其中的公司在出現(xiàn)問題時不準備回答問題或解釋決策。監(jiān)督可以解決這個問題。當組織的最高層存在對 AI 的理解和健康哲學時,就不太可能因問題而措手不及。

3、盡職調(diào)查和測試是強制性的

通過更多的耐心和更多的測試,許多人工智能偏見的經(jīng)典例子都可以得到緩解。就像洗手液分配器的例子一樣,一家公司展示其新技術的興奮最終適得其反。在產(chǎn)品公開發(fā)布之前,進一步的測試可能會發(fā)現(xiàn)這種偏見。此外,任何人工智能應用程序都需要從一開始就進行嚴格審查。由于人工智能的復雜性和不確定的潛力,必須戰(zhàn)略性地謹慎使用它。

4、考慮人工智能監(jiān)督功能

為了保護客戶隱私,金融機構(gòu)投入大量資源來管理對敏感文件的訪問。他們的記錄團隊仔細分類資產(chǎn)并構(gòu)建基礎設施,以確保只有正確的工作角色和部門才能看到每一個。這種結(jié)構(gòu)可以作為構(gòu)建組織人工智能治理功能的模板。一個專門的團隊可以估計人工智能應用程序的潛在積極或消極影響,并確定需要多久審查一次其結(jié)果以及由誰來審查。

對于尋求數(shù)字化顛覆的企業(yè)來說,試驗人工智能是重要的下一步。它將人類工作者從平凡的任務中解放出來,并使某些活動(如圖像分析)能夠以以前在財務上并不謹慎的方式進行擴展。但這不能掉以輕心。人工智能應用必須在適當?shù)谋O(jiān)督下仔細開發(fā),以避免偏見、道德上有問題的決定和糟糕的業(yè)務結(jié)果。確保對組織內(nèi)的 AI 工作進行了正確的訓練。最嚴重的道德失誤往往發(fā)生在黑暗處。

本文作者:Jeff DeVerter-Chief Technology Evangelist, Rackspace Technology

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2022-06-17
專家視點:沒有監(jiān)管的AI會產(chǎn)生倫理偏見
僅僅因為你可能看不到人工智能的錯誤并不意味著一切都很好,但尋找道德或其他問題取決于人類。

長按掃碼 閱讀全文