霍金:人工智能的崛起與工業(yè)革命同等重要

科技日報北京10月23日電 (記者張夢然)據(jù)劍橋大學官網22日消息稱,在該校的未來智能中心開幕儀式上,著名科學家斯蒂芬·霍金發(fā)表了對人工智能的看法。他表示,人工智能既能消滅貧窮和疾病,又可對人類文明構成威脅,它的崛起將在每個方面改變我們的生活,這是與工業(yè)革命同等重要的全球性事件。

未來智能中心匯集了包括劍橋大學、牛津大學等世界一流高等院校與學術機構,旨在共同探討人工智能對人類文明的影響。與此同時,一個跨學科研究團隊將與政策制定者和產業(yè)人員密切合作,對諸如自主武器監(jiān)管及人工智能對社會的影響等問題進行調查。

霍金對此發(fā)表看法稱,成功創(chuàng)造人工智能可能是人類文明史上最大的事件,但如果不學習如何規(guī)避風險,它也會成為人類文明史上最后一個事件。

他在演講中表示,對于一個生物大腦和一臺計算機所能取得成就來說,其間不存在深刻的差別。所以,從理論上說,計算機可以效仿并超過人類的智能。

 他指出,人工智能領域正在飛速發(fā)展,如全自動無人駕駛汽車技術、谷歌的“阿爾法狗”程序戰(zhàn)勝人類頂尖圍棋高手等。人工智能的發(fā)展可能幫助人類消除疾病和貧困,利用這種新技術革命的工具,或能消除工業(yè)化對自然界造成的損害,這無疑將改變人類生活的方方面面。但同時,它也可能產生危險——包括自主型武器、對經濟的破壞,甚至人工智能可以發(fā)展出自己的意志,一種與我們完全沖突的意志。

霍金最后總結道,人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但目前還不知道答案。正因如此,才需要有更多人在這方面進行更深入的研究。

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2016-10-24
霍金:人工智能的崛起與工業(yè)革命同等重要
科技日報北京10月23日電 (記者張夢然)據(jù)劍橋大學官網22日消息稱,在該校的未來智能中心開幕儀式上,著名科學家斯蒂芬·霍金發(fā)表了對人工智能的看法。他表示,人工智能既能消滅貧窮和疾病,又可對人類文明構成威脅,它的崛起將在每個方面改變我們的生活,這是與工業(yè)革命同等重要的全球性事件。

長按掃碼 閱讀全文