咨詢熱線:021-80392549

人工智能距離消滅人類還有多遠?

放大字體  縮小字體 發(fā)布日期:2014-10-10     來源:[標簽:出處]     作者:[標簽:作者]     瀏覽次數(shù):106
核心提示:
網(wǎng)訊:特斯拉汽車公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為人工智能在未來很可能比核武器還要危險。

  埃倫·馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類時代的終結》的書,這本書的作者認為,人工智能的出現(xiàn)將會為人類帶來滅頂之災。暫且不說這種可能性有多大,僅從目前來看,人工智能對待人類的態(tài)度還算友善。

  比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺,而且還帶來了一項特殊功能——控制智能家居,假如你在微信中對小冰下達關燈的指令,家中的智能電燈就能自動關閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當然,如果未來你家的電鋸也受小冰控制,那就不好說了。

  所以,我說目前人工智能對待人類的態(tài)度還算友善,這句話還隱藏另外一個意思,就是即便它不友善,現(xiàn)在也還沒到對人類生命構成威脅的時候。不過,埃倫·馬斯克的擔憂也并非杞人憂天,我認為人工智能哪怕具備以下四點中的一點,就足以對人類帶來不可想象的后果。

  一、通過圖靈測試

  著名的“圖靈測試”說的是假如一臺電腦能在5分鐘內(nèi)回答人類提出的一系列問題,且超過30%的答案讓測試者誤認為是人類所答,那么這臺電腦就通過了測試,并被視為具有人類智能。

  30%的說法是由英國人工智能之父阿蘭·圖靈提出的,這個標準現(xiàn)在愈發(fā)遭到人們質(zhì)疑。圖靈本人后來也否認自己曾為這項測試設定所謂標準,30%只是自己隨口一說。說者無心聽者有意,圖靈去世后37年,美國科學家兼慈善家休·勒布納把這項將這項測試辦成了一年一屆的賽事,這項賽事從1991年開始,直到2014年6月,主辦方才宣布首臺計算機通過測試。不過這次事件隨后遭到媒體質(zhì)疑,將其視為一次炒作。

工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與商城(www.podvhdv.cn)聯(lián)系,本網(wǎng)站將迅速給您回應并做處理。
聯(lián)系電話:021-31666777
新聞、技術文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com