咨詢(xún)熱線(xiàn):021-80392549

特斯拉創(chuàng)始人:人工智能危險(xiǎn)過(guò)核武器!

放大字體  縮小字體 發(fā)布日期:2014-10-09     來(lái)源:[標(biāo)簽:出處]     作者:[標(biāo)簽:作者]     瀏覽次數(shù):113
核心提示:
訊   特斯拉汽車(chē)公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò)上連發(fā)兩條聳人言論,警告人類(lèi)要對(duì)人工智能特別小心,因?yàn)槿斯ぶ悄茉谖磥?lái)很可能比核武器還要危險(xiǎn)。

  埃倫·馬斯克冷不丁地拋出這樣的言論,是因?yàn)椴痪们翱戳艘槐久麨椤段覀冏詈蟮陌l(fā)明:人工智能及人類(lèi)時(shí)代的終結(jié)》的書(shū),這本書(shū)的作者認(rèn)為,人工智能的出現(xiàn)將會(huì)為人類(lèi)帶來(lái)滅頂之災(zāi)。暫且不說(shuō)這種可能性有多大,僅從目前來(lái)看,人工智能對(duì)待人類(lèi)的態(tài)度還算友善。

  比方說(shuō),前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺(tái),而且還帶來(lái)了一項(xiàng)特殊功能——控制智能家居,假如你在微信中對(duì)小冰下達(dá)關(guān)燈的指令,家中的智能電燈就能自動(dòng)關(guān)閉。假如有一天小冰不高興了,頂多不聽(tīng)你的指揮,拒絕開(kāi)燈,尚不至于要了你的命。當(dāng)然,如果未來(lái)你家的電鋸也受小冰控制,那就不好說(shuō)了。

  所以,我說(shuō)目前人工智能對(duì)待人類(lèi)的態(tài)度還算友善,這句話(huà)還隱藏另外一個(gè)意思,就是即便它不友善,現(xiàn)在也還沒(méi)到對(duì)人類(lèi)生命構(gòu)成威脅的時(shí)候。不過(guò),埃倫·馬斯克的擔(dān)憂(yōu)也并非杞人憂(yōu)天,我認(rèn)為人工智能哪怕具備以下四點(diǎn)中的一點(diǎn),就足以對(duì)人類(lèi)帶來(lái)不可想象的后果。

  一、通過(guò)圖靈測(cè)試

  著名的“圖靈測(cè)試”說(shuō)的是假如一臺(tái)電腦能在5分鐘內(nèi)回答人類(lèi)提出的一系列問(wèn)題,且超過(guò)30%的答案讓測(cè)試者誤認(rèn)為是人類(lèi)所答,那么這臺(tái)電腦就通過(guò)了測(cè)試,并被視為具有人類(lèi)智能。

工博士工業(yè)品商城聲明:凡資訊來(lái)源注明為其他媒體來(lái)源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對(duì)其真實(shí)性負(fù)責(zé)。您若對(duì)該文章內(nèi)容有任何疑問(wèn)或質(zhì)疑,請(qǐng)立即與商城(www.podvhdv.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
聯(lián)系電話(huà):021-31666777
新聞、技術(shù)文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com