首頁(yè)|必讀|視頻|專訪|運(yùn)營(yíng)|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁(yè) >> 觀點(diǎn) >> 正文

馬斯克:我們只有10%的機(jī)會(huì)安全使用人工智能

2017年11月24日 11:23  新浪科技  

 北京時(shí)間11月24日早間消息,盡管埃隆·馬斯克致力于推動(dòng)人工智能(AI),但他同時(shí)認(rèn)為,AI非常有可能在未來(lái)對(duì)人類造成威脅。在接受《滾石》雜志(Rolling Stone)的專訪中,這位科技名人聲稱,關(guān)于安全使用AI,我們只有5-10%的成功機(jī)會(huì)。

前景不太好

埃隆·馬斯克花了很多心思來(lái)思考嚴(yán)酷的現(xiàn)實(shí)和人類無(wú)法駕馭AI的可能性。這些思考讓他確信,如果我們要生存下去,就必須與機(jī)器合二為一,為此,他甚至創(chuàng)建了一個(gè)專門(mén)開(kāi)發(fā)腦機(jī)接口(BCI)技術(shù)的初創(chuàng)公司,以達(dá)成這一目標(biāo)。但是,盡管他自己的實(shí)驗(yàn)室OpenAI已經(jīng)能夠?qū)崿F(xiàn)AI的自我學(xué)習(xí)功能,但馬斯克日前表示,安全使用AI只有“5-10%的成功幾率”。

《滾石》雜志近期的報(bào)道顯示,馬斯克已經(jīng)與上文提到的BCI初創(chuàng)企業(yè)Neuralink的員工提到了這一微乎其微的可能性。盡管馬斯克積極參與人工智能的開(kāi)發(fā),但他公開(kāi)承認(rèn),這項(xiàng)技術(shù)帶來(lái)的不僅是潛在的可能性,而且可能引發(fā)嚴(yán)重問(wèn)題。

安全利用人工智能的挑戰(zhàn)可謂一把雙刃劍。

首先,人工智能的一個(gè)(也是OpenAI已經(jīng)在追求的)主要目標(biāo)是構(gòu)建比人類更聰明的AI,它可以在沒(méi)有任何人類編程或干擾的前提下獨(dú)立學(xué)習(xí)。但如何實(shí)現(xiàn)這種能力,目前還是未知數(shù)。

其次,機(jī)器沒(méi)有道德、悔恨或情感。未來(lái)的人工智能或許能夠區(qū)分“好”和“壞”的行為,但顯然無(wú)法具備人類的感覺(jué)。

在《滾石》的文章中,馬斯克進(jìn)一步闡述了人工智能領(lǐng)域目前所存在的危險(xiǎn)和問(wèn)題,其中之一是只有少數(shù)公司在控制著AI行業(yè)。他援引谷歌DeepMind為例來(lái)加以說(shuō)明。

“在Facebook、谷歌和亞馬遜之間,哦,還有蘋(píng)果公司,他們似乎很關(guān)注隱私——他們對(duì)你的了解比你自己還多,”馬斯克說(shuō)!皺(quán)力集中可導(dǎo)致許多風(fēng)險(xiǎn)。所以,如果一般人工智能(AGI)代表權(quán)力的極端水平,它應(yīng)該在毫無(wú)監(jiān)督的條件下由谷歌的幾個(gè)人來(lái)掌控嗎?”

值得冒險(xiǎn)嗎?

專家們對(duì)于馬斯克認(rèn)為AI不安全的表述看法不一。Facebook的創(chuàng)始人馬克·扎克伯格說(shuō),他對(duì)人工智能的未來(lái)持樂(lè)觀態(tài)度,認(rèn)為馬斯克的警告“相當(dāng)不負(fù)責(zé)任”,與此同時(shí),斯蒂芬·霍金(Stephen Hawking)公開(kāi)發(fā)表聲明,真心認(rèn)為AI系統(tǒng)對(duì)人類構(gòu)成了足夠的風(fēng)險(xiǎn),它們可能會(huì)完全取代我們。

謝爾蓋·尼科聯(lián)科(Sergey Nikolenko)是俄羅斯一位專門(mén)從事機(jī)器學(xué)習(xí)和網(wǎng)絡(luò)算法的計(jì)算機(jī)科學(xué)家,最近他分享了對(duì)此事的看法。尼科聯(lián)科說(shuō),“我覺(jué)得我們?nèi)匀蝗鄙俦匾镜恼J(rèn)識(shí)和方法,無(wú)法制造出強(qiáng)大的AI,也難以解決AI及其他相關(guān)問(wèn)題!

至于今天的人工智能,他認(rèn)為我們沒(méi)有什么可擔(dān)心的!拔铱梢源蛸,現(xiàn)代神經(jīng)網(wǎng)絡(luò)不會(huì)突然醒來(lái),決定推翻人類霸主,”尼科聯(lián)科說(shuō)。

馬斯克本人可能同意這一觀點(diǎn),但他的表述看似更側(cè)重于如何在我們今天的基礎(chǔ)上創(chuàng)建未來(lái)的人工智能。

我們已經(jīng)有了AI系統(tǒng),能夠構(gòu)建人工智能系統(tǒng),它們有的可以用自己的語(yǔ)言進(jìn)行交流,有的天生具有好奇心。盡管今天的奇點(diǎn)技術(shù)和機(jī)器人的興起還嚴(yán)格局限于科幻小說(shuō)層面,但這些人工智能領(lǐng)域的進(jìn)步已經(jīng)讓人們得以一窺真正的未來(lái)世界。

但上述擔(dān)憂并不足以阻止我們繼續(xù)前行。我們也可以讓AI診斷癌癥,識(shí)別自殺行為,協(xié)助制止性交易。

人工智能技術(shù)有可能在全球范圍內(nèi)挽救和改善人們的生活,因此,我們必須考慮如何通過(guò)未來(lái)的監(jiān)管使人工智能變得安全,馬斯克的警告語(yǔ)畢竟只是一家之言。

連他自己也對(duì)《滾石》表示:“我沒(méi)有所有問(wèn)題的答案,我要好好把這件事弄清楚。我正試著構(gòu)想一套我能采取的行動(dòng),以便創(chuàng)造一個(gè)美好的未來(lái)。如果你有這方面的建議,不妨告訴我。”(楊戈)

編 輯:王洪艷
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問(wèn)題,請(qǐng)?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
工信部張?jiān)泼鳎捍蟛糠謬?guó)家新劃分了中頻段6G頻譜資源
精彩專題
專題丨“汛”速出動(dòng) 共筑信息保障堤壩
2023MWC上海世界移動(dòng)通信大會(huì)
中國(guó)5G商用四周年
2023年中國(guó)國(guó)際信息通信展覽會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書(shū)面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像