財聯(lián)社
在業(yè)內(nèi)有“人工智能教父”之稱的計算機科學(xué)家杰弗里·辛頓(Geoffrey Hinton)表示,如果人類不小心的話,人工智能“可能會接管一切”。
現(xiàn)年75歲的辛頓近日在接受媒體采訪時表示,快速發(fā)展的人工智能技術(shù)可能在“五年內(nèi)”獲得比人類更聰明的能力。他補充說,如果這種情況發(fā)生,人工智能可能會進化到人類無法控制的程度。
辛頓指出,人工智能系統(tǒng)可能逃脫控制的方法之一是自己編寫“自己的計算機代碼”,這是我們需要認真擔(dān)心的事情。
辛頓的工作被認為對當(dāng)代人工智能系統(tǒng)的發(fā)展至關(guān)重要。1986年,他與人合著了一篇開創(chuàng)性的論文《通過反向傳播誤差來學(xué)習(xí)表征》,這是人工智能技術(shù)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)發(fā)展的一個里程碑。2018年,他被授予圖靈獎,以表彰他的研究突破。
今年4月,在谷歌工作了10年之后,辛頓辭去了副總裁兼工程研究員的職位,這樣他就可以自由地談?wù)撊斯ぶ悄軒淼娘L(fēng)險。在離職后,辛頓聲稱對自己在開發(fā)人工智能這項技術(shù)中的角色感到遺憾。
他特別強調(diào),人類,包括像他這樣構(gòu)建人工智能系統(tǒng)的頂尖科學(xué)家,仍然沒有完全理解這項技術(shù)是如何工作和發(fā)展的。
許多人工智能研究人員也坦率地承認對此缺乏理解。今年4月份,谷歌首席執(zhí)行官桑達爾·皮查伊將其稱為人工智能的“黑匣子”問題。
正如辛頓所描述的那樣,科學(xué)家為人工智能系統(tǒng)設(shè)計算法,從“數(shù)據(jù)集”中提取信息,比如互聯(lián)網(wǎng)。他說:“當(dāng)這種學(xué)習(xí)算法與數(shù)據(jù)產(chǎn)生交互時,它會產(chǎn)生擅長做某些事情的復(fù)雜神經(jīng)網(wǎng)絡(luò)。但說實話,我們并不真正了解它們是如何做到這些的!
皮查伊和其他人工智能專家似乎并不像辛頓那樣擔(dān)心機器失控的問題。另一位圖靈獎得主Yann LeCun稱,任何有關(guān)人工智能可能取代人類的警告都是“荒謬可笑的”,因為人類總是可以阻止任何變得過于危險的技術(shù)。
但辛頓認為,最壞的情況并不確定,醫(yī)療保健等行業(yè)已經(jīng)從人工智能中受益匪淺。
此外,人工智能制造的錯誤信息、假照片和視頻在網(wǎng)上廣泛傳播。他呼吁進行更多的研究來了解人工智能,政府應(yīng)該出臺法規(guī)來控制這項技術(shù),并在全球范圍內(nèi)禁止人工智能軍用機器人(12.530, 0.10, 0.80%)。
在上個月,美國科技大佬齊聚國會山,參加了由參議院多數(shù)黨領(lǐng)袖舒默舉辦的人工智能峰會,商討未來人工智能的監(jiān)管方式。盡管科技巨頭呼吁美國國會通過立法加強對人工智能的監(jiān)管,但在如何進行監(jiān)管上,各科技公司仍然存在分歧。
辛頓指出,無論人工智能護欄是由科技公司,還是在美國聯(lián)邦政府的強制要求下實施的,都需要盡快出臺相關(guān)的監(jiān)管措施。
他認為,人類可能正處于“某種轉(zhuǎn)折點”,接下來會發(fā)生什么存在巨大的不確定性。并補充說,科技圈和政府領(lǐng)導(dǎo)人必須決定“是否進一步發(fā)展這些東西,以及如果他們這樣做該如何保護自己!