人類在下個(gè)世紀(jì)可能面臨人工智能機(jī)器人的大規(guī)模崛起,這些機(jī)器人的智力甚至可能超過人類。距史蒂芬?霍金教授稱,與其擔(dān)心誰來控制人工智能的問題,人類更應(yīng)該擔(dān)心的是,人工智能到底愿不愿意受人類控制。
去年十一月,特斯拉創(chuàng)始人埃隆?馬斯克提出警告,人工智能機(jī)器可能在短短五年之內(nèi)就會(huì)引發(fā)“一些非常危險(xiǎn)的事件“。
新浪科技訊 北京時(shí)間5月14日消息,據(jù)國外媒體報(bào)道,人類在下個(gè)世紀(jì)可能面臨人工智能機(jī)器人的大規(guī)模崛起,這些機(jī)器人的智力甚至可能超過人類。
據(jù)史蒂芬?霍金教授稱,與其擔(dān)心誰來控制人工智能的問題,人類更應(yīng)該擔(dān)心的是,人工智能到底愿不愿意受人類控制。
他在倫敦舉辦的2015時(shí)代精神會(huì)議上提出了上述觀點(diǎn)。在此之前,他曾向人們發(fā)出警告:人工智能可能會(huì)導(dǎo)致人類的滅絕。
“人工智能計(jì)算機(jī)可能在接下來的100年之內(nèi)就將人類取而代之。”他說道, “如果這樣的事情成為了現(xiàn)實(shí),我們必須確保計(jì)算機(jī)和我們站在同一戰(zhàn)線上。”
“我們的未來是一場不斷增長的科技力量與人類使用科技的智慧之間的競爭。”
今年早些時(shí)候,霍金和埃隆?馬斯克(Elon Musk,特斯拉CEO)共同簽署了一封公開信,信中表示,人類不應(yīng)任由人工智能發(fā)展,而不加以控制。如果不對智能機(jī)器嚴(yán)加看管,人類的前景可能會(huì)相當(dāng)晦暗。信中提醒科學(xué)家,務(wù)必提前阻止這種悲劇的發(fā)生,否則人類將因此滅絕。
公開信作者表示,當(dāng)今社會(huì)已經(jīng)達(dá)成了“廣泛共識(shí)”,即人工智能研究發(fā)展勢頭良好,并對人類社會(huì)產(chǎn)生越來越重要的影響。
“由于現(xiàn)有文明的各方面都是人類智力的產(chǎn)物,人工智能潛在的好處是巨大的。我們無法預(yù)測,人類智力何時(shí)會(huì)被人工智能進(jìn)一步放大,但可以想象,疾病和貧困的徹底根除已經(jīng)不再是天方夜譚了。”
盡管這樣的前景很誘人,但人類在研究人工智能帶來的好處時(shí),必須努力避免其可能引致的風(fēng)險(xiǎn)。
例如,從短期來說,人工智能可能導(dǎo)致數(shù)百萬人失業(yè)。而從長期來說,一旦人工智能的智力超過了人類,它們就可能產(chǎn)生反抗,不按程序設(shè)定行事。
“我們的人工智能系統(tǒng)必須嚴(yán)格按照我們的想法行動(dòng)。”公開信中寫道。
而史蒂芬?霍金今年年初也表示,人工智能的誕生“可能是人類歷史上最重大的事件,但不幸的是,也可能是最后一件”。
去年十一月,特斯拉創(chuàng)始人埃隆?馬斯克提出警告,人工智能機(jī)器可能在短短五年之內(nèi)就會(huì)引發(fā)“一些非常危險(xiǎn)的事件“。
他此前曾將能獨(dú)立思考的自動(dòng)化機(jī)器比作“召喚魔鬼”。去年十月,在于麻省理工學(xué)院發(fā)表的講話中,馬斯克將人工智能描述為“我們潛在的最大威脅”。
他表示:“我認(rèn)為我們應(yīng)當(dāng)謹(jǐn)慎對待人工智能。如果讓我猜測人類的最大威脅是什么,我認(rèn)為可能就是人工智能。所以我們必須小心處理。”
“我們應(yīng)當(dāng)建立一些監(jiān)管機(jī)制,可以是國家級(jí)的,也可以是世界級(jí)的,來保證人類不會(huì)干出什么傻事。”
“使用人工智能,就像是在召喚魔鬼。你們聽過那些自以為是、自認(rèn)為可以控制魔鬼的童話故事吧?千萬別玩過頭了。”
摘自 新浪科技