資料圖片:韓國的國產(chǎn)戰(zhàn)斗機器人。(圖片源于網(wǎng)絡(luò))
美國《時代》周刊網(wǎng)站7月28日報道稱,物理學(xué)家斯蒂芬·霍金和特斯拉汽車公司首席執(zhí)行官埃隆·馬斯克,與數(shù)十名人工智能和機器人專家在27日發(fā)表的公開信中,一道呼吁禁止使用“攻擊性自動武器”。
“人工智能技術(shù)目前的發(fā)展已經(jīng)使其在幾年內(nèi)、而不是幾十年內(nèi)成為可行——即使法律上不可行事實上也是可以實現(xiàn)的,這樣的情況危險極大,”這封公開信說。《衛(wèi)報》報道說這封信將在布宜諾斯艾利斯舉辦的人工智能國際聯(lián)合大會上宣讀!白詣游淦鞅环Q為繼火藥、核武器之后的第三次戰(zhàn)爭革命。”
這封公開信把無需人類命令便能夠選擇并攻擊目標(biāo)的人工智能武器,與無人機和巡航導(dǎo)彈等人類選擇打擊目標(biāo)的武器有所區(qū)別。這封信中還說,雖然對軍隊官兵來說,人工智能技術(shù)可以令戰(zhàn)區(qū)更加安全,但這種不受人類控制的武器會引發(fā)“全球性人工智能軍備競賽”。
“它們流入黑市或落入恐怖分子和獨裁者之手不過是時間問題,”這封信的署名者們警告道。“人工智能可以通過多種方式使戰(zhàn)場對人類、尤其是平民來說更加安全,而不必通過創(chuàng)造殺戮新工具這種方式!
英國《金融時報》網(wǎng)站7月27日發(fā)表題為《科學(xué)家提醒,要警惕殺人機器人軍備競賽》的報道稱,科技界的一些大人物呼吁全球禁止“殺人機器人”,他們提醒說,越過這一界限,將開啟新一輪全球軍備競賽。
人工智能領(lǐng)域的1000多位專家在一封公開信中表明了干預(yù)態(tài)度。在這封信上署名的包括宇宙學(xué)家斯蒂芬·霍金教授、特斯拉公司首席執(zhí)行官埃隆·馬斯克,以及蘋果公司合伙創(chuàng)始人史蒂夫·沃茲尼亞克。
盡管“機器人士兵”仍處于“紙上談兵”階段,可是計算能力和人工智能的迅速進(jìn)步,增加了軍方在20年內(nèi)把機器人士兵派上戰(zhàn)場的可能性。
這封請愿書于28日在布宜諾斯艾利斯舉行的國際人工智能聯(lián)合大會上遞交。該信警告說,繼火藥與核武器的發(fā)明之后,可以獨立確定和襲擊目標(biāo)且不需人類進(jìn)行任何干預(yù)的武器系統(tǒng)的開發(fā),將會帶來“第三次戰(zhàn)爭革命”。
它描繪了未來沖突的可怕情形,類似于系列電影《終結(jié)者》中的場景。
該信說:“對于執(zhí)行暗殺、破壞國家穩(wěn)定、征服民眾或選擇性殺死特定民族等任務(wù),自主式武器是理想選擇!
“因此,我們認(rèn)為,人工智能軍備競賽對人類而言是無益的。人工智能可以讓戰(zhàn)場變得對人類——尤其平民——而言更安全的方式有許多種,不用創(chuàng)造新的殺人工具!
聯(lián)合國也擔(dān)心其所謂的“致命性自主式武器”的開發(fā),以至于它去年召開了有史以來第一次此類會議,討論新科技帶來的風(fēng)險。
加利福尼亞大學(xué)伯克利分校的人工智能領(lǐng)域?qū)<、該信的署名者之一斯圖爾特·拉塞爾之前曾警告說,機器人武器系統(tǒng)可能使得人類“毫無防御能力”。
該信是今年第二封猛烈抨擊將人工智能引入到戰(zhàn)場上的信。不過,在呼吁禁止這些武器系統(tǒng)方面,這封最新的請愿書強硬有力得多。該信是由生命未來研究所協(xié)調(diào)寫成的。
生命未來研究所是由包括Skype公司合伙創(chuàng)始人揚·塔林在內(nèi)的眾多志愿者于2014年創(chuàng)建的。馬斯克和霍金均是該研究所科學(xué)顧問委員會的成員。
自主式殺人機器人的想法對許多軍方人士而言具有吸引力,因為它們提供了重要的對敵優(yōu)勢,其部署不會令本國部隊的任何人處于危險中,而且長期來看,比起必須支持和保護人員的先進(jìn)武器,如戰(zhàn)斗機,它們的成本應(yīng)該更加低廉。
五角大樓是機器人研究的最大支持者之一。2013年,其智庫之一海軍研究處發(fā)給塔夫茨大學(xué)、布朗大學(xué)、倫斯勒理工學(xué)院、喬治敦大學(xué)和耶魯大學(xué)等多所大學(xué)的研究人員一筆研究經(jīng)費,高達(dá)750萬美元,讓其研究如何能教會自主式機器人分辨對錯。
西方軍事規(guī)劃者擔(dān)心,如果他們沒能致力于研究這一技術(shù),那么他們可能會將新一輪軍備競賽的領(lǐng)導(dǎo)權(quán)讓給潛在對手,比如中國。