有情感機器人可能會“記仇”
AI(人工智能)有多接近人類?機器人會有喜怒哀樂嗎?人工智能會不會有統(tǒng)治人類的一天?昨日在小蠻腰科技大會上,廣州日報特別設(shè)置了“大咖面對面”環(huán)節(jié),美國天普大學(xué)計算機與信息科學(xué)系副教授王培,與廣州日報讀者分享了他對于人工智能的看法,暢談他對人工智能的未來預(yù)測。
像人一樣犯錯的智能才更像人
王培從專訪開始便強調(diào),他所談的通用人工智能(AGI)與社會主流討論的人工智能(AI)不是同一概念。人工智能讓計算機取代人類腦力勞動;而通用人工智能是讓計算機更像人?!癆GI就是在計算機上模仿人的思維規(guī)律,而不是在具體的行為上模仿人,它可能不會下圍棋、不能開汽車?!?/a>
王培舉了一個飛機與鳥的例子說明人工智能與通用人工智能的差異。同樣達到飛的目標(biāo),飛機的運行機制與鳥類是不一樣的,制造出飛機并不能加深人類對鳥類飛行的認(rèn)識。通用人工智能(AGI)要做的是,像做出模擬鳥類飛行的機器那樣,做出能模擬人腦的機器。
人類思維規(guī)律是怎么樣呢?王培說,人們?nèi)绻鲆患婚_始不知道怎么做的事,可能會先試試方法A,失敗了再試試方法B?!澳M人腦的人工智能下棋不一定能贏人類,它還可能會犯各種錯誤,但如果它犯的錯誤跟人相類似,我反而覺得我成功了,因為它再現(xiàn)了人的思維?!?/a>
機器人已學(xué)會“高興”“不高興”
如果機器能再現(xiàn)人的思維,那它是否會出現(xiàn)像人類那樣的情感模式?王培笑答,實際上已經(jīng)出現(xiàn)了。
他的一位博士生的畢業(yè)論文就是研究機器人的情感。目前,這個情感機器人還是在程序階段,只有“高興”“不高興”兩種簡單模式。王培強調(diào),機器人的情感表達不是哭或笑,不一定能被人類感知或理解,更不是簡單呼應(yīng)、模擬人類的情感。
王培解釋道,這個機器人情感的影響因素是目標(biāo)完成的效果。如果達到預(yù)設(shè)的目標(biāo),它會感到“高興”,表現(xiàn)得更開放,愿意接受更多新知識,接受新任務(wù)也會更痛快一些;如果沒有達到預(yù)設(shè)目標(biāo),它會不高興,對周圍事物的敏感度降低,也不愿意接受新事物,想著“我現(xiàn)在的任務(wù)還沒弄好,不想弄別的事”。
王培談到,未來,通用人工智能的情感還將進一步復(fù)雜化,能感受喜、怒、憂、思、悲、恐、驚等等情感。比如通用人工智能可以分析它碰到的對象,在過去是否曾對它構(gòu)成威脅,如果識別出“打不過”就會感到“恐懼”,這個通用人工智能控制的機器人會選擇回避或逃跑。
機器人擁有感情或許會帶來不利于人類的社會后果?王培表示有可能,他舉例,擁有情感的機器人,如果被人類踹兩腳,它可能會記仇,以后都不理踹它的人。但王培也認(rèn)為,讓機器人喜歡你,和讓人類喜歡你的方式是一樣的。“你對它好,它就會為你的利益考慮?!?/a>
王培認(rèn)為,他無法證明壞的結(jié)果不可能發(fā)生,然而像公眾擔(dān)憂的“人工智能統(tǒng)治世界”發(fā)生的可能性很低。王培引述復(fù)旦大學(xué)一位哲學(xué)家的分析文章,公眾對人工智能的恐懼更多是思維混亂的結(jié)果,難以邏輯自洽。同時,人工智能科學(xué)家應(yīng)該加強與公眾的交流,解釋哪些是真正的危險,哪些是臆想出來的問題。