找回密码
 注册
搜索
查看: 269|回复: 0

[杂谈] 人工智能是人類生命進化的新形式?

[复制链接]
发表于 2016-6-11 09:06 PM | 显示全部楼层 |阅读模式


生命進化新形式,逆之順之?

197e006446e24fd1db4329f5a6637080.jpg


  來源:中美友好互信合作計劃


  編者按:從3月9日到3月13日,穀歌人工智能程序AlphaGo以3:1的比分優勢領先韓國圍棋世界冠軍。雖還有1局未戰,結果已無懸念。在圍棋這個被譽為“人類智慧的堅固堡壘”領域接連取得勝利,這無疑是人工智能研究的里程碑性事件。儘管僅是人工智能研究初級階段綜合科技實力的展現,人機大戰對人工智能研究的未來的確提出了一系列啟示。複旦發展研究院中美友好互信合作計劃召集計算機科學、腦科學、神經科學、哲學以及從事人工智能開發與研究的專家進行了深入探討,各抒己見,並對觀點進行梳理,以饗大眾。





  【人機大戰第一輯】為大家帶來了各領域專家對中美人工智能研究的差距和中國應採取哪些措施追趕國際先進水平的討論。【人機大戰第二輯】將為大家帶來進一步的討論,電腦是否能夠代替人腦?人工智能是否暗喻著人類生命進化的新形式?【人機大戰第三輯】將為大家解讀人工智能發展的下一步是什麼?它對人類生命共同體未來的發展又提出了哪些涉及科學、倫理、乃至學哲學的問題?

1 讓人工智能做價值判斷,難;讓多動因決策機器替代人,難上加難

  王曉陽教授(複旦大學計算機學院院長)表示,目前階段的人工智能還不能夠完全取代人類。因為社會生活中,人類的動因不是唯一的,決策是複雜的,而機器還不能勝任。舉個不恰當的例子,封建時期有些大臣與君主對弈時故意輸棋,故意使棋局跌宕起伏、柳暗花明來取悅君主;而AlphaGo只知道贏棋,不知道如何輸棋,如何輸棋輸得有意思。所以只知道贏棋的機器人從這一層面來說根本無法代替人類。

  S教授(計算機專業教授,參與討論者要求匿名)認為,目前的機器“智能”還遠沒有達到人類的“智能”水平,二者並不是一個概念,並且電腦不可能代替人腦。就目前而言,機器不具有“意識”,沒有能力做價值判斷或者道德判斷,這始終與人類的所謂“智能”尤其是智慧相差甚遠。儘管較以往而言,機器人在創造性方面有了很大的提高,現在部分機器人可以達到寫詩作畫等的水平,但實際上“創造性”是人類特有的特質,培養機器人這方面的特質,並無必要。

  張文強副教授(複旦大學機器人智能實驗室主任)認為電腦很難很難替代人腦。他以多年的研究經驗告訴我們:學者越深入瞭解人工智能,就越知道人工智能存在諸多缺陷。現在全世界的人工智能都還處於一個非常低級的階段。即使是最頂級的人工智能設備――AlphaGo,它也只是在某些方面――以規則為基礎的計算和搜索能力領域,超過了人腦。張老師更深刻地指出,機器智能的開發者目前都不清楚大腦是如何思考、思維的,就更不可能使機器具備人腦思索、思維的方式。


  徐英瑾副教授(複旦大學哲學學院)認為應打破對機器人的消極偏見。關於人們總是擔憂機器人有一天會毀滅人類,這是一個很類似於外星人的問題。人們總是認為如果外星人和我們來交流的話,這並不是什麼好事,他們跨過那麼遠的距離,究其動機,我認為他們遲早是會把人類毀滅的。人們對機器人也持有這種偏見。徐教授指出,我們先假設前提成立,即機器人的智能水平已經能夠達到甚至超越人類的水平,那麼我就提出這樣的一個問題:他們為什麼要滅了我們?在很大程度上,人類的智能也很高,我們人類的智能高到一定程度我們就會產生環保意識了,我們就知道不能消滅其他動物。為什麼機器人不能產生和人類和平共處的想法呢?如果機器人也有宗教意識的話,為什麼不會相信大乘佛教,對萬物保持悲天憫人的態度呢?因此,我們大可不必總是對機器人持有消極的偏見。2倘若人工智能預示著生命進化新形式,那麼矽基體取代碳基體也只是人類生命的另一種延續和智慧的拓展


  劉嘉教授(北京師範大學心理學院院長)表示,當人類欣喜於計算機將自身從簡單重復工作中解放出來的同時,也必須察覺自身優勢空間的減少甚至預料到自身的消亡。人工智能開始取代人類智能的奇點,並不是要不可及――激進的觀點認為在2050年的時候,就會開始;我的非常保守估計,是會在100年內發生。需要特別指出的是,我並不認為這種取代。相反,從生命進化過程中,物種的消亡和取代是符合自然進化的現象。若矽基生命更適合生存、更適合生命的進化,那麼自然而然生命的連續體就會從碳基生命逐漸過渡到矽基生命。所以,人類並沒有消亡,而是在另一種載體中,繼續延續生命的進化,文明智慧的拓展。3阿西莫夫的“機器人工學三原則”何以是多餘而不可行的?




6c22410d8f01b943283dc4f9b0d03f4f.jpg

  在荷李活的影片中,人工智能通常代表的是人類的終結者。正是基於這種人類中心主義的角度,所以一些人試圖通過預先設定來防止人工智能的失控。王曉陽教授和劉嘉教授都提到了著名的阿西莫夫其科幻小說《我是機器人》中所提的“機器人工學三原則”:第一條:機器人不得危害人類。此外,不可因為疏忽危險的存在而使人類受害;第二條:機器人必須服從人類的命令,但命令違反第一條內容時,則不在此限;第三條:在不違反第一條和第二條的情況下,機器人必須保護自己。但是劉嘉教授認為其實這種顧慮或者製約既是不可行的也是多餘的。


  為什麼說是不可行的呢?正如我們不知道人類究竟是如何在400萬年的進化中,產生出自我意識的,我們也很難精細控製人工智能的進化步驟。這是因為進化通常是爆發性的,掌握人工智能的進化,遠難於我們讓氫彈爆炸產生的狂暴能力有序有控地釋放出來。


  為什麼說是多餘的呢?因為從進化的角度上講,進化的關鍵在文明的傳承和拓展,而人類智能的載體卻有著先天的不足。我們的載體,即肉體是脆弱的,而計算機僅僅需要簡單地更換一下零配件而已。因為載體的脆弱,個體積累起來的經驗、知識、智慧就會隨著這個載體的消亡,而消亡;而後來者只能根據前人留下的隻言片語重新學習,重複前人的道路,因此人類的知識經驗不容易被保留和傳承,不容易被分享和吸納。所以,我們為何一定要拘泥於肉體的形式而不主動去擁抱新生的存在形式呢?與其去防備人工智能這個“終結者”,還不如我們自身主動將智慧、情感注入到機器之中,在新的載體里進化、永生。


  本期嘉賓:

  劉嘉教授|北京師範大學心理學院院長

  王曉陽教授|複旦大學計算機學院院長

  張文強教授|複旦大學機器人智能實驗室主任

  徐英瑾副教授|複旦大學哲學學院

  S教授|計算機專業教授,參與討論者要求匿名

  本期記者:Estelle, Lan, 餘慧豔, Siwen, 王汪潔, 徐佳唯

  本期文字、編輯:Lan

  封面圖片、圖一、圖二、圖三來源:bing圖片

  本文僅代表嘉賓個人觀點,並不代表本公眾號立場。本文版權歸“中美友好互信合作計劃”所有,如需轉載請與本公眾號聯繫並註明出處。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|小黑屋|www.hutong9.net

GMT-5, 2024-5-24 12:00 AM , Processed in 0.037517 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表