當(dāng)前位置:中工網(wǎng)評論頻道科教-正文
霍金的預(yù)言會不會成真?
谷建
//8858151.com2016-04-08來源: 北京青年報
分享到:更多

  英國理論物理學(xué)家斯蒂芬·霍金在接受英國廣播公司(BBC)采訪時說:“制造能夠思考的機器無疑是對人類自身存在的巨大威脅,當(dāng)人工智能發(fā)展完全,就將是人類的末日!鼻岸螘r間,韓國籍圍棋世界冠軍李世石在與機器人“阿爾法狗”的人機大戰(zhàn)中敗下陣來的消息,似乎給霍金的預(yù)言做了注腳。媒體上接連不斷的關(guān)于機器人戰(zhàn)士、機器人武器的報道,也讓人不能不擔(dān)憂:好端端的生活,甜蜜蜜的憧憬,真的就要被智能機器人顛覆嗎?

  霍金雖然有“愛因斯坦之后最杰出的理論物理學(xué)家”的美譽,但他在21歲時不幸患上了會使肌肉萎縮的盧伽雷氏癥,從此被禁錮在輪椅上,只有三根手指和兩只眼睛能夠活動。殘酷的病情還剝奪了霍金的說話聲音,于是由英特爾公司領(lǐng)銜,研究出一種智能機器人,能夠洞悉他的思維,為他說話提供單詞,霍金得以重新開口說話。但他同時敏銳地認識到,人工智能發(fā)展到今天的水平,恐怕將來會趕上甚至超越人類的智慧。他擔(dān)心人工智能“能夠自行發(fā)展,并且以從未有過的速度重塑自我,而人類受限于緩慢的生物進化無法與之抗衡而終將被替代。”

  霍金的預(yù)言和憂慮,對于愛看好萊塢大片的觀眾來說,或許并不新鮮。美國大片里常有勇猛的人類戰(zhàn)士被機器人追殺的畫面,那些機器人超級智能,無比強大,人類戰(zhàn)士被追逐得精疲力竭,無處藏身。這些雖然都是科幻,但誰說科幻就不能變成現(xiàn)實呢?《西游記》里的孫悟空一斤斗十萬八千里,變成了今天的飛機、火箭和各種航天器;老孫拔一毫毛吹一吹就能變成無數(shù)小猴子,“變”成了今天的試管嬰兒技術(shù);孫猴子的火眼金睛能識真假、辨妖怪,放到今天也是雕蟲小技了,DNA的鑒定技術(shù)已經(jīng)爐火純青,直逼得當(dāng)下那些風(fēng)情萬種的人,因為曾經(jīng)的濫情,曾經(jīng)的“潛規(guī)則”,一不小心便踏進“親子鑒定門”?梢,技術(shù)的發(fā)達,對人類的極端自由倒是一種制約。

  我想,霍金的預(yù)言會不會成真,機器人能不能“滅”了人類,不能只看機器人,還要看人類自身。因為人類過于貪婪,而過于貪婪就會使問題走向反面,如英國詩人喬叟所說,貪婪是一切罪惡之源。放眼世界,國與國之間要生存,就要競爭;要制衡,就要實力;要爭霸,就要有絕招。所以需要科技的無盡發(fā)展,只有科技高度發(fā)達了,武器就好,軍力就強,拳頭就硬,腰桿就直……人類研制出了核武器,又擔(dān)心人類自身會不會被這些家伙滅掉,核武器的命運尚難預(yù)料,現(xiàn)在又想出新花樣,搞智能機器人,讓它們攜帶高精尖武器,深入敵國,進行大規(guī)模的屠殺或者精確打擊。據(jù)報道,2013年美國已有1.5萬個機器人,有些戰(zhàn)斗機器人即使在失去與指揮員的聯(lián)系后,仍能單兵作戰(zhàn),其智慧、思維、精確、勇猛已不遜于實戰(zhàn)部隊。

  可見,人類如果真的最后滅絕,那也不是因為機器人的無情,而是由于自身的貪婪。霍金對此也有預(yù)言。幾年前他接受美國知識分子視頻共享網(wǎng)站訪談時說,地球200年內(nèi)會毀滅,而人類要想繼續(xù)存活只有一條路:移民外星球。他說,人類已經(jīng)步入越來越危險的時期,我們已經(jīng)歷了多次事關(guān)生死的事件。由于人類基因中攜帶的“自私、貪婪”的遺傳密碼,人類正在一點點掠奪地球資源,人類不能把所有的雞蛋都放在一個籃子里,所以不能將賭注放在一個星球上;艚稹皹O端言論”引來一些中國科學(xué)家的質(zhì)疑,被認為是“杞人憂天”。其實,“杞人憂天”這個典故,放在當(dāng)下也不再是笑話了,那籠罩在人們頭頂?shù)臐夂耢F霾,正如一口大大的黑鍋,不但要掉下來壓垮我們的頭顱,還深深窒息了我們的心。

  我希望霍金的預(yù)言不能成真,而不成真的前提是人類要完善自己,把控自己,節(jié)制自己 的貪婪和欲望,禁絕霸道和仇殺。這樣,由人設(shè)計的機器人,也會秉承人的善意,多干好事,少干或不干壞事,人類才能太平無事,安然無憂。

 

[保存]     [全文瀏覽]     [ ]     [打印]     [關(guān)閉]     [我要留言]     [推薦朋友]     [返回首頁]
掃碼關(guān)注

中工網(wǎng)微信


中工網(wǎng)微博


中工網(wǎng)抖音


工人日報
客戶端
×