當(dāng)前位置:中工網(wǎng)評論頻道國際-正文
蔡肖兵:技術(shù)之上的倫理困境
//8858151.com2015-12-15來源: 人民日報(bào)
分享到:更多

  “電車問題”是倫理學(xué)上著名的“兩難”思想實(shí)驗(yàn),1967年由哲學(xué)家菲利帕·福特首次提出。即便對福特本人來講,都認(rèn)為這是個(gè)絕大多數(shù)人一生不會面對的抽象問題。然而隨著技術(shù)的飛速發(fā)展,特別是無人駕駛汽車上路試驗(yàn),使得這個(gè)思想實(shí)驗(yàn)成為現(xiàn)實(shí)。目前,面對這個(gè)難題的不再只是冥思苦想的哲學(xué)家,政策制定者和汽車生產(chǎn)商也需要思考并解決這一倫理困境。

  想象一下,有一輛失控的電車正沿著軌道橫沖向前,軌道的前方站著5個(gè)人。此時(shí)作為旁觀者的你可以拉動一個(gè)拉桿,將電車轉(zhuǎn)向另一條軌道——這條軌道上只站了一個(gè)人。那么我們的選擇應(yīng)該是什么?什么都不做,讓那5個(gè)人被撞死?還是拉動開關(guān),犧牲另一個(gè)人從而拯救5個(gè)人?這就是著名的“電車問題”。在設(shè)計(jì)無人駕駛汽車程序時(shí),人們不得不考慮它在現(xiàn)實(shí)中發(fā)生的可能性。

  一輛載有一車小朋友的無人駕駛汽車,它兩邊有兩位騎摩托車的人,一位戴著頭盔而另一位沒有。這樣的場景在現(xiàn)實(shí)中應(yīng)該不會罕見。當(dāng)遇到緊急情況時(shí),比如智能汽車前面的貨車突然剎車,為避免車上小朋友出現(xiàn)傷亡,它可以向兩邊急轉(zhuǎn),但這就會撞向兩位騎摩托的人。這輛無人駕駛的智能汽車應(yīng)如何設(shè)計(jì)程序來處理這種緊急情況?如果人工智能應(yīng)該盡可能減少死亡,那么就應(yīng)該選擇去撞戴了頭盔的摩托車手,但這畢竟傷害了一個(gè)無辜的人!無人駕駛汽車讓倫理向技術(shù)提出了挑戰(zhàn)。

  其實(shí),無人駕駛汽車版的“電車問題”要比原來更復(fù)雜,它所涉及的倫理關(guān)系是多層面多角度的。如何實(shí)現(xiàn)符合一定“標(biāo)準(zhǔn)”的“倫理代碼”?什么樣的“倫理代碼”是“合適的”?誰又該為必然會出現(xiàn)的無人駕駛汽車事故負(fù)責(zé)任?進(jìn)而,誰要為這樣的“倫理代碼”負(fù)責(zé)?是車主、制造商還是程序員?一系列問題的提出,讓可能出現(xiàn)的人類與智能機(jī)器首次大規(guī);痈‖F(xiàn)陰云。當(dāng)人們按照現(xiàn)有的法律法規(guī)編寫“倫理代碼”,是否就滿足道德要求?事情并不是這樣。人類的法律法規(guī)遠(yuǎn)沒有窮盡所有的可能性。

  實(shí)際上,站在倫理角度的問題極為復(fù)雜,站在無人駕駛汽車技術(shù)實(shí)現(xiàn)角度也同樣復(fù)雜。人工智能技術(shù)和人類倫理無情地糾纏在一起。一些媒體曾提出觀點(diǎn),認(rèn)為人類是無人駕駛汽車的天敵。文中認(rèn)為:“谷歌的自動駕駛汽車,經(jīng)常會采取最謹(jǐn)慎的駕駛辦法,但這令其與路面上其他車輛格格不入!币粋(gè)嚴(yán)格遵守法律法規(guī)的無人駕駛汽車與人類司機(jī)在十字路口相遇時(shí)無法通過測試,“因?yàn)樗膫鞲衅饕恢痹诘绕渌ㄈ祟悾┧緳C(jī)徹底停下來,讓它過去。但其他司機(jī)一直向前蹭,尋找有利時(shí)機(jī)。這種情況讓無人駕駛汽車陷入癱瘓。”

  可以發(fā)現(xiàn),智能設(shè)備面臨的挑戰(zhàn)之一是如何融入人類的復(fù)雜世界!半娷噯栴}”中面對困境的“你”擁有自由意志,卻陷入兩難境地。而無人駕駛汽車倫理困境中的“主人”,實(shí)際上是實(shí)現(xiàn)這一技術(shù)以及允許其應(yīng)用的群體,他們的能力遠(yuǎn)超個(gè)人,那他們能否做出完美的道德決策?當(dāng)倫理困境不再是個(gè)人選擇問題,而成為人類整體選擇問題,每個(gè)人都必須負(fù)起思考的責(zé)任。

 

[保存]     [全文瀏覽]     [ ]     [打印]     [關(guān)閉]     [我要留言]     [推薦朋友]     [返回首頁]
掃碼關(guān)注

中工網(wǎng)微信


中工網(wǎng)微博


中工網(wǎng)抖音


工人日報(bào)
客戶端
×