騰訊科技訊(過客/編譯)隨著機器人變得越來越智能化和擬人化,我們一點也不難想象未來某一天它們完全的獨立自主。一旦機器人能夠獨立自主的時候,人類將不得不想辦法如何能讓它們不說謊、不欺騙、不盜竊而且和遠離其它我們人類每天在做的所有壞事。這就涉及到機器人倫理學,這個機器人研究領域的目標是讓機器人遵守特定的道德標準。在最近的報道中,喬治亞理工學院的研究人員們討論了人類如何能夠確保機器人不會違反規定。
機器人倫理學這個研究領域的目標是讓機器人遵守特定的道德標準
第一,擁有道德調節器
軍隊使用的殺人機器人全部都有某種人類的成分在里面,在人類沒有做出最終決定之前機器人不會使用致命的武力。但是那種情況可能很快發生變化,而且當它工作的時候,這些機器人需要了解如何表現出人道主義精神。在戰爭中那種情況意味著什么還尚未定論,但是某種道德標準需要建立,因為濫殺無辜的機器人沒有任何用處。
一種道德調節器將成為機器人架構的一部分,它將依據事先制定的道德標準判定致死性武力是否合理,這或許就是答案。比如說一個擁有道德調節器的軍用機器人或許只攻擊指定殺戮區域或者接近一個醫療設施的人。它能夠使用一種“間接危險評估”系統來確認只除掉目標而不是附近的其它所有人。
第二,建立情感
情感能夠幫助我們確定機器人在軍隊或者任何地方都不會做任何不恰當的事情。一個軍用機器人如果再三的被上級所責罵,它能夠擁有越來越多的愧疚感。如果積攢了足夠的愧疚感,機器人或許會強制自己不去完成任何更加致命的行動。
情感同樣能夠用于與非軍用人形機器的相互交流上。欺騙能夠幫助一個機器人在一場搜救行動中冷靜的安撫慌張的受害者他們沒事,而且患有老年癡呆癥的困惑病人或許也需要一個護理機器人的欺騙。但是未來的程序員需要謹記:從開始欺騙到擁有自主能力的機器人情不自禁的靠欺騙獲得它們想要的東西是非常容易的。
第三,尊重人類
如果機器人不尊敬人類,我們就麻煩了。這就是為什么研究人員們如此緊張的原因,自主機器人需要尊重基本的人權,包括隱私權、身份信息和自主權。如果我們不能保證智能機器人這樣做的話,我們應當避免大批量的制造它們。
當然,人類不會一直按照倫理道德行事�;蛟S我們也能夠使用一種倫理調節器,尤其是當我們的大腦讓我們誤入歧途的那些時候。研究人員解釋說:“我們期待隨著這些早期研究的推動,能夠產生倫理顧問能夠提高人們的表現,而不是管理一個自主機器人的道德行為,它反而能夠為人類使用者提供另一種面對倫理挑戰的意見,比如說對待身體上和精神上有障礙的群體。
最終,機器人或許能讓我們更加人性化。
推薦閱讀
騰訊科技訊 (過客/編譯)恰逢歷史上最出名的泰坦尼克號海難事故100周年之際,國家地理雜志和一群研究人員公開了一些泰坦尼克號的新照片,這是有史以來第一次自由的公開沉船照片。沉船的詳細殘骸照片是通過數百張光學>>>詳細閱讀
本文標題:科學家定三大道德基準 防《機械公敵》成真
地址:http://www.xglongwei.com/a/kandian/20120401/47198.html