当前位置>首页>知识百科
如何建造一个有道德的机器人?
发布时间:2018-03-21 11:16:07   来源:本站   浏览:

如何建造一个有道德的机器人?


你该如何教机器人区分对错?这是科幻电影中会直接抛出来的问题,这也是我们需要思考的问题。试想象一辆自动驾驶汽车,它是选择撞到孩子,还是撞到障碍物而令车上的乘客受伤?再或者一个救援的机器人在地震中侦查到两名受伤的人,却没有时间同时拯救两位,这就是道德的困境,这也是为什么科学家尝试去建造有道德标准的机器人。

\
 
如果我们要和拥有自主性的机器人一起出去玩,我们应该要教他们如何表现呢?换言之我们要如何让机器人意识到自己的行为表现对他人来说的重要价值。机器人研究专家Matthias Scheutz表示:“现在最大的挑战是如何让机器人去理解并采纳,那些对我们人类来说都没有很清晰了解道德标准。”最大的问题是,如果你是一个机器人 ,这些范约束都不是绝对的。在某一情况下看似极其重要的规范与价值,只要换一个语境,游戏规则就必须要顺势改变。

\

 
我们怎样才能让机器人能够分辨去遵守哪条道德规则呢?这是布朗大学的MOLLY实验室所投身的研究项目,研究者收集整理人们讨论道德标准的想法、词汇和条例,建立基本词库,接着量化分类这些词语。在未来,一个机器人可以内置这份道德词库地图,借此在任何情景下都能唤出正确的道德观,但即使机器人能够完美地模范人类决策过程,这真就是我们所希望看到的结果吗

\
\

 
MOLLY实验室怀疑我们其实希望机器人做出不同的决定,亦即是我们希望别人才会去做的这件事。实验设计让研究对象去想象一个经典的道德困境场景,想象一个在煤矿井轨道行路的矿车刹车失灵了。在车上有四个人,轨道前方障碍是堵墙,前方分叉口另有一条安全轨道,但是修理工站在上面,他对即将可能遇到的危险完全无知。一个人看见了这个情况,他可以操控杠杆改变轨道去解救车上的人,但会导致轨道上的修理工被撞死。机器人研究专家Matthias Scheutz表示:“这个道德困境在于,你愿意害死一个拯救四人,还是你无动于衷,让天命去尽人事。”

\
\

 
MOLLY实验表明机器人和人类对于这类情况如何做出自己的决定,有趣的是,如果人类和机器人都做出不受欢迎的决定,人们会更少责怪于人类。这就带出了沉重的课题:机器人必须要配备交流及技能。这一交流对话技能非常重要,因为道德规则不是一成不变的,我们理性讨论道德议题,经常学习彼此,借此不断更新我们的价值观,任何有道德标准的机器人需要体验着一过程。我们还有很长的路要走,才建造出有道德感的机器人,这些可能就是我们学习的第一步。

\
 

下一篇:最后一页
相关文章/The Related articles
最新文章/The latest entries