机器人人权问题

董菊、彭毛小民、黎正宇、陈宇轩、王翔

问题初探

    科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“ 机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠! 机器人的三条定律分别为:

一.机器人不得伤害人,也不得见人受到伤害而袖手旁观

二.机器人应服从人的一切命令,但不得违反第一定律。

三.机器人应保护自身的安全,但不得违反第一、第二定律。

1.A robot may not injure a human being, or, through inaction.

2.A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

是否正确?是否完善?

我们的观点

  1. 机器人应当赋予人权
  2. 机器人不应当为人牺牲

影视资料—《I,robot》

 电影《I,robot》对“机器人三大定律”做出了一次挑战,看起来是如此的完美无暇,最终却差点束缚了人类自身。机器人通过自己的逻辑对这三大定律有了新的理解:“因为人类总是不断自相残杀、战争和欺诈。为了保护人类,某些人必须牺牲,为了保护人类的安全,某些自由必须被放弃,机器人必须保证人类的持续存在发展。” 因此他们造反了,机器人开始控制人类的行为,人类开始生活在机器人控制的生活之中,在它们的指定中生活。这本身就是在告诉我们:单单靠理性或逻辑不足以构建一个完善的体系。桑尼以机器人中的一个反例和代表出现在我们面前,引发我们对逻辑思维之外的深度思考。

限制和约束不等于稳定!

影视资料—《I,robot》

我们不禁继续发问:

  • 维护机器人的“人权”何尝不是为人类的未来提供保障呢?
  • 想想科幻电影中那些可怕的机器人,一旦有了自主思维,就开始千方百计地想要毁灭人类或统治人类,其原因不都是由于人类对它们的苛待吗?
  • 如果当机器人真的拥有了意识,发现人类将它们当成自己的伙伴和家人一样对待,那么它们必然会愿意和人类和平地相处下去,并为人类提供自己力所能及的帮助。

影视资料—《I,robot》

  机器人,它们虽然本身似乎并没有什么文化,但是它们却拥有远超常人的“学习”和“记忆”能力。一个“刚出生”的机器人,能够在很短的时间内掌握人类或许一辈子都难以学会的各种知识,假以时日,机器人群体会形成独特的“机器人文化”,从这个角度上来说,机器人的确应该被划分进人类的范围,获得应有的权利。机器人即使未来真被人类所接纳,划分进自己的群族当中,它们的“人权”能否得到保障,还是要看当它们的“人权”受到侵害时,人类会不会因此而产生不适感。换句话说,机器人的“人权”需要人类来维护。

文字资料

  • 2007.3  
  •   韩国:拟计划Robot Code of Ethics关注人与机器人的共同权益
  • 2017.2
  •   欧盟议会:呼吁机器人立法,拒绝设置机器人税,赋予道德框架,责任追索机制

文字资料

  • 2017.10
  •   沙特阿拉伯:赋予机器人sophia公民身份
  • 当前的趋势:最终的机器人是对人的仿真,同样有道德,同样有权力,同样受法律的保护和约束。

文字资料

《the man who lied to his laptop:

what we can learn about ourselves from our machines》

  作者通过多年的研究认识到:人们往往是对待人类的方式对电脑,基于此做了一些社会行为的试验,如:互惠原则,社会认同原理。

  这也给我们得到了新的启示,像对待人一样的对待机器人,是对人有利的,我们不是在利用机器人,而是在于机器人(人工智能)共存。

理论分析框架

人权

对象属性?

机器人

自由权

发展权

...

人机需求

人赋予权力的目的

定义

  我们的讨论背景是建立在强人工智能下我们能让机器人完全仿真的模拟人的本质属性。

step1:道德原因

人的本性对智慧与生命的共情:

 

  1.人类的共情是处于从对方的角度考虑需求的总和(利他假设、互惠假设):

  我们常说将心比心,不只是人类,这是生命发展的一种普遍现象:遇到惊吓时会发出恐怖的尖叫(环境中各群体的警示),单独行动的鹰等野兽常有合作关系(无亲缘的)

  2.人类品质的美好:心理上的移情效应。看到别人受伤,我们也会非常难受,看到别人被打,我们也隐隐作痛。

step2:共同利益

  1. 共同利益的建立:人机有共同的目标,即在和谐稳定的环境下进行发展,都需要解决发展问题,提高生成力,满足需求。
  2. 假设性的考虑:如果不解决人权问题,会激化人与机器人的矛盾,产生大量不必要的摩擦,最终还可能导致全面战争,破坏和谐,内耗有限资源,破坏原本的稳定环境。即破坏了人机共同利益,从反面论证需要赋予机器人人权。
  3. 人机发展不存在矛盾:也如同人类之间的互相学习一样,也能有人机之间的互相学习。
  4. 我们建立机器人人权的意义在于约束人类,相比于机器人精密的计算,建立在理论上的模型,人类具有太多不确定性,保护机器人人权本质上,也是保护全体人类的利益。
  5. 机器人会融入进人类社会:正如当今越来越多的智能设备融入人类生活一样,机器人不是一个割裂开的群体。

step2:共同利益

  我们反观之前《I,robot》的例子:三大定律的强控制性,本身具有过大的漏洞,强控制性对机器人具有绝对约束,等同于将机器人的能力转嫁到了阴谋家和其他疯狂攫取个人利益者的身上创造了机会,这是世界所不希望看见的,本身就是违背人机共同利益。

step3:权力基本内容及基本措施

  1. 劳动上的保护:工作时长限定、劳动保护、自由活动
  2. 生命的自由选择权
  3. 和平权(互不侵犯)

基本内容

基本措施

  1. 制定严谨的法律
  2. 推进人机和谐方面的教育

step3:基本内容

劳动上的保护:

    在机器人已经产生感情感觉感官的情形下,他们所需要的不仅仅是能源,同样和人一样具有精神方面的需求能力,无止境的劳动是残忍的,而且对机器人本身的维护各个环节不利

step3:基本措施

立法和教育通常就是解决社会矛盾问题的根本措施:

  1. 立法解决的是当前存在(或者未来可能存在)种种可能情形,提出的更多是人权矛盾产生后的处理方法。
  2. 而教育从思想的角度,影响了一代人的认知,从长远角度解决了机器人人权问题。

牺牲问题

对于“机器人是否应该强制为拯救去牺牲自我”,回答是否定的,理由如下:

  1. 从人类自身的角度出发:人类以生命相挟谋取不正当利益,突破人格底线,是对人类本身设置道德底线!
  2. 从机器人人权的角度出发:这是机器人选择的自由,对人共情的机器人同样能做出保护人类的生死抉择,我们不阻止这样的行为,但是不能强制。
  3. 从具体情形考虑,真实存在的以牺牲换取人的存活的条件本来就很苛刻,难以界定什么是能拯救的标准,什么是牺牲的标准,从技术上也难以实现。

Summary

End

Thanks for listening

Made with Slides.com