算法社会中的三大法则 您所在的位置:网站首页 人工智能3大定律包括 算法社会中的三大法则

算法社会中的三大法则

2024-07-07 19:12| 来源: 网络整理| 查看: 265

一、弗兰肯斯坦情结

在我孩童时期,我读了艾萨克・阿西莫夫(Isaac Asimov)所有关于机器人的故事。在阿西莫夫的世界里,机器人逐渐融入社会的方方面面,它们与人类有着不同程度的相似性。但随着故事的发展,最先进的机器人在外观和形态上开始非常“人类”。

这些机器人故事中最著名的就是阿西莫夫的三大定律,它将被植入每个机器人的正电子脑中。

这三条定律如下。

第一定律:“机器人不得伤害人类,或者通过不作为而使人类受到伤害。”[1]

第二定律:“机器人必须服从人类的命令,除非该命令与第一定律相抵触。”[2]

第三定律:“机器人必须保护自身的安全,只要这种保护不与第一或第二定律相抵触。”[3]这三条定律非常有影响力,甚至直到今天,人们还在想象将它们植入到机器人(例如自动驾驶汽车)上会是什么样子,或者这种植入是否有可能实现。[4]

作为一种令人印象深刻的文学手法,三大定律用一种有趣得多的主题取代了人们熟悉的机器人主题。更古老的主题是“弗兰肯斯坦怪物”,或后来变得很邪恶或发狂的杀手机器人的主题。在《终结者》系列电影中,该文学主题的一个例子就是,神经网络(Skynet)变得有自我意识并接管了世界。[5]但阿西莫夫写机器人故事是为了对抗他所谓的“弗兰肯斯坦情结”(Frankenstein Complex)——即机器人天生就具有威胁性或邪恶性——且人类不可避免地会创造出一些机械生物,而这些机械生物又会攻击它们的创造者。[6]事实上,在他的许多小说中,人们一开始对机器人抱有偏见,最终却看到了它们的价值。例如,他几个故事的主角——侦探以利·亚贝利(Elijah Bailey)o他最初怀疑机器人,最后却与他的机器人搭档丹尼尔・奥利瓦(R・Daneel Olivaw)成为最好的朋友。[7]

通过设立三大定律,阿西莫夫让事情变得更加有趣。他没有担心机器人最终是否会攻击我们人类,而是提出了另一个律师非常关心的问题,即法律解释问题。当法律不明确或者法律冲突时,我们会做什么?或者在某些情况下,机器人本身会做什么?通过创立这三大定律,阿西莫夫把我们对机器人的想象从威胁转移到了解释和规制的对象,进而转移到了讽刺和冲突的对象。这是一个非常复杂的想法,也是从他的许多小说中发展出来的。

现如今,我们还不清楚我们是否真的能把阿西莫夫提出的三大定律应用到机器人和人工智能体上。毕竟,阿西莫夫的三大定律似乎相当模糊和不完整,可能存在漏洞。

当然,这也是需要重点关注的部分。在阿西莫夫的小说中,一个反复出现的主题是当法律不明确或模糊,或者在某些情况下可能会发生的冲突。因此小说情节往往转向用巧妙的方式来解释或重新解释它们,或者如何解决它们之间的冲突等。在其后期的一部小说中,机器人丹尼尔・奥利瓦(Daneel Olivaw)一开始是个侦探,但最终成为小说中一个非常重要的人物。他变得非常先进,以至于创造了自己的第零定律——“机器人不能伤害人类,或者通过不作为,让人类受到伤害”——这比他在原始程序中接收到的所有其他程序都要先进。[8]

总之,我今天的目标是要问,我们可以利用阿西莫夫关于三大定律的最初想法做些什么。然而,当我谈到机器人时,将不仅包括机器人这种与环境交互的实物,还包括人工智能体和机器学习算法。我认为这与阿西莫夫的观点完全一致。虽然阿西莫夫主要写机器人,但他也写非常智能的计算机。[9]他试图对抗的弗兰肯斯坦综合症(Frankenstein syndrome)可能源于对人工智能或算法的恐惧,也可能源于对实体化机器人的恐惧。今天,人们似乎不仅害怕机器人,而且害怕人工智能体和算法,包括机器学习系统。[10]机器人似乎只是一系列更大问题中的一个特例。

剩余50%未阅读,继续阅读 【注释】


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有