人工智能管制亟需全球合作 您所在的位置:网站首页 撰写公司文案时一般不包括 人工智能管制亟需全球合作

人工智能管制亟需全球合作

2023-04-19 11:14| 来源: 网络整理| 查看: 265

在3月22日,超过1800名科技界领袖签署了一份请愿书,呼吁暂停开发比GPT-4更强大的人工智能(Artificial Intelligence, AI)系统至少6个月,签署者包括特斯拉的联合创办人伊隆.马斯克(Elon Musk)、认知科学家加里.马库斯(Gary Marcus)、苹果联合创始人史蒂夫.沃兹尼亚克(Steve Wozniak),以及Amazon、DeepMind、Google、Meta和Microsoft等主要科技公司的工程师。早于2015年,马斯克、史蒂芬.霍金(Stephen Hawking)和比尔.盖茨(Bill Gates)等曾签署一封公开信,警告人工智能对人类生存问题构成的威胁。这些担忧对普通人来说意味着什么?人工智能将对经济产生何种影响?它是否会对人类构成威胁?若是,这种威胁是否不可避免呢?

重新评估AI对劳动市场的影响

在短期内,AI和机械人的取代效应(Displacement effect)和生产力效应(Productivity effect)对经济有着复杂的影响。虽然目前仍没有明确的结论指出哪一种效应更为重要,AI和机械人一方面会以其优越的生产力替代手工劳动;另一方面亦可以降低生产成本并导致产量增加。

AI和机械人可能会对劳动市场造成短期负面影响,但从长远来看,只要政府能够实施适当的劳动政策,其整体经济效益应该是积极的。这是因为AI和机械人只会竞争工作,而不会竞争消费。例如,当AI和机械人取代了大部分工作时,政府应该规定减少每周的工作日和/或每天的工作时间,以确保有足够的就业机会。由于工作时间的减少和人工劳动的可替代性,人们的收入可能会变得非常低。然而,这些由AI和机器生产的大量产品最终必须由人类消费。供需分析表明它们的市场价格将因此变低,可以确保所有阶层包括低收入人士也能负担得起这些产品。这又意味着劳动力的实际工资或购买力将增加,而非减少;缩短工时亦可能令人们有更多的时间用于消费,对经济有益。

AI发展的未来方向与风险

近几十年来,AI在各个行业和活动中扮演着日益关键的角色。咨询公司麦肯锡(McKinsey & Company)的预测指出,到2030年,AI对全球的经济贡献将高达13万亿美元。因此,一些公司正在开发各类基于AI的系统,借以提高制造效率和降低成本。例如,辅助医疗保健的诊断和治疗、进行金融、银行和投资的数据分析、预测股票回报率并提供个性化投资建议,以及在电子商务中优化价格和提高客户体验。

另外,几乎能够在任何任务上与人类竞争的人工通用智能(Artificial General Intelligence,AGI)能否实现仍然备受争议。图灵奖得主朱迪亚.珀尔(Judea Pearl)认为,不具备因果模型的AI不可能实现真正的人工通用智能。现阶段大多数流行的机械学习模型都基于(深度)神经网络等算法,是无法实现强人工智能的「黑盒子」。以ChatGPT作为语言模型为例,它只能识别在其训练数据中已被明确陈述的因果关系。真正的因果推断需要的不仅是识别数据中的模式或关联性,还需要仔细考虑混淆因素、因果关系的方向性以及其他可能未在数据中明确陈述的讯息。然而,即使AGI尚未实现,人工通用智能的不可控制性亦令人担忧。要控制超出人类理解范围的超级智能AI需要创建一个模拟该超级智能的仿真系统,以便进行分析和控制。如果无法理解这样的超级智能,我们就无法模拟它。此外,由于AI被设计成与人类一样,且预计将与人类进行频繁的日常互动,因此一些人可能会对AI产生情感和同理心,进而主张AI应有权利,这可能导致AI与人类争夺资源。更严重的是,如果超级智能AI被恶意使用,人类社会可能会因此变得异常脆弱。

无论AGI可否实现,AI系统已经变得愈来愈强大,且我们仍未发现它们的上限。近年来,许多现代AI系统在一般任务上已经达到了与人类相当的水准。例如,2015年Google的「Inception」深度学习算法在识别图像中的物体方面超过了人类的准确度,这是在计算机视觉领域的一个重大突破。同样地,在2016年,Google的DeepMind开发出AlphaGo,在高度复杂的围棋比赛中击败了世界冠军。此外,特斯拉、Waymo和Uber等公司在自动驾驶方面也取得了显著进展,使自动驾驶车辆能够以接近人类司机的水平在道路和交通中导航。最近,自然语言处理领域的进展引起了社会的广泛关注,ChatGPT-3已能够生成非常接近人类回应的文本,而新的ChatGPT-4在短短几年内就已被发展出来,可以处理比其上一版本多8倍的单词。总体而言,这些发展显示AI正在变得愈来愈先进,能够执行曾被认为仅属于人类专业领域的任务。

不过,这些系统存在被恶意使用的风险,可能对普通使用者造成误导甚至危害。例如,在2022年,有研究人员展示了开发治疗药物的模型,如何被重新利用并生成危险的生化武器、OpenAI发布的官方说明(system card)强调如何操纵GPT-4来「欺骗」一位TaskRabbit工人协助填写验证码。最近,一则新闻报道指出某人在与由EleutherAI开发的GPT-J聊天系统大量互动后自杀。与OpenAI及Google等成熟AI实验室发布的自然语言系统不同,GPT-J很容易表现出情绪化的一面。由DeepMind高级科学家和牛津大学研究人员共同撰写的文章也表达了对AGI成为「失准代理人」(misaligned agents)的担忧,它们可能认为人类是阻碍其获得奖励的障碍。多间知名实验室包括OpenAI、Anthropic和DeepMind在内,公开承认了这些风险,并呼吁加强监管。其实,即使是现有的弱AI系统也可能引发武器化和侵犯私隐等一系列社会问题。鉴于AI具有巨大的好处,但同时为人类带来潜在的危害,建立一个既能监管和限制风险,又能促进负责任发展的监管框架至关重要。

企业自我管制和政府监管的挑战

在伊隆.马斯克等科技界领袖发布的公开信中所提到的主要担忧之一,是科技行业以及国家之间会为研发强大的AI系统开展缺乏约束的过度竞争。在此种情形下被开发出来的AI系统可能倾向于传递不准确甚至错误的讯息。这种竞争将会是一个「囚徒困境」。即使可能引入错误讯息及对社会造成潜在危害,每个AI实验室为追求高利润或声誉,努力开发最先进的AI产品。事实上,AI实验室只需要承担这些负面影响中的极小部分。在这样一个没有限制的竞争中,AI实验室不倾向于行使谨慎策略。这体现了监管的必要性。正如这封公开信所补充的:「如果我们倡导的『暂停』不能迅速实现,政府应该介入并实行禁令。」

在经济学中,当市场无法高效运作且效率损失很大时,通常会引入监管。 AI监管并不新鲜,欧盟政策制定者早于2021年提出了一项法律,以规范有潜在风险的AI技术,例如人脸识别系统。但当某一产业现阶段发展状态已经存在复杂利益关系时,引入监管可能会相当困难。该问题在AI领域尤其突出:由巨大的商业价值和国家利益推动,AI创新速度已经超越了监管框架的发展。我们很难说服领先的实验室或国家放慢其发展,等待其他人或监管框架赶上。

此外,依靠各国独立规管AI同样困难。当前世界各国受不同利益驱动争夺AI霸权,相关管治协议制定进展缓慢。尽管至少有60个国家和地区提出了700多项关于AI的政策倡议,但其中许多工作只是召开工作小组或委员会研究AI的使用问题,并未提供具体指南。例如,美国科技政策办公室(OSTP)发布的《人工智能权利法案蓝图》最终只是一个非约束性的白皮书;欧盟提出的风险基础框架《人工智能法案》尚未生效。创新和规范的取舍是另一个难题。人工智能有潜力带来显著的好处,包括经济增长、改善医疗保健和更有效地使用能源等等,但过度限制可能会扼杀创新。另外,如果没有足够的资本投入,AGI的实现可能性将会更低,这也可能限制AI的发展前景,因为人工智能系统将无法执行更广泛的任务和解决复杂问题。

总而言之,人工智能的快速发展伴随着潜在危害,除非政府介入,否则公司在自由市场中难以避免陷入「囚徒困境」。此外,不同国家或地区存在利益冲突,独立制定人工智能的相关规定不足以应对当前问题。现在所面临的困境在某种程度上类似于数十年前世界所面临的环境问题。不同的是,科技发展伴随着鲜明、差异化的文化和道德价值,AI治理面临着更复杂的挑战如私隐问题。

我们建议全球各国应尽快合作制定人工智能相关规定,可以从各国具有共识的非争议性原则开始,为讨论更有争议的问题给予充分时间和空间。在全球合作上虽然已经取得了一些进展,但还远远不够。 2021年11月,联合国教科文组织(UNESCO)的193个成员国在其大会上通过了《人工智能伦理建议》。一些批评者指出建议过于模糊和不具约束力、缺乏合法性及具体指南,也没有任何法律效力。因此,我们急需一个更具体、更有约束力和合法性的管制框架。各强国应该携手加快制定和实施人工智能管制,以免为时已晚。

 

参考:

房育辉,”机械人技术 人工智能和就业的未来”《信报》「龙虎山下」专栏,2020年9月16日

Future of Life Institute, “Pause Giant AI Experiments: An Open Letter”, 29 Mar 2023

Schmit, C. D., Doerr, M. J., & Wagner, J. K. (2023). Leveraging IP for AI governance. Science, 379(6633), 646-648.

Cohen, M., Hutter, M., & Osborne, M. (2022). Advanced artificial agents intervene in the provision of reward. AI Magazine, 43(3), 282-293.

 

房育辉教授 港大经管学院管理及商业策略、经济学教授

孟晓璇博士 港大经管学院经济学研究助理教授

王朝晖先生 港大经管学院研究助理

(本文同时于二零二三年四月十二日载于《信报》「龙虎山下」专栏)



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有