什么是机器学习? 您所在的位置:网站首页 测预产期的机器是什么 什么是机器学习?

什么是机器学习?

2023-08-12 02:00| 来源: 网络整理| 查看: 265

随着机器学习技术的不断进步,它肯定会让我们的工作更加轻松。 然而,在企业中实施机器学习时,也会引发一些有关 AI 技术伦理道德方面的顾虑。 其中一些包括:

技术奇点

虽然这个话题深深吸引了公众的关注,但许多研究人员并不担心有关 AI 会在不远的将来超越人类智慧的想法。 技术奇点也称为强 AI 或超级智能。 哲学家 Nick Bostrum 将超级智能定义为"在几乎所有领域(包括科学创造力、一般智慧和社交技能)都远超最优秀人类大脑的任何智力。" 尽管目前社会上并不急于实现超级智能,但当我们考虑使用自主系统(如自动驾驶汽车)时,这个想法会引发一些有趣的问题。 认为无人驾驶汽车从不会发生事故是不现实的,那么一旦发生事故,该由谁来承担赔偿责任? 我们是应该继续开发自动驾驶汽车,还是只将这项技术限于可帮助人们安全驾驶的半自动驾驶汽车? "陪审团"仍未有定论,但这些都是随着开创性的 AI 技术的发展而产生的道德争论。

AI 对工作的影响

虽然公众对人工智能的认识大都集中于失业问题,但这种担忧可能会发生转变。 借助各种颠覆性的新技术,我们看到了市场对特定工作岗位的需求发生了变化。 例如,在汽车行业,包括 GM 在内的许多制造商正将重心转向电动汽车的生产,以便与绿色计划接轨。 能源行业不会消失,但能量的来源正在从燃油经济转向电力。

同样,人工智能也会导致工作需求转移到其他领域。 AI 系统需要由人员帮助管理。 此外,仍需要有人来解决行业内最有可能受就业需求变化影响的复杂问题,如客户服务。 人工智能带来的最大挑战及其对就业市场的影响,将会帮助人们转而投身于市场所需要的新岗位。

隐私

隐私通常在数据隐私、数据保护和数据安全的背景下讨论。 近年来,这些担忧推动政策制定者取得了更大的进展。 例如,在 2016 年,为了保护欧盟和欧洲经济区的个人数据,让人们能够更有效地控制自己的数据,欧盟出台了《通用数据保护条例》(GDPR) 法案。 在美国,有些州制定相关政策,如《加州消费者隐私法案》(CCPA) ,该法案于 2018 年颁布,要求企业向消费者通报数据收集情况。 诸如此类的立法迫使企业重新思考该如何存储和使用可识别个人身份的信息 (PII)。 因此,随着企业希望消除任何漏洞,杜绝一切监视、黑客攻击和网络攻击机会,在安全方面进行投资已成为他们日益重要的优先事项。

偏见和歧视

一些机器学习系统中的偏见和岐视事例引发了许多关于人工智能使用的伦理道德问题。 当训练数据本身可能由有偏见的人工过程生成时,我们该如何防止偏见和歧视? 虽然企业的自动化工作通常都出于善意,但路透社(链接位于 IBM 外部)的一篇报道着重强调了在招聘实践中使用 AI 所产生的一些不可预测的后果。 在实现流程自动化和简化流程的工作中,Amazon 无意间对某些技术职位的求职者形成了性别偏见,最终不得不放弃该项目。《哈佛商业评论》(链接位于 IBM 外部)围绕招聘实践中 AI 的使用提出了其他尖锐问题,例如,在评估某个职位的候选者时,应使用哪些数据。

偏见和岐视并不局限于人力资源职能领域;它们也可能出现在其他许多应用中,例如人脸识别软件、社交媒体算法,等等。

随着企业日益意识到 AI 的风险,围绕 AI 伦理和价值观的讨论也变得越来越活跃。 例如,IBM 已经淘汰了通用的人脸识别和分析产品。 IBM CEO Arvind Krishna 写道:"IBM 坚决反对并且不会纵容使用任何技术(包括其他供应商提供的人脸识别技术)进行大规模监视、种族分析、侵犯基本人权和自由,或用于和我们的价值观以及信任与透明原则不符的任何目的。"

问责制

由于目前还没有重大立法来规范 AI 实践,因此也就没有真正的执行机制来确保践行符合道德规范的 AI。 目前激励企业遵守 AI 道德规范的因素主要是为了避免不符合道德规范的 AI 系统对利润造成负面影响。 为了填补这方面的空白,道德学家与研究人员开始合作研究道德规范框架,以指导社会中 AI 模型的构建和分发。 但是,目前这些框架只是起到了引导作用。 一些研究(链接位于 IBM 外部)(PDF, 1 MB) 表明,分散的责任加之缺乏对潜在后果的远见,不利于防止对社会造成危害。

阅读有关 IBM 在 AI 伦理方面所持立场的更多信息。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有