热议生成式人工智能:大模型的“偏见”和“幻觉”如何应对?怎么让大模型像人一样有记忆力? 您所在的位置:网站首页 notable怎么记忆 热议生成式人工智能:大模型的“偏见”和“幻觉”如何应对?怎么让大模型像人一样有记忆力?

热议生成式人工智能:大模型的“偏见”和“幻觉”如何应对?怎么让大模型像人一样有记忆力?

2023-07-11 05:19| 来源: 网络整理| 查看: 265

央广网北京7月7日消息(记者吕红桥)据中央广播电视总台经济之声《环球新财讯》报道,在正在举办的2023世界人工智能大会上,生成式人工智能是专家关注的焦点。讨论的话题涉及大模型的发展方向、技术短板、提升空间等。什么是大模型的“偏见”和“幻觉”?如何应对“偏见”和“幻觉”?怎么让大模型像人一样有记忆力?

 

今年生成式人工智能的爆发式增长由ChatGPT引领,正因如此,目前在不少人看来,ChatGPT这样的通用大模型就代表了生成式人工智能的全部,有些人甚至认为生成式人工智能就是聊天对话产品。对此,腾讯集团副总裁、华东总部总经理张立军在这届世界人工智能大会上指出,通用大模型和各行各业相结合才能真正落地,这就需要依托行业大模型。

张立军表示:“通用大模型是一个AI的发展的方向,也带来了这次AI浪潮的兴起。但我们认为对于各行各业,尤其我们的企业来说,行业的大模型可能在此基础上更加有价值。它在通用大模型的基础上,可以与各行各业的应用场景相结合,打造出更加独属于各个行业的、深入可用的这么一些模型的场景。”

大模型在各行各业落地,思路是以通用大模型为底座,垂直行业公司结合行业大数据,提供行业大模型。一个难点是行业间跨度巨大,有大量技术细节需要处理。比如在交互方式方面,虽然大模型支持文字、图片、语音、视频等多模态交互方式,但各行各业的最佳交互方式是不同的,像法律、教育这样的行业,仅仅把相关文本“喂”给大模型,显然不行。清华大学交叉信息研究院助理教授袁洋认为,落地大模型,需要探索更好的多模态交互方式。

袁洋说:“你说一句话要画一只狗,然后它生成一只狗的图片。但是这样的话,很可能你会发现生成狗的图片不是你想要的姿态或模式,然后你可以用鼠标来拖动一下,修改一下。鼠标拖动的这种方式,在我看来就是一种新的模态,用户用一种比较好的方式把自己想要表达的内容告诉大模型,让它能够理解。”

大模型目前最让人担心的是存在“偏见”和“幻觉”。“偏见”就是生成的内容存在某种偏好,在一定的条件下,容易引发对立和矛盾。“幻觉”则是杜撰一些虚假信息,之前就有用户表示,ChatGPT有时候会虚构信息,让人一时无法分清事实。对此,张立军认为关键是要找到“偏见”和“幻觉”产生的底层原因、共同原因。

张立军说:“无论是基础算力的缺少,还是模型本身的优化,还是这些优化完成以后它和具体行业的结合,如何产生更好的应用场景,都是需要我们一步一步去探索的。整体来看,我觉得现在已经有一个很光明的方向了,但是怎么样在这个过程中走得更顺,走得更细,走得更快一点,是比较难的。”

目前,大模型还有一大短板,就是没有记忆力。每一次打开对话框,它都像是在和陌生人交互,不会记得你以前跟它说过什么。清华大学交叉信息研究院助理教授杨植麟认为,这方面是大模型今后最大的改进和发展空间。

杨植麟表示:“AI将来应该会跟人一样有共同的记忆,比如说今天我们去用一个AI的话,还是需要每天给它重新灌输一些东西,给它提供很多上下文。我觉得其实未来,可以通过比如说录屏的方式,使人能看到的所有东西,AI都能看到。这种方式其实我觉得在个人的使用上有非常大的想象空间。”



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有