AIGC“尖峰系列”丨全球厂商开卷大模型,创业者可以考虑这三个机会 您所在的位置:网站首页 全球第一大浏览器 AIGC“尖峰系列”丨全球厂商开卷大模型,创业者可以考虑这三个机会

AIGC“尖峰系列”丨全球厂商开卷大模型,创业者可以考虑这三个机会

2023-05-06 15:22| 来源: 网络整理| 查看: 265

一场由ChatGPT引爆的人工智能浪潮仍在全球蔓延,不过,从目前微软宣布将AI技术整合入Bing搜索和Edge浏览器,以及全球科技企业追逐AIGC风口,争相推出大模型及相关产品来看,这场人工智能浪潮已经从概念讨论进入到了场景落地阶段。

为了更好地帮助创业者抓住这波AI浪潮,码脑自3月10日开始陆续组织了三场「一起向未来」AIGC系列活动,分别邀请到了张宏江博士、美国硅谷的李维博士和龙波博士,和大家共同探讨了ChatGPT语言大模型的技术路线、商业应用和未来趋势等话题。随着ChatGPT的快速发展及普及,我们也在紧跟进化的脚步,分享内容从概念解析延伸至场景落地,分享嘉宾从专家博士扩大至一线技术实践者,致力于为大家拨开重重迷雾,探索各种AI落地场景。

4月22日,码脑「AIGC系列」第四场——《AIGC如何深刻影响产品、研发和运营?》在源码北京办公室和线上同步举行。我们邀请到了微软中国数据科学与人工智能解决方案事业部总经理李磊、企业级研发管理平台ONES联合创始人&CTO冯斌、游戏AI平台GamesMind创始人&CEO张大卫、源码资本CTO杨普、源码投资人郝毅文,共同探讨AIGC给企业产品、研发、运营带来的实际影响,并带领大家现场感受和演练ChatGPT和Midjourney。

今天我们就为大家带来AIGC系列活动第四场首篇重磅内容——微软中国数据科学与人工智能解决方案事业部总经理李磊关于《ChatGPT/GPT/Azure OpenAI及商业场景初探》的主题分享,听他聊聊ChatGPT的底层逻辑、OpenAI技术与商业价值探索。

今天我重点讲三件事:

第一是ChatGPT与GPT、OpenAI与Microsoft之间的关系;

第二是如何看待ChatGPT的能力;

第三是在通用人工智能的起点阶段,企业能做什么?

先给大家抛四个问题:

第一,大语言模型对自然语言有很好的理解能力,基于大语言模型,我们如何去提升C端或B端客户的体验?

第二,如何通过嵌入通用人工智能的能力,去构建企业自己的产品?

第三,从研发角度出发,自己的生产力工具该怎样提升?

第四,如何利用AI的能力,促进内部运营效率提升?

01

ChatGPT:

通用人工智能时代的里程碑

从2022年12月份开始,ChatGPT在全球变得火热起来,大家都在玩ChatGPT,也发生了很多有意思的事情,在这里,先分享一些大家比较关心的小知识。

ChatGPT是GPT作为模型的一个能力展示场景,当时设计它的时候,就考虑到了如何把GPT能力通过更好的手段让大众认知。由于GPT3里是2021年6月份的数据,而ChatGPT又是在GPT3的基础上,以GPT3.5为底层模型构建出来的一个应用场景,所以它对2021年6月之后的世界一无所知。

最早的时候,我们在谈数据仓库,后来谈大数据。其实整个人工智能领域已经是一个很长时间的学科了,1997年是机器学习,2017年是深度学习,2020年生成了AI。ChatGPT的GPT是基于生成AI的目的场景,它与NLP产生了交集。在GPT4准备完毕时,其实就已经拥有多模态能力了。从目前的角度来讲,我们看到的ChatGPT是基于优化问题解答和对话形式的GPT。还有一个很好的场景,是在3.5之上专门针对代码的。至少在模型的体系里,这几个场景已经被一个通用基础模型给解决掉了。

02

大模型、工具、应用研发,

是创业者可以把握的三个机会

很多人在讲大模型,包括1750亿的参数等。其实OpenAI最早在构建整个系统时,微软就给它提供了很大的算力池,目前有接近于3万块GPU。在GPT3模型完成之后,参数是1750亿,但ChatGPT是15亿参数。到了GPT4甚至以后,参数规模并不是绝对一定要继续扩大,因为参数规模和数据的语料以及场景方向性相关。

其实GPT4作为图像能力并没有对外完全放开。现在我们先从语言模型能力出发,可以归纳为内容生成、总结能力、代码生成、语义检索四个方面的能力。但不同的角度会有不同场景。我们最关心的还是模型本身的能力,不只关注ChatGPT,还关注在什么样的场景下能够做什么?

对于基于模型的场景应用,我们需要找到一个标杆。微软从最早期的10亿美金投资OpenAI,就不仅仅是投资,而是技术上双方的合作。在技术合作层面,微软把它整个产品线都和AI都做集成。我们应该思考的是,从自己的产品角度出发,该怎样集成?你就把微软当成一个打样,再反过来给自己一个启发。在目前能够看到的模型里,GPT3.5支持Token是4K,GPT4最基础的Token是8K,也可以支撑32K的Token,能力不同,这可以做很多有意思的事。

以提升客户体验为例,在客户服务中心的场景下,我们收到了客户的投诉和通话日志。我们就可以把来自客户记录通过Speech-to-text语音服务把它转变成文本,再用GPT进行处理,最后形成客户意图和摘要。这是一个针对GPT模型API的调用,让它能有效地获得你所需要的关键信息。

我们现在做的东西都是一个系统,重要的目的是怎么把GPT用好。如何处理对话、对话最终的结果是什么?以前我用LUIS做一些事情,现在有GPT这样的模型去做,就可以做得更好。例如热点词和客户满意度分析,现在系统做得越不完善,那么就越有机会。我们把这个功能延伸出来,对呼叫中心、客服中心的问题和对日志的总结,对专业主题文档的摘要分析,对于行研报告的编写,自然也是同样的道理。

前面谈到了代码能力,这里面可以用GPT能力进行代码辅助编写。可以做到自然语言生成代码,例如可以生成SQL,再围绕自然语言做成BI分析报表。从业务分析的角度,如一周每个区域的投诉环比上涨,就可以根据自然语言生成SQL语句,再到数据库里将数据查出来变成报表结果。

再从翻译的维度,以“青梅竹马”来举例,如果直翻,是青梅和竹马,但真正的意思并非如此。在GPT模型下,翻译门槛降低了。可以让它生成一个提示词或画一幅青梅竹马的照片等,还可以将提示词翻译成英文。对于翻译服务,现在最主要的是时间响应的问题,我们有专门翻译服务,翻译服务的响应时间要比GPT高。比如我们看到《流浪地球》里的场景大家戴着耳机,就可以听到同声翻译,随着算力的提升,这件事情肯定会被解决掉。对于需要外语工作的人来说,中英文写邮件都不是问题了。

现在大家都开始卷起来了,业界各个厂商都在自己做大模型,不同的厂商当然有不同的考虑,这件事情促进了整个科技的发展。有人叫大模型,有人叫通用大模型。通过文本做语言大模型,做生成图片的大模型,如果做得好,它应该是一个通用大模型。如果不是一个通用基础模型做的话,就会存在一定的割裂。对于OpenAI而言只是两个分别的模型封装,这也是为什么OpenAI讲的是通用大模型,这件事情是对大家也有很好的促进和启发。

总得来说,会有三个左右的机会出现:

第一,大模型研发的机会,这是一个高投入的机会。

第二,工具的机会,当你有GPT的模型,或者别家的模型时,可以去思考要在上面做怎样的工具。

第三,应用的机会,如何利用通用大模型的能力,把应用做得更好、更智能。

03

数据安全与合规:

OpenAI与微软比我们考虑得更全面

我们再聊一下数据安全与合规的问题,大家都知道ChatGPT是针对GPT模型能力的一个展示方式,因此ChatGPT可以让大家触摸得到、用得起来。但很多人把ChatGPT当成一个小帮手去做了,客观来讲,ChatGPT在构建对话场景的时候,是可以用到你的数据进行训练,这个业务模式本身也偏向于To C。

如果大家要基于一个模型去构建行业应用,企业用户会在意数据的归属。因此,就会产生一个很重要的安全问题,即使是是写代码,还是生图,基于GPT大模型,从产品研发,再到推向市场,以及面对不同的客户群体,不同业务模式,安全是要关注和考虑的。

OpenAI从模型迭代、成果发布、公开测试、正式发布到形成稳定模型,不管是过去还是将来,它都需要通过一个很好的场景去不断迭代,因此ChatGPT是一个很好的渠道,去衍生和催生底下的模型迭代。当把这个模型正式发布之后,面对企业服务,就需要放到一个安全、可用、集成的To B的场景里去。

首先,在To B的场景里面,你不能触碰我的数据,我作为一个公有云的用户,公有云只是提供技术支撑,不管是SaaS还是PaaS,都会有自己的安全权限体系、合规保障、伦理审查等。

再者是可用性,OpenAI在美国有数据中心提供算力。而如果我们在顶上构建自己的应用,在进行全球部署的时候,就会出现多区域数据中心的选择需求。在美国、欧洲会逐渐出现同样的模型服务,企业用户可以根据需求来选择。目前,在算力紧张的情况下,中国本土数据中心部署GPT服务这件事还处于计划讨论中,当然也和资源与本地市场的需求相关。

我举一个小场景的例子,可以用自然语言查询数据之后,构建内部分析系统。第一,可以把日志变成文本,接着用OpenAI GPT服务,把文本变成结构化,再去关注它的相关意图。结合意图去呈现分析报表,再把这个分析报表,用一个自然语言的方式封装起来,这就是一个To B的应用场景。在开会场景下,也可以把语音变成文字,文字再生成会议摘要。如果你是一个CRM系统,也可以基于CRM系统撰写邮件等。

我们把它叫做“副驾驶”,这个词用得挺好。很多人都在说GPT未来会不会替代人类,现在看来,它还只是一个辅助角色。“副驾驶”这个概念是把每个人变成了一个主驾,类似领导,可以指派它干一些事情。当然领导也要善于提问,需要把话讲清楚。

从去年夏天完成GPT4到今年2、3月份才把GPT4模型发布出来,这个时间一直在做所有相关合规的检查与优化。刚才一直讲到编代码的情况,稍微给大家提示一下,在GitHub Copilot上自己可以使用个人版。个人版能根据自然语言生成代码,注释建议等,也包括支持自动化的测试用例、过滤雷同代码,生成注释等。

但个人版如果放到企业里面去,就会有一些问题。个人版并不会得到数据安全保障。举个例子,代码会放在外部被采用这件事是存在的,因为本身在做模型训练,所以你需要去甄别使用的场景,如果换到一个To B的角度看这个事情就变了,在合规要求下就要保证外部不能触碰代码。

举个例子,我们封一个模型版本给每个企业去用,它是一个标准品,如果你企业的数据fine-tuning,跑到另外一家企业就发生变化了,我自己的也失控。

这个模型是在客户自己的工作空间里,像公有云上的数据库一样,数据库不会使用你的数据内容,你只是把它当成一个容器。在工作空间里面,给你部署一套模型,这个模型就是一个定制的模型,不再是一个标准的模型,如果你对模型进行fine-tuning,不会影响其他企业用户。这些是数据隐私合规中最基本的保障。这也是为什么我们通过模型服务使用,和通过ChatGPT个人使用,去需要普及一下这个事项是有区别的原因。现在接触到的大部分都是以个人方式使用ChatGPT,所以你自己要控制自己的数据,哪些数据合适ChatGPT,哪些数据不合适ChatGPT,这是要掌握在自己手里的。如果你觉得这件事情很重要的时候,可以考虑企业级的方式。从一个商业服务来讲,从场景上看,使用ChatGPT像给个人使用,开始时ChatGPT是不确保数据的不被再使用的。

这段时间大部分人都在谈隐私、数据、安全等话题,要澄清一下,从ChatGPT开始做模型的时候,就已经做这些思考准备了。从国内角度去讲,我们也是在这两个月AI快速热起来的,因为ChatGPT火了之后,大家才去关注了GPT可以做什么。只有当我们了解它的能力之后,才可以设计出自己关心的场景和适合的应用形态。

另外一个场景,如果企业有自己的数据怎么办?比如说自己做了一个应用,自己有自己的数据,但GPT是没有这些数据的,我只想让它做企业的技术小助手,而不希望我的这些技术文档在网上公布,我们可以用几种不同的方法做这个事情。如果里面包括Word文档和PDF文档,我就要调一个服务,比如说表单识别、影像变成结构化等,建立自己的企业文档库,基于企业文档库并提供搜索的能力,然后再结合ChatGPT,就可以实现企业技术服务助手。这里面涉及到多个服务,OpenAI只是其中的一个服务而已。

总之,现在是一个人工智能新的时代,或许别人的一段话,或看到一个场景,就是一个启发创业机会的点子。如果你感觉到创新不足的时候,也可以学学对标,找找自己的能力边界,挖掘一下细分场景,并同时把能力丰富出来,这或许就能找到一个有意思的事情了。

好的,我介绍就到这里,谢谢大家。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有