当前位置 爱咖号首页 《智能体代表着AI时代的未来趋势 李彦宏WAIC圆桌访谈》

《智能体代表着AI时代的未来趋势 李彦宏WAIC圆桌访谈》

车智驾 2975浏览 2024-07-07 IP属地: 甘肃

在2024世界人工智能大会(WAIC 2024)期间,百度创始人、董事长兼首席执行官李彦宏,与第一财经传媒集团总编辑杨宇东和《硅谷101》创始人陈茜,进行了一场圆桌访谈。在一个小时的对话中,李彦宏对开源闭源、大模型价格战、智能体、超级应用、AGI等业界热点问题,表达了自己的看法。

李彦宏认为,开源其实是一种智商税。“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”

谈及“AI超级应用什么时候出现”时,李彦宏表示,“不是说一定在等待一个超级应用的出现”。他认为,在基础模型之上,应该能够诞生数以百万计的各种各样的应用。“如果仅仅是从0到1,你可能会希望出现某几个Super APP,也就是几个公司从中受益。但是今天,几乎各行各业所有的公司,被大模型加持之后,它都能受益。这种影响力,对于整个社会、对于人类来说,无疑是更大的。”

李彦宏称,智能体代表着AI时代的未来趋势。“智能体正在爆发,只是现在基数还比较小,大家的体感没有那么强烈。”基础模型需要靠应用才能显现出价值,智能体是一个几乎“放之四海而皆准”的基于大模型的应用,由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。“让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Super APP。”

《智能体代表着AI时代的未来趋势 李彦宏WAIC圆桌访谈》

以下为访谈精编全文:

超级应用什么时候出现?

基础模型之上将诞生数以百万计的应用

杨宇东:由ChatGPT掀起的这个热潮已经持续一年多了,你也曾表达,接下来超级应用什么时候出现?我们看到国内面向C端的大模型产品形态,看起来都差不多,都是搜索框+问答这种模式,你怎么看?有没有可能产生一种差异化的竞争?什么样的好产品会出现?

李彦宏:我倒不是说一定在等待一个超级应用的出现。我更觉得,在基础模型之上,应该能够诞生数以百万计各种各样的应用。这些应用有些是很小的领域,一个大家可能不太容易想到的应用,但它对于那个领域的问题,解决得比以前好很多。确切的讲,我现在还没有看到,能够比肩移动互联网时期超级应用那样的AI时代的原生应用。但是已经看到,越来越多在各种各样场景、尤其是To B场景中,利用大模型提升了效率,产生了更多的收入,或者说节省了更多成本的情况出现。
今天,大家都在想,我能不能从0到1,做出一个人们想也没想到过的东西?变成一个DAU10亿的超级应用?这个当然很重要,假以时日也一定会出现。但是,更重要的是大模型在各个领域、各个场景的应用。
从百度文心一言的日调用量来看,已经非常明显。我们在4月份曾经公布过一个数据,文心一言的调用量每天有2亿次。前几天,我们再公布的时候,文心一言调用量已经到了5亿次。也就是说,两个月的时间调用量是double。调用背后意味着什么?意味着它在给应用产生价值。因为没有价值的话,人家也不会花钱去调用。

杨宇东:C端用户会有什么样很好的场景?包括端侧、手机上的APP,如何去调用AI能力?

李彦宏:我觉得分两类:一类是大家比较关注的,过去从来没有过的应用。现在比较流行的、类似于ChatGPT这样的ChatBot,就是聊天机器人。国内每一个大模型公司,都会推出一个相应的APP,或者是网站来做ChatBot。
对于现有这些To C的应用,其实它的信息增益作用也是非常大的。我们在4月份的时候,公布过一个数据,百度搜索今天有11%的搜索结果会由AI来生成,这个比例还在不断提升。再比如说百度文库,过去,百度文库是大家在上面找一些现成的文档。今天,百度文库经过大模型改造之后,已经更多地变成了生成式AI应用。你不管想要生产什么样的文档,是PPT、是论文的格式、甚至是漫画,它都可以根据你的要求生成。今年以来,文库已经有大约2600万付费用户。如果说用超级应用的标准来看,它也没有达到超级应用的水准,但是要看它实际产生的价值,有那么多人愿意为这个产品付费,还是很厉害。这些产品都是过去已经存在,但经过了大模型改造之后,它的能力跟以前完全不一样了

陈茜:我特别同意你最近在多个场合强调的,去卷AI原生应用,大模型才有意义。但到今天,我们还没有看到应用的爆发,可能很多应用出来也不太尽人意。所以我的问题或者疑惑在于,如果从模型能力上看,是不是现在还没有到去卷应用的时候?

李彦宏:大模型应用其实已经逐步在浮现出来,它对于现有业态的改造作用,比从0到1的颠覆作用,更早到来。这个过程一开始大家觉得,没有那么性感,但是它对于人的工作效率的提升,对于成本的下降,对于打开新的可能性,产生的促进作用,是比那些从0到1的应用,反而更大。如果仅仅是从0到1,你可能会希望出现某几个Super APP,也就是几个公司从中受益。但是今天,几乎各行各业所有的公司,被大模型加持之后,它都能受益。这种影响力,对于整个社会、对于人类来说,无疑是更大的。
只是大家觉得,以前都存在,这个东西我以前见过,所以没有新鲜感。或者它更多诞生在生产力场景,它的受众群体,或者单一应用的受众群体,不会过亿过十亿。尤其在C端,在公众层面体感没有那么集中。这是大家一直在寻找一个Super APP的原因。

为什么智能体是未来趋势?

门槛足够低,跑通了就是Super APP

杨宇东:我们前面聊的是“卷应用”,接下来还有一个关键词叫“智能体”。你说过好多次,AI时代最看好的应用是智能体。但我们目前并没有看到智能体的爆发,为什么你认为智能体是AI时代的未来趋势呢?

李彦宏:我觉得智能体正在爆发,只是说它现在基数还比较小,大家的体感没有那么强烈。但是你要看业界大模型公司,都在做智能体。智能体就是一个几乎可以“放之四海而皆准”的基于大模型的应用。今天大多数AI原生应用,你用智能体的方式都可以做出来,效果也不错。由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。
门槛足够低,就意味着越来越多的人,可以做出他想要的智能体。这个有点像90年代中期时候的互联网网站。你可以把它做得非常复杂,比如雅虎就是很厉害的网站。但是在学校读书的大学生,他也可以做一个自己的Home Page。由于做网站很简单,在90年代中后期,就诞生了数以百万计的网站。大浪淘沙之后,最终出来了一些非常优秀的网站,像Google、Facebook,这是若干年之后才出现。但是早期看,这些网站都是乱糟糟的,一个大学生就能做一个网站出来,这有啥价值?但是你必须得门槛足够低的时候,让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它就是一个Super APP。

陈茜:业界对AI Agent的定义,还是有一点不同。你对Agent的定义是什么?

李彦宏:我首先要考虑,这个门槛要足够低,一个小白,大一的学生,他也可以很方便地制作一个智能体。当然在此之上,可以有各种各样比较fancy的玩法,调用工具、反思、长期的记忆等等,这些能力会逐步加进去。
不是说用了最先进的这些能力之后,它才叫一个AI Agent。我反而觉得,我们要把门槛降得足够低,让大家觉得,我也可以搞一个AI Agent
说实话,我认为现在AI Agent用到的这些能力,仍然是非常初级的,未来还会产生我们今天想也想不到的Agent能力。但是这些能力的诞生,反而要依赖数以百万计的开发者,去开发各种各样的应用。在他们使用的过程当中产生新的需求,这些需求被解决的过程,就是一个创新过程,就是AI Agent进化的过程。

陈茜:百度有什么比较有意思的AI Agent案例,可以给我们分享一下吗?

李彦宏:有很多。国内高考是一个非常大的事件,不仅是学生,还有家长都非常重视。过去大模型在干什么事?高考有作文题,我们用大模型来写一个作文,看它能得多少分。其实你想一想,这个东西在哪用呢?不可能让一个考生带着大模型去参加高考。但是高考完了之后,你要估分,要报志愿,要选择学校,你要选择专业,一个考生他该报哪个学校,哪个专业,每个人情况都是不一样,每个人的问题也都是不一样。这种情况下,哪有一个全能的辅导老师可以告诉你,你最适合的是哪个学校哪个专业?但是AI Agent就可以干这个事情。我们开发了一个高考填报志愿的AI Agent。在高峰时期,一天有200万人在使用,足见大家对这个东西的认可度和依赖度还是非常高的。

大模型对B端的改造比互联网更大

规模更小一点的模型市场需求量更大

杨宇东:通用大模型和行业垂直大模型,它将来到底是什么样的关系?

李彦宏:大模型在各个垂直场景里怎么用?我们经过了一个探索过程。最初我们的想法是,我把这个基础模型做得越来越强大,大家叫通用人工智能,在什么场景我都能做得很好。后来发现这件事情没有那么容易,每个场景都有它自己的道。当应用场景需要反应快的时候,我们需要更小的模型。这种小的模型,它由于没有大模型通用的能力,所以在垂直场景当中,还要对它做精调,就是SFT,把你行业的数据怎么灌进去,再经过各种各样的调教,在这个场景里的效果,就能够跟大模型相比差不多。
类似这种场景,我们也见了很多。去年10月份,我们发了文心4.0之后,主要精力在做什么呢?就是根据最强大的模型,去裁剪各种体量的小模型,比如说十亿量级的模型,百亿量级的模型,千亿量级的模型,这个模型也许擅长角色扮演,那个模型也许擅长逻辑推理等等,根据客户不同使用场景的不同要求,做出各种各样的模型。这些模型大多数速度都比EB4要快,推理成本比它要低,所以这种应用是大家更爱用的。今天你要看市场需求的话,规模更小一点的模型,市场需求量是更大的。

杨宇东:你为什么认为,大模型对B端的改造,比互联网对B端的影响更大?

李彦宏:互联网对C端的改造,我们都是感同身受的,是非常彻底的,是颠覆性的。但是互联网对B端的改造,我觉得一般般。用的技术比较简单,产生的增益也没有那么明显。但大模型不一样。我们接触到的一些能源电力、生产制造等企业,都有类似的需求。比如说,现在国内电动车卷得也很厉害,车内的对话系统,很多也在用文心大模型,使用量也不小,但是对百度来说,这就是一个To B的应用,我们不直接提供给用户,它是经过了OEM,经过了车厂的集成之后,把这个应用提供给了终端消费者。这种事情其实非常多,而且我们就看调用量,如果调用量上得很快,这就说明我们的客户需要这些东西,B端靠着这个大模型,靠着AI原生应用产生了价值。

杨宇东:在金融、医疗等这些比较严谨的领域,生成式AI的幻觉问题,怎么破解?

李彦宏:今天,应该说你会很少发现幻觉问题了,尤其是用最大规模、最强大模型的时候,已经很少出现幻觉问题了。为什么呢?一开始,纯粹用原来的Transformer去做出来的大模型,它确实是非常难避免幻觉的,因为它是个概率模型。
要解这个问题,就要在原来Transformer架构上,增加一些东西,专业词语叫RAG。我只要稍微借助一点工具,就可以消除这样的幻觉。随着使用这种工具的能力越来越强,你就会发现,在各种场景下,幻觉是越来越少的。
当然,今天这种生成式人工智能,更像是一个Copilot,在特别严肃、对准确度要求特别高的场景下,我们还不能让它全部自动实现,还要靠人把最后一道关。这样,一方面可以提升效率;另一方面,在准确度上、在消除幻觉上,也能够起到比较重要的作用。

陈茜:现在企业对AI的使用成本怎么看?是否愿意为AI付费?你在跟一些企业客户交流的时候,他们的态度是什么样子的?
李彦宏:当你处在市场经济环境当中,企业其实是非常理性的。尤其是中小企业,账算得非常精。如果这件事情能够让我降本增效,能够让我赚到更多的钱,那我就会用它。如果不能,你再吹破天,我也不会用。市场会告诉你,大模型到底有用还是没用?我们看到调用量的迅速提升,确实是因为在用户侧、在客户侧,它为企业产生了降本增效的作用。
我再举个例子,比如说在招聘场景。过去是怎么做的?是HR坐在那,一份一份简历筛查,然后一个一个面试,面试100个人,最后筛出来10个人,再进行下一步面试,效率是非常非常低。但是大模型进来之后,它可以非常明显地去提升效率。因为,用大模型去理解这是一个什么人,理解这个老板要招什么样的人,然后进行匹配,它的效率就会高很多。
而且,你去算一算模型的推理成本,其实几乎是可以忽略不计的。尤其在国内,现在大模型价格战是非常厉害的,百度的轻量级模型都是免费的,这个免费不仅仅指的是模型免费,实际上算力也送你了,你本来要有电脑,要有带宽等等,这些都没有了,你只要来用就好。

《智能体代表着AI时代的未来趋势 李彦宏WAIC圆桌访谈》

如何看“开源闭源之争”?

开源是一种智商税

闭源模型比开源模型更强大

杨宇东:开源闭源问题是业界关注焦点。你认为,闭源模型会持续领先。但我们看到,开源大模型越来越多,甚至有些能力都不亚于我们说谓的GPT4了,这个问题你怎么看,你们还是会坚定的走闭源路线?
李彦宏:我觉得,开源其实是一种智商税。你仔细想一想,我们为什么要做大模型?是它能够有应用,这些应用在各种场景下,能够为客户为用户提升效率、降低成本,产生过去产生不了的作用。所以当你理性的去想,大模型能够给我带来什么价值?以什么样的成本给我带来价值?你永远应该选择闭源模型。今天这些闭源模型,无论是ChatGPT还是文心一言,以及其他各种各样的闭源模型,它的平均水平,一定是比这些开源模型更强大,推理成本一定是比开源模型更低。

陈茜:百度对To B客户,是“闭源+公有云”这样一套打法,有什么考量吗?
李彦宏:ToB的客户,他要选择的是一个性价比最好的模型。一方面,模型要对他的应用产生价值,另外一方面,成本要足够低。很多时候,你看着有用,一算成本不划算,客户就放弃了。这是为什么我刚才讲,开源模型打不过闭源模型。你只要理性的去看待,你的收益是啥,你的成本是啥,你就会发现,最好还是去选择闭源模型。当然,闭源模型不是一个模型,它是一系列的模型,根据你的使用场景去平衡一下,要多好的效果,要多快的推理速度,要多低的成本。模型有非常多的变种,可以根据用户的需求,让他来做选择。
闭源模型还有一个开源模型不具备的优势:这些相对来说规模更小的模型,都是从最大最powerful的模型裁剪出来的,裁剪出来这些更小规模的模型,仍然比那些同样规模的开源模型要效果更好。

陈茜:百度对于中小模型、模型蒸馏上,有什么样的策划?
李彦宏:我们看到的真实需求,在绝大多数情况下都不是最大的模型,它都要求这个模型变小。变小意味着什么?速度快,成本低。比如说,我干这个事儿,总共能够给我带来每年100万的增益,但使用最大的模型要120万的成本,那我肯定不干了。那我就会给大模型公司提要求,把成本降到80万,甚至降到8万。那我们就得想,怎么把最强大的模型,蒸馏到足够小,成本足够低,满足这个场景需求。因为闭源有一个最强大的基础模型,根据模型蒸馏或者裁剪出来的小模型,比那些开源模型做出来的东西更有竞争力。所以我们觉得,To B的机会仍然在闭源不在开源。

大模型价格战不可避免

最终还是比谁的技术好、效率高

杨宇东:我们现在看到价格战已经开始打起来,其实还是蛮出乎我们的预料,这么快。
李彦宏:价格战几乎不可避免,在中国互联网干了这么长时间,其实已经对价格战非常熟悉。但就像你讲的,确实来得比我想象的更早一点,这么早就开始把价格打到几乎不可思议低的地步。但某种意义上讲也不是坏事儿,当你足够低,甚至免费的时候,就会有更多人有积极性来尝试,在大模型基础上去开发各种各样的应用,大模型对于各行各业的渗透速度会更快。

杨宇东:很多闭源大模型API调用费越来越低,大模型靠推理收费的商业模式未来成不成立?以后大模型比拼的是哪些点?
李彦宏:大模型技术天花板还是很高的,今天我们还是对于大模型的能力有很多不满意的地方,仍然需要很多非常优秀的技术人员、需要很多算力、需要很多数据,才能训练出下一代大模型,我们还可能需要下下一代、下下下一代的大模型。
所以最终我觉得大家是要去拼谁的技术更好,你的技术好,你为客户产生了更好的价值。今天之所以把这个模型打到足够低,是因为现在模型的这个能力其实还没有到最好,没到最好的时候,大家都差不多的时候,就会谁的价格低就用谁的。
时间长了之后,市场本身会回归理性。最终还是比谁的技术好,谁的效率高,谁会胜出。

陈茜:你觉得这个价格战会持续多久的一个时间呢?
李彦宏:这个很难讲,现在有些创业公司是玩家,也有很多非常大型的互联网平台公司是玩家,其实理论上讲是可以烧很长时间。但我觉得烧钱不是事情本质,事情本质仍然是谁的技术更好,谁的效率更高,当你的技术好、效率高的时候,你就不怕去打这个价格战,所以多长时间都OK,最终会是优胜劣汰的过程。

陈茜:你觉得在中国市场会是一个赢家通吃这样的一个局面吗?还是说等价格战之后会剩下几个主要的?可能还有一些更小一点的?
李彦宏:这次生成式AI是对整个IT技术栈的大变革,过去IT技术栈是芯片层、操作系统层、应用层或者软件层,就这三层。到生成式AI之后,IT技术栈变成了四层,芯片、深度学习框架层、模型层、应用层,我认为在每一层可能都会诞生至少2—3个大玩家。
应用层的话,可能会有数以百万计、甚至数以千万计的各种各样应用出来,也会逐步出现超级应用,既然是超级应用,当然不会很多,可能是三五个。
模型层我觉得也许两三个就足够了,因为最后大家比拼的是效率,你的效率如果不够高的话,慢慢就觉得说还不如用别的。

《智能体代表着AI时代的未来趋势 李彦宏WAIC圆桌访谈》

Scaling Law短期内不会被颠覆

图灵测试不再是标准

AGI需要十年以上才能实现

杨宇东:Scaling Law还会持续有效吗?
李彦宏:Scaling Law可能还会有若干年的生命周期。但与此同时,在此之上会叠加各种各样的创新。刚才讲的智能体,它的反思、进化能力等,其实跟Scaling Law已经是两个路线在发展,但它仍然是基于Transformer这类大模型往上做。未来再过一两年,还会出现什么新的技术创新,在此基础上再去叠加,大家都在探索。换句话说,我觉得Scaling Law短期之内不会被颠覆,但是在Scaling Law之上会叠加出来很多我们现在可能还无法想象的创新。

杨宇东:你认为AGI实现的标准是什么?还有哪些路径可以让我们更快地通向AGI?
李彦宏:业界确实还没有一个标准答案。以前大家觉得,通过图灵测试就实现AGI了,实际上现在大模型已经通过了图灵测试。人们所说的AGI,其实大多数时候已经不是只通过图灵测试了。
那么什么叫AGI?在我心目中,AGI就是机器或者说AI,能够具备人在任何场景下所具备的能力。Artificial General Intelligence,就是通用人工智能,它不管在什么场景下,能力都是跟人一样的,这是一个很高的要求。
所以真正要实现AGI,我认为还需要很多很多年。业界有人说AGI可能再过2年,或者再过5年能实现。我自己的判断是10年以上,也许更长的时间。我们听到很多人讲,AGI是一种信仰,当你把它当做一种信仰的时候,谁的信仰会明年就实现?这是自相矛盾的。如果是一个信仰,它就是你值得为之长期奋斗的一个目标。

《智能体代表着AI时代的未来趋势 李彦宏WAIC圆桌访谈》

陈茜:现在GPT5一直在延后,担忧的声音也越来越高,AGI没有办法用Scaling Law这个方式去带我们实现了,你对这个有担忧吗?
李彦宏:我不是很担心这件事情,我觉得大家应该更关注应用,而不是关注基础模型,某种意义上基础模型迭代速度稍微放缓一点不是坏事,如果今天的应用开发者,有一个相对稳定的基础来开发应用,其实是效率更高一些的,如果模型天天在那儿练,每天都要重写一遍过去的代码,那是很累的。但是在现有基础模型上不断去做微调,去做一些渐进式的迭代和和创新,其实你看到是一直在发生的,无论是OpenAI不断在推的,还有百度我们的Turbo模型、更小量级的模型等等,都是在根据市场的需求在做迭代。
但长远来讲,我确实认为下一代大模型一定会比现在这一代模型强大得多。什么时候推出来我不是很着急,我们应该更多的去看真实的市场需求,下一代模型在迭代的时候,要根据市场需求来迭代。

 
相关推荐
车智驾 382粉丝    101作品 关注 关注跟智能四轮有关的动态。
推荐作者
弯道看车 关注
资深车评人,前《深圳特区报》汽车部主任
汽车新说 关注
一个有关于汽车的漏网之语,正在一本正经的胡说八道。
郑谊 关注
汽车行业分析师,汽车产业研究员
SCC超跑俱乐部 关注
SCC超跑俱乐部
车宇世界 关注
车圈老干部,只做最客观的车评。
Techtec杨磊 关注
汽车ECU改装高级工程师,汽车改装维修专家。德国Techtec汽车性能
21世纪车评 关注
21世纪专业汽车资讯,改装资深专家
悦行江西 关注
和你分享有趣、新鲜和汽车有关或无关的事!
全部爱咖号