人工智能的2024:大模型太雷同,卷应用的时候到了
2024-01-03
来源:第一财经
“一年前,大部分的企业都没有和大语言模型打过交道。”戴尔集团的首席技术官John Roese近期接受第一财经采访时表示,只有极少数的公司是例外。
现在大模型的进展极快,不少公司都在拥抱它,寻找生成式AI的突破口。John Roese认为明年会是生成式AI真正转变到来的时候。与此同时,那些准备在其业务中落地生成式AI的公司会发现,这项技术既可能用于财务、也可能用于售后,还可能用于编程等。每一项应用都需要配置相当多的资金和人力,不明智的选择会带来大量的资源浪费和时间成本,同时“会被竞争对手甩到后面,这是很有风险的事情。”
OpenAI是人工智能旷野里醒目的坐标,是其他企业模仿和追逐的对象,以至于业内认为现在的大模型都太雷同了。到了2024年,应用端的突破也许比大模型本身更值得期待。
大模型“太雷同”
OpenAI打响了人工智能阶段性突围的一枪。
这之后,美国、中国等地的科技公司的恐惧和热情都被激发出来了。恐惧来自于被时代抛弃的风险,热情则来自于科技企业内嵌的、对创新的追求。
美国参与大模型角逐的公司包括了科技巨头如谷歌、Meta等,初创企业则有OpenAI、Anthropic等;中国则有百度、阿里等头部科技企业,智谱、百川智能等初创公司。最热闹的时候,中国企业就发布了近百个大模型。
但在不少业内人士看来,国内外的大模型企业在做类似的工作。
“技术上面没有本质的区别,侧重点不一样,像Llama就是做一个通用的技术模型开源出去。GPT本身是闭源的,主要是做ChatGPT对话能力。我们在对齐方面要做得很好,上下文长度可以做得很长,每个(大模型)既有雷同的地方又有自己的特色。”蚂蚁集团副总裁徐鹏此前接受第一财经采访时表示。
现在行业里面最大的问题其实就是“太雷同了”,小冰公司CEO李笛同样表示,目前各家公司都沿着同一条路径往前走,缺乏多样性,这与创新精神违背。“我们有的时候认为创新是追赶,其实创新不是追赶,而是有自己新的方法,去实现自己的优势。”
大模型之间的相似性也不难理解。
ChatGPT的骤然出现,令许多企业措手不及。他们的首先目标是观察和了解,OpenAI是如何通过一个创业的团队,做到令人吃惊的智能水平。它是人工智能荒野里的醒目坐标,其他企业现在能做的是,先追上这个目标。
“中国还处于追赶的阶段,很多东西在这个方面投入比较大,比如说百度、腾讯、阿里等等都是先做到跟GPT类似的水平。”徐鹏说,“但是我相信在这之后可以有很多创新的点,可以做到不一样的东西,只是现在这个阶段还是处在追齐GPT能力的阶段。”
重复造轮子的游戏不会一直持续下去,因为所需的原材料实在是太多,也太贵了,而且并非每个国家都能得到,并非每个企业都能支付高昂的价格。
“大模型它太贵了,恰恰因为它太贵了,所以我觉得这件事情很快会走到一个好的路上,因为你不太可能烧很久。现在大模型是一个2万张卡的游戏,而且这还不一定能看到结果。所以,我相信很快就会有变化。”李笛对记者说。
现在大模型的运算,严重依赖英伟达的GPU,以至于后者的价格已经被炒高数倍。对于中国的大模型企业,更难的一点在于,美国实施的出口禁令,已经令英伟达的高性能芯片无法持续为中企所用。
李笛佩服的一家企业是任天堂,这家企业更善于充分利用现有技术。
任天堂、微软和索尼是主机游戏的三大厂商。三家企业都有自己的主打硬件产品,以及为数众多的游戏产品。任天堂的主打硬件平台为Nintedo,微软是Xbox,而索尼则是Playstation。
“跟微软和索尼比起来,任天堂不是堆最先进的硬件,而是榨干成熟技术最后一点能力。这个很重要的,大模型也不能解决所有的事情,它离解决所有的事情还很远,所以还是要靠整个系统不停帮它弥补。”李笛表示。
“做正确的选择”
“现在很多吃大模型这碗饭的时候,大家做的都是偏雷同的”,在徐鹏看来,还是要从应用入手,说不定更容易走出新路,“应用是可以做出来非常多不一样东西的”。
这部分的原因在于开源社区的发展。
在国外有开源模型LIama和Llama2等,国内也有阿里云的魔搭开源社区等。开源模型的存在,给应用企业带来了创新上的便利,而不用从头开始以大量的财力去训练基础的模型。
“如果大家都把力量放在大模型应用的创新上面,我觉得会让我们看到大模型在什么地方,还有做得不到位的地方,还有很大的提升的空间,反过来促进大模型技术的发展。”徐鹏表示,“我觉得应该让应用的生态更加繁荣,这样才能推动模型的发展。现在至少看起来应用生态方面还不够繁荣,应用的场景还没有那么丰富。”
John Roese在最近一场沟通会上表示,2024年的时候,生成式AI将从2023年的纯理论的探讨阶段进入到业务应用阶段。美国的Google、OpenAI以及国内的阿里巴巴、百度等都陆续推出了生成式AI的技术,但是还没有多少客户把它系统性地投入到实用中,而更多还是在理论探讨的阶段。
“今年有一些走得比较靠前的企业,开始对生成式AI做了各种各样的实验,在想清楚他们要怎样去用,到2024年我们会看到真正转变的到来”, John Roese说,现在大家已经越来越懂得如何让这些生成式AI进入生产当中,从理论阶段进入到业务应用阶段。
对于生成式AI,众多科技企业都列出了长长的愿望清单,比如利用AI改变做财务的方式、人力资源管理的方式、雇佣人员的方式,编写代码的方式以及销售的模式。“戴尔科技集团就找到了380个项目能够用上生成式AI的。”John Roese对记者说。
但John Roese提醒,“现实是当我们即将步入2024年的时候,要去实施生成式AI的时候会很快地认识到,生成式AI的项目都非常大,需要占用大量的人力物力财力。”这样的话,当一家企业面临上百项,甚至是上千项选择的时候,有限的资源投入哪些项目就是艰难的选择。企业要根据生成式AI有多少人来用,多少人有访问权来决定投入的大小。是不是只有高管用,还是销售人员、技术人员用,还是所有的客户都能访问?这没有标准的答案。
“每一个企业的资源有限,只能做其中的几个,比如说选其中的3到4个来实施,所以明年CIO和企业的领导者必须做一个决定,在他们选出来的比如500个项目中有哪几个要优先实施。一旦优先的项目选对了,对业务产生正向的影响当然是好事;如果选错了,会出现大量的资源的浪费。有些项目上投了生成式AI但又没有产生效果,就会被竞争对手甩到后面,这是很有风险的事情。”John Roese认为,“明年我们要划分轻重缓急,就是在所有可以用生成式AI的用例当中哪几个是优先事项,做正确的选择。”
爆款不可求
企业把人工智能部署到内部的时候,初始阶段面临的是难以估测的运营成本。
“明年随着企业开始使用这些科技,我们将会发现从训练成本到运营成本的转变。”
John Roese介绍了一个戴尔的例子来说明这个问题。戴尔正在建立一个内部系统的实验模型,其中一个项目的训练需要花费3个月左右的时间、用到至少20个服务器,以进行系统调优和优化。在测试阶段,整体运营成本是未知的,因为在系统的部署阶段,任何戴尔员工都可以向系统提问任何关于产品和技术知识的问题,而系统都会提供简练、充分的回答。但是戴尔的测试显示:即便只将该系统开放给应用技术领域的大约6000员工,系统每月将会产生巨大的5000万左右的用户互动量。他因此认为,在2024年,企业可能需要停止将成本投入放在建立模型或培训模型上,而是应该开始考虑在企业中“运营”一个大模型的成本。
“我们在2024年将有可能看到许多针对该话题经济层面的讨论。”John Roese表示,
“明年我们需要很好地审视一下,如果非常有用的话,即使成本非常高,我们也愿意做。”
AI技术能否落地,对于使用者来说,关键是其投入产出比是否合适。
“还是要看一项应用的最终商业效果,拿很大的算力陪别人聊天,挣不到钱的话,没有办法回本,算力再多也不合理。”李笛表示。
目前为止在全球范围内缺乏成功的AI TO C的产品,也缺乏成功的TO B的产品。好的一面是,企业都有机会发现好的面向C端的AI产品,一个AI作为驱动力的2B的产品也在等待着被发现。
创新的魅力也在于其不可预测性。
明年出现生成式AI爆款应用,是可遇不可求的事情。从过往经验来看,一些应用短期冲上热榜,获得大量关注的可能性不小,但能够持续成长的产品则非常之少。
“我对于应用的发展持着‘润物细无声’的观念,真正好的东西一定会出现,但是可能不会突然之间成为爆款。它在擅长的领域里一直在发展,一直带来一些改变,这些改变积累到一定程度之后会成为所谓的爆款。”徐鹏说。
技术变革到来的时候,站在最前沿的人常常看不到全貌。CTO们喜欢说,人们常常高估技术的短期收益,而低估其长期影响。人工智能同样如此。
“这样一个大潮起来的时候,我们希望看清它到底带来的东西是什么,它的能力边界到底在什么地方,而不是盲目做太多不切实际的幻想。但是,又不能离开这个幻想,因为只有幻想才有动力,才有更多的人愿意去做一些看上去不靠谱的事情,”徐鹏认为,应该有一定的机制支持长期投入,然后找到AI的核心应用场景,找到它真正能够带来变化的东西。
技术的发展不是一飞冲天。人工智能发展史上,也经历过数次起落。这一轮生成式AI的发展恐怕也将如此,它会在某一个时间段出现停顿,然后“突然不知道谁又解决行业里的难题,大家又一起继续前进。”李笛表示。