ChatGPT创业潮来袭:谁纵身一跃,谁筑墙积粮?
2023-03-29
作者:王丽英
来源:集微网
最近,ChatGPT的大火吸引了科技圈的高度关注,而围绕这种生成式AI技术的创业潮也随即被引爆。
无论是对标大模型,打造中国的OpenAI,还是基于大模型开发细分领域的AI工具,或者从底层硬件发力,芯片、互联网、AI领域的技术大咖纷纷躬身入场,抢占创业先机,唯恐落后他人半步。
业内人士看来,生成式AI技术所创造出的惊人生产力或将改变千行百业,不亚于又一次产业革命,由此引发的创业机会遍及产业上下游,但大模型研发的高技术门槛与高投入,也让进入这一领域的创业者面临重重挑战,在赛道火爆的同时,或更要多点冷思考。
生成式AI创业大佬纷纷入局
伴随着ChatGPT、谷歌Bard、百度文心一言等的先后发布,生成式AI技术的比拼不仅在行业巨头中展开,同样也激发着初创公司的踊跃入场。
一周前,英特尔首席架构师Raja Koduri 突然宣布将于3月底离职。在苹果和英特尔服务多年后,他将成立一家 AI生成式游戏软件公司。Raja Koduri表示,将在未来几周内公布更多关于这家初创公司的信息。显见其正在紧锣密鼓的筹划中。
3月19日,创新工场董事长兼CEO李开复宣布,正在筹建Project AI 2.0公司,定位是AI 2.0全新平台和AI-first生产力应用的世界级公司。值得关注的是,今年已61岁且经历多年抗癌成功的李开复,在其博士研究项目即瞄准AI技术40年后,终于又在AI 领域“继续撸起了袖子”。“Project AI 2.0不仅仅要做中文版 ChatGPT。”李开复表示:“AI 2.0已经到来,这是绝对不能错过的一次革命,这个时代将诞生新平台并重写所有应用。”
而一个月前,美团联合创始人王慧文同样发下宏愿,要打造中国的Open AI。为此,王慧文个人出资5千万美元,已启动成立光年之外科技有限公司。其老朋友、美团创始人王兴在朋友圈表示,“AI大模型让我既兴奋于即将创造出来的巨大生产力,又忧虑它未来对整个世界的冲击。”此次王慧文的入局,无疑鼓励了王兴,王兴表示已决定个人参与光年之外的A轮融资,并将出任董事。
此外,搜狗前CEO王小川、原京东集团高级副总裁周伯文、出门问问创始人兼CEO李志飞、阿里前技术副总裁贾扬清、前字节跳动视觉技术负责人王长虎等也都在最近宣布,将进军中国版ChatGPT和生成式AI战场。
而在国外,AI技术人员创业的行动似乎更早一步。根据Business Insider的一项调查统计,2022年内,仅Alphabet一家公司就有26位AI专家离职,其中包括子公司谷歌、DeepMind 两大科技巨头,多位AI专家离职后创办了自己的新公司。
据风投公司NFX统计,目前已有约450家生成式AI公司,它们一共筹集了将近120亿美元的资金。资本助力下,科技大佬儿们的抢跑入局,让这一领域更加火热。
算力底座面临变革
AI技术喊了很多年,但在ChatGPT之前,鲜有让业界整体为之激动的应用落地。ChatGPT智能机器人对话模型的出现,让AI第一次真正实现像人一样的说话与“思考”。生成式AI的落地与广泛应用,正推动AI发展进入新时代。
在刚刚召开的英伟达GTC大会上,英伟达CEO黄仁勋称ChatGPT代表着“崭新的计算平台已经诞生,AI的‘iPhone时刻’已经到来”。在他看来,生成式AI是一种新型计算机、一种可以用人类语言进行编程的计算机,这种能力影响深远。“现在,每个人都可以命令计算机来解决问题,每个人都可以成为程序员。生成式AI将重塑几乎所有行业”。
如何利用生成式AI技术重塑千行百业?显然,这不仅仅是数家、数十家公司的事儿,而是需要整个行业共同的投入与努力。
在深存科技创始人袁静丰看来,ChatGPT所带来的机会遍及产业上下游,尤其是对更加“硬核”的上游产业算力基础设施带来巨大挑战,算力芯片、存储、网络等底层硬件、数据中心架构面临变革,也催生了很多新的投资创业机会。
据悉,大模型的训练具有数据量大、算力需求高、算法复杂、训练周期长等特点,对底层硬件资源的消耗非常庞大,是典型的数据繁重应用场景。以ChatGPT的开发为例,它相当于是收集了过去20年互联网的公开数据,要满足GPT-4的训练需求,至少需要1万张英伟达A100显卡,再加上其他资源,估计达到其需求的数据中心规模至少要投入40-50亿元。“这还仅仅只是入场券,而目前要真正做到大模型持续训练和支持海量访问服务,在传统方法下可能需要超10万张A100显卡。”袁静丰指出。
与此同时,大模型的参数数量及规模在快速增长,用户数量及访问量也在不断增加,按照目前趋势,模型参数规模大概每年增长近10倍,日活访问量则可能增长更快,这些都对硬件资源带来惊人的消耗。
“降本增效的需求问题对于GPT这样的大模型的研发愈发突显。”袁静丰指出,“解决由此带来的挑战给基础设施硬件厂商带来多种机会,主要围绕数据、算力及算法优化三个方面。”
具体来看,为了解决数据量呈指数级增长且海量并发访问所带来的“大而快数据”需求,思考“数据引力”问题变得尤为重要,算力需要离数据越来越近,减少和优化数据搬运是效率提升的关键,以数据为核心的计算已成为继基于GPU的计算加速,DPU/IPU的网络加速之后的又一重要趋势。
以深存科技为例,2020年成立之际,在看到快速增长的大模型等数据繁重场景爆发对硬件基础设施的挑战趋势下,将公司定位为“以数据为核心计算”的芯片和解决方案供应商,聚焦高算力、高性能数据加速和I/O加速为核心目标,提供数据繁重场景下的优解方案,研发与存储系统紧密结合的计算存储处理器/数据处理芯片,致力解决“大数据”和“快数据”并存的难题。
同样看好AI技术,并在AI领域投资布局的中科创星创始合伙人米磊则认为:“国内要在软硬件上同时下功夫,一方面把算法做得更好一点,另一方面提升数据量,解决算力问题,因为现在还面临高端GPU算力卡脖子问题。”
ChatGPT创业热潮下的冷思考
从下游的应用方向来看,ChatGPT引发的创业机会主要有两方面,一是对标ChatGPT,发展自己的通用大模型或细分领域大模型;二是基于这些大模型,针对细分市场开发具体应用工具。
在袁静丰看来,尽管发展大模型十分烧钱,但在这一行业在全球走向成熟之前,不管是发展通用大模型,还是打造细分领域的特定大模型,都非常有必要。
“因为很多行业或企业的数据是非公开的,像ChatGPT、百度文心一言等大模型无法获得这些数据来训练AI,所以这些细分领域也需求建立自己的大模型。”袁静丰指出,“它可以不像ChatGPT那么复杂,也不需要巨大的数据中心驱动,或者可以直接部署在私有云上,这样涉及到行业Knowhow、专业领域知识产权等敏感数据就可以不用离开现场,而企业同样可以享有大模型带来的AI便利与效率。”
此前,国内在大模型及生成式AI方面的初创公司并不是很多,主要是一些技术实力雄厚的大企业在做,例如,百度、华为、阿里、字节跳动等都在大模型方面有持续投入。总体来看,国内在大模型方面与国外还有一定差距,尤其是最近,GPT-4新一代超大规模多模态大模型的发布,让生成式AI的能力更进一步提升,给国内的从业者带来更急迫的压力和挑战。
面对大模型在研发方面的挑战,米磊认为:“我们要优化算法,解锁上下文学习的能力,首先是通过更多高质量数据和任务进行模型的训练,达到高质量的境界;其次要通过和环境的交互、自我的优化实现提升;最后要提升自我反思的学习能力。”据悉,在大模型及AI领域,中科创星已投资了智谱AI、瑞莱智慧等初创企业。其中,智谱AI是由清华大学计算机系技术成果转化而来,其基于千亿基座模型的ChatGLM,最近已开启内测。
而在大模型基础之上的应用层技术开发门槛相对较低,范围更广,或会催生出一批新兴创业企业。例如,通过结合ChatGPT等的生成算法和自身的写作经验,开发一款智能写作工具,像AI文本生成公司Regie.ai就是这一类型;还可以基于ChatGPT等的翻译能力,开发智能翻译工具等。
但在金沙江创投主管合伙人朱啸虎看来,这一方向的创业或将较难融资。“ChatGPT太过强大,不利于创业公司,创业公司基于ChatGPT能够创造的价值非常单薄”,在2023黑马产业大会上,朱啸虎公开指出,“未来两三年内请大家放弃融资的幻想,必须能够自己造血。”
写在最后
所谓风险与收益并存,越是挑战重重的地方,越是蕴含着无限的机会。ChatGPT唤醒了世界对AI技术的重新认知,生成式AI时代的大幕已然拉开。在中国有必要拥有自己的Open AI的产业共识下,对ChatGPT赛道的追捧以及由此带来的火热可以预见。但越是火热,越要冷静看待,客观研判。不管是上游底层硬件芯片方面的创新,还是围绕大模型的研发,以及基于大模型的应用开发,只有结合实际、遵循规律,且耐得住持久的投入和坚持,或才能迎来最终的突破。
来源:集微网
文:王丽英
更多精彩内容欢迎点击==>>电子技术应用-AET<<