转载:https://ai.zol.com.cn/886/8866512.html
2024-07-24 17:14:14·[??中关村在线 原创??]·作者:肖医
(潇冷/文)新事物的发展总要经历一个由小到大、由不完善到完善的过程。大模型亦是如此,比如从单模态到多模态,又比如从简单的生文、生图、生视频到更为复杂的、更大参数规模的多模态,再比如从完善大模型底层技术到大模型应用层的商业化落地。
然而,大模型在持续壮大的过程中也伴随着各种各样路线探讨:大模型与“小模型”、模型开源与闭源、技术路线与市场路线。在笔者看来,无论哪种路线都有助于人工智能行业的发展,所探讨的是当下的大模型发展的最优解。
①大模型一方面追求“大”,另一方面追求“小”
今年年初,红衣教主周鸿祎就大模型发展趋势发表了自己的观点,其中提到,今年大模型一方面追求“大”,另一方面也追求“小”。他坦言,小规模的大模型将很快搭载在手机和各种联网设备上。“未来手机里的个人助理、服务于家庭的人形机器人,都将由这类”小“模型驱动。”
而这次演讲也仅过去半年时间,伴随着一个又一个“小模型”的发布,一个全新开辟的战场就此诞生。在刚过去的一周内GPT-4o mini和Mistral?NeMo二连发将人们的视线转移至小模型上,而前OpenAI和特斯拉AI研究员Andrej Karpathy也预判未来的模型将会更小,但仍然变得更智能。
在发展初期,追求大模型成为主流趋势,这背后有多重驱动力。数据爆炸的时代要求模型具备处理海量信息的能力,而计算能力的提升,特别是GPU等高性能硬件的发展,为大型模型的训练提供了可能。大模型通过海量数据训练,展现出卓越的性能和精度,同时在语言理解、生成及泛化能力上表现突出。然而,随着技术发展,大模型也面临高昂的部署成本和资源消耗挑战,促使业界开始探索小模型的发展路径。
Karpathy等专家指出,当前的大模型虽强大,但往往“虚胖”,记忆了大量无关紧要的信息。未来趋势在于通过高质量训练数据集,训练出规模更小、能力更强、更具推理能力的小模型。这一过程类似于从海量数据中提取精华,实现模型的“瘦身”。
OpenAI等机构的实践表明,利用大模型生成和清洗数据,再训练小模型,已成为一种有效策略。这一趋势不仅有助于降低模型成本,还促进了AI技术的广泛应用。同时,业界普遍认为,数据质量是AI训练成功的关键,无论是真实数据还是合成数据,都将对模型性能产生深远影响。
②大模型开源路线与闭源路线的又一次交锋
如今,大模型赛道的开源与闭源之争,已成为AI商业化下半场的核心焦点。在不久前的2024世界人工智能大会上,刘庆峰、李彦宏、王坚、朱啸虎、傅盛等大佬发表不同观点,再次引发外界对大模型路线的关注。事实上,无论是国内还是国外,这场围绕模型源代码、模型权重及训练数据是否公开的战争已持续一年半,双方各执一词,未决胜负。
具体来看,百度创始人、董事长兼首席执行官李彦宏表示,模型开源无法做到众人拾柴火焰高,商业化闭源模型最能打。模型开源与代码开源不同,无法做到众人拾柴火焰高。激烈竞争环境中,商业化闭源模型最具竞争力。
阿里云CTO周靖人表示,两年前阿里决定通义大模型将开源开放。“到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距。”
在我们通过分析可以发现,开源模型凭借其开放性、创新力与透明度,有力推动了技术普惠与社区共建。闭源模型则以卓越性能、专业服务与知识产权保护,满足了市场对高端技术解决方案的需求。双方的争执更多的是路线之争。
在笔者看来,无论是闭源所代表的核心技术掌控与竞争优势强化,还是开源所赋予的快速技术进步与创新生态共建,都将在大模型领域的未来发展进程中发挥不可或缺的作用。未来哪个技术路线将更胜一筹,将有待市场的检验。
③技术路线与市场路线之争
持续烧钱的大模型领域目前挣钱的也



相关论坛
相关广告

拨打电话