大模型研发席卷全球,“百模大战”目前已经走到了抢占落地先手的阶段。
2023年,从PC端到学习机,都在积极配合打造丰富的系统应用场景,而手机作为和日常生活链接最为紧密的智能设备,与大模型的故事仿佛刚刚开始,大幕拉开,华为率先登场。
华为mate60自预告起就占尽先手,但此后,小米迅速推出了自己的大模型,OPPO、vivo等手机厂商也陆续加入,智能设备厂商大模型之争硝烟弥漫,“军备竞赛”俨然打响,新的市场将几分天下?这场大模型的高端局,华为能否继续一枝独秀呢?
01 目前来说,落地才是硬道理
根据IDC本月发布的报告,2023年,全球智能手机市场出货量预测将会低于12亿部,同比下降1.1%;而中国市场的出货量预计仅有2.83亿部,同比也下降约1.1%。据Counterpoint的数据,2023年第二季度,中国智能手机销量更是创2014年以来第二季度最低水平,同比下降4%,而就算是“618”大促期间,国内手机销量也大不如前,同比下降8%。
所以,全球手机消费市场领域需求明显不足,期待新的变革,大模型承担着在5G和6G之间掀起新一轮周期的希望。
高通中国区研发负责人徐皓表示:“大模型进入终端是系统普及的必然过程,对大多数用户或企业来说,能够普及的、 有意义的应用还是在终端。就像曾经银河系列巨型计算机,可以算出非常复杂的太空飞行轨迹,但真正对普通民众有意义的还是个人电脑。”而手机作为渗透现代人生活最为深刻的智能设备,不得不说确实可以称得上是大模型落地的最强终端。
反过来我们还可以反思一下手机市场疲软的原因,除了宏观经济的因素外,主要原因大概有两点,产品迭代快但代际差别不大,以及手机性能提高,消费者更换周期变长。所以大模型这种程度的颠覆性变革,同目前手机市场消费疲软的原因极为契合。我们有理由相信,以华为产品为先声的手机大模型革命能够为活力不足的消费电子市场带来一场狂欢。
同时,进手机,是大模型开发企业的必由之路:是运营过程中大量节约成本,提高效率的必然选择。
初期的ChatGPT等大模型的训练是在云端进行的,参数众多,甚至达到百亿或千亿级,训练时需要众多GPU提供算力,这种条件只有云端能提供,保 守估计每月算力成本就在1000万美元上下。而一旦大模型训练完成,进入到推理阶段,企业就会对成本和安全有更多考虑。以大语言模型'为例,当有大量用户涌入进行搜索时,成本将节节攀升,呈指数增长。此外,把推理任务分发出去不仅会逐渐降低成本,而且还可以提高处理效率,保护用户隐私,促进生态维稳。
但回到当前阶段,大语言模型究竟可以在手机上发挥怎样的价值还未可知,因为系统本身也在不断演进 ,所以目前来说,落地才是硬道理。
由于一切乾坤未定,进步和调整的路径都需要在实践中进一步摸索,所以主要玩家身处大模型落地的初创期,要少谈些未来,多走些实地。炒作概念,泡沫终将散去,只有先聚焦技术实现,加速落地才能真正站稳脚跟。
回到华为的问题上,现在切不可追究细节,落地才是硬道理。盘古大模型的加入目前会提供一些诸如“摘要总结”、“信息检索”、“智能翻译”以及传统的“语音拨打电话”、“语音查询天气”等服务,虽有用户反映未达到期待,但未来还是有相当改进空间的。
届时到底哪个大语言模型更流行或者更有用,也要看具体的应用场景。有可能是生成语言来回答问题、帮助用户写PPT、写文档、写代码、识别语言等等。所以尽快落地,摸索需求的方向和技术的边界才是重点。
02 百模大战抢到先手,华为做对了什么?
华为并不是第一个,也不是唯一一个尝试将大模型装进手机的玩家,如前文所述,OPPO、vivo、小米也都在尝试推出自己的大模型手机,那么华为率先拉开二者相结合的序幕,到底做对了什么?
要解决这个问题,就要了解大模型进入手机的核心要点,从云到端,达到云端协同。
具体来说就是,大模型需要首先在云端进行训练,通过大数据分析和算法优化得到高效的模型架构和参数,再将其部署到端侧设备中,以实现本地化、实时性的智能服务。同时,云端平台还可以对终端设备进行远程管理和监控。
理论上过程顺畅,但实现过程中要经历从模型设计、数据处理、硬件升级、通信能力、安全性和隐私保护等方面的全方位优化和技术创新。
首先,把大模型缩小是最大的挑战。
据报道,截止今年5月,我国超过10亿参数规模的大模型约79个,而千亿规模以上的只有几个,其中就包括华为的盘古大模型。盘古L0层基础大模型最大版本包含1000亿参数,预训练使用了超3万亿tokens,将它放进手机,难度可以说是非常大了。
但需要注意的是,盘古大模型实际上分为了四个版本,分别是100亿参数、380亿参数、710亿参数和1000亿参数。考虑到手机的硬件性能和运行环境,鸿蒙4中搭载的,很有可能是100亿参数版本的盘古大模型。
想在这100亿的数据规模上,保障大模型的准确性、可靠性,可能吗?
对于这个问题,华为有两种可能的解决方案:首先一种,是直接将鸿蒙4中的大模型,变成一个看似通用的“专用”大模型,采取小而精的策略。因为在某些特定场景,预训练数据的质量和相关性,远比其数量和范围要重要得多。
而第二种方式,则是通过“压缩”的方式,在不牺牲性能和精度的情况下,降低模型的参数。华为在该模型的训练过程主要采用了昇腾绝对模型压缩、参数量子化、模型蒸馏和知识蒸馏等技术,让这个模型不仅具备强大的计算能力,还能够兼顾效率和速度。
其次,大模型从云端进入手机,对端测设备硬件基础设施的要求也相应提高,倒逼硬件升级。
将大模型装进手机需要手机具备相应的硬件支持,包括高性能的处理器、大容量的存储空间、高内存以及其他的硬件加速设备。
Mate 60 Pro所搭载的是麒麟9000S芯片。计算和推理及硬件加速设备方面,GPU Maleoon 910性能直逼英伟达A100,在AI芯片领域,其处理速度比业界同类产品快80%以上。华为轮值董事更是介绍到,Mate 60 Pro搭载的芯片几乎是当前全球算力最强、训练速度最快的。
空间方面,大模型需要大量的存储空间来存储模型本身以及处理数据,Mate 60 Pro使麒麟9000s和储存颗粒堆叠,虽然散热条件受损,但储存性能获得直线提升,512G与1T的空间,为大模型的运行留出余地。
最为重要的是,这块麒麟9000S芯片,极有可能是华为海思完全自主研发,这就意味着,华为拥有一条世界领先的芯片生产线,不受到任何国家、企业的限制,拥有完全自主权,为大模型手机的顺利运营提供了最为坚实的基础。
相应的问题就是,硬件的提升必然带来价格的提高,对于消费者来说并不友好。但23年手机市场数据表明,在消费电子市场整体疲软的背景下,国内市场600美元以上的高端机销售额在第二季度逆势增长23.1%。这就证明,高端机市场的需求还是相当旺盛。
03 大模型进手机的高端局,华为能一枝独秀下去吗?
虽然华为大模型手机已经有了一定程度的进展,但要真正完成从云到端的跨越,并非一件容易的事,是各大产品、软件开发公司的难题,也是科技部下一代人工智能重点重大国家课题。
从全产业链出发,这件事情根本不是华为单打独斗能够拼出来的,要保持行业领先地位,就需要多个环节的通力协同合作。
模型设计及开发环节,需要对其结构、参数和训练数据进行优化和压缩,尽力降低复杂度。训练方法和算法优化方面,需要高效的算法提高训练效率,以针对具体的应用场景随机应变以上环节,华为的开发团队还能够自行完成,但数据收集与处理,硬件产品支持以及应用场景的开发就一定会随着大模型与手机结合的深入,逐渐需要与产业链不同环节进行深入合作了。
数据收集和处理的过程中,大量用于训练和优化模型的数据都必须进行收集、整理、标注和处理,这就要求不同的数据处理中心同时协作,提供优质数据服务。同时,模型的学习和运行过程中还需要相应的算力服务作为支撑,涉及产业链上游的算力租赁公司。
同时,如果要使模型更小,就需要采用更高效的压缩和优化技术,训练和部署模型要求更强大的硬件支持,例如 GPU、TPU 芯片。这就要求同中芯国际等芯片厂家进行合作。
总之,将大模型缩小不仅需要技术上的支持,还需要各个环节的共同努力。只有通过合作、协作和创新,才能实现模型的缩小和优化,并最终实现更好的应用效果。
不仅把模型缩小的开发阶段需要产业链各环节通力合作,后续大模型手机在应用、发展阶段更需要的是一个欣欣向荣,和谐互补的生态环境。
未来,在开发过程中大模型就需要与各行业公司进行深度合作,以便将手机设备与各种智能家居、办公等场景深度融合。
应用和发展阶段,大模型手机需要一个良好的生态环境来促进其广泛应用和创新。这包括各种应用软件的开发与更新,以及软件生态的共建共享。只有在这样的生态环境下,搭载了外脑的智能终端才能充分发挥潜力,成为消费者的得力助手。
大模型手机在多元化创新领域具有丰富的想象空间。例如,妙鸭相机就是一个很好的例子,通过大模型手机,消费者可以轻松实现各种创意拍摄,丰富社交内容。未来,随着技术的不断发展,大模型手机有望在更多领域带来更多创新应用。
此外,需要特别关注的是,这场云到端的较量,华为不仅不可一枝独秀,盘古本身是否适合手机终端还是一个值得商榷的问题。华为官方曾宣布,盘古并非注重语言和互动的大模型,而是“不会写诗,只做实事”,面向行业,践行“AI for industries”的典型。简而言之,盘古大模型强调在细分场景的落地应用,主要解决商业环境中低成本大规模定制的问题,和C端用户日常使用场景能否成功磨合呢?目前还需要等待市场更完整的反馈。
A5创业网 版权所有