点赞

未来大模型:更多能 更轻量 更亲民

发布时间: 04月25日 发布来源:科创中国

23
2843

 去年起,全球掀起以大模型为代表的生成式人工智能行业浪潮,人工智能迈向全面应用新阶段。国外以OpenAI、微软为代表,谷歌、Meta等巨头一个不落,国内头部科技企业则悉数入场。

  近日,国家数据局局长刘烈宏表示,中国10亿参数规模以上的大模型数量已超100个,行业大模型深度赋能电子信息、医疗、交通等领域,形成上百种应用模式,赋能千行百业。

  大模型技术日新月异,产业化脚步追星赶月。在这个热闹夹杂争议的行业,不同的技术路线和选择正在延展开来。

  多模态正成标配

  360集团董事长周鸿祎在关于2024大模型发展的十大趋势判断中明确表示,多模态将成为大模型标配。未来,大模型不仅能听会说,还能看懂图片和视频,更能识别理解。

  中国科学院自动化研究所研究员刘静在《GPT-4对多模态大模型在多模态理解、生成、交互上的启发》一文中谈到,模态是指表达或感知事物的方式,例如人类的听觉、视觉、触觉等。在人工智能领域,多模态是指利用多种模态的信息来进行感知和理解。多模态技术可以让机器同时接收并处理不同模态信息,如文本、图像、音频等,从而提高机器感知和理解能力。

  刘静进一步解释,相比传统的单模态大模型,多模态大模型更加符合人类的多渠道认知方式。它能将不同模态信息相互补充,提高信息的完整性和准确性,从而更好地应对复杂环境、场景和任务。如在语音识别中,多模态大模型可以结合语音和文本信息,让机器更准确地识别和理解语音内容。在图像识别中,图像和文本信息的结合可以让机器更深入地理解图像内容。

  刘静介绍,落实到应用层面,多模态能使机器更好地理解人类的意图和需求,提供精准、个性化服务。例如,在目前智能技术已经深入落地的客服领域,多模态大模型可以根据用户的文本和语音信息,综合理解用户问题并提供解决方案。在智能家居领域,多模态大模型通过与智能家居设备的交互,可以根据用户需求智能调整家居环境。在医疗领域,多模态大模型则可以融合医学图像、病历文本等信息,辅助医生进行疾病诊断、制定治疗方案。

  结合国内大模型产业布局,多模态大模型是近年主流厂商普遍选择的发力方向。如“紫东太初”2.0全模态大模型可实现文本、图片、语音、视频、3D点云、传感信号等不同模态的统一表征和学习。

  落地应用越来越“轻”

  为提升大模型性能、增进用户体验,大模型正以肉眼可见的速度越来越“大”。开源模型的参数从几百亿增加到几千亿,闭源模型也在沿着尺度定律路径不断升级,在千亿参数的基础上向着万亿参数攀登。但与此同时,人工智能产业算力吃紧,难以满足大模型参数规模的指数级增长。

  为加速大模型落地应用,人工智能领域正尝试对大模型进行轻量化,通过打造更小型、更高效、成本更低的模型吸引行业客户,让模型在更广泛的场景有更高应用价值。

  大模型轻量化通过降低模型的计算复杂度和内存占用,实现模型性能与资源消耗的平衡。这不仅有助于提高计算效率,降低运行时资源消耗,还可以减轻计算系统的硬件和软件压力,提高系统的可靠性和稳定性。此外,轻量化还有助于提高模型部署的灵活性和可扩展性,为模型在各种场景下的应用提供更多可能性。

  轻量化主要通过模型压缩来实现。模型压缩是指在不降低模型性能的前提下,减小模型的计算复杂度和内存占用。模型压缩的方法有很多,剪枝、低秩分解等是业界常用的方法。具体来看,剪枝是指删除一些不必要或冗余的参数,低秩分解是指将高维数据或高维模型分解为低维数据或低维模型。这些方法都是通过降低模型的复杂度,减少参数和计算量,来达到让模型“更轻”的目的。

  轻量化不仅有助于提高计算效率,降低运行时资源消耗,还可以减轻计算系统的硬件和软件压力,提高系统的可靠性和稳定性。

  对于通用大模型服务垂直领域、行业大模型落地应用来说,轻量化更是关键步骤——通过合理的数据准备、模型选择、超参数设置和训练验证过程,可以使模型更好地适应特定领域,提高模型性能。

  联想集团副总裁、联想研究院技术战略与创新平台总经理王茜莺曾表示,用好大模型主要有三个要素,第一是场景化,第二是隐私化,第三是轻量化。轻量化不仅是将个人大模型进行压缩并部署到用户设备上,还包括企业内部的轻量化,甚至云端的轻量化。轻量化意味着使用成本的降低。

  端侧成厂商新“角力场”

  去年以来,大模型正逐步走向“智能终端侧”,国内外一些厂商纷纷宣布加速推进大模型在移动终端的部署。端侧大模型,正成为行业热词。

  所谓端侧,是指模型服务不部署在云端,而直接存储在终端内部的芯片中,利用芯片算力生成结果。这样的大模型服务不需要联网,数据也不需要被上传到云端。

  相比于云端大模型,端侧大模型的优势主要在于:无需云端处理信息,安全隐私性更好;不消耗云成本,高频使用下的成本更可控;弱网和无网环境下也可以使用,用户无需担心云端服务器宕机,交互体验更稳定。

  中国工程院院士邬贺铨表示,通过模型压缩和定制人工智能芯片提升算力,将具有百亿参数大模型的推理能力嵌入手机,可以提供低成本、低时延、高安全的智能助手服务。

  相比ChatGPT、Midjourney等人工智能应用依赖云端服务器提供服务,端侧大模型主打在本地实现智能化。甚至有厂商提出,让每个人在手机上都拥有“个人大模型”。

  目前,在中国手机市场份额排名前五的企业中,除了苹果公司,其余均已发布自有端侧大模型产品。手机厂商提出的包括通话记录自动生成、人工智能图像处理等应用场景,日渐成为消费者的日常。

  端侧大模型同样是个人电脑产品发布时的高频词。在相关宣传中,端侧大模型不仅能够提升日常使用及办公效率,还是保护隐私和数据安全的最优解。

  艾媒咨询CEO兼首席分析师张毅表示,人工智能可能成为今年度的手机新卖点,尤其是手机的社交价值功能呈现方面,将有更多故事可讲。对于手机厂商而言,大模型是公认的未来发展赛道和方向。尽管现在人工智能在智能手机终端的应用仍较为初级,但未来的普及和推广仍值得期待。

  不过,现有技术条件下,要做好端侧大模型并不容易。目前条件下,手机性能远远不足以支撑大模型运行。对于大模型来说,参数量是模型能力的直观体现,如今云端大模型的参数量均在千亿级别,而手机端最高参数规模则不过百亿。

  联想集团董事长兼CEO杨元庆认为,未来十年是人工智能的十年,人工智能将改造所有业务。将来人人都会有自己的智能体,后者通过交互学习越来越懂用户,最终成为每个人的“人工智能双胞胎”。

  但他也不讳言市场的不确定性。在他看来,内置个人智能体需要更高配置,如果这些对用户不是刚需,可能就不需要这么高配置。

  国际数据公司认为,未来人工智能终端将在创作与创意、游戏和虚拟世界、语音合成与转换、视觉和图像处理、聊天机器人等十大领域广泛落地发展。

来源: 科技日报 作者: 崔爽)

特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

展开
收起