腾讯混元大模型:2024 年大模型风向变了,精耕细作搞应用成潮流趋势

2024-07-06
来源:网络整理

奥飞寺的梦幻早晨

量子比特 | 官方账号

进入2024年,大模型的方向已经发生改变。

在“百模大战”的时候,简单地用一个demo来实现MaaS(模型即服务),也就是让用户直接跟大模型进行交互就已经足够了。

但如今,精耕应用,无论是原生的AI应用,还是将AI功能融入到现有产品中,已经成为最新趋势。

就连一向低调神秘的腾讯混元大模型团队,也公布了应用的进展:

腾讯混元大模型已经支持400多个内部业务和场景的接入,并通过腾讯云向企业和个人开发者全面开放。

这里有很多知名的“国民级”应用,比如企业微信、腾讯文档、腾讯会议等,都全面武装了AI。

还有更多腾讯云SaaS产品,如企业知识学习平台腾讯乐享、电子合同管理工具腾讯e签等,也都搭载了AI技术。

腾讯的混元模式去年9月才首次亮相,有没有打算加快进程?

面对这一疑问,腾讯混元大模型应用负责人张峰给出了一个有点“凡尔赛式”的答案:

我们只是按照正常的节奏走,并不是接上大模型那么简单,我们已经进入到打磨用户体验的阶段了。

在国内众多大型模型厂商中,腾讯为何要走一条如此独特的路线?我们就此与张峰进行了深入的交流。

腾讯AI产品已在改善用户体验

腾讯多年来一直以产品著称,这种风格在AI时代也得以延续。

以大机型旗舰级的腾讯混元助手为例,“我们已经在打磨用户体验”并非只是一句空话。

例如,当要求它做一道简单的数学题时,你可以发现AI能够非常流畅地分析思路,并能判断出题目中缺少条件,但在给出最终结果之前会稍作停顿。

这不符合大模型预测下一个的工作原理,反而像是真的在计算。

张峰透露,在幕后,AI先编写一段代码,在后端执行并返回结果。

不得不说,这是一种巧妙的办法,解决了大模型计算不准的问题。但为什么不像 GPT-4 代码解释器版本那样,将代码显示在前台呢?

腾讯混元助手的一个重要场景是在微信小程序中使用,而移动端展示的代码会显得特别长。张峰认为,目前的策略更加符合用户体验习惯。

产品策略是有了,但实施起来并不容易,首先大模型需要理解当前用户的需求,需要精准计算,然后需要生成合适的代码,最后需要通过函数调用成功执行代码。

类似这样的例子还有很多,我们从细节入手,不断完善用户体验。

比如大家熟悉的腾讯会议,除了简单的AI语音转写、会议纪要汇总等,还有很多差异化的功能。

人类的言语表达难免会伴随停顿、结巴等现象,腾讯会议AI在转写时,会智能整理“嗯嗯啊”等部分,让会后记录看起来更加整洁。

腾讯会议考虑的另一个问题是,AI生成的会议纪要的格式要根据会议类型进行适当调整。

一场有明确主题和议程的会议,需要的纪要格式,与大家自由发言的头脑风暴会议截然不同。因此,除了按时间、按章节生成会议纪要外,腾讯会议还将上线按发言人/按主题生成会议纪要的功能。

腾讯乐享作为企业知识协作平台,在AI问答功能中实现了识别提问者身份,针对不同的人提供不同的答案。

如果公司的HR问AI关于薪资结构的问题,会得到肯定的回答,如果问其他职位同样的问题,AI会拒绝提供,既方便又安全。

湖南匡真律师事务所接入乐享助手,构建AI知识库,员工调查显示,典型问题AI解答满意度高达93分,端到端问题准确率达91%。

腾讯电子签章利用AI智能审单系统识别合同风险条款,让企业更轻松地控制合同风险。企业对合同的风控要求各不相同,腾讯电子签章还利用大模型和少样本技术训练适合客户行业的小型垂直模型,实现低成本运营。同时通过混合云模型,支持数据和模型的私有部署,在保证合规的同时解决效率问题。

总共400+的应用场景中还有很多这样的例子,这里就不再赘述了。

接下来值得探讨的问题是,腾讯如何在短时间内完善和成熟自己的AI产品。

完整的应用实施流程已完成

在腾讯,大模型研发和业务应用是“双向奔跑”。

据张峰介绍,腾讯混元大模型开发过程中的迭代速度非常快,基本每个月都有四到五个版本。

这种速度来自于和业务应用团队的高效配合,业务团队提出需求、贡献微调数据,研发团队就可以有针对性地加强大模型的能力,线上测试过程中不断发现Bad Case,也能快速弥补大模型的不足。

在这个充分考虑实际应用需求研发的模型下,腾讯混元大模型的定位是“实用级通用大模型”。

在国内大模型中,腾讯混元率先完成MoE(Mix of )架构升级,即由单一的密集模型升级为多个专家组成的稀疏模型。

在激活参数不变的情况下,MoE 架构的参数总量更大,能够处理更大的吞吐量。同时得益于实际激活量更小,训练和推送成本可以显著降低。

这一路线的快速转型,也得益于对业务应用需求的早期理解。

在与业务应用互相打磨的过程中,腾讯混元重点完善了通用模型的三个能力:

腾讯混元具有指令跟随能力,可以根据要求执行各种复杂结构化的长指令。

理解网页和文档的能力满足了用户经常需要AI来总结长文本内容、减轻认知负担的需求。

函数调用能力也是腾讯混元团队认为下一阶段大规模模型将会出现的趋势之一。

通用大模型仅仅是一个开始。

张峰介绍,实际应用中,除了MoE主模型外,如果调用量很大,从性价比的角度考虑,各个业务可以考虑采用不同尺寸的小模型,或者采用根据业务数据进行微调的垂直小模型。

微调是学术界的一个常用词,但腾讯在公司内部更喜欢使用“微调”。

从数据管理到自研的训练框架、推理框架,再到模型评估和部署,都体现着一丝不苟的工作精神。

那么,面对目前超过 400 个场景的现状,以及未来会有更多业务需要使用大模型的情况,研发团队显然抽不出精力去对每一个场景进行微调,如何解决这个问题呢?

答案是,通过混元的一站式平台,很多业务团队可以轻松地自行处理需求。

浑源一站式平台不仅支持通过API接口直接调用浑源大模型服务,还将大模型从训练到部署的诸多流程可视化,不需要编写代码,只需要点几下鼠标就能快速完成。

有了浑源一站式平台,很多AI工程师不用再为代码而烦恼,对机器学习不太熟练的业务工程师也可以轻松上手。

接下来,我们将从整个模型的完善到上线,去了解混元一站平台的能力。

首先在模型方面,平台提供了多种规模的基础模型矩阵,分为通用模型、针对典型场景的优化模型、以及面向更垂直任务的子模型三个层级。

通用模型前面已经介绍过了,这里可以举两个场景优化模型的例子:对于开发类应用,可以选择增强函数调用能力的模型;对于知识密度较高的场景,可以选择优化汇总能力的模型。

如果不仅有垂直应用场景,还有垂直数据集,混元一站式平台可以针对私有数据集完成二次训练,让垂直子模型不仅拥有良好的通用理解能力,还能擅长专业领域知识。

接下来我们来谈谈浑源一站平台的数据处理能力。

对于不同来源、质量参差不齐的数据,从质量检查、去重等数据清洗过程,到对不同主题数据占比的统计调整,再到更为困难的数据值对齐和去除其中蕴含的偏见,都可以通过自动化手段高效完成。

即使在模型上线之后,如果发现由于缺少某类数据导致模型在某些方面的能力较弱,也可以快速投入补充数据进行持续训练,支撑模型快速迭代。

有了基础模型和数据,你可以根据需求进行微调,打造专属模型,无论是快速低成本的Lora微调,还是全参数深度微调,都可以在浑源一站式平台完成。

而微调后的模型的评估和部署也实现了自动化,特别是一键发布部署,这是混元一站式平台的核心技术之一。

总结一下,相较于传统机器学习平台,浑源一站式平台最大的特点是:提供预先训练好的基础模型、自动化优化的数据处理流程、精简高效的模型微调与应用集成工作流。平台利用自动化、智能化工具应对海量训练数据、模型定制部署等挑战,大大降低了业务接入大模型的门槛,实现了速度快、效果好、接入方式多样的目标。

简而言之:从模型开发到应用实施的整个过程已经完成。

对内流程已经在400多个场景完整落地并验证,外部开发者和企业可以通过腾讯云上的API直接调用腾讯混元能力,下一步将助力合作伙伴业务向智能化升级。

多一个

本次交流的最后,量子比特向团队提交了在腾讯混元助手测试过程中发现的、模型还不能很好解决的问题。

活动结束时已是北京时间晚上6点多,比原定的结束时间晚了近两个小时。

腾讯混元团队大部分成员正准备前往机场,返回深圳研发总部。

张峰并没有跟随众人离开会议室。

短暂的告别后,他坐回沙发上,沉浸在思考该如何改善这个糟糕的案例。

-超过-

分享