下拉神器是一款专业的下拉词平台,为用户提供各种下拉功能:百度下拉丶360搜索下拉丶必应搜索下拉丶哔哩哔哩下拉丶抖音下拉等等,里面还有批量做词教程技术,可以一次性做10-50个词,省心高效!不用一个一个做了,而且批量做词,批量出词,可以实现霸屏效果!
有的客户想删除下拉,但是百度不受理,就可以使用批量做词,霸屏技术,实现把那些负面信息顶下去,顶掉的效果=删除效果!欢迎您前来使用!新手不懂使用,请多看2遍视频教程哦!下拉神器100%有效果的!
给大家看一个下拉神器介绍的视频,看完后,点击下面的按钮进入”下拉神器“
下一篇文章内容预览:
作者|油醋
電子郵件|
在 V. (Lou)到来之前,IBM 已陷入自己的技术陷阱中整整十年。
20 世纪 80 年代,个人电脑的兴起和市场的快速变化开始对 IBM 构成挑战,这家曾经拥有 80% 市场份额的硬件巨头,随着个人电脑的日益普及和小型化,在 20 世纪 90 年代其大型机市场萎缩,濒临崩溃。此时,很少有人关心正是这家公司最先将个人电脑带向世界。
1993年3月25日,格斯纳与IBM 50人的核心管理团队会面,其中有一句话很有力度:“市场决定我们的一切行动”。
这或许是IBM历史上最重要的45分钟。格斯纳出任IBM CEO后,公司开始抛弃技术自我,开始从技术驱动型公司向市场和客户导向型公司转型。硬件制造商转型为服务和解决方案提供商,包括咨询、系统集成、IT服务和软件在内的综合服务开始被提上日程。
如果说IBM革命是一场由硬件引领的软硬件革命,那么在这场才刚刚开始的革命中,软件则成为席卷一切的风暴眼。
它从硅谷的一个笑话,到成为新浪潮的引领者,随后GPT-3.5演进到GPT-4,接着是Meta的和;而随着2023年3月百度发布文心易言,这场大型模型大赛迅速变成了一个有200多个模型的臃肿赛事。
如今IBM已经不再是一家那么重要的公司,但类似IBM的困境却不断重演,无数大型模式公司投入了大量研发人员,却用精心打磨的锤子找不到钉子。
早期高调入局的百度此时也没有保持沉默。
2023年百度发布文心易言之后的第一个动作,就是推出企业级大模型平台——千帆。一年后,百度副总裁谢广军公布了一组新数据——截至2024年3月,千帆大模型平台已服务超过8万家客户,微调1.3万个模型,开发16万个应用。
在企业业务这个看似平淡的赛道里,市场将决定大模型厂商的一切行为。随着模型基础性能的提升,市场需求开始进一步体现为行业应用需求。换言之,人们长期寻求的大模型能力定义权最终还是掌握在客户手中。
从这个层面上看,百度是观察中国大模型行业整体走势的一个很好的视角,而百度也正在迎来自己的“盖茨纳”时刻。
“我不需要 AGI 这样的通用人工智能”
某新消费行业的客户从去年下半年开始逐渐确定与百度在大模型上的合作。智能客服、数据库是新消费行业普遍需要用大模型转型的领域。起初该客户也在国内市场进行尝试,是目前国际上比较主流的开源模型,但效果并不理想。
客户最终选择了百度系列的轻量级大模型,其技术负责人告诉硅星,百度的模型在特定场景下的效果比已经尝试过的其他模型好很多,而这种能力对于以较低的成本获得、保证长期成本可控至关重要。
“满足特定场景的需求就够了,我不需要AGI这样的通用人工智能。”该技术总监说。
这也是已经充分发挥的千亿参数模型投入到具体生产环境时会面临的错位,绝对的技术能力终究会进入效率与成本的参考框架。——他们不是在寻找Sora或者GPT-4,他们需要的是真正适合自己使用的模型。
——也就是说,是一款“性价比”足够好的机型。
前述新消费者客户使用的 。它是百度最新的大型语言模型,旨在高效处理特定场景问题。该模型凭借出色的通用能力和出色的推理性能,成为微调的理想基础。它支持高达 128K 大小的推理上下文,确保在各种任务中的适应性和效率。
图片来源:百度智能云
百度研发团队以经典影视作品《武林外传》为背景,成功打造了微调后的角色扮演模型,并在特定场景中展现了优异的表现。微调后的模型不仅在性能上不逊于前作,在性价比上也具有显著优势,在同等输入输出条件下,微调后的推理成本降低了 96%。
目前已在在线教育、智慧办公、电商导购、数据分析等多个行业场景应用,彰显了其强大的实用性和有效性。
其中,千帆大模型平台发布了三款轻量化模型,如果定位是“适合微调的最佳基础模型”,那么成本上的极致就是Tiny。
Tiny 的推理成本为 0.001 元/1000,如此低的成本下,Tiny 并不损失性能。Tiny 是百度针对推荐、搜索、意图理解等大量高并发、低延迟场景提供的解决方案。调用需求分为两类:一类是大规模同质需求,一类要求响应速度非常快。这类场景下,需求本身的难度往往没有那么高,产品后台整理同时涌入的大量交互内容,或者金融行业实时采集海量数据。
在一次测试中,研究人员使用了4.0、Tiny等5个模型为某网络零售公司完成产品评论情感分类任务,结果显示Tiny仅用了1.4个小时就完成了任务。
Tiny也是最适合百度C端的大模型。“比如在高并发的推荐场景下,对效果要求没那么严格,但还是需要大模型的逻辑推理能力、上下文理解能力。这种情况下,Tiny具备价格和性能优势,让行业用户更容易上手。”百度智能云AI平台副总经理李静秋说。
百度还在Lite和Tiny之间设计了一个折衷方案,Lite比Tiny更轻量,模型性能上限更高,兼顾了优秀的模型效果和推理性能,适合使用低算力加速卡进行推理,推理价格达到0.006元/千元,也介于两者之间。
图片来源:百度智能云
从2023年到现在,不到15个月的时间里,大模型的共识已数次发生变化。生成式AI在C端的杀手级应用仍在等待时机,但在ToB市场,生成式AI与企业的共生关系正在形成。在这个过程中,模型参数从几千亿级回归到几百到几千亿级,后者逐渐成为企业在成本与性能之间取得平衡的甜蜜点。
但模型参数的下降往往也意味着性能的崩盘,这也是Lite和Tiny的特色所在。大量企业客户的反馈显示,这些轻量级大模型在某些特定场景下可以达到大参数模型的性能。谢广军对此的理解是,归根结底,文心大模型,也就是基础模型本身的性能和效率才是这些小模型背后的决定性因素。
从某种程度上来说,大车型的竞争,“市场决定我们的一切行动”最终还是要回归到技术的竞争。
工业大模型面临的场景复杂多变,需要的模型能力和训练方向也截然相反,百度在这场战场上的决胜因素,注定不在于某个具体的模型,而是这一群模型背后的模型组合,一个以文心大模型的能力为制造模型基础的千帆大模型平台。
答案就在 8 万家公司中
百度智能云于3月上线千帆大模型平台,这是当时全球首个一站式企业级大模型平台,半年来,平台上月活跃企业数已达近万家,凭借67个预装国内外主流大模型和47个优质行业专用数据集,千帆大模型平台已完成从1.0到2.0的迭代,较为完善的工具链和大模型安全解决方案正在逐步成型。
在百度智能云千帆产品发布会上,谢广军透露,平台企业客户数量已达8万家。
用通用能力对大模型进行微调,正在成为企业对大模型的常规需求。千帆大模型平台的下一步计划是将微调流程进一步简化和开放。
谢光俊表示,大模型正处于快速增长阶段,目前更多用户直接调用基模型,随着应用的深入,企业会根据自身数据对基模型进一步微调,提升模型效果或构建行业大模型,“相信微调的需求会大幅增加。当然,微调完模型之后,企业还需要做推理,因为推理跟应用最相关,所以推理的需求也会大幅增加。”
这也是服务了大量客户之后才会察觉到的业务痛点——大参数模型的效率问题或许是最直接的一点——但客户遇到的坑远不止这个。
有些客户已经明确掌握了模型微调和训练的方法,但可能只有自己的业务场景,缺少一些通用的数据,导致在微调过程中忘记了大模型的通用知识;或者一方面,客户自身的业务数据是不断变化着的,比如之前调整或者微调过的模型,如果下个月业务模型发生变化,那么就需要一个持续的升级过程才能达到效果。
工艺流程微调的答案就沉淀在千帆大模型平台的工具链中。
首先,千帆支持数据回流,自动分析识别,比如,我们可以告诉你,你的客户喜欢哪些帖子,不喜欢哪些帖子,我们会针对性地进行数据优化,不断为您的业务场景构建效果更好、成本可控的应用解决方案。
千帆大模型平台还将常用数据开放,让模型保持“常识”,同时在这个过程中,比如数据清洗算子、数据增强算子、数据洞察解决方案等,千帆大模型平台将提供样本洞察分析处理的一站式工具链,帮助用户更快、更轻松地实现最佳微调效果。
而8万家企业客户形成的产业生态也给百度提供了更有说服力的视角,而千帆大模型平台可以开始做一些更具体的工作。
除了三款轻量级模型外,千帆大模型平台还发布了两款垂直场景模型,瞄准大模型目前与企业交集最深的问答交互、智能助手场景。
专为创建性格鲜明、一致性强的对话角色而设计。该模型在游戏NPC、客服对话、角色扮演类应用中表现优异,得益于其强大的指令执行能力和个性化微调功能,可根据特定场景和需求进一步优化对话体验和角色表现。
目前它已开始落地产业,某智能硬件厂商利用此模式开发智能助手,不仅在保持角色性格一致性上取得突破怎样在百度上发布作品,还有效激发和提升了用户的聊天兴趣。
此类对话、问答场景依赖大模型与外部系统或服务交互的能力,是针对对话、问答场景中的函数调用进行优化的大模型,加强结构化答案的合成能力,保证在调用外部工具时,以及执行业务功能时输出结果的准确性和稳定性。在旅游类APP实际应用中,支持智能客服助手进行订票、查询航班等操作,准确率高达92%。
图片来源:百度千帆大模型平台官网
另一个趋势是,对大模型的期待正从上游模型本身转向下游的AI原生应用。这种关注点的转移也体现在千帆大模型平台的客户分布上。8万家客户中,一部分直接调用文心4.0、文心3.5或者基于轻量级大模型做模型微调,另一部分则在开发应用。
如果说概念是一个生产平台,它为整个模型训练提供了工具链,让模型推理和微调变得更加容易,那么它的作用就是有效降低应用开发的门槛。
从模型到AI原生应用
据风险投资公司a16z的分析报告显示,排名前50的外部AI原生公司中,有22家(占比超过40%)是新型AI原生应用公司。
2024年是AI原生应用元年,这已经逐渐成为共识,在行业内,新的AI原生应用不会凭空而来,很多场景已经非常成熟,在AI能力出现之前,数字痛点就已经显露出来。从这个角度来看,行业期待的AI原生应用,更倾向于在模型能力更加成熟之后,对已有的工具和应用进行改造。
“2023年,华夏大家都以修炼为主——相当于炼制丹药——现在丹药快好了,你就得用了。”谢广军说道。
目前在千帆大模型平台上开发的应用数量已经超过16万个,这个数字非常可观,大到足以说明AI原生应用大量涌现的初期主要有两类人。
“一种是代码态,就是在已有应用的基础上做智能化改造,这个是大B端场景下的典型客户画像。另一种是零代码态,主要面向小企业和个人开发者,就是做全新的、独立的、toC的应用。”谢广军说,“从人群分布上看,个人开发者比较多,但从使用深度上看,企业里的专业开发者团队使用得比较深。”
这也是AI原生应用预期的两个设计动机。针对两条不同路线,代码态、零代码态两种使用模式初具雏形,全面升级开始。
为进一步提升开发体验和效果,工具组件扩充至55个,包括数十个大模型能力组件、AI能力组件以及第三方API,为开发者提供更加丰富、便捷的开发工具。
图片来源:百度智能云
同时推出了自主任务规划和工作流编排,仅需三步即可完成应用的创建和发布,只需要用自然语言提出问题,就可以自动创建相应的应用,而无需编写复杂的需求和代码。这意味着对于非编码背景的开发者来说,开发门槛进一步降低。
谢广军表示,已经构建了企业级全链路搜索增强应用框架,面向企业级应用场景提供全链路知识搜索增强,并结合多种能力组件进行行业数据优化。包括语义解析、语义向量计算、语义匹配、问题分解、多轮改写、幻读检测、阅读理解问答、文档表格问答等。
除了检索增强框架和丰富的组件工具外,另一个核心优势是开放性和易用性。
这套工业级AI原生应用开发平台目前已基本覆盖了当前主流场景的组件工具和丰富的应用实例,且组件开放灵活,包括RAG SDK在内的丰富开源SDK支持开发者进行二次开发,百度千帆模型也发布了全新的开源SDK。
此外,对于开发者来说,如何把自己做出的应用带给更多人是一个新问题,分发渠道也得到了进一步打通,平台上制作的应用,现在都可以通过微信公众号、微信客服、网页、H5、百度灵境矩阵等渠道一键分发。
从到,大模式如何走向场景的具体路径,在百度内部已然浮现。
离开前请点击“正在观看”。