物联传媒 旗下网站
登录 注册
RFID世界网 >  新闻中心  >  今日话题  >  正文

慢思考AI时代来临,CoE架构加速驱动大模型变革?

作者:来源网络(侵权删)
来源:RFID世界网
日期:2024-09-20 10:50:34
摘要:CoE(Collaboration-of-Experts,专家协同)架构,作为一种创新的技术架构,其核心理念是将大模型分解为多个“专家模型”,每个专家模型在特定领域有着深厚的积累和精准的能力。这些专家模型可以根据实际需求进行动态组合和协同,从而提供最优的解决方案,提升人工智能系统的整体性能和智能水平。
关键词:AI

随着科技的高速发展,新的技术还在不断产生、不断涌现,刷新着人们对科技的无限想象。比如在人工智能领域,AI技术迭代之快,新的技术的出现,总在不断颠覆着人们的认知和想象空间。


前不久,美国OpenAI公司正式推出全大新模型o1,引起了业界的广泛关注。据悉,o1模型采用了全新的优化算法和为其专门定制的新训练数据集进行训练,运用“强化学习”的方式,并通过“思路链”来处理用户查询的问题,这使得它在处理复杂问题时表现更为出色。


与以往模型不同的是,o1模型采用了“慢思考”的方式,即在回答问题前会进行反复思考、拆解、理解、推理等复杂的深入思考后,再提供具有高质量的回答。


值得一提的是,“慢思考”这一概念并非OpenAI首创。早在ISC.AI 2024大会上,360集团创始人周鸿祎就提出,“用基于智能体的框架打造慢思考系统,从而增强大模型的慢思考能力。”同时,360推出了其首创的专家协同(CoE)技术架构及混合大模型,目前该技术架构已应用于多个产品中,比如360 AI搜索、360 AI浏览器。


何为CoE架构?


CoE(Collaboration-of-Experts,专家协同)架构,作为一种创新的技术架构,其核心理念是将大模型分解为多个“专家模型”,每个专家模型在特定领域有着深厚的积累和精准的能力。这些专家模型可以根据实际需求进行动态组合和协同,从而提供最优的解决方案,提升人工智能系统的整体性能和智能水平。


与MoE架构不同的是,CoE架构强调的是多个专家模型之间的协同工作,不存在绑定关系,因此该架构更灵活性和可扩展性。在CoE中,一个入口同时接入多家模型,并在模型分析之前增加一个意图识别环节,以决定任务由哪款或哪几款模型起作用。


作为一种创新型的技术架构,CoE架构通过混合大模型和专家模型的协同工作,智能优化分配资源,使得最合适的模型能够处理最适合的任务,显著提升答案的准确性和完整性,同时也提升了系统的整体性能和效率,为人工智能领域的发展注入了新的活力和动力。


360联手国内大模型厂商,击败GPT-4o


当下,随着人工智能技术的快速发展,AI大模型成为当下全球科技竞争的新高地。大模型以其庞大的参数量、强大的泛化能力等,在多个领域展现出巨大的应用潜力和价值。


但眼下的现状是:大模型太多,应用太少了。大模型不仅要跑起来,更要用起来。因此,如何让大模型更好地应用到具体的场景中并落地,为各行业创造出实际的价值,变得尤为重要。然而,单一企业的大模型往往存在局限性,难以满足复杂多变的市场需求。


针对于此,360提出了CoE(Collaboration-of-Experts,专家协同)技术架构,为大模型的应用带来了一种全新的思维模式。


据悉,CoE架构除了接入360自研大模型360智脑外,还包括智谱AI、商汤科技、百川智能、字节跳动、百度、腾讯、科大讯飞、华为、MiniMax、零一万物、面壁智能、阿里云、幻方量化、好未来、月之暗面等国内主流厂商的大模型产品。


与此同时,360宣布与国内15家大模型开发商强强合作,推出一款AI搜索应用产品——360 AI助手,其将全面内置在360全家桶产品与360 AI搜索内,无需安装额外的插件便可以直接调用各家的大模型能力,实现一站式体验国内多达15家的最强大模型。

图片

图源:网络


当然,这个集成了多款大模型能力的「超级模型」合体的数据架构也不负众望,其在多方面均有着出色的表现和较强的实力。从实际效果来看,集各家所长的AI助手以80.4测试总分大幅超越GPT-4o的69.22分,且在11个能力维度上全面领先。

图片

图源:网络


作为AI技术的引领者之一,360在大模型领域的创新和探索,不仅为自身带来了竞争优势,更是为整个行业的发展拓宽了思路,带来了更加领先及标准化的参考。未来,随着技术的不断进步与应用场景的不断拓展,我们有理由相信大模型技术将在未来发挥更加重要的作用,推动AI技术的持续发展和普及。