令人兴奋的人工智能效率:混合较小的模型超越大型模型

令人兴奋的人工智能效率:混合较小的模型超越大型模型

源节点: 3069830

In recent years, the field of conversational AI has been significantly influenced by models like ChatGPT, characterized by their expansive parameter sizes. However, this approach comes with substantial demands on computational resources and memory. A study now introduces a novel concept: blending multiple smaller AI models to achieve or surpass the performance of larger models. This approach, termed “Blending,” 整合 多个聊天人工智能,为大型模型的计算挑战提供有效的解决方案。

这项研究在 Chai 研究平台上针对大量用户进行了 6 多天,结果表明,混合特定的较小模型有可能超越或匹配更大模型(例如 ChatGPT)的功能。例如,仅集成具有 13B/175B 参数的三个模型就可以媲美甚至超越具有 XNUMXB+ 参数的 ChatGPT 等更大模型的性能指标。

各种应用程序(尤其是聊天应用程序)越来越依赖预训练的大型语言模型 (LLM) AI,导致了具有大量参数的模型的开发激增。然而,这些大型模型需要专门的基础设施,并且具有显着的推理开销,限制了它们的可访问性。另一方面,混合方法提供了一种更有效的替代方案,而且不会影响对话质量。

混合人工智能的有效性体现在其用户参与度和保留率上。在 CHAI 平台上的大规模 A/B 测试中,由三个 6-13B 参数 LLM 组成的混合集成击败了 OpenAI 的 175B+ 参数 ChatGPT,显着提高了用户保留率和参与度。这表明用户发现混合聊天人工智能更具吸引力、娱乐性和实用性,同时只需要较大模型的推理成本和内存开销的一小部分。

该研究的方法涉及基于贝叶斯统计原理的集成,其中特定响应的概率被概念化为对所有可能的聊天人工智能参数的边际期望。 Blended 随机选择生成当前响应的聊天 AI,允许不同的聊天 AI 隐式影响输出。这导致了个人聊天人工智能优势的融合,从而产生更有吸引力和多样化的响应。

2024 年人工智能和机器学习趋势的突破强调了向更实用、更高效和可定制的人工智能模型的转变。随着人工智能越来越融入业务运营,对满足特定需求、提供更好的隐私和安全性的模型的需求不断增长。这种转变符合混合方法的核心原则,强调效率、成本效益和适应性。

总之,混合方法代表了人工智能发展的重大进步。通过组合多个较小的模型,它提供了一种高效、经济高效的解决方案,与较大、资源密集型的模型相比,该解决方案可以保留并在某些情况下增强用户参与度和保留率。这种方法不仅解决了大规模人工智能的实际局限性,而且为人工智能在各个领域的应用开辟了新的可能性。

图片来源:Shutterstock

时间戳记:

更多来自 Blockchain新闻