本周人工智能,18 月 XNUMX 日:OpenAI 陷入财务困境 • Stability AI 宣布推出 StableCode - KDnuggets

本周人工智能,18 月 XNUMX 日:OpenAI 陷入财务困境 • Stability AI 宣布推出 StableCode – KDnuggets

源节点: 2833080

### 替代###
图像由 Editor 使用 Midjourney 创建
 

欢迎来到 KDnuggets 上的本周版“AI 本周”。 这篇精心策划的每周帖子旨在让您了解快速发展的人工智能世界中最引人注目的发展。 从塑造我们对人工智能在社会中的作用的理解的开创性头条新闻,到发人深省的文章、富有洞察力的学习资源,以及突破我们知识边界的重点研究,这篇文章全面概述了人工智能的当前格局。 每周更新旨在让您了解这个不断发展的领域的最新情况和信息。 请继续关注并祝阅读愉快!

 
“头条新闻”部分讨论了过去一周人工智能领域的头条新闻和动态。 这些信息涵盖从政府人工智能政策到人工智能领域的技术进步和企业创新。

 
???? ChatGPT陷入困境:OpenAI可能到2024年破产,AI机器人每天让公司损失700,000万美元

由于运行 ChatGPT 和其他人工智能服务的高昂成本,OpenAI 面临财务困境。 尽管早期增长迅速,但 ChatGPT 的用户群近几个月来有所下降。 OpenAI 正在努力有效地将其技术货币化并产生可持续的收入。 与此同时,它继续以惊人的速度消耗现金。 随着竞争的加剧以及企业GPU短缺阻碍模型开发,OpenAI迫切需要寻找盈利途径。 如果做不到这一点,这家开创性的人工智能初创公司可能即将破产。

 
???? Stability AI 推出 StableCode,一款面向开发者的人工智能编码助手

Stability AI 发布了 StableCode,这是其首款针对软件开发进行优化的生成式 AI 产品。 StableCode 整合了经过超过 500 亿个代码标记训练的多个模型,以提供智能自动完成、响应自然语言指令并管理长跨度的代码。 虽然对话式 AI 已经可以编写代码,但 StableCode 是专门为通过理解代码结构和依赖关系来提高程序员的工作效率而构建的。 凭借其可以处理长上下文的专门培训和模型,StableCode 旨在增强开发人员工作流程并降低有抱负的编码人员的进入门槛。 此次发布代表着 Stability AI 在该领域日益激烈的竞争中进军人工智能辅助编码工具。

 
???? OpenAI 推出超级对齐

OpenAI 正在通过其新的 Superalignment 团队积极致力于解决超级智能 AI 的潜在风险,该团队正在使用来自人类反馈的强化学习等技术来协调 AI 系统。 主要目标是利用其他人工智能系统开发可扩展的训练方法,验证模型的稳健性,并对整个对齐管道进行压力测试,即使是故意错位的模型。 总体而言,OpenAI 旨在展示机器学习可以通过负责任地引导超级智能的开创性方法来安全地进行。

 
???? 使用生成式人工智能在搜索(和浏览)时学习

谷歌宣布对其搜索引擎生成(SGE)人工智能功能进行多项更新,包括科学/历史主题的悬停定义、代码概述的颜色编码语法突出显示,以及一项名为“浏览时的 SGE”的早期实验,该实验总结了要点并帮助用户在网络上阅读长篇内容时探索页面。 这些旨在增强对复杂主题的理解,改善编码信息的消化,并在用户浏览时帮助导航和学习。 这些更新代表了谷歌根据用户反馈不断改进人工智能搜索体验的努力,重点是从复杂的网络内容中理解和提取关键细节。

 
???? Together.ai 将 Llama2 扩展至 32k 上下文窗口

LLaMA-2-7B-32K 是由 Together Computer 开发的开源长上下文语言模型,它将 Meta 的 LLaMA-2 的上下文长度扩展到 32K 令牌。 它利用 FlashAttention-2 等优化来实现更高效的推理和训练。 该模型是使用包括书籍、论文和教学数据在内的混合数据进行预训练的。 提供了用于微调长格式 QA 和摘要任务的示例。 用户可以通过 Hugging Face 访问模型或使用 OpenChatKit 进行自定义微调。 与所有语言模型一样,LLaMA-2-7B-32K 可能会生成有偏见或不正确的内容,使用时需要谨慎。

 
“文章”部分呈现了一系列关于人工智能的发人深省的文章。 每篇文章都深入探讨一个特定主题,为读者提供对人工智能各个方面的见解,包括新技术、革命性方法和突破性工具。

 
📰 浪链速查表

借助 LangChain,开发人员可以构建功能强大的基于 AI 语言的应用程序,而无需重新发明轮子。 其可组合结构可以轻松混合和匹配 LLM、提示模板、外部工具和内存等组件。 这加速了原型设计,并允许随着时间的推移无缝集成新功能。 无论您是想创建聊天机器人、QA 机器人还是多步推理代理,LangChain 都可以提供快速组装高级人工智能的构建块。

 
📰 如何使用 ChatGPT 将文本转换为 PowerPoint 演示文稿

本文概述了使用 ChatGPT 将文本转换为 PowerPoint 演示文稿的两步过程,首先将文本摘要为幻灯片标题和内容,然后生成 Python 代码以使用 python-pptx 库将摘要转换为 PPTX 格式。 这样可以从冗长的文本文档快速创建引人入胜的演示文稿,从而克服繁琐的手动工作。 提供了有关制作 ChatGPT 提示和运行代码的清晰说明,为满足演示需求提供了高效的自动化解决方案。

 
📰 LLM研究中的开放挑战

本文概述了改进大型语言模型的 10 个关键研究方向:减少幻觉、优化上下文长度/结构、整合多模态数据、加速模型、设计新架构、开发光子芯片等 GPU 替代品、构建可用代理、改进学习人类反馈,增强聊天界面,并扩展到非英语语言。 它引用了这些领域的相关论文,指出了诸如代表人类对强化学习的偏好和为低资源语言构建模型等挑战。 作者的结论是,虽然多语言等一些问题更容易处理,但建筑等其他问题则需要更多突破。 总体而言,研究人员、公司和社区的技术和非技术专业知识对于积极引导法学硕士至关重要。

 
📰 为什么你(可能)不需要微调法学硕士

本文概述了改进大型语言模型的 10 个关键研究方向:减少幻觉、优化上下文长度/结构、整合多模态数据、加速模型、设计新架构、开发光子芯片等 GPU 替代品、构建可用代理、改进学习人类反馈,增强聊天界面,并扩展到非英语语言。 它引用了这些领域的相关论文,指出了诸如代表人类对强化学习的偏好和为低资源语言构建模型等挑战。 作者的结论是,虽然多语言等一些问题更容易处理,但建筑等其他问题则需要更多突破。 总体而言,研究人员、公司和社区的技术和非技术专业知识对于积极引导法学硕士至关重要。

 
📰 使用 OpenAI GPT 模型的最佳实践

本文借鉴社区经验,概述了在使用 OpenAI 的 GPT 模型时获得高质量输出的最佳实践。 它建议提供详细的提示,包括长度和角色等细节; 多步骤指令; 模仿的例子; 参考文献和引文; 进行批判性思考的时间; 和代码执行的精度。 遵循这些指导模型的提示(例如指定步骤和角色)可以得到更准确、相关和可定制的结果。 该指南旨在帮助用户有效地构建提示,以充分利用 OpenAI 强大的生成能力。

 
📰 我们对人工智能的看法都错了

作者认为,当前人工智能的能力被低估,并利用创造力、搜索和个性化等例子来反驳常见的误解。 他指出,人工智能可以通过重新组合概念来发挥创造力,而不仅仅是产生随机想法; 它不仅仅是一个像谷歌这样强大的搜索引擎; 它可以发展个性化的关系,而不仅仅是通用技能。 虽然不确定哪些应用程序将被证明是最有用的,但作者敦促保持开放的态度而不是轻视,并强调确定人工智能潜力的最佳方法是持续实践探索。 他的结论是,我们对人工智能的想象力是有限的,其用途可能远远超出当前的预测。

 
“工具”部分列出了社区为那些想要忙于实际人工智能应用程序的人创建的有用应用程序和脚本。 在这里您将找到一系列工具类型,从大型综合代码库到小型利基脚本。 请注意,工具的共享未经认可,并且不提供任何形式的保证。 在安装和使用任何软件之前,请先做好功课!

 
🛠️ MetaGPT:多代理框架

MetaGPT 以一行需求作为输入,输出用户故事/竞争分析/需求/数据结构/API/文档等。MetaGPT 内部包括产品经理/架构师/项目经理/工程师。 它提供了软件公司的整个流程以及精心策划的 SOP。

 
🛠️ GPT法学硕士培训师

该项目的目标是探索一个实验性的新管道来训练高性能的特定任务模型。 我们尝试抽象掉所有的复杂性,因此尽可能容易地从想法到高性能的完全训练的模型。

只需输入任务描述,系统就会从头开始生成数据集,将其解析为正确的格式,并为您微调 LLaMA 2 模型。

 
🛠️ 医生GPT

DoctorGPT是一个大型语言模型,可以通过美国医生执照考试。 这是一个开源项目,其使命是为每个人提供自己的私人医生。 DoctorGPT 是 Meta 的 Llama2 7 亿参数大型语言模型的一个版本,它在医疗对话数据集上进行了微调,然后使用强化学习和宪法人工智能进一步改进。 由于该模型的大小只有 3 GB,因此它适合任何本地设备,因此无需支付 API 即可使用它。

 
 

时间戳记:

更多来自 掘金队