이번 주 AI 소식, 18월 XNUMX일: 재정 문제에 처한 OpenAI • Stability AI, StableCode 발표 - KDnuggets

이번 주 AI, 18월 XNUMX일: 재정 문제에 빠진 OpenAI • Stability AI 발표 StableCode – KDnuggets

소스 노드 : 2833080

### 대안 ###
Editor가 Midjourney로 만든 이미지
 

KDnuggets의 이번 주 "AI 주간"에 오신 것을 환영합니다. 이 큐레이팅된 주간 게시물은 빠르게 발전하는 인공 지능 세계에서 가장 매력적인 발전에 뒤지지 않도록 하는 것을 목표로 합니다. 사회에서 AI의 역할에 대한 이해를 형성하는 획기적인 헤드라인부터 생각을 자극하는 기사, 통찰력 있는 학습 리소스, 지식의 경계를 넓히는 집중 연구에 이르기까지 이 게시물은 AI의 현재 환경에 대한 포괄적인 개요를 제공합니다. 이 주간 업데이트는 끊임없이 진화하는 이 분야에 대한 업데이트와 정보를 제공하도록 설계되었습니다. 계속 지켜봐 주시기 바랍니다!

 
"헤드라인" 섹션에서는 지난주 인공 지능 분야의 주요 뉴스 및 개발에 대해 설명합니다. 정보는 정부의 AI 정책에서 AI의 기술 발전 및 기업 혁신에 이르기까지 다양합니다.

 
💡 ChatGPT In Trouble: OpenAI는 2024년까지 파산할 수 있으며 AI 봇은 회사에 매일 $700,000의 비용을 발생시킵니다.

OpenAI는 ChatGPT 및 기타 AI 서비스를 실행하는 데 드는 높은 비용으로 인해 재정 문제에 직면해 있습니다. 빠른 초기 성장에도 불구하고 ChatGPT의 사용자 기반은 최근 몇 달 동안 감소했습니다. OpenAI는 기술을 효과적으로 수익화하고 지속 가능한 수익을 창출하기 위해 고군분투하고 있습니다. 한편, 그것은 계속해서 놀라운 속도로 현금을 소진하고 있습니다. 경쟁이 가열되고 엔터프라이즈 GPU 부족으로 인해 모델 개발이 방해를 받는 상황에서 OpenAI는 수익성을 위한 경로를 시급히 찾아야 합니다. 그렇게 하지 못하면 선구적인 AI 스타트업이 파산할 수 있습니다.

 
💡 Stability AI, 개발자를 위한 AI 코딩 도우미 StableCode 발표

Stability AI는 소프트웨어 개발에 최적화된 최초의 생성 AI 제품인 StableCode를 출시했습니다. StableCode는 500억 개가 넘는 코드 토큰으로 학습된 여러 모델을 통합하여 지능적인 자동 완성 기능을 제공하고, 자연어 지침에 응답하고, 긴 코드 범위를 관리합니다. 대화형 AI는 이미 코드를 작성할 수 있지만 StableCode는 코드 구조와 종속성을 이해하여 프로그래머 생산성을 높이기 위해 특별히 제작되었습니다. 긴 컨텍스트를 처리할 수 있는 전문 교육 및 모델을 통해 StableCode는 개발자 워크플로를 개선하고 야심 찬 코더의 진입 장벽을 낮추는 것을 목표로 합니다. 이번 출시는 공간에서 경쟁이 치열해지는 가운데 Stability AI가 AI 지원 코딩 도구에 진출했음을 나타냅니다.

 
💡 OpenAI의 Superalignment 소개

OpenAI는 새로운 Superalignment 팀을 통해 초지능 AI의 잠재적 위험을 해결하기 위해 적극적으로 노력하고 있습니다. 주요 목표는 다른 AI 시스템을 활용하여 확장 가능한 교육 방법을 개발하고, 모델 견고성을 검증하고, 의도적으로 잘못 정렬된 모델이 있는 경우에도 전체 정렬 파이프라인을 스트레스 테스트하는 것입니다. 전반적으로 OpenAI는 초지능을 책임감 있게 조종하는 선구적인 접근 방식을 통해 기계 학습을 안전하게 수행할 수 있음을 보여주는 것을 목표로 합니다.

 
💡 생성 AI를 사용하여 검색(및 탐색)하면서 학습

Google은 과학/역사 주제에 대한 마우스 오버 정의, 코드 개요를 위한 색상으로 구분된 구문 강조 표시, 핵심 사항을 요약하고 사용자를 돕는 "SGE 동안 브라우징"이라는 초기 실험을 포함하여 검색 엔진 생성(SGE) AI 기능에 대한 몇 가지 업데이트를 발표하고 있습니다. 웹에서 긴 콘텐츠를 읽을 때 페이지를 탐색합니다. 이는 복잡한 주제에 대한 이해를 높이고, 코딩 정보의 소화를 개선하고, 사용자가 탐색할 때 탐색 및 학습을 돕는 것을 목표로 합니다. 이 업데이트는 복잡한 웹 콘텐츠에서 주요 세부 정보를 이해하고 추출하는 데 중점을 두고 사용자 피드백을 기반으로 AI 검색 경험을 발전시키려는 Google의 지속적인 노력을 나타냅니다.

 
💡 Together.ai는 Llama2를 32k 컨텍스트 창으로 확장합니다.

LLaMA-2-7B-32K는 메타의 LLaMA-2의 컨텍스트 길이를 32K 토큰으로 확장하는 Together Computer에서 개발한 오픈 소스 긴 컨텍스트 언어 모델입니다. FlashAttention-2와 같은 최적화를 활용하여 보다 효율적인 추론 및 훈련을 가능하게 합니다. 이 모델은 책, 논문 및 교육용 데이터를 포함한 데이터의 혼합을 사용하여 사전 훈련되었습니다. 긴 형식의 QA 및 요약 작업에 대한 미세 조정을 위한 예제가 제공됩니다. 사용자는 Hugging Face를 통해 모델에 액세스하거나 맞춤형 미세 조정을 위해 OpenChatKit을 사용할 수 있습니다. 모든 언어 모델과 마찬가지로 LLaMA-2-7B-32K는 편향되거나 잘못된 콘텐츠를 생성할 수 있으므로 사용 시 주의가 필요합니다.

 
"기사" 섹션은 인공 지능에 대한 생각을 자극하는 일련의 기사를 제공합니다. 각 기사는 특정 주제에 대해 깊이 파고들어 독자들에게 새로운 기술, 혁신적인 접근 방식 및 획기적인 도구를 포함하여 AI의 다양한 측면에 대한 통찰력을 제공합니다.

 
📰 LangChain 치트 시트

LangChain을 사용하면 개발자는 바퀴를 재발명하지 않고도 유능한 AI 언어 기반 앱을 구축할 수 있습니다. 구성 가능한 구조를 통해 LLM, 프롬프트 템플릿, 외부 도구 및 메모리와 같은 구성 요소를 쉽게 혼합하고 일치시킬 수 있습니다. 이를 통해 프로토타이핑을 가속화하고 시간이 지남에 따라 새로운 기능을 원활하게 통합할 수 있습니다. 챗봇, QA 봇 또는 다단계 추론 에이전트를 생성하려는 경우 LangChain은 고급 AI를 신속하게 조립할 수 있는 빌딩 블록을 제공합니다.

 
📰 ChatGPT를 사용하여 텍스트를 PowerPoint 프레젠테이션으로 변환하는 방법

이 기사는 ChatGPT를 사용하여 텍스트를 PowerPoint 프레젠테이션으로 변환하는 XNUMX단계 프로세스를 설명합니다. 먼저 텍스트를 슬라이드 제목과 콘텐츠로 요약한 다음 Python 코드를 생성하여 요약을 python-pptx 라이브러리를 사용하여 PPTX 형식으로 변환합니다. 이를 통해 긴 텍스트 문서에서 매력적인 프레젠테이션을 신속하게 생성하여 지루한 수동 작업을 극복할 수 있습니다. ChatGPT 프롬프트를 만들고 코드를 실행하는 방법에 대한 명확한 지침이 제공되어 프레젠테이션 요구 사항에 맞는 효율적인 자동화 솔루션을 제공합니다.

 
📰 LLM 연구의 공개 과제

이 기사는 대규모 언어 모델을 개선하기 위한 10가지 주요 연구 방향에 대한 개요를 제공합니다. 환각 감소, 컨텍스트 길이/구성 최적화, 다중 모드 데이터 통합, 모델 가속화, 새로운 아키텍처 설계, 광자 칩과 같은 GPU 대안 개발, 사용 가능한 에이전트 구축, 학습 개선 사람의 피드백, 채팅 인터페이스 개선, 비영어권 언어로의 확장. 강화 학습에 대한 인간의 선호도를 표현하고 리소스가 적은 언어에 대한 모델을 구축하는 것과 같은 문제에 주목하면서 이러한 영역에 걸쳐 관련 논문을 인용합니다. 저자는 다국어와 같은 일부 문제는 더 다루기 쉬운 반면 아키텍처와 같은 다른 문제는 더 많은 혁신이 필요하다고 결론지었습니다. 전반적으로 연구원, 회사 및 커뮤니티 전반에 걸친 기술 및 비기술 전문 지식은 LLM을 긍정적으로 운영하는 데 중요합니다.

 
📰 (아마도) LLM을 미세 조정할 필요가 없는 이유

이 기사는 대규모 언어 모델을 개선하기 위한 10가지 주요 연구 방향에 대한 개요를 제공합니다. 환각 감소, 컨텍스트 길이/구성 최적화, 다중 모드 데이터 통합, 모델 가속화, 새로운 아키텍처 설계, 광자 칩과 같은 GPU 대안 개발, 사용 가능한 에이전트 구축, 학습 개선 사람의 피드백, 채팅 인터페이스 개선, 비영어권 언어로의 확장. 강화 학습에 대한 인간의 선호도를 표현하고 리소스가 적은 언어에 대한 모델을 구축하는 것과 같은 문제에 주목하면서 이러한 영역에 걸쳐 관련 논문을 인용합니다. 저자는 다국어와 같은 일부 문제는 더 다루기 쉬운 반면 아키텍처와 같은 다른 문제는 더 많은 혁신이 필요하다고 결론지었습니다. 전반적으로 연구원, 회사 및 커뮤니티 전반에 걸친 기술 및 비기술 전문 지식은 LLM을 긍정적으로 운영하는 데 중요합니다.

 
📰 OpenAI GPT 모델을 사용하는 모범 사례

이 문서는 커뮤니티 경험을 바탕으로 OpenAI의 GPT 모델을 사용할 때 고품질 출력을 얻기 위한 모범 사례를 설명합니다. 길이 및 페르소나와 같은 세부 사항이 포함된 자세한 프롬프트를 제공하는 것이 좋습니다. 다단계 지침; 모방할 예; 참조 및 인용; 비판적 사고를 위한 시간; 정밀도를 위한 코드 실행. 단계 및 페르소나 지정과 같은 모델 지시에 대한 다음 팁을 따르면 더 정확하고 관련성이 있으며 사용자 지정 가능한 결과를 얻을 수 있습니다. 이 지침은 사용자가 OpenAI의 강력한 생성 기능을 최대한 활용할 수 있도록 프롬프트를 효과적으로 구성하도록 돕는 것을 목표로 합니다.

 
📰 우리는 모두 AI에 대해 잘못 알고 있습니다.

저자는 일반적인 오해에 대응하기 위해 창의성, 검색 및 개인화와 같은 예를 사용하여 현재 AI 기능이 과소평가되고 있다고 주장합니다. 그는 AI가 단순히 임의의 아이디어를 생성하는 것이 아니라 개념을 재조합하여 창의적일 수 있다고 말합니다. Google과 같은 강력한 검색 엔진이 아닙니다. 일반적인 기술뿐만 아니라 개인화된 관계를 개발할 수 있습니다. 어떤 애플리케이션이 가장 유용할지 확신할 수 없지만, 저자는 AI의 잠재력을 판단하는 가장 좋은 방법은 계속해서 직접 탐구하는 것임을 강조하면서 무시하기보다는 열린 마음을 촉구합니다. 그는 AI에 대한 우리의 상상력이 제한적이며 그 용도가 현재 예측을 훨씬 능가할 가능성이 높다고 결론지었습니다.

 
"도구" 섹션에는 실용적인 AI 응용 프로그램으로 바쁘게 지내고 싶은 사람들을 위해 커뮤니티에서 만든 유용한 앱과 스크립트가 나열되어 있습니다. 여기에서 포괄적인 대규모 코드 베이스부터 작은 틈새 스크립트까지 다양한 도구 유형을 찾을 수 있습니다. 도구는 승인 없이 공유되며 어떤 종류의 보장도 없다는 점에 유의하십시오. 설치 및 사용 전에 모든 소프트웨어에 대한 숙제를 하십시오!

 
🛠️ MetaGPT: 다중 에이전트 프레임워크

MetaGPT는 사용자 스토리/경쟁 분석/요구 사항/데이터 구조/API/문서 등을 입력 및 출력으로 한 줄 요구 사항을 취합니다. 내부적으로 MetaGPT에는 제품 관리자/설계자/프로젝트 관리자/엔지니어가 포함됩니다. 신중하게 조정된 SOP와 함께 소프트웨어 회사의 전체 프로세스를 제공합니다.

 
🛠️ GPT LLM 트레이너

이 프로젝트의 목표는 고성능 작업별 모델을 교육하기 위한 실험적인 새 파이프라인을 탐색하는 것입니다. 우리는 모든 복잡성을 추상화하려고 노력하므로 아이디어에서 성능이 뛰어난 완전히 훈련된 모델로 이동하는 것이 가능한 한 쉽습니다.

작업에 대한 설명을 입력하기만 하면 시스템이 처음부터 데이터 세트를 생성하고 올바른 형식으로 구문 분석한 다음 LLaMA 2 모델을 미세 조정합니다.

 
🛠️ 의사GPT

DoctorGPT는 미국 의료 면허 시험을 통과할 수 있는 대규모 언어 모델입니다. 이것은 모든 사람에게 자신의 개인 의사를 제공한다는 사명을 가진 오픈 소스 프로젝트입니다. DoctorGPT는 Meta의 Llama2 7억 매개변수 대규모 언어 모델 버전으로 Medical Dialogue Dataset에서 미세 조정된 후 강화 학습 및 구성 AI를 사용하여 더욱 개선되었습니다. 모델의 크기가 3GB에 불과하기 때문에 모든 로컬 장치에 적합하므로 API를 사용하기 위해 비용을 지불할 필요가 없습니다.

 
 

타임 스탬프 :

더보기 너 겟츠