Tuần này về AI, ngày 18 tháng XNUMX: OpenAI gặp rắc rối về tài chính • Tính ổn định AI công bố StableCode - KDnuggets

Tuần này về AI, ngày 18 tháng XNUMX: OpenAI gặp rắc rối về tài chính • Tính ổn định AI công bố StableCode – KDnuggets

Nút nguồn: 2833080

###ALT ###
Hình ảnh được tạo bởi Trình chỉnh sửa với Midjourney
 

Chào mừng bạn đến với ấn bản tuần này của “Tuần này trong AI” trên KDnuggets. Bài đăng hàng tuần được tuyển chọn này nhằm giúp bạn cập nhật những phát triển hấp dẫn nhất trong thế giới trí tuệ nhân tạo đang phát triển nhanh chóng. Từ những tiêu đề đột phá định hình sự hiểu biết của chúng ta về vai trò của AI trong xã hội đến các bài báo kích thích tư duy, tài nguyên học tập sâu sắc và nghiên cứu nổi bật vượt qua ranh giới kiến ​​thức của chúng ta, bài đăng này cung cấp một cái nhìn tổng quan toàn diện về bối cảnh hiện tại của AI. Bản cập nhật hàng tuần này được thiết kế để giúp bạn cập nhật và thông báo trong lĩnh vực không ngừng phát triển này. Hãy theo dõi và đọc vui vẻ!

 
Phần “Tiêu đề” thảo luận về những tin tức và sự phát triển hàng đầu trong tuần qua trong lĩnh vực trí tuệ nhân tạo. Thông tin bao gồm từ các chính sách AI của chính phủ đến những tiến bộ công nghệ và đổi mới của công ty về AI.

 
💡 ChatGPT gặp sự cố: OpenAI có thể phá sản vào năm 2024, bot AI khiến công ty phải trả 700,000 đô la mỗi ngày

OpenAI đang gặp rắc rối về tài chính do chi phí vận hành ChatGPT và các dịch vụ AI khác cao. Mặc dù có tốc độ tăng trưởng nhanh trong thời gian đầu, cơ sở người dùng của ChatGPT đã giảm trong những tháng gần đây. OpenAI đang vật lộn để kiếm tiền hiệu quả từ công nghệ của mình và tạo doanh thu bền vững. Trong khi đó, nó tiếp tục đốt tiền mặt với tốc độ đáng báo động. Với sự cạnh tranh đang nóng lên và tình trạng thiếu GPU doanh nghiệp cản trở sự phát triển của mô hình, OpenAI cần khẩn trương tìm ra con đường dẫn đến lợi nhuận. Nếu không làm như vậy, công ty khởi nghiệp AI tiên phong có thể sắp phá sản.

 
💡 Ổn định AI công bố StableCode, Trợ lý mã hóa AI dành cho nhà phát triển

Ổn định AI đã phát hành StableCode, sản phẩm AI thế hệ đầu tiên được tối ưu hóa cho phát triển phần mềm. StableCode kết hợp nhiều mô hình được đào tạo trên hơn 500 tỷ mã thông báo để cung cấp tính năng tự động hoàn thành thông minh, phản hồi các hướng dẫn bằng ngôn ngữ tự nhiên và quản lý các đoạn mã dài. Mặc dù AI đàm thoại đã có thể viết mã, nhưng StableCode được xây dựng có mục đích để tăng năng suất của lập trình viên bằng cách hiểu cấu trúc mã và các thành phần phụ thuộc. Với chương trình đào tạo chuyên biệt và các mô hình có thể xử lý các ngữ cảnh dài, StableCode nhằm mục đích nâng cao quy trình làm việc của nhà phát triển và hạ thấp rào cản gia nhập đối với các lập trình viên đầy tham vọng. Việc ra mắt thể hiện bước đột phá của Stability AI vào các công cụ mã hóa được AI hỗ trợ trong bối cảnh cạnh tranh ngày càng tăng trong không gian.

 
💡 Giới thiệu Superalignment của OpenAI

OpenAI đang tích cực làm việc để giải quyết các rủi ro tiềm ẩn từ AI siêu thông minh thông qua nhóm Superalignment mới của họ, nhóm đang sử dụng các kỹ thuật như học tăng cường từ phản hồi của con người để sắp xếp các hệ thống AI. Các mục tiêu chính là phát triển các phương pháp đào tạo có thể mở rộng, tận dụng các hệ thống AI khác, xác thực độ bền của mô hình và kiểm tra căng thẳng toàn bộ quy trình căn chỉnh ngay cả với các mô hình bị sai lệch cố ý. Nhìn chung, OpenAI nhằm mục đích cho thấy việc học máy có thể được tiến hành một cách an toàn bằng cách tiếp cận tiên phong để điều khiển siêu trí tuệ một cách có trách nhiệm.

 
💡 Tìm hiểu khi bạn tìm kiếm (và duyệt qua) bằng AI tổng quát

Google đang công bố một số bản cập nhật cho khả năng Trí tuệ nhân tạo của Công cụ Tìm kiếm (SGE) bao gồm các định nghĩa khi di chuột cho các chủ đề khoa học/lịch sử, đánh dấu cú pháp được mã hóa bằng màu sắc để biết tổng quan về mã và một thử nghiệm ban đầu có tên là “SGE trong khi duyệt” tóm tắt các điểm chính và giúp người dùng khám phá các trang khi đọc nội dung dài trên web. Những mục đích này nhằm nâng cao hiểu biết về các chủ đề phức tạp, cải thiện khả năng tiêu hóa thông tin mã hóa, đồng thời hỗ trợ điều hướng và học tập khi người dùng duyệt. Các bản cập nhật thể hiện nỗ lực không ngừng của Google nhằm phát triển trải nghiệm tìm kiếm AI dựa trên phản hồi của người dùng, tập trung vào khả năng hiểu và trích xuất các chi tiết chính từ nội dung web phức tạp.

 
💡 Together.ai mở rộng Llama2 sang cửa sổ ngữ cảnh 32k

LLaMA-2-7B-32K là một mô hình ngôn ngữ ngữ cảnh dài mã nguồn mở được phát triển bởi Together Computer nhằm mở rộng độ dài ngữ cảnh của mã thông báo LLaMA-2 của Meta lên 32K. Nó tận dụng tối ưu hóa như FlashAttention-2 để cho phép đào tạo và suy luận hiệu quả hơn. Mô hình đã được đào tạo trước bằng cách sử dụng hỗn hợp dữ liệu bao gồm sách, giấy tờ và dữ liệu hướng dẫn. Các ví dụ được cung cấp để tinh chỉnh các nhiệm vụ tóm tắt và QA dạng dài. Người dùng có thể truy cập mô hình thông qua Ôm mặt hoặc sử dụng OpenChatKit để tinh chỉnh tùy chỉnh. Giống như tất cả các mô hình ngôn ngữ, LLaMA-2-7B-32K có thể tạo ra nội dung thiên vị hoặc không chính xác, cần thận trọng khi sử dụng.

 
Phần “Bài báo” trình bày một loạt các bài viết kích thích tư duy về trí tuệ nhân tạo. Mỗi bài viết đi sâu vào một chủ đề cụ thể, cung cấp cho người đọc cái nhìn sâu sắc về các khía cạnh khác nhau của AI, bao gồm các kỹ thuật mới, cách tiếp cận mang tính cách mạng và các công cụ đột phá.

 
📰 Bảng cheat LangChain

Với LangChain, các nhà phát triển có thể xây dựng các ứng dụng dựa trên ngôn ngữ AI có khả năng mà không cần phát minh lại bánh xe. Cấu trúc có thể kết hợp của nó giúp dễ dàng kết hợp và kết hợp các thành phần như LLM, mẫu lời nhắc, công cụ bên ngoài và bộ nhớ. Điều này tăng tốc quá trình tạo nguyên mẫu và cho phép tích hợp liền mạch các khả năng mới theo thời gian. Cho dù bạn đang tìm cách tạo một chatbot, bot QA hay tác nhân suy luận nhiều bước, LangChain cung cấp các nền tảng để lắp ráp AI tiên tiến một cách nhanh chóng.

 
📰 Cách sử dụng ChatGPT để chuyển đổi văn bản thành bản trình bày PowerPoint

Bài viết phác thảo quy trình hai bước để sử dụng ChatGPT chuyển đổi văn bản thành bản trình bày PowerPoint, trước tiên tóm tắt văn bản thành tiêu đề và nội dung trang chiếu, sau đó tạo mã Python để chuyển đổi tóm tắt sang định dạng PPTX bằng thư viện python-pptx. Điều này cho phép tạo nhanh các bản trình bày hấp dẫn từ các tài liệu văn bản dài, vượt qua các nỗ lực thủ công tẻ nhạt. Hướng dẫn rõ ràng được cung cấp khi tạo lời nhắc ChatGPT và chạy mã, cung cấp giải pháp tự động hiệu quả cho nhu cầu trình bày.

 
📰 Những thách thức mở trong nghiên cứu LLM

Bài viết cung cấp tổng quan về 10 hướng nghiên cứu chính để cải thiện các mô hình ngôn ngữ lớn: giảm ảo giác, tối ưu hóa độ dài ngữ cảnh/xây dựng, kết hợp dữ liệu đa phương thức, tăng tốc mô hình, thiết kế kiến ​​trúc mới, phát triển các lựa chọn thay thế GPU như chip quang tử, xây dựng các tác nhân có thể sử dụng được, cải thiện khả năng học hỏi từ phản hồi của con người, nâng cao giao diện trò chuyện và mở rộng sang các ngôn ngữ không phải tiếng Anh. Nó trích dẫn các bài báo có liên quan trong các lĩnh vực này, lưu ý những thách thức như thể hiện sở thích của con người đối với việc học tăng cường và xây dựng các mô hình cho các ngôn ngữ tài nguyên thấp. Tác giả kết luận rằng trong khi một số vấn đề như đa ngôn ngữ dễ giải quyết hơn, thì những vấn đề khác như kiến ​​trúc sẽ đòi hỏi nhiều đột phá hơn. Nhìn chung, cả chuyên môn kỹ thuật và phi kỹ thuật giữa các nhà nghiên cứu, công ty và cộng đồng sẽ rất quan trọng để định hướng LLM một cách tích cực.

 
📰 Tại sao bạn (có lẽ) không cần tinh chỉnh LLM

Bài viết cung cấp tổng quan về 10 hướng nghiên cứu chính để cải thiện các mô hình ngôn ngữ lớn: giảm ảo giác, tối ưu hóa độ dài ngữ cảnh/xây dựng, kết hợp dữ liệu đa phương thức, tăng tốc mô hình, thiết kế kiến ​​trúc mới, phát triển các lựa chọn thay thế GPU như chip quang tử, xây dựng các tác nhân có thể sử dụng được, cải thiện khả năng học hỏi từ phản hồi của con người, nâng cao giao diện trò chuyện và mở rộng sang các ngôn ngữ không phải tiếng Anh. Nó trích dẫn các bài báo có liên quan trong các lĩnh vực này, lưu ý những thách thức như thể hiện sở thích của con người đối với việc học tăng cường và xây dựng các mô hình cho các ngôn ngữ tài nguyên thấp. Tác giả kết luận rằng trong khi một số vấn đề như đa ngôn ngữ dễ giải quyết hơn, thì những vấn đề khác như kiến ​​trúc sẽ đòi hỏi nhiều đột phá hơn. Nhìn chung, cả chuyên môn kỹ thuật và phi kỹ thuật giữa các nhà nghiên cứu, công ty và cộng đồng sẽ rất quan trọng để định hướng LLM một cách tích cực.

 
📰 Các phương pháp hay nhất để sử dụng Mô hình OpenAI GPT

Bài viết phác thảo các phương pháp hay nhất để có được kết quả đầu ra chất lượng cao khi sử dụng các mô hình GPT của OpenAI, dựa trên kinh nghiệm của cộng đồng. Nó khuyên bạn nên cung cấp lời nhắc chi tiết với các chi tiết cụ thể như độ dài và tính cách; hướng dẫn nhiều bước; ví dụ để bắt chước; tài liệu tham khảo và trích dẫn; thời gian cho tư duy phản biện; và thực thi mã cho độ chính xác. Làm theo các mẹo hướng dẫn mô hình này, chẳng hạn như chỉ định các bước và cá nhân, có thể dẫn đến kết quả chính xác, phù hợp và có thể tùy chỉnh hơn. Hướng dẫn này nhằm mục đích giúp người dùng cấu trúc lời nhắc một cách hiệu quả để tận dụng tối đa khả năng tạo ra mạnh mẽ của OpenAI.

 
📰 Tất cả chúng ta đều sai về AI

Tác giả lập luận rằng các khả năng của AI hiện tại bị đánh giá thấp, sử dụng các ví dụ như sáng tạo, tìm kiếm và cá nhân hóa để chống lại những quan niệm sai lầm phổ biến. Ông nói rằng AI có thể sáng tạo bằng cách kết hợp lại các khái niệm, không chỉ tạo ra các ý tưởng ngẫu nhiên; nó không chỉ là một công cụ tìm kiếm siêu tốc như Google; và nó có thể phát triển các mối quan hệ được cá nhân hóa, không chỉ là những kỹ năng chung chung. Mặc dù không chắc chắn ứng dụng nào sẽ tỏ ra hữu ích nhất, nhưng tác giả kêu gọi hãy cởi mở hơn là bác bỏ, đồng thời nhấn mạnh rằng cách tốt nhất để xác định tiềm năng của AI là tiếp tục khám phá thực hành. Ông kết luận rằng trí tưởng tượng của chúng ta về AI còn hạn chế và việc sử dụng nó có thể vượt xa những dự đoán hiện tại.

 
Phần “Công cụ” liệt kê các ứng dụng và tập lệnh hữu ích do cộng đồng tạo ra dành cho những người muốn bận rộn với các ứng dụng AI thực tế. Tại đây, bạn sẽ tìm thấy một loạt các loại công cụ, từ các cơ sở mã toàn diện lớn đến các tập lệnh thích hợp nhỏ. Lưu ý rằng các công cụ được chia sẻ mà không có sự chứng thực và không có bất kỳ hình thức bảo đảm nào. Làm bài tập về nhà của riêng bạn trên bất kỳ phần mềm nào trước khi cài đặt và sử dụng!

 
🛠️ MetaGPT: Khung đa tác nhân

MetaGPT lấy yêu cầu một dòng làm đầu vào và đầu ra câu chuyện của người dùng/phân tích cạnh tranh/yêu cầu/cấu trúc dữ liệu/API/tài liệu, v.v. Bên trong, MetaGPT bao gồm người quản lý sản phẩm/kiến trúc sư/người quản lý dự án/kỹ sư. Nó cung cấp toàn bộ quy trình của một công ty phần mềm cùng với các SOP được sắp xếp cẩn thận.

 
🛠️ Huấn luyện viên GPT LLM

Mục tiêu của dự án này là khám phá một quy trình thử nghiệm mới để đào tạo một mô hình dành riêng cho nhiệm vụ có hiệu suất cao. Chúng tôi cố gắng trừu tượng hóa tất cả sự phức tạp, để dễ dàng nhất có thể đi từ ý tưởng -> mô hình được đào tạo đầy đủ về hiệu suất.

Chỉ cần nhập mô tả nhiệm vụ của bạn và hệ thống sẽ tạo tập dữ liệu từ đầu, phân tích cú pháp đó thành định dạng phù hợp và tinh chỉnh mô hình LLaMA 2 cho bạn.

 
🛠️ Bác sĩGPT

DoctorGPT là một Mô hình Ngôn ngữ Lớn có thể vượt qua Kỳ thi Cấp phép Y tế của Hoa Kỳ. Đây là một dự án nguồn mở với sứ mệnh cung cấp cho mọi người bác sĩ riêng của họ. DoctorGPT là một phiên bản của Mô hình ngôn ngữ lớn có 2 tỷ tham số Llama7 của Meta đã được tinh chỉnh trên Bộ dữ liệu đối thoại y tế, sau đó được cải tiến thêm bằng cách sử dụng Học tăng cường & AI lập hiến. Vì mô hình chỉ có kích thước 3 Gigabyte nên nó phù hợp với mọi thiết bị cục bộ, do đó không cần phải trả API để sử dụng nó.

 
 

Dấu thời gian:

Thêm từ Xe đẩy