Minggu ini di AI, 18 Agustus: OpenAI dalam Masalah Keuangan • Stabilitas AI Mengumumkan StableCode - KDnuggets

Minggu ini di AI, 18 Agustus: OpenAI dalam Masalah Keuangan • Stabilitas AI Mengumumkan StableCode – KDnuggets

Node Sumber: 2833080

### ALT ###
Gambar dibuat oleh Editor dengan Midjourney
 

Selamat datang di "Minggu Ini dalam AI" edisi minggu ini di KDnuggets. Posting mingguan yang dikuratori ini bertujuan untuk membuat Anda tetap mengikuti perkembangan paling menarik di dunia kecerdasan buatan yang berkembang pesat. Dari berita utama inovatif yang membentuk pemahaman kita tentang peran AI dalam masyarakat hingga artikel yang menggugah pemikiran, sumber pembelajaran yang berwawasan, dan penelitian yang menyoroti mendorong batas-batas pengetahuan kita, postingan ini memberikan tinjauan komprehensif lanskap AI saat ini. Pembaruan mingguan ini dirancang untuk membuat Anda terus diperbarui dan mendapat informasi di bidang yang terus berkembang ini. Stay tune dan selamat membaca!

 
Bagian "Berita Utama" membahas berita dan perkembangan teratas dari minggu lalu di bidang kecerdasan buatan. Informasi berkisar dari kebijakan AI pemerintah hingga kemajuan teknologi dan inovasi perusahaan dalam AI.

 
💡 ChatGPT Dalam Masalah: OpenAI mungkin bangkrut pada tahun 2024, bot AI membebani perusahaan $700,000 setiap hari

OpenAI menghadapi masalah keuangan karena tingginya biaya menjalankan ChatGPT dan layanan AI lainnya. Meskipun pertumbuhan awal yang cepat, basis pengguna ChatGPT telah menurun dalam beberapa bulan terakhir. OpenAI sedang berjuang untuk memonetisasi teknologinya secara efektif dan menghasilkan pendapatan yang berkelanjutan. Sementara itu, terus membakar uang tunai pada tingkat yang mengkhawatirkan. Dengan persaingan yang memanas dan kekurangan GPU perusahaan yang menghambat pengembangan model, OpenAI perlu segera menemukan jalan menuju profitabilitas. Jika gagal melakukannya, kebangkrutan mungkin akan terjadi pada startup AI perintis.

 
💡 Stability AI Mengumumkan StableCode, Asisten AI Coding untuk Pengembang

Stability AI telah merilis StableCode, produk AI generatif pertamanya yang dioptimalkan untuk pengembangan perangkat lunak. StableCode menggabungkan beberapa model yang dilatih pada lebih dari 500 miliar token kode untuk memberikan pelengkapan otomatis yang cerdas, merespons instruksi bahasa alami, dan mengelola rentang kode yang panjang. Sementara AI percakapan sudah dapat menulis kode, StableCode dibuat khusus untuk meningkatkan produktivitas pemrogram dengan memahami struktur dan ketergantungan kode. Dengan pelatihan dan model khusus yang dapat menangani konteks panjang, StableCode bertujuan untuk meningkatkan alur kerja pengembang dan menurunkan hambatan masuk bagi calon pembuat kode. Peluncuran ini mewakili peluncuran Stability AI ke dalam alat pengkodean berbantuan AI di tengah meningkatnya persaingan di ruang angkasa.

 
💡 Memperkenalkan Superalignment oleh OpenAI

OpenAI bekerja secara proaktif untuk mengatasi potensi risiko dari superintelligent AI melalui tim Superalignment baru mereka, yang menggunakan teknik seperti pembelajaran penguatan dari umpan balik manusia untuk menyelaraskan sistem AI. Sasaran utamanya adalah mengembangkan metode pelatihan yang dapat diskalakan dengan memanfaatkan sistem AI lainnya, memvalidasi ketangguhan model, dan menguji tekanan alur penyelarasan penuh bahkan dengan model yang sengaja dibuat tidak selaras. Secara keseluruhan, OpenAI bertujuan untuk menunjukkan pembelajaran mesin dapat dilakukan dengan aman dengan pendekatan perintis untuk mengarahkan superintelligence secara bertanggung jawab.

 
💡 Pelajari saat Anda mencari (dan menjelajah) menggunakan AI generatif

Google mengumumkan beberapa pembaruan untuk kemampuan AI Search Engine Generation (SGE) termasuk definisi hover untuk topik sains/sejarah, penyorotan kode warna untuk ikhtisar kode, dan percobaan awal yang disebut "SGE saat menjelajah" yang merangkum poin-poin penting dan membantu pengguna jelajahi halaman saat membaca konten berdurasi panjang di web. Ini bertujuan untuk meningkatkan pemahaman tentang topik yang kompleks, meningkatkan pencernaan informasi pengkodean, dan membantu navigasi dan pembelajaran saat pengguna menjelajah. Pembaruan tersebut mewakili upaya berkelanjutan Google untuk mengembangkan pengalaman pencarian AI berdasarkan umpan balik pengguna, dengan fokus pada pemahaman dan penggalian detail utama dari konten web yang kompleks.

 
💡 Together.ai memperluas Llama2 ke jendela konteks 32k

LLaMA-2-7B-32K adalah model bahasa konteks panjang sumber terbuka yang dikembangkan oleh Together Computer yang memperluas panjang konteks LLaMA-2 Meta hingga token 32K. Ini memanfaatkan pengoptimalan seperti FlashAttention-2 untuk mengaktifkan inferensi dan pelatihan yang lebih efisien. Model ini dilatih sebelumnya menggunakan campuran data termasuk buku, makalah, dan data instruksional. Contoh disediakan untuk penyempurnaan pada QA bentuk panjang dan tugas peringkasan. Pengguna dapat mengakses model melalui Hugging Face atau menggunakan OpenChatKit untuk menyesuaikan penyesuaian. Seperti semua model bahasa, LLaMA-2-7B-32K dapat menghasilkan konten yang bias atau salah, yang memerlukan kehati-hatian dalam penggunaannya.

 
Bagian "Artikel" menyajikan serangkaian karya pemikiran tentang kecerdasan buatan. Setiap artikel mendalami topik tertentu, menawarkan wawasan kepada pembaca tentang berbagai aspek AI, termasuk teknik baru, pendekatan revolusioner, dan alat terobosan.

 
📰 Lembar Curang LangChain

Dengan LangChain, pengembang dapat membangun aplikasi berbasis bahasa AI yang mumpuni tanpa menciptakan kembali kemudi. Strukturnya yang dapat disusun memudahkan untuk menggabungkan dan mencocokkan komponen seperti LLM, template perintah, alat eksternal, dan memori. Hal ini mempercepat pembuatan prototipe dan memungkinkan integrasi kemampuan baru tanpa hambatan dari waktu ke waktu. Baik Anda ingin membuat chatbot, bot QA, atau agen penalaran multi-langkah, LangChain menyediakan blok bangunan untuk merakit AI tingkat lanjut dengan cepat.

 
📰 Cara Menggunakan ChatGPT untuk Mengonversi Teks menjadi Presentasi PowerPoint

Artikel ini menguraikan proses dua langkah untuk menggunakan ChatGPT untuk mengonversi teks menjadi presentasi PowerPoint, pertama meringkas teks menjadi judul dan konten slide, kemudian membuat kode Python untuk mengonversi ringkasan ke format PPTX menggunakan pustaka python-pptx. Hal ini memungkinkan pembuatan presentasi yang menarik dengan cepat dari dokumen teks yang panjang, mengatasi upaya manual yang membosankan. Instruksi yang jelas diberikan untuk menyusun permintaan ChatGPT dan menjalankan kode, menawarkan solusi otomatis yang efisien untuk kebutuhan presentasi.

 
📰 Buka tantangan dalam penelitian LLM

Artikel ini memberikan ikhtisar tentang 10 arah penelitian utama untuk meningkatkan model bahasa besar: mengurangi halusinasi, mengoptimalkan panjang/konstruksi konteks, menggabungkan data multimodal, mempercepat model, merancang arsitektur baru, mengembangkan alternatif GPU seperti chip fotonik, membangun agen yang dapat digunakan, meningkatkan pembelajaran dari umpan balik manusia, meningkatkan antarmuka obrolan, dan memperluas ke bahasa non-Inggris. Itu mengutip makalah yang relevan di seluruh area ini, mencatat tantangan seperti mewakili preferensi manusia untuk pembelajaran penguatan dan membangun model untuk bahasa sumber daya rendah. Penulis menyimpulkan bahwa sementara beberapa masalah seperti multibahasa lebih mudah diatur, yang lain seperti arsitektur akan membutuhkan lebih banyak terobosan. Secara keseluruhan, keahlian teknis dan non-teknis di seluruh peneliti, perusahaan, dan masyarakat akan sangat penting untuk mengarahkan LLM secara positif.

 
📰 Mengapa Anda (Mungkin) Tidak Perlu Menyempurnakan LLM

Artikel ini memberikan ikhtisar tentang 10 arah penelitian utama untuk meningkatkan model bahasa besar: mengurangi halusinasi, mengoptimalkan panjang/konstruksi konteks, menggabungkan data multimodal, mempercepat model, merancang arsitektur baru, mengembangkan alternatif GPU seperti chip fotonik, membangun agen yang dapat digunakan, meningkatkan pembelajaran dari umpan balik manusia, meningkatkan antarmuka obrolan, dan memperluas ke bahasa non-Inggris. Itu mengutip makalah yang relevan di seluruh area ini, mencatat tantangan seperti mewakili preferensi manusia untuk pembelajaran penguatan dan membangun model untuk bahasa sumber daya rendah. Penulis menyimpulkan bahwa sementara beberapa masalah seperti multibahasa lebih mudah diatur, yang lain seperti arsitektur akan membutuhkan lebih banyak terobosan. Secara keseluruhan, keahlian teknis dan non-teknis di seluruh peneliti, perusahaan, dan masyarakat akan sangat penting untuk mengarahkan LLM secara positif.

 
📰 Praktik Terbaik untuk Menggunakan Model OpenAI GPT

Artikel ini menguraikan praktik terbaik untuk mendapatkan keluaran berkualitas tinggi saat menggunakan model GPT OpenAI, berdasarkan pengalaman komunitas. Ini merekomendasikan untuk memberikan petunjuk terperinci dengan spesifik seperti panjang dan persona; instruksi multi-langkah; contoh untuk ditiru; referensi dan kutipan; waktu untuk berpikir kritis; dan eksekusi kode untuk presisi. Mengikuti tips dalam menginstruksikan model ini, seperti menentukan langkah dan persona, dapat memberikan hasil yang lebih akurat, relevan, dan dapat disesuaikan. Panduan ini bertujuan untuk membantu pengguna menyusun perintah secara efektif untuk mendapatkan hasil maksimal dari kemampuan generatif OpenAI yang kuat.

 
📰 Kita Semua Salah Tentang AI

Penulis berpendapat bahwa kemampuan AI saat ini diremehkan, menggunakan contoh seperti kreativitas, penelusuran, dan personalisasi untuk melawan kesalahpahaman umum. Dia menyatakan bahwa AI bisa kreatif dengan menggabungkan kembali konsep, tidak hanya menghasilkan ide acak; itu bukan hanya mesin pencari supercharged seperti Google; dan itu dapat mengembangkan hubungan yang dipersonalisasi, bukan hanya keterampilan umum. Meskipun tidak yakin aplikasi mana yang terbukti paling berguna, penulis mendorong pikiran terbuka daripada meremehkan, menekankan bahwa cara terbaik untuk menentukan potensi AI adalah dengan eksplorasi langsung yang berkelanjutan. Dia menyimpulkan bahwa imajinasi kita tentang AI terbatas dan kemungkinan penggunaannya jauh melebihi prediksi saat ini.

 
Bagian "Alat" mencantumkan aplikasi dan skrip berguna yang dibuat oleh komunitas bagi mereka yang ingin sibuk dengan aplikasi AI yang praktis. Di sini Anda akan menemukan berbagai jenis alat, dari basis kode komprehensif yang besar hingga skrip kecil. Perhatikan bahwa alat dibagikan tanpa dukungan, dan tanpa jaminan apa pun. Kerjakan pekerjaan rumah Anda sendiri pada perangkat lunak apa pun sebelum menginstal dan menggunakan!

 
MetaGPT: Kerangka Kerja Multi-Agen

MetaGPT mengambil persyaratan satu baris sebagai input dan output cerita pengguna / analisis kompetitif / persyaratan / struktur data / API / dokumen, dll. Secara internal, MetaGPT mencakup manajer produk / arsitek / manajer proyek / insinyur. Ini menyediakan seluruh proses perusahaan perangkat lunak bersama dengan SOP yang diatur dengan hati-hati.

 
Pelatih GPT LLM

Tujuan dari proyek ini adalah untuk mengeksplorasi alur baru eksperimental untuk melatih model khusus tugas berperforma tinggi. Kami mencoba mengabstraksi semua kerumitan, jadi semudah mungkin untuk beralih dari ide -> model yang terlatih sepenuhnya.

Cukup masukkan deskripsi tugas Anda, dan sistem akan membuat kumpulan data dari awal, menguraikannya ke dalam format yang tepat, dan menyempurnakan model LLaMA 2 untuk Anda.

 
DokterGPT

DoctorGPT adalah Model Bahasa Besar yang dapat lulus Ujian Perizinan Medis AS. Ini adalah proyek sumber terbuka dengan misi untuk memberi setiap orang dokter pribadi mereka sendiri. DoctorGPT adalah versi Meta's Llama2 7 miliar parameter Large Language Model yang disempurnakan pada Dataset Dialog Medis, kemudian ditingkatkan lebih lanjut menggunakan Reinforcement Learning & AI Konstitusional. Karena modelnya hanya berukuran 3 Gigabytes, model ini cocok untuk semua perangkat lokal, jadi tidak perlu membayar API untuk menggunakannya.

 
 

Stempel Waktu:

Lebih dari KDnugget