LLM Apocalypse Now: Balas Dendam Klon Open Source - KDnuggets

LLM Apocalypse Now: Balas Dendam Klon Open Source – KDnuggets

Node Sumber: 2688404
LLM Apocalypse Now: Balas Dendam Klon Sumber Terbuka
Gambar dari Adobe Firefly
 

“Jumlah kita terlalu banyak. Kami mempunyai akses terhadap terlalu banyak uang, terlalu banyak peralatan, dan sedikit demi sedikit, kami menjadi gila.”

 

Francis Ford Coppola tidak sedang membuat metafora untuk perusahaan AI yang menghabiskan terlalu banyak uang dan kehilangan arah, tapi dia bisa saja melakukan hal tersebut. Apocalypse Sekarang merupakan proyek yang epik namun juga merupakan proyek yang panjang, sulit, dan mahal untuk dibuat, seperti halnya GPT-4. Saya berpendapat bahwa pengembangan LLM tertarik pada terlalu banyak uang dan terlalu banyak peralatan. Dan beberapa pernyataan “kami baru saja menemukan kecerdasan umum” agak gila. Namun kini giliran komunitas open source untuk melakukan yang terbaik: menghadirkan perangkat lunak pesaing gratis dengan menggunakan lebih sedikit uang dan peralatan.

OpenAI telah mengambil alih pendanaan sebesar $11 miliar dan diperkirakan biaya GPT-3.5 adalah $5-$6 juta per pelatihan. Kita hanya tahu sedikit tentang GPT-4 karena OpenAI tidak memberi tahu, tapi menurut saya aman untuk berasumsi bahwa GPT-3.5 tidak lebih kecil dari GPT-100. Saat ini terjadi kekurangan GPU di seluruh dunia dan – sebagai gantinya – hal ini bukan disebabkan oleh kriptocoin terbaru. Perusahaan rintisan AI generatif mendapatkan putaran Seri A senilai $XNUMX juta+ dengan penilaian besar ketika mereka tidak memiliki IP apa pun untuk LLM yang mereka gunakan untuk mendukung produk mereka. Kereta musik LLM sedang berkembang pesat dan uang terus mengalir.

Tampaknya segalanya sudah ditentukan: hanya perusahaan kaya seperti Microsoft/OpenAI, Amazon, dan Google yang mampu melatih ratusan miliar model parameter. Model yang lebih besar diasumsikan sebagai model yang lebih baik. GPT-3 ada yang salah? Tunggu saja sampai ada versi yang lebih besar dan semuanya akan baik-baik saja! Perusahaan-perusahaan kecil yang ingin bersaing harus meningkatkan modal lebih banyak atau dibiarkan membangun integrasi komoditas di pasar ChatGPT. Dunia akademis, dengan anggaran penelitian yang lebih terbatas, dikesampingkan.

Untungnya, banyak orang pintar dan proyek open source menganggap hal ini sebagai tantangan, bukan batasan. Para peneliti di Stanford merilis Alpaca, model parameter 7 miliar yang kinerjanya mendekati model parameter 3.5 Miliar GPT-175. Karena tidak memiliki sumber daya untuk membuat set pelatihan sebesar yang digunakan oleh OpenAI, mereka dengan cerdik memilih untuk menggunakan LLM open source terlatih, LLaMA, dan menyempurnakannya pada serangkaian perintah dan keluaran GPT-3.5. Pada dasarnya model tersebut mempelajari apa yang dilakukan GPT-3.5, yang ternyata merupakan strategi yang sangat efektif untuk mereplikasi perilakunya.

Alpaca dilisensikan untuk penggunaan non-komersial hanya dalam kode dan data karena menggunakan model LLaMA non-komersial sumber terbuka, dan OpenAI secara eksplisit melarang penggunaan API-nya untuk membuat produk pesaing. Hal ini menciptakan prospek yang menggiurkan untuk menyempurnakan LLM open source yang berbeda pada perintah dan keluaran Alpaca… menciptakan model ketiga mirip GPT-3.5 dengan kemungkinan lisensi berbeda.

Ada lapisan ironi lain di sini, di mana semua LLM besar dilatih tentang teks dan gambar berhak cipta yang tersedia di Internet dan mereka tidak membayar sepeser pun kepada pemegang haknya. Perusahaan-perusahaan tersebut mengklaim pengecualian “penggunaan wajar” berdasarkan undang-undang hak cipta AS dengan argumen bahwa penggunaan tersebut bersifat “transformatif”. Namun, jika menyangkut keluaran model yang mereka buat dengan data gratis, mereka sebenarnya tidak ingin ada orang yang melakukan hal yang sama terhadap mereka. Saya berharap hal ini akan berubah seiring dengan sikap bijaksana para pemegang hak, dan mungkin akan berakhir di pengadilan suatu saat nanti.

Ini adalah poin terpisah dan berbeda dengan yang diajukan oleh penulis sumber terbuka berlisensi terbatas yang, untuk produk AI generatif untuk Kode seperti CoPilot, menolak kode mereka digunakan untuk pelatihan dengan alasan bahwa lisensinya tidak diikuti. Masalah bagi masing-masing penulis sumber terbuka adalah mereka harus menunjukkan reputasi – penyalinan substantif – dan bahwa mereka telah menimbulkan kerugian. Dan karena model tersebut menyulitkan untuk menghubungkan kode keluaran ke masukan (baris kode sumber oleh penulis) dan tidak ada kerugian ekonomi (seharusnya gratis), jauh lebih sulit untuk mengajukan kasus. Hal ini berbeda dengan pencipta yang mencari keuntungan (misalnya fotografer) yang seluruh model bisnisnya adalah melisensikan/menjual karya mereka, dan yang diwakili oleh agregator seperti Getty Images yang dapat menunjukkan penyalinan substantif.

Hal menarik lainnya tentang LLaMA adalah ia keluar dari Meta. Awalnya dirilis hanya untuk peneliti dan kemudian dibocorkan melalui BitTorrent ke seluruh dunia. Meta berada dalam bisnis yang berbeda secara fundamental dengan OpenAI, Microsoft, Google, dan Amazon karena Meta tidak mencoba menjual layanan atau perangkat lunak cloud kepada Anda, sehingga memiliki insentif yang sangat berbeda. Mereka telah menggunakan sumber terbuka untuk desain komputasi mereka di masa lalu (OpenCompute) dan melihat komunitas meningkatkannya – mereka memahami nilai dari sumber terbuka.

Meta bisa menjadi salah satu kontributor AI sumber terbuka yang paling penting. Tidak hanya memiliki sumber daya yang sangat besar, namun juga mendapat manfaat jika terdapat perkembangan teknologi AI generatif yang hebat: akan ada lebih banyak konten yang dapat dimonetisasi di media sosial. Meta telah merilis tiga model AI sumber terbuka lainnya: ImageBind (pengindeksan data multidimensi), DINOv2 (computer vision), dan Segmen Apapun. Yang terakhir mengidentifikasi objek unik dalam gambar dan dirilis di bawah Lisensi Apache yang sangat permisif.

Terakhir, kami juga mendapat dugaan bocornya dokumen internal Google “Kami Tidak Memiliki Parit, dan OpenAI Juga” yang mengabaikan model tertutup vs. inovasi komunitas yang memproduksi model yang jauh lebih kecil, lebih murah, dan berperforma mendekati atau lebih baik daripada rekan-rekan sumber tertutup mereka. Saya katakan diduga karena tidak ada cara untuk memverifikasi sumber artikel tersebut sebagai internal Google. Namun, ini berisi grafik yang menarik berikut:

 

LLM Apocalypse Now: Balas Dendam Klon Sumber Terbuka
Sumbu vertikal adalah penilaian keluaran LLM menurut GPT-4, agar jelas.
 

Difusi Stabil, yang mensintesis gambar dari teks, adalah contoh lain di mana AI generatif open source mampu berkembang lebih cepat dibandingkan model berpemilik. Iterasi baru-baru ini dari proyek tersebut (ControlNet) telah memperbaikinya sedemikian rupa sehingga melampaui kemampuan Dall-E2. Hal ini terjadi berkat banyaknya upaya yang dilakukan di seluruh dunia, sehingga menghasilkan kemajuan yang sulit ditandingi oleh institusi mana pun. Beberapa dari mereka yang suka mengotak-atik menemukan cara membuat Difusi Stabil lebih cepat untuk dilatih dan dijalankan pada perangkat keras yang lebih murah, sehingga memungkinkan siklus iterasi yang lebih pendek oleh lebih banyak orang.

Jadi kita telah sampai pada lingkaran penuh. Tidak mempunyai terlalu banyak uang dan terlalu banyak peralatan telah mengilhami tingkat inovasi yang cerdik oleh seluruh komunitas masyarakat awam. Saat yang tepat untuk menjadi pengembang AI.
 
 
Mathew Lodge adalah CEO Diffblue, sebuah startup AI For Code. Dia memiliki pengalaman beragam selama lebih dari 25 tahun dalam kepemimpinan produk di perusahaan seperti Anaconda dan VMware. Lodge saat ini menjabat sebagai dewan di Good Law Project dan Wakil Ketua Dewan Pengawas Royal Photographic Society.
 

Stempel Waktu:

Lebih dari KDnugget