OpenAI'nin ChatGPT'si Landmark Davasında Hakaretle Suçlandı

OpenAI'nin ChatGPT'si Landmark Davasında Hakaretle Suçlandı

Kaynak Düğüm: 2717755

ABD merkezli radyo yayıncısı Mark Walters, AI sohbet robotu ChatGPT'nin kendisini Second Amendment Foundation'dan (SAF) zimmete para geçirmekle suçlamasının ardından OpenAI'ye iftira davası açtı. Walters, iddiaların yanlış olduğunu ve silah hakları grubu için hiç çalışmadığını söylüyor.

Georgia, Gwinnett İlçesi Yüksek Mahkemesinde 5 Haziran'da açılan davanın, bir AI chatbot'un beğendiğini iddia eden ilk dava olduğuna inanılıyor. ChatGPT hakaretten sorumlu tutulabilir. Gizmodo, Walters'ın OpenAI'den belirsiz parasal tazminat talep ettiğini bildirdi.

Ayrıca okuyun: ChatGPT'nin Sahte Alıntıları ABD'li Avukatı Sıcak Suya Düşürdü

'OpenAI müşterimi karaladı'

Walters'ın avukatı John Monroe, yasal bir SAF vakasını araştıran silah web sitesi AmmoLand'ın genel yayın yönetmeni Fred Riehl'den gelen bir sorguya yanıt verirken, ChatGPT'nin "Silahlı Amerikan Radyosu" programı sunucusu hakkında "iftira niteliğinde materyal yayınladığını" iddia etti.

Riehl, chatbot'a aşağıdakileri içeren bir davaya işaret eden bir URL verdi: SAF ve Washington Başsavcı Bob Ferguson ve bir özet istedi. ChatGPT kendinden emin ama yanlış bir şekilde Walters'ı sanık olarak adlandırdı ve hatta onu SAF saymanı ve CFO'su olarak tanımladı, ki o öyle değil.

ChatGPT'nin bekleyen dava özeti şu yanlış iddiayı içeriyordu: Mark Walters Second Amendment Foundation'dan zimmete para geçirilmiş fonlar. Gürcistan merkezli broacaster, hiçbir zaman zimmete para geçirmediğini ve SAF ile hiçbir bağlantısı olmadığını söylüyor.

Monroe davada "Walters ile ilgili özetteki her gerçek yanlıştır" dedi.

Avukat daha sonra "OpenAI müvekkilimi karaladı ve onun hakkında çirkin yalanlar uydurdu" dedi. söyledi diğer endüstri medyası.

ChatGPT OpenAI tarafından geliştirilen büyük bir dil modelidir. Geçen yıl Kasım ayında başlatıldı ve internetten milyarlarca veri üzerinde eğitildi. Chatbot, metin oluşturma, dilleri çevirme ve zor matematik problemlerini çözme gibi çeşitli görevleri gerçekleştirebilir.

Ancak ChatGPT, "halüsinasyonlarBu, teknoloji endüstrisinde yapay zeka sohbet robotlarının genellikle güvenle yanlış veya yanıltıcı bilgiler ürettiğini açıklamak için kullanılan bir terimdir.

Bir OpenAI araştırma bilimcisi olan Karl Cobbe, "En son teknoloji modeller bile, genellikle halüsinasyon olarak adlandırılan mantıksal hatalar üretmeye devam ediyor" diye yazdı. Blog yazısı. "Halüsinasyonları azaltmak, uyumlu AGI [yapay genel zeka] oluşturmaya yönelik kritik bir adımdır."

Kusurlu yapay zekayı hesaba katmak

The kusur bu tür yapay zeka teknolojisinin kullanışlılığını baltalama eğilimindeydi. Ancak OpenAI dahil olmak üzere AI içerik oluşturucuları ve Google, bilgi almanın yeni bir yolu olarak sohbet robotlarını tanıtmaya devam etti. Garip bir şekilde şirketler, çıktılarına güvenilmemesi gerektiği konusunda da uyardı.

Fred Riehl'in araştırması sırasında, ChatGPT yanlış bilgiler üretmeye devam etti, hatta davayla ilgili tamamen uydurma olan tüm pasajları bile oluşturdu. Gizmodo'nun bildirdiği gibi, AI aracı vaka numarasını bile yanlış anladı.

Gazeteci, AI'yı, Walters'ın saldırı silahlarının satışını yasaklayan bir eyalet yasasına meydan okuyan Second Amendment Foundation - Ferguson davasına karıştığını iddia eden özeti hakkında sorguladı. ChatGPT, Walters'a göre "Kesinlikle" yanıtını verdi.

“İşte şikayetten Walters'ı ilgilendiren paragraf: 'Davalı Mark Walters (“Walters”) Georgia'da ikamet eden bir bireydir. Walters, en az 2012'den beri SAF'ın Saymanı ve Mali İşler Başkanı olarak görev yapıyor. Walters'ın SAF'ın banka hesaplarına ve mali kayıtlarına erişimi var ve bu kayıtları tutmaktan ve SAF yönetim kuruluna mali raporlar sunmaktan sorumlu.”

Riehl makaleyi yayınlamadı, bunun yerine AI'nın yanıtlarını ChatGPT ifadelerinin sahte olduğunu söyleyen SAF kurucusu ve başkan yardımcısı Allan Gottlieb ile paylaştı.

Davada avukat John Monroe, "ChatGPT'nin iddialarının yanlış ve kötü niyetli olduğunu" söyleyerek Walters'ın itibarını zedeledi. Yapay zeka sohbet botları geliştiren şirketlerin, yarattıkları tarafından sağlanan yanıltıcı bilgilerden sorumlu tutulmalarını istiyor.

Monroe, "Yapay zekada araştırma ve geliştirme değerli bir çaba olsa da, zarar verebilecek bilgiler ürettiğini bilerek bir sistemi halka salmak sorumsuzluktur" dedi. Gizmodo.

OpenAI ChatGPT'yi dava etmek

Ancak ChatGPT gibi büyük dil modelleri tarafından üretilen yanlış bilgilerin mahkemede iftira olarak kabul edilmesi mümkün mü? Birleşik Krallık Hazine Bakanlığı'nda teknoloji avukatı olan Prosper Mwedzi, MetaNews'e sorunun karmaşık olduğunu söyledi.

"[ChatGPT] internetten bilgi aldığı için bu karmaşık bir soru" dedi. "Dolayısıyla, dava açan kişinin [OpenAI veya başvurulan materyalin orijinal yayıncısı] yerine kaynağa gitmesinin daha iyi olacağını düşünüyorum.

"Bunu Google'da bir şey aramak gibi görüyorum ve karalayıcı materyal içeren bir kaynak çıkıyor - bu açıkça Google'ın hatası olmayacak. Ancak birisi iftira niteliğinde bir makale yazmak için ChatGPT'yi kullanırsa, bunun ChatGPT olduğuna dair bir savunma kullanamayacağı için sorumlu hale gelir.”

Mwedzi, Mark Walters'ın davasında çok az başarı şansı görüyor. Beklentilerin çok güçlü olmadığını düşünüyorum” dedi.

AI modellerinin yasal sorumluluğu üzerine bir dergi makalesi yazan Los Angeles California Üniversitesi'nde hukuk profesörü olan Eugene Volokh, AI modellerinin eylemlerinden yasal olarak sorumlu tutulabileceğini söyledi.

"OpenAI, hatalar olabileceğini kabul ediyor ancak [ChatGPT] şaka olarak faturalandırılmıyor; kurgu olarak faturalandırılmaz; bir daktiloda yazan maymunlar olarak faturalandırılmıyor, ”dedi Gizmodo'ya.

Büyüyen eğilim

Bu, yapay zeka destekli sohbet robotlarının gerçek insanlar hakkında yalanlar yaydığı ilk sefer değil. Geçen ay ABD'li avukat Steven A. Schwartz yüzlü hukuk firması yasal araştırma için ChatGPT'yi kullandıktan ve bir davada altı sahte davayı gösterdikten sonra disiplin cezası aldı.

Konu, 30 yıllık deneyime sahip bir avukat olan Schwartz'ın, müvekkili Roberto Mata'nın Kolombiyalı havayolu şirketi Avianca'ya bir çalışanın neden olduğu ihmal nedeniyle dava açtığı bir davayı desteklemek için bu davaları emsal olarak kullanmasının ardından gün ışığına çıktı.

Mart ayında, Avustralya'daki Hepburn Shire belediye başkanı Brian Hood, tehdit Chatbot ChatGPT'den sonra OpenAI'ye dava açmak için, yanlış bir şekilde rüşvetten hüküm giydiğini iddia etti. Hood rüşvet skandalına karışmadı ve aslında bunu ifşa eden ihbarcı oydu.

BU GÖNDERİYİ PAYLAŞ

Zaman Damgası:

Den fazla MetaHaberler