Amazon Q เผชิญความท้าทาย: อาการประสาทหลอนและข้อมูลรั่วไหล

Amazon Q เผชิญความท้าทาย: อาการประสาทหลอนและข้อมูลรั่วไหล

โหนดต้นทาง: 2994031

Amazon Q ซึ่งเป็นผู้ช่วย Generative AI ของ Amazon อยู่ภายใต้การตรวจสอบอย่างละเอียด รายงานต่างๆ บ่งชี้ถึงภาพหลอนและการรั่วไหลของข้อมูล ซึ่งก่อให้เกิดการถกเถียงเกี่ยวกับความพร้อมสำหรับการใช้งานในองค์กร.

ขณะที่ความกังวลเพิ่มมากขึ้น ผู้เชี่ยวชาญเน้นย้ำถึงความสำคัญของการทดสอบอย่างละเอียด กฎระเบียบที่อาจเกิดขึ้น และบทบาทของ Amazon ในการรับมือกับความท้าทายเหล่านี้

ภาพหลอนและปัญหาความเป็นส่วนตัวเกิดขึ้น

เอกสารที่รั่วไหลรายงานโดย The Platformer เปิดเผยว่า อเมซอน คิว กำลังต่อสู้กับความไม่ถูกต้อง รวมถึงภาพหลอนและข้อมูลรั่วไหล การศึกษาเน้นย้ำถึงความไม่ถูกต้องของโมเดลภาษาขนาดใหญ่ (LLM) เมื่อเชื่อมต่อกับฐานข้อมูลองค์กร นักวิเคราะห์ที่ติดตามอุตสาหกรรมแนะนำว่าปัญหาเหล่านี้ทำให้ Amazon Q ไม่เหมาะสำหรับการตัดสินใจในองค์กร

Pareekh Jain CEO ของ EIIRTrend & Pareekh Consulting ชี้ให้เห็นข้อจำกัด โดยระบุว่า "หากมีอาการประสาทหลอน คุณจะไม่สามารถใช้สิ่งเหล่านั้นในการตัดสินใจในองค์กรได้" แม้ว่า Amazon จะวางตำแหน่ง Q ไว้เป็นเพื่อนที่ทำงานสำหรับคนนับล้าน แต่นักวิเคราะห์กลับตั้งคำถามถึงความพร้อมในการใช้งานขององค์กรในวงกว้าง

ความท้าทายในการทดสอบและความสำคัญของการทดลองภายใน

เพื่อแก้ไขปัญหาเหล่านี้ ผู้เชี่ยวชาญเน้นย้ำถึงความจำเป็นในการทดสอบภายในอย่างครอบคลุมก่อน AI กำเนิด ผู้ช่วยพร้อมออกสู่ตลาดแล้ว Jain เน้นย้ำถึงความสำคัญของการประเมินข้อมูลและอัลกอริธึมเพื่อระบุสาเหตุของความไม่ถูกต้อง

“ฉันคิดว่าพวกเขาต้องทำการทดสอบเพิ่มเติมกับพนักงานภายในก่อน” Jain กล่าวเสริม “พวกเขาต้องดูว่าเป็นปัญหากับข้อมูลหรืออัลกอริธึม” Amazon Q ใช้ประโยชน์จากข้อมูลและความเชี่ยวชาญด้านการพัฒนาของ AWS ตลอด 17 ปี โดยเน้นย้ำถึงความเสี่ยงที่เกี่ยวข้องกับ Amazon ในด้านภูมิทัศน์ AI ที่พัฒนาอย่างรวดเร็ว

การฝึกอบรมและขั้นตอนสู่การปรับปรุง

ในขณะที่ภาพหลอนก่อให้เกิดความท้าทาย Sharath Srinivasamurthy รองรองประธานของ IDC เน้นย้ำขั้นตอนในการปรับปรุงการใช้ generative AI Srinivasamurthy แนะนำโมเดลการฝึกอบรมเกี่ยวกับข้อมูลคุณภาพสูงขึ้น การเพิ่มข้อมูลอย่างรวดเร็ว การปรับแต่งข้อมูลเฉพาะองค์กรอย่างต่อเนื่อง และผสมผสานการตรวจสอบของมนุษย์สำหรับการตอบสนองที่น่าสงสัย

“การฝึกอบรมโมเดลเกี่ยวกับข้อมูลที่มีคุณภาพดีขึ้น การปรับแต่งโมเดลอย่างต่อเนื่องเกี่ยวกับข้อมูลและนโยบายเฉพาะขององค์กรหรืออุตสาหกรรม และการเพิ่มการตรวจสอบโดยมนุษย์ในกรณีที่การตอบสนองน่าสงสัย คือขั้นตอนบางส่วนที่ต้องดำเนินการเพื่อ ใช้เทคโนโลยีเกิดใหม่นี้ให้เกิดประโยชน์สูงสุด” ศรีนิวาสมุทรกล่าว

ข้อกังวลด้านกฎระเบียบและการเรียกร้อง AI ที่รับผิดชอบ

รายงาน อาการประสาทหลอนกระตุ้นให้เกิดการอภิปรายเกี่ยวกับความจำเป็นด้านกฎระเบียบ แต่ Sanchit Vir Gogia หัวหน้านักวิเคราะห์และซีอีโอของ Greyhound Research เตือนถึงการต่อต้านที่อาจเกิดขึ้น Gogia ชี้ให้เห็นว่ากฎระเบียบที่เข้มงวดมากเกินไปอาจขัดขวางการแลกเปลี่ยนและการใช้ข้อมูล ซึ่งชี้ให้เห็นถึงความสำเร็จของ GPT ของ OpenAI ในฐานะตัวอย่างของประโยชน์ของอุตสาหกรรมที่มีการควบคุมน้อยกว่า

Jain สะท้อนความรู้สึกนี้โดยเน้นถึงความสำคัญของการควบคุมตนเอง “กฎระเบียบอาจมีอยู่ แต่การมุ่งเน้นไปที่การควบคุมตนเองเป็นหลัก” Jain อธิบาย “การเน้นควรอยู่ที่ AI ที่มีความรับผิดชอบ ซึ่งสามารถอธิบายตรรกะให้กับลูกค้าได้ แทนที่จะสร้างระบบ 'กล่องดำ'”

เมื่อ Amazon เข้าสู่วงการ generative AI ทุกสายตาต่างก็จับจ้องไปที่ยักษ์ใหญ่ด้านเทคโนโลยีเพื่อรับมือกับความท้าทายเหล่านี้ โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงการเข้ามาช้าเมื่อเทียบกับผู้นำในอุตสาหกรรมอย่าง Microsoft และ Google Jain ตั้งข้อสังเกตว่า AWS เป็นบริษัทที่ล้าหลัง โดยเพิ่มความคาดหวังและการตรวจสอบอย่างละเอียดเกี่ยวกับเทคโนโลยี เช่น แชทบอท

ประทับเวลา:

เพิ่มเติมจาก เมตานิวส์