Amazon Q se confruntă cu provocări: halucinații și scurgeri de date

Amazon Q se confruntă cu provocări: halucinații și scurgeri de date

Nodul sursă: 2994031

Asistentul AI generativ al Amazon, Amazon Q, este monitorizat. Rapoartele indică halucinații și scurgeri de date, stârnind dezbateri asupra gradului de pregătire pentru utilizare corporativă.

În ceea ce privește creșterea, experții subliniază importanța testării amănunțite, potențialele reglementări și rolul Amazon în abordarea acestor provocări.

Apar halucinații și probleme de confidențialitate

Documentele divulgate raportate de The Platformer dezvăluie acest lucru Amazon Q se confruntă cu inexactități, inclusiv halucinații și scurgeri de date. Studiile evidențiază inexactitatea modelelor lingvistice mari (LLM) atunci când sunt conectate la bazele de date corporative. Analiștii care urmăresc industria sugerează că aceste probleme fac Amazon Q nepotrivit pentru luarea deciziilor într-un cadru corporativ.

Pareekh Jain, CEO al EIIRTrend & Pareekh Consulting, subliniază limitările, declarând: „Dacă sunt prezente halucinații, nu le puteți folosi pentru luarea deciziilor într-un cadru corporativ.” În timp ce Amazon poziționează Q ca un însoțitor de muncă pentru milioane de oameni, analiștii își pun la îndoială disponibilitatea pentru utilizarea pe scară largă a companiilor.

Testarea provocărilor și importanța încercărilor interne

Pentru a aborda aceste probleme, experții subliniază necesitatea unor teste interne extinse înainte de AI generativă asistentul este gata pentru lansarea comercială. Jain subliniază importanța evaluării datelor și a algoritmilor pentru a identifica cauza principală a inexactităților.

„Cred că trebuie să facă mai multe teste cu angajații interni”, a adăugat Jain. „Trebuie să vadă dacă este o problemă cu datele sau cu algoritmul.” Amazon Q profită de 17 ani de competență în date și dezvoltare a AWS, subliniind mizele implicate pentru Amazon în peisajul AI care evoluează rapid.

Instruire și pași spre îmbunătățire

În timp ce halucinațiile reprezintă provocări, Sharath Srinivasamurthy, vicepreședinte asociat la IDC, evidențiază pașii pentru îmbunătățirea utilizării AI generative. Srinivasamurthy sugerează modele de instruire pentru date de calitate superioară, creșterea rapidă, ajustarea continuă a datelor specifice organizației și încorporarea de verificări umane pentru răspunsuri suspecte.

„Instruirea modelelor cu privire la date de mai bună calitate, ajustarea continuă a modelelor privind organizația sau datele și politicile specifice industriei și creșterea unui nivel de verificare umană în cazul în care răspunsul este suspect sunt câțiva dintre pașii care trebuie luați pentru a folosiți cât mai bine această tehnologie emergentă”, spune Srinivasamurthy.

Preocupări de reglementare și apel pentru IA responsabilă

Rapoarte de halucinații provoacă discuții despre necesitatea unor reglementări, dar Sanchit Vir Gogia, analist șef și CEO la Greyhound Research, avertizează împotriva potențialei contraproductivitati. Gogia sugerează că reglementările prea stricte ar putea împiedica schimbul și utilizarea datelor, indicând succesul GPT al OpenAI ca exemplu al beneficiilor unei industrii mai puțin reglementate.

Jain face ecou acest sentiment, subliniind importanța autoreglementării. „Pot exista reglementări, dar accentul se pune în primul rând pe autoreglementare”, explică Jain. „Accentul ar trebui să fie pus pe inteligența artificială responsabilă, unde logica poate fi explicată clienților în loc să creeze sisteme „cutie neagră”.

Pe măsură ce Amazon intră în spațiul AI generativ, toți ochii sunt ațintiți asupra gigantului tehnologic pentru a aborda aceste provocări, mai ales având în vedere intrarea sa târzie în comparație cu liderii din industrie precum Microsoft și Google. Jain observă că AWS este un întârziat, ridicând așteptările și controlul cu privire la tehnologii precum chatboții.

Timestamp-ul:

Mai mult de la MetaNews