ChatGPT ei voinut läpäistä Yhdysvaltain gastroenterologian kokeita

ChatGPT ei voinut läpäistä Yhdysvaltain gastroenterologian kokeita

Lähdesolmu: 2682739

ChatGPT ei ole läpäissyt American College of Gastroenterology -kokeita, eikä se pysty tuottamaan tarkkoja lääketieteellisiä tietoja potilaille, lääkärit ovat varoittaneet.

A study led by physicians at the Feinstein Institutes for Medical Research tested both variants of ChatGPT – powered by OpenAI's older GPT-3.5 model and the latest GPT-4 system. The academic team copy and pasted the multiple choice questions taken from the 2021 and 2022 American College of Gastroenterology (ACG) Self-Assessment Tests into the bot, and analyzed the software's responses.

Mielenkiintoista on, että vähemmän edistynyt versio, joka perustuu GPT-3.5:een, vastasi oikein 65.1 prosenttiin 455 kysymyksestä, kun taas tehokkaampi GPT-4 sai 62.4 prosenttia. Miten se tapahtui, on vaikea selittää, koska OpenAI on salaperäinen tavasta, jolla se kouluttaa mallejaan. Sen tiedottajat kertoivat meille ainakin, että molemmat mallit on koulutettu dataan, joka on päivätty syyskuussa 2021.

Joka tapauksessa kumpikaan tulos ei ollut tarpeeksi hyvä saavuttaakseen 70 prosentin kynnyksen kokeiden läpäisemiseksi.

Arvind Trindade, apulaisprofessori The Feinstein Institutes for Medical Researchista ja tutkimuksen vanhempi kirjoittaja julkaistu vuonna American Journal of Gastroenterology, Kertoi Rekisteri.

"Although the score is not far away from passing or obtaining a 70 percent, I would argue that for medical advice or medical education, the score should be over 95."

"I don't think a patient would be comfortable with a doctor that only knows 70 percent of his or her medical field. If we demand this high standard for our doctors, we should demand this high standard from medical chatbots," he added.

American College of Gastroenterology kouluttaa lääkäreitä, ja sen testejä käytetään virallisten tenttien käytäntönä. Lääkäreiden on läpäistävä American Board of Internal Medicine Gastroenterologian tutkimus, jotta hänestä tulisi hallituksen sertifioitu gastroenterologi. Se vaatii tietoa ja opiskelua – ei vain sisäistä tunnetta.

ChatGPT generates responses by predicting the next word in a given sentence. AI learns common patterns in its training data to figure out what word should go next, and is partially effective at recalling information. Although the technology has improved rapidly, it's not perfect and is often prone to hallucinating false facts – especially if it's being quizzed on niche subjects that may not be present in its training data.

"ChatGPT's basic function is to predict the next word in a string of text to produce an expected response based on available information, regardless of whether such a response is factually correct or not. It does not have any intrinsic understanding of a topic or issue," the paper explains.

Trindade told us that it's possible that the gastroenterology-related information on webpages used to train the software is not accurate, and that the best resources like medical journals or databases should be used. 

Nämä resurssit eivät kuitenkaan ole helposti saatavilla, ja ne voidaan lukita maksumuurin taakse. Siinä tapauksessa ChatGPT ei ehkä ole ollut riittävästi alttiina asiantuntijatiedolle.

"The results are only applicable to ChatGPT – other chatbots need to be validated. The crux of the issue is where these chatbots are obtaining the information. In its current form ChatGPT should not be used for medical advice or medical education," Trindade concluded. ®

Aikaleima:

Lisää aiheesta Rekisteri