Der KI-Chatbot von Google ist in Tests einfühlsamer als echte Ärzte

Der KI-Chatbot von Google ist in Tests einfühlsamer als echte Ärzte

Quellknoten: 3074145

Laut einem Forschungsbericht von Google war ein KI-Chatbot besser in der Lage, medizinische Beschwerden zu diagnostizieren und Ergebnisse zu kommunizieren als menschliche Ärzte in textbasierten Gesprächen.

Das System, genannt Articulate Medical Intelligence Explorer (AMIE)ist ein großes Sprachmodell, das darauf trainiert ist, medizinische Informationen zu sammeln und klinische Gespräche zu führen. AMIE wurde entwickelt, um von Benutzern beschriebene Symptome zu analysieren, Fragen zu stellen und Diagnosen vorherzusagen.

In einem Test nahmen 20 Scheinpatienten mit erfundenen Krankheiten an dem randomisierten Experiment teil, zusammen mit 20 professionellen Hausärzten, die für das Experiment rekrutiert wurden, um die menschliche Note zu verleihen.

Die Patienten wussten nicht, ob sie mit AMIE oder einem echten Arzt sprachen. Sie wurden gebeten, die Qualität ihrer Interaktionen zu bewerten, ohne zu wissen, ob sie mit einem KI-Chatbot oder einem Menschen gechattet hatten.

Die Ergebnisse zeigten, dass die meisten Scheinpatienten in den 149 in der Studie getesteten Fallszenarien lieber mit AMIE chatten als mit echten Ärzten. Die Teilnehmer gaben an, dass der KI-Chatbot ihre Bedenken besser verstehen konnte und einfühlsamer, klarer und professioneller in den Antworten war. Das ist nicht allzu überraschend, wenn man bedenkt, dass die Persona und der Ton eines KI-Chatbots so programmiert werden können, dass er sich konsistenter und ohne lästige menschliche Probleme wie Müdigkeit oder Ablenkung verhält.

Interessanterweise schien AMIE auch bei der Diagnose medizinischer Probleme genauer zu sein. Aber bedeutet das, dass KI-Chatbots in der medizinischen Versorgung besser sind als Ärzte? Überhaupt nicht, erklärt Google.

Obwohl die Ergebnisse vielversprechend erscheinen, interagieren Hausärzte und Patienten persönlich und können im Laufe der Zeit eine Beziehung aufbauen. Ärzte haben außerdem mehr Zugriff auf andere Arten von Informationen als nur Textbeschreibungen, wenn sie Diagnosen stellen. Es handelt sich also – wie Google zugibt – eigentlich nicht um ein praktisches Experiment.

„Unsere Forschung weist mehrere Einschränkungen auf und sollte mit angemessener Vorsicht interpretiert werden“, so die Google-Forscher zugelassen.

„Erstens unterschätzt unsere Bewertungstechnik wahrscheinlich den realen Wert menschlicher Gespräche, da die Kliniker in unserer Studie auf eine unbekannte Text-Chat-Schnittstelle beschränkt waren, die groß angelegte LLM-Patienten-Interaktionen ermöglicht, aber nicht repräsentativ für die übliche klinische Praxis ist.“ .“

Das Ziel besteht nicht darin, Hausärzte zu ersetzen. Stattdessen glaubt Google, dass KI-Chatbots nützliche Tools zur Unterstützung von Patienten sein können, die möglicherweise keinen Zugang zur Gesundheitsversorgung haben. Der Einsatz eines solchen Systems in der realen Welt sei jedoch riskant und würde mehr Arbeit erfordern, um es verantwortungsvoll zu nutzen, sagten sie.

„Um von diesem begrenzten Umfang der experimentell simulierten Anamneseerhebung und des diagnostischen Dialogs auf reale Werkzeuge für Menschen und diejenigen, die sie betreuen, zu übertragen, sind erhebliche zusätzliche Forschungs- und Entwicklungsarbeiten erforderlich, um Sicherheit, Zuverlässigkeit, Fairness, Wirksamkeit und Privatsphäre zu gewährleisten der Technologie“, schloss das Team in seiner Arbeit.

„Im Erfolgsfall glauben wir, dass KI-Systeme wie AMIE das Herzstück lernender Gesundheitssysteme der nächsten Generation sein können, die dazu beitragen, eine erstklassige Gesundheitsversorgung für alle zugänglich zu machen.“ ®

Zeitstempel:

Mehr von Das Register