Rückstart von Versicherungsstarts beim Ausführen von Videos von Antragstellern über den KI-Lügendetektor

Quellknoten: 876666

Aktualisiert Ein Versicherungsunternehmen hat sich rühmt, wie es KI-Algorithmen verwendet, um Videos von Kunden auf „nonverbale Hinweise“ zu untersuchen, dass ihre Behauptungen betrügerisch sind. Die Marketingwende kam, nachdem die Ethik dieses Vorgehens öffentlich und lautstark in Frage gestellt wurde.

Besonders sensibel ist der Einsatz von Machine-Learning-Software zur Automatisierung von Entscheidungsfindungsprozessen, um zu entscheiden, ob Kredit- oder Versicherungszahlungen von Kunden akzeptiert oder abgelehnt werden. Im vergangenen Monat gab Amerikas Verbraucherüberwachungsbehörde FTC eine stark formulierte Aussage Warnung, dass der Einsatz von Algorithmen illegal ist, diskriminiert Menschen aufgrund ihrer Rasse, Hautfarbe, Religion, nationalen Herkunft, Geschlechts, Familienstands und Alters bei finanziellen Entscheidungen.

Die Alarmglocken läuteten, als Lemonade, ein Unternehmen mit Sitz in New York, mitteilte, dass es eine Software entwickelt habe, die Videos von Kunden scannt, die die Situationen erklären, in denen sie sich befinden ein anderer Betrug.

Lemonade ist stolz darauf, Menschen eine einfachere und einfachere Möglichkeit zu bieten, Ansprüche aus Tier-, Haus- und Lebensversicherungen geltend zu machen. Kunden sprechen mit einem Chat-Bot, reichen ihre Forderung mit einem Video ein, und in wenigen Minuten kann eine Entscheidung getroffen werden, wie viel sie ihnen zahlen soll.

„Wenn ein Benutzer einen Anspruch einreicht, nimmt er ein Video auf seinem Telefon auf und erklärt, was passiert ist“, Lemonade angegeben in einer Reihe von Tweets, die inzwischen gelöscht wurden.

„Unsere KI analysiert diese Videos sorgfältig auf Anzeichen von Betrug. Es kann nonverbale Hinweise aufnehmen, die traditionelle Versicherer nicht können, da sie keinen digitalen Schadenprozess verwenden.“

Internetnutzer kritisierten die Technologie von Lemonade und beschuldigten sie, potenziell voreingenommen zu sein und sich zu sehr auf fadenscheinige Stimmungs- und Emotionsanalysen der eingereichten Videos zu verlassen. Die Gegenreaktion auf Twitter veranlasste das Unternehmen, seine Beiträge zu löschen und eine neue Erklärung abzugeben, in der es behauptete, es habe nur Gesichtserkennungsalgorithmen verwendet, um sicherzustellen, dass dieselbe Person nicht mehrere Behauptungen aufstellt.

Also kein KI-Lügendetektor, wie zuvor behauptet – nur Identifikationsalgorithmen, anscheinend.

„Auf Twitter gab es eine beträchtliche Diskussion über einen schlecht formulierten Tweet von uns (meistens der Begriff ‚nonverbale Hinweise‘), der zu Verwirrung darüber führte, wie wir Kundenvideos zur Bearbeitung von Ansprüchen verwenden“, der Emporkömmling angegeben auf seiner Webseite. „Es gab auch Fragen, ob wir Ansätze wie Emotionserkennung verwenden (wir tun es nicht) und ob KI verwendet wird, um Ansprüche automatisch abzulehnen (niemals!)“

„Wir verwenden keine KI, die physische oder persönliche Merkmale verwendet, um Behauptungen zu widerlegen, und wir versuchen auch nicht, KI zu entwickeln“, wiederholte sie.

Das heißt, das Unternehmen Datenschutz sagt, es erhebt unter anderem die körperlichen Merkmale von Personen beim Umgang mit Lebensversicherungen.

Und in einer S-1-Einreichung bei der amerikanischen Finanzaufsichtsbehörde SEC sagte Lemonade, dass sein System rund 1,700 „Datenpunkte“ von Kunden sammelt.

„Wir verwenden Technologie und künstliche Intelligenz, um Ärger, Zeit und Kosten im Zusammenhang mit dem Kauf von Versicherungen sowie dem Einreichungs- und Erfüllungsprozess von Ansprüchen zu reduzieren“, Lemonade angegeben in seiner SEC-Einreichung vom Juni 2020.

„Wir haben unser gesamtes Unternehmen auf einer einheitlichen, proprietären, hochmodernen Technologieplattform aufgebaut. Unsere Kunden können auf unserer Website oder über unsere App in der Regel innerhalb weniger Minuten eine Versicherung abschließen. Unser künstliches Intelligenzsystem übernimmt im Wesentlichen das gesamte Kunden-Onboarding und einen bedeutenden Teil unserer Ansprüche.“

Was diese Datenpunkte beschreiben, ist unklar. Sie räumte ein, dass ihre eigene Technologie unbeabsichtigte Folgen haben könnte, bei denen Kunden aufgrund voreingenommener und diskriminierender Entscheidungen zu viel oder zu wenig bezahlt werden könnten. Einerseits ist dies eine Warnung an Investoren und die Finanzmärkte, dass das Geschäft vermasseln und implodieren könnte und somit Investitionen verloren gehen könnten, aber andererseits ist es ziemlich genau, wie es schiefgehen könnte.

„Unsere proprietären Algorithmen für künstliche Intelligenz funktionieren möglicherweise nicht richtig oder nicht so, wie wir es erwarten. Darüber hinaus können unsere proprietären Algorithmen für künstliche Intelligenz zu unbeabsichtigter Voreingenommenheit und Diskriminierung führen.“

Er fügte hinzu:

Das Unternehmen wurde 2016 gegründet und ist in den USA und Teilen Europas tätig, darunter Frankreich, Deutschland und die Niederlande. Es muss noch keinen Gewinn erzielen und gibt den größten Teil seines Geldes für Vertrieb und Marketing aus.

„Unser zukünftiger Erfolg hängt von unserer Fähigkeit ab, unsere proprietären Algorithmen für künstliche Intelligenz weiterzuentwickeln und zu implementieren und die Vertraulichkeit dieser Technologie zu wahren“, heißt es in seiner Einreichung.

Das Register hat Lemonade um weitere Kommentare gebeten. ®

Aktualisiert, um hinzuzufügen

Wir haben festgestellt, dass Lemonade, obwohl es am Mittwoch bei seiner Kehrtwende sagte, dass seine KI-Software „nie“ verwendet wird, um „Ansprüche automatisch abzulehnen“, in der S-1-Anmeldung vom letzten Jahr prahlte, dass eines seiner Chat-Bots namens AI Jim konnten ab März 2020 den „gesamten Anspruch eines Kunden durch Beilegung in etwa einem Drittel der Fälle bearbeiten, den Anspruchsteller bezahlen oder den Anspruch ohne menschliches Eingreifen ablehnen“.

Ein Sprecher des Emporkömmlings sagte jedoch Das Register heute: „Der Begriff ‚non-verbale Hinweise' war eine schlechte Wortwahl, um die Gesichtserkennungstechnologie zu beschreiben, die wir verwenden, um Ansprüche zu kennzeichnen, die von derselben Person unter verschiedenen Identitäten eingereicht wurden. Diese gemeldeten Behauptungen werden dann von unseren menschlichen Ermittlern überprüft. Wir haben und werden niemals zulassen, dass KI Ansprüche automatisch ablehnt.“

Sie sagten uns auch, dass der Teil des Chatbots, der Ansprüche automatisch ablehnt oder genehmigt, trotz des Namens AI Jim nicht künstlich intelligent ist. „Diese Prüfungen werden nicht mit KI durchgeführt, aber sie werden immer noch von demselben Produkt verarbeitet, das wir AI Jim nennen“, sagte uns der Sprecher. „Ungefähr ein Drittel unserer Ansprüche erfordert keine menschliche Intervention, um zu genehmigen oder abzulehnen – ohne KI oder maschinelles Lernen zu verwenden.“

Quelle: https://go.theregister.com/feed/www.theregister.com/2021/05/26/ai_insurance_lemonade/

Zeitstempel:

Mehr von Das Register