Conversational AI sagt uns, was wir hören wollen – eine Lüge, dass das Web zuverlässig und freundlich ist

Conversational AI sagt uns, was wir hören wollen – eine Lüge, dass das Web zuverlässig und freundlich ist

Quellknoten: 1945652

Meinung Es gibt ein altes Sprichwort: Wenn Riesen kämpfen, leidet das Gras. Für uns kleine Leute, die zuschauen, gibt es wenig zu tun, außer in Deckung zu gehen und das Popcorn zu schnappen.

Seit zwei Jahrzehnten betrachten sich Microsoft und Google gegenseitig als grundsätzlich illegitim. Microsoft hat sich nie wirklich vom verlorenen Kampf um die Suche oder dem Scheitern von Windows Mobile erholt. Google strebte danach, ein universelles Betriebssystem zu besitzen, war aber seltsamerweise nicht in der Lage, die weltweite Dominanz von Android über Mobilgeräte hinaus zu nutzen. Ihr Kampf tobt weiterhin an mehreren Fronten: Bing gegen Google Search, Azure gegen Google Cloud und so weiter.

Und in einem unerquicklichen Spektakel von Wir-kamen-bevor-du-nein-du-nichts, haben die beiden Giganten der Computerbranche kürzlich versucht, die Bemühungen des jeweils anderen zu untergraben, „konversative“ Suchprodukte auf der Grundlage von Large Language auf den Markt zu bringen Modelle (LLM). Google hat Jahre damit verbracht, LaMDA zu verfeinern – letztes Jahr sogar einen Mitarbeiter entlassen der sich selbst davon überzeugt hatte, dass LaMDA empfindungsfähig war – während Microsoft es war füttern und wässern OpenAI und sein generativer vortrainierter Transformer (GPT) für mehrere Generationen.

Google hat wahrscheinlich mehr promovierte KI-Promovierte als jedes andere Unternehmen zusammen. In der Mitte des letzten Jahrzehnts hat es Postgraduiertenprogramme in KI auf der ganzen Welt effektiv denudiert, indem es ganze Klassenkohorten eingestellt und sie damit beauftragt hat, die Qualität der Suchergebnisse des Unternehmens zu verbessern.

Mit dieser Art von Intelligenz sollte Google der unangefochtene Marktführer bei öffentlich zugänglichen KI-Anwendungen sein. Aber natürlich macht Google nur ein paar Dinge wirklich gut: Suche und Ad-Targeting. Beide brauchen viel Intelligenz, aber sie sind vor den Augen der tatsächlichen Menschen gut verborgen. Soweit Joe Citizen das beurteilen kann, wurden diese enormen Anstrengungen in der KI völlig vergeudet.

Das wurde etwa eine halbe Stunde nach OpenAI deutlich veröffentlicht ChatGPT – sein dialogorientiertes, kontextbezogenes LLM. Fast instinktiv fragte sich jeder, der mit ChatGPT interagierte: „Warum kann ich das nicht für die Suche verwenden?“ Seine Benutzeroberfläche wirkt natürlich, diskursiv, freundlich und durch und durch menschlich – genau das Gegenteil einer hässlichen Seite mit Suchergebnissen, die großzügig mit Anzeigen und Trackern und all dem anderen Mist gesalzen ist, den Google einfügen muss, um seine Margen hoch zu halten.

Microsoft sah in ChatGPT sofort die Waffe, die es brauchte, um seinen Konkurrenten zu destabilisieren. Redmond hat schnell a eingefärbt Multi-Milliarden-Dollar-Investment-Deal mit OpenAI und garantiert, dass ChatGPT in die gesamte Suite von Microsoft-Produkten integriert wird. Das bedeutet nicht nur Bing, sondern Office, Github und – sehr wahrscheinlich – Windows.

Ungefähr zu dieser Zeit ging Google „Alarmstufe Rot" - Was auch immer das heißt. Es brachte Larry und Sergey zurück an Deck und tat, was es konnte, so schnell wie möglich, um seine vorhandene Fülle von LLMs in das Flaggschiff-Suchprodukt zu integrieren.

Aber es sieht spät am Tag nach Reue aus.

Letzte Woche kündigte Google a besondere Veranstaltung am 8. Februar, um seine Arbeit an KI zu enthüllen. Nicht lange danach ist ein Screenshot von ChatGPT, das in Bing integriert ist, online durchgesickert. Dann am Montag, dem 6. Februar, Alphabet-CEO Sundar Pichai verkündete Bard – Googles Versuch der ersten Generation, LaMDA in seine Suchmaschine zu integrieren. Microsoft hat schnell eine konkurrierende Veranstaltung (am 7. Februar, natch) zusammengestellt, bei der es seine Fortschritte bei der Integration von ChatGPT in Bing enthüllte – und bestätigte, dass dieser durchgesickerte Screenshot echt war.

Dies ist möglicherweise nicht der beste Weg, sich einer Technologie zu nähern, die so leistungsfähig – und so belastet – ist wie dialogorientierte, kontextbewusste LLM-KIs. Der eine Riese stampft, der andere stampft zurück – und das Gras leidet.

In den letzten Monaten vielleicht hundert Millionen Menschen Ich habe mit ChatGPT gespielt und mich über seine Leistungsfähigkeit … und seine Mängel gewundert. Das "stochastischer Papagei“ (eine vernichtende, aber zutreffende technische Einschätzung) versteht nichts, sondern spuckt nur das aus, was seiner Einschätzung nach am ehesten an das bereits Kommunizierte anknüpft. Es ist hilfreich und es ist interessant – aber es ist kein Verständnis. Und dieser Mangel an Tiefe bedeutet, dass es absolut keinen gesunden Menschenverstand hat.

Es gibt noch ein altes Sprichwort: „Irren ist menschlich, aber um die Dinge in großem Maßstab wirklich durcheinander zu bringen, braucht man einen Computer.“

Sowohl Google als auch Microsoft haben versprochen, dass ihre LLM-ähnlichen Suchwerkzeuge den Benutzern klar machen werden, dass man sich nicht auf diese Ergebnisse verlassen kann. Aber dieselben beiden Firmen haben Jahrzehnte und unzählige Milliarden Dollar ausgegeben, um uns zu sagen, dass Computer unsere vertrauenswürdigen Begleiter sind – sie vergessen nie, machen nie einen Fehler und bieten Zugang zum Reichtum des menschlichen Wissens.

Nach all dieser Indoktrination haben wir keine andere Wahl, als zu vertrauen, was auch immer ChatGPT oder LaMDA uns sagen. Anders zu handeln bedeutet, alles zu ignorieren, was wir über zwei Generationen hinweg darüber gehört haben, was Computer versprechen.

Microsoft und Google haben beide ihr Spiel verbessert und neue Waffen eingesetzt, die niemand vollständig versteht – sie selbst eingeschlossen. Ist das weise? Ist es überhaupt sicher? ChatGPT würde wahrscheinlich ja sagen, aber es hat ein persönliches Interesse.

Conversational AIs zeichnen sich dadurch aus, dass sie uns genau das sagen, was wir hören wollen. Google und Microsoft haben entschieden, dass wir Benutzer sein müssen, um in der nächsten Computergeneration überleben zu können umgeben von synthetischen Betrügern, indem sie fortwährend Fakten und Fiktionen so subtil und so gründlich verwechseln, dass die Wahrheit im Rauschen untergeht und fast unerkennbar wird. Gib das Popcorn weiter. ®

Zeitstempel:

Mehr von Das Register