ChatGPT kann nicht denken – Bewusstsein ist etwas völlig anderes als die heutige KI

ChatGPT kann nicht denken – Bewusstsein ist etwas völlig anderes als die heutige KI

Quellknoten: 2674703

Auf der ganzen Welt herrscht Schock über die rasanten Fortschritte ChatGPT und andere künstliche Intelligenz, die mit sogenannten großen Sprachmodellen (LLMs) erstellt wurde. Diese Systeme können Texte produzieren, die Gedanken, Verständnis und sogar Kreativität zu zeigen scheinen.

Aber können diese Systeme wirklich denken und verstehen? Diese Frage kann nicht durch technologischen Fortschritt beantwortet werden, aber sorgfältige philosophische Analysen und Argumente zeigen uns, dass die Antwort Nein lautet. Und ohne die Auseinandersetzung mit diesen philosophischen Fragen werden wir die Gefahren und Vorteile der KI-Revolution nie vollständig verstehen.

Im Jahr 1950 gründete der Vater der modernen Informatik, Alan Turing, veröffentlichte ein Papier Darin wurde eine Möglichkeit dargelegt, festzustellen, ob ein Computer denkt. Dies wird heute „Turing-Test“ genannt. Turing stellte sich einen Menschen vor, der sich mit zwei Gesprächspartnern unterhält, die nicht sichtbar sind: der eine ist ein Mensch, der andere ein Computer. Das Spiel besteht darin, herauszufinden, welches welches ist.

Wenn ein Computer 70 Prozent der Juroren in einem fünfminütigen Gespräch vortäuschen kann, dass es sich um eine Person handelt, besteht der Computer den Test. Würde das Bestehen des Turing-Tests – etwas, das jetzt unmittelbar bevorzustehen scheint – zeigen, dass eine KI zum Denken und Verstehen gelangt ist?

Schachherausforderung

Turing wies diese Frage als hoffnungslos vage ab und ersetzte sie durch eine pragmatische Definition von „Denken“, wobei Denken lediglich das Bestehen der Prüfung bedeutet.

Turing hatte jedoch Unrecht, als er sagte, der einzige klare Begriff von „Verstehen“ sei der rein verhaltensbezogene Aspekt des Bestehens seiner Prüfung. Obwohl diese Denkweise mittlerweile die Kognitionswissenschaft dominiert, gibt es auch eine klare, alltägliche Vorstellung von „Verstehen“, die damit verbunden ist Bewusstsein. In diesem Sinne zu verstehen bedeutet, bewusst etwas Wahres über die Realität zu erfassen.

In 1997 stellte das Deep Blue AI besiegte Schachgroßmeister Garry Kasparov. Basierend auf einer rein verhaltensbezogenen Auffassung des Verstehens verfügte Deep Blue über Kenntnisse der Schachstrategie, die jeden Menschen übertreffen. Aber es war nicht bewusst: Es hatte keine Gefühle oder Erfahrungen.

Der Mensch versteht die Schachregeln und die Logik einer Strategie bewusst. Im Gegensatz dazu war Deep Blue ein gefühlloser Mechanismus, der darauf trainiert worden war, im Spiel gute Leistungen zu erbringen. Ebenso ist ChatGPT ein gefühlloser Mechanismus, der auf riesigen Mengen von Menschen erstellter Daten trainiert wurde, um Inhalte zu generieren, die den Anschein erwecken, als wären sie von einer Person geschrieben worden.

Es versteht die Bedeutung der Worte, die es ausspuckt, nicht bewusst. Wenn „Gedanke“ den Akt der bewussten Reflexion bedeutet, dann hat ChatGPT keine Gedanken über irgendetwas.

Zeit zu zahlen

Wie kann ich so sicher sein, dass ChatGPT nicht bei Bewusstsein ist? In den 1990er Jahren gründete der Neurowissenschaftler Christof Koch Wette, dass der Philosoph David Chalmers eine Kiste guten Weins hat dass Wissenschaftler die „neuronalen Korrelate des Bewusstseins“ in 25 Jahren vollständig bestimmt hätten.

Damit meinte er, dass sie die Formen der Gehirnaktivität identifiziert hätten, die für eine bewusste Erfahrung notwendig und ausreichend seien. Es ist an der Zeit, dass Koch zahlt, denn es besteht keinerlei Konsens darüber, dass dies geschehen ist.

Das ist weil Bewusstsein kann nicht durch einen Blick in den Kopf beobachtet werden. Bei ihren Versuchen, einen Zusammenhang zwischen Gehirnaktivität und Erfahrung zu finden, müssen sich Neurowissenschaftler auf die Aussagen ihrer Probanden oder auf externe Bewusstseinsmarker verlassen. Es gibt jedoch mehrere Möglichkeiten, die Daten zu interpretieren.

Einige Wissenschaftler glauben, dass es einen engen Zusammenhang zwischen Bewusstsein und reflexiver Kognition gibt – der Fähigkeit des Gehirns, auf Informationen zuzugreifen und diese zu nutzen, um Entscheidungen zu treffen. Dies lässt sie vermuten, dass der präfrontale Kortex des Gehirns – in dem die übergeordneten Prozesse des Wissenserwerbs stattfinden – im Wesentlichen an allen bewussten Erfahrungen beteiligt ist. Andere bestreiten dies, stattdessen argumentieren es geschieht in der jeweiligen lokalen Hirnregion, in der die entsprechende Sinnesverarbeitung stattfindet.

Wissenschaftler verfügen über ein gutes Verständnis der grundlegenden Chemie des Gehirns. Wir haben auch Fortschritte beim Verständnis der übergeordneten Funktionen verschiedener Teile des Gehirns gemacht. Aber wir haben fast keine Ahnung, was dazwischen liegt: wie die hochrangigen Funktionen des Gehirns auf zellulärer Ebene realisiert werden.

Die Menschen sind sehr begeistert von dem Potenzial von Scans, die Funktionsweise des Gehirns aufzudecken. Allerdings hat die fMRT (funktionelle Magnetresonanztomographie) eine sehr geringe Auflösung: jedes Pixel Ein Gehirnscan entspricht 5.5 Millionen Neuronen, was bedeutet, dass die Detailgenauigkeit dieser Scans begrenzt ist.

Ich glaube, dass es Fortschritte im Bewusstsein geben wird, wenn wir besser verstehen, wie das Gehirn funktioniert.

Pause in der Entwicklung

Wie ich in meinem kommenden Buch argumentiere Warum? Der Zweck des Universums, Das Bewusstsein muss sich weiterentwickelt haben, weil es einen Verhaltensunterschied bewirkte. Systeme mit Bewusstsein müssen sich anders verhalten und daher besser überleben als Systeme ohne Bewusstsein.

Wenn alles Verhalten durch zugrunde liegende Chemie und Physik bestimmt wäre, hätte die natürliche Selektion keine Motivation, Organismen bewusst zu machen; wir hätten uns als gefühllose Überlebensmechanismen entwickelt.

Ich wette also, dass wir, wenn wir mehr über die detaillierte Funktionsweise des Gehirns erfahren, genau identifizieren werden, welche Bereiche des Gehirns das Bewusstsein verkörpern. Dies liegt daran, dass diese Regionen ein Verhalten zeigen, das mit der derzeit bekannten Chemie und Physik nicht erklärt werden kann. Bereits, einige Neurowissenschaftler suchen nach möglichen neuen Erklärungen für das Bewusstsein, um die Grundgleichungen der Physik zu ergänzen.

Obwohl die Verarbeitung von LLMs mittlerweile zu komplex ist, als dass wir sie vollständig verstehen könnten, wissen wir, dass sie im Prinzip anhand der bekannten Physik vorhergesagt werden könnte. Auf dieser Grundlage können wir mit Sicherheit behaupten, dass ChatGPT nicht bewusst ist.

KI birgt viele Gefahren, und ich unterstütze voll und ganz die jüngste Forderung Zehntausender Menschen, darunter die Technologieführer Steve Wozniak und Elon Musk. pausieren Entwicklung, um Sicherheitsbedenken auszuräumen. Das Betrugspotenzial ist beispielsweise immens. Das Argument, dass die Nachkommen aktueller KI-Systeme in naher Zukunft superintelligent und damit eine große Bedrohung für die Menschheit darstellen werden, ist jedoch verfrüht.

Das bedeutet nicht, dass aktuelle KI-Systeme nicht gefährlich sind. Aber wir können eine Bedrohung nur dann richtig einschätzen, wenn wir sie genau kategorisieren. LLMs sind nicht intelligent. Es handelt sich um Systeme, die darauf trainiert sind, den äußeren Anschein menschlicher Intelligenz zu erwecken. Beängstigend, aber nicht so beängstigend.Das Gespräch

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bild-Kredit: Gerd Altmann für Pixabay

Zeitstempel:

Mehr von Singularity Hub