Die Höhle von ChatGPT

Übermäßiges Vertrauen in ChatGPT kann zu Problemen führen

Sie sagen, dass für Neuheiten die Klassiker. Eine Allegorie, die vier Jahrhunderte unserer Ära geschrieben wurde, ist ideal, um zu verstehen, wo die Grenzen der neuen Anwendungen der künstlichen Intelligenz liegen. Ich beziehe mich auf die "ChatGPT-Höhle", die nicht mehr und nicht weniger als eine Adaption der berühmten Allegorie von Platons Höhle ist

Ich habe nichts gegen den Einsatz von Tools der künstlichen Intelligenz einzuwenden. Tatsächlich finde ich, dass sie die Arbeit viel einfacher machen. Aber solange von Personen verwendet werden, die über ausreichende Kenntnisse verfügen, um Ihre Arbeit zu bewerten.

Zum Beispiel; Man kann ChatGPT bitten, ein WordPress-Plugin zu schreiben, aber wenn man keine PHP-Kenntnisse hat, kann dieses Plugin ernsthafte Sicherheitsprobleme verursachen.

Die Allegorie der Höhle

Platon war ein griechischer Philosoph, der zwischen dem XNUMX. und XNUMX. Jahrhundert v. Chr. lebte. Er drückte seine Gedanken in Form von Mythen und Allegorien aus. Die bekannteste davon war die der Höhle.

Veröffentlicht in La República, stellt sich die Allegorie vor eine Gruppe von Menschen, angekettet in einer Höhle, hinter ihnen ein Feuer, das Schatten auf die Wand vor ihnen wirft. Die Schatten sind das einzige, was sie sehen und stellen sich vor, dass sie das einzige sind, was existiert, und ignorieren, was dahinter liegt.

Als einer der Gefangenen freigelassen wird, kann er die Welt so sehen, wie sie wirklich ist, und erkennt, wie begrenzt seine Erfahrungen in der Höhle waren.

Plato-Gelehrten zufolge hebt diese Allegorie hervor, dass wir alle unser Leben auf der Grundlage unserer eigenen Informationen und Erfahrungen leben. Informationen und Erfahrungen, die den Schatten der Höhle entsprechen. Genau wie bei den Gefangenen gibt es die wahre Realität und sie liegt außerhalb unseres Verständnisses.

Die Höhle von ChatGPT

ChatGPT und seine Konkurrenten haben sowohl Bewunderer als auch Kritiker. Aber bis zu einem Artikel hatte niemand eine technische Erklärung für seine Fehler gegeben veröffentlicht im New Yorker des Science-Fiction-Autors Ted Chang

Um die Fehler in Sprachmodellen zu erklären, macht Chang eine Analogie zu dem, was mit Bildern und Audiodateien passiert.

Die Aufzeichnung und Wiedergabe einer digitalen Datei erfordert zwei Schritte: Der erste ist der Codierung, an welcher Stelle die Datei in ein kompakteres Format konvertiert wird, gefolgt von der Decodierung, was der umgekehrte Prozess ist. Der Konvertierungsprozess wird als verlustfrei (die wiederhergestellte Datei ist die gleiche wie das Original) oder verlustbehaftet (einige Informationen gehen für immer verloren) bezeichnet. Die verlustbehaftete Komprimierung wird auf Bild-, Video- oder Audiodateien angewendet und ist meistens nicht wahrnehmbar. Wenn dies der Fall ist, wird es als Komprimierungsartefakt bezeichnet. Komprimierungsartefakte zeigen sich in Form von Unschärfe in Bildern oder Klirren im Ton.

Chang verwendet die Analogie eines unscharfen JPG aus dem Internet, um auf Sprachmodelle zu verweisen. Und das ist ziemlich genau. Beide komprimieren die Informationen und behalten nur „das Wichtige“ bei. LSprachmodelle generieren aus großen Mengen von Textdaten eine kompakte Darstellung der Muster und Beziehungen zwischen Wörtern und Phrasen.

Daraus wird ein neuer Text generiert, wobei versucht wird, ihn in Inhalt und Bedeutung dem ursprünglichen Text so ähnlich wie möglich zu machen. Das Problem ist, wenn im Web nicht genügend Informationen vorhanden sind, um einen neuen Text zu generieren. Dies bedeutet, dass ChatGPT in der Lage ist, einen Aufsatz auf College-Niveau zu schreiben, aber keine einfachen 5-stelligen Operationen durchführt.

Chang kommt zu dem Schluss:

Selbst wenn es möglich ist, große Sprachmodelle daran zu hindern, am Authoring teilzunehmen, sollten wir sie verwenden, um Webinhalte zu generieren? Dies wäre nur dann sinnvoll, wenn unser Ziel darin besteht, Informationen neu zu verpacken, die bereits im Web verfügbar sind. Einige Unternehmen existieren genau dafür; Wir nennen sie im Allgemeinen Inhaltsfabriken. Vielleicht ist die Unschärfe der Sprachmodelle für sie nützlich, um Urheberrechtsverletzungen zu vermeiden. Generell würde ich aber sagen, was für Content-Fabriken gut ist, ist nicht gut für Menschen, die nach Informationen suchen. Der Aufstieg dieser Art des Umpackens macht es uns derzeit schwer, das zu finden, wonach wir online suchen.; Je mehr Text, der von großen Sprachmodellen generiert wird, im Web veröffentlicht wird, desto mehr wird das Web zu einer verschwommeneren Version seiner selbst.

Und wie die Gefangenen in der Höhle wäre unsere Erfahrung viel kleiner als das, was uns die Realität bietet.


Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert mit *

*

*

  1. Verantwortlich für die Daten: AB Internet Networks 2008 SL
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.