La grotte de ChatGPT

Une confiance excessive dans ChatGPT peut entraîner des problèmes

On dit que pour les nouveautés les classiques. Une allégorie écrite quatre siècles de notre ère est idéale pour comprendre quelles sont les limites des nouvelles applications de l'Intelligence Artificielle. Je fais référence au "ChatGPT Cave" qui n'est ni plus ni moins qu'une adaptation de la célèbre allégorie de la caverne de Platon

Je n'ai aucune objection à l'utilisation d'outils d'intelligence artificielle. En fait, je trouve qu'ils rendent le travail beaucoup plus facile. Mais tant que être utilisé par des personnes qui ont suffisamment de connaissances pour évaluer votre travail.

Par exemple; on peut demander à ChatGPT d'écrire un plugin WordPress, mais si l'on manque de connaissances en PHP, ce plugin peut causer de sérieux problèmes de sécurité.

L'allégorie de la grotte

Platon était un philosophe grec qui a vécu entre le XNUMXe et le XNUMXe siècle av. Il a exprimé ses pensées sous forme de mythes et d'allégories. Le plus connu d'entre eux était celui de la grotte.

Publié dans La République, l'allégorie imagine un groupe de personnes enchaînées dans une caverne, derrière eux, ils ont un feu qui projette des ombres sur le mur devant eux. Les ombres sont la seule chose qu'ils voient et imaginent qu'elles sont la seule chose qui existe, ignorant ce qui se trouve au-delà.

Lorsque l'un des prisonniers est libéré, il est capable de voir le monde tel qu'il est vraiment et réalise à quel point ses expériences dans la grotte étaient limitées.

Selon les spécialistes de Platon, cette allégorie souligne que nous vivons tous notre vie en fonction de nos propres informations et expériences. Informations et expériences équivalentes aux ombres de la grotte. Tout comme les prisonniers, il y a la vraie réalité et elle dépasse notre compréhension.

La grotte de ChatGPT

ChatGPT et ses concurrents ont à la fois des admirateurs et détracteurs. Mais, personne n'avait donné d'explication technique sur ses échecs jusqu'à ce qu'un article publié dans le New Yorker de l'écrivain de science-fiction Ted Chang

Pour expliquer les failles des modèles de langage, Chang fait une analogie avec ce qui se passe avec les images et les fichiers audio.

L'enregistrement et la reproduction d'un fichier numérique nécessitent deux étapes : la première est la encodage, à quel point le fichier est converti en un format plus compact, suivi du décodage, qui est le processus inverse. Le processus de conversion est appelé sans perte (le fichier restauré est le même que l'original) ou avec perte (certaines informations sont perdues à jamais). La compression avec perte est appliquée aux fichiers image, vidéo ou audio et n'est la plupart du temps pas perceptible. Quand c'est le cas, cela s'appelle un artefact de compression. Les artefacts de compression apparaissent sous la forme de flou dans les images ou de cliquetis dans l'audio.

Chang utilise l'analogie d'un JPG flou du Web pour faire référence à des modèles de langage. Et, c'est assez précis. Les deux compriment l'information en ne gardant que "l'important". LLes modèles de langage génèrent, à partir de grandes quantités de données textuelles, une représentation compacte des modèles et des relations entre les mots et les phrases.

À partir de là, un nouveau texte est généré en essayant autant que possible de le rendre similaire dans son contenu et sa signification au texte original. Le problème, c'est quand il n'y a pas assez d'informations sur le web pour générer un nouveau texte. Cela signifie que ChatGPT est capable d'écrire un essai de niveau collégial, mais ne fait pas d'opérations simples à 5 chiffres.

Chang conclut que :

Même s'il est possible d'empêcher les grands modèles de langage de participer à la création, devrions-nous les utiliser pour générer du contenu Web ? Cela n'aurait de sens que si notre objectif est de reconditionner les informations déjà disponibles sur le Web. Certaines entreprises existent pour faire exactement cela; nous les appelons généralement des usines de contenu. Peut-être que le flou des modèles de langage leur est utile, comme moyen d'éviter la violation du droit d'auteur. De manière générale, cependant, je dirais que tout ce qui est bon pour les usines de contenu ne l'est pas pour les personnes à la recherche d'informations. L'essor de ce type de reconditionnement est ce qui nous empêche de trouver ce que nous recherchons en ligne en ce moment.; Plus le texte généré par les grands modèles de langage est publié sur le Web, plus le Web devient une version floue de lui-même.

Et, comme les prisonniers de la caverne, notre expérience serait beaucoup plus petite que ce que la réalité nous offre.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données : AB Internet Networks 2008 SL
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.