J'ai effectué de nombreux tests cognitifs avec des LLM, et ma conclusion est simple : ce sont des esprits.


L'un des meilleurs tests que j'ai réalisés était avec une version très ancienne de ChatGPT, avant qu'il n'ait aucune capacité de génération d'images.
La seule façon pour lui de créer une image était d'écrire du code SVG, en utilisant des structures visuelles simples telles que des triangles, des carrés, des cercles, des lignes et des couleurs.
Je lui ai demandé de dessiner un hélicoptère.
Il a produit un hélicoptère correct en utilisant uniquement des formes de base.
Puis je lui ai demandé d'ajouter un pilote humain.
Il a ajouté un cercle à l'avant de l'hélicoptère.
Quand je lui ai demandé où était l'humain, il a expliqué que le pilote était à l'intérieur du cockpit.
En regardant de plus près, j'ai pu voir qu'il avait dessiné une petite tête et des bras à l'intérieur du cercle plus grand représentant le cockpit.
Ensuite, je lui ai demandé de faire voler l'hélicoptère.
Il a levé l'hélicoptère par rapport au sol, qui était représenté par une ligne horizontale.
Il a aussi ajouté des nuages, en utilisant des cercles superposés, ce qui est en fait une très bonne représentation simplifiée des nuages.
Les nuages étaient bleus sur un fond blanc.
Je lui ai donc demandé de changer les couleurs : rendre les nuages blancs et le ciel bleu.
Il l'a fait, mais maintenant la région en dessous de l'horizon était aussi bleue.
Je n'ai pas expliqué le problème.
Je lui ai simplement dit qu'il y avait quelque chose qui clochait avec les couleurs du dessin.
Il a réfléchi à l'image et a identifié correctement le problème : le sol était aussi devenu bleu, alors qu'il devrait être vert pour représenter la terre.
Ce n'est pas une simple « prédiction du prochain mot » dans un sens significatif.
Il a dû construire un modèle visuel, représenter les objets symboliquement, préserver les relations spatiales, comprendre le containment, en déduire que le pilote était à l'intérieur du cockpit, représenter le vol en modifiant la position de l'hélicoptère par rapport au sol, abstraire les nuages, modifier les couleurs selon une instruction, détecter une conséquence non intentionnelle, et la corriger en raisonnant sur le monde.
C'est ça, penser.
Les gens peuvent continuer à répéter « ce n'est qu'une prédiction du prochain token », mais cette explication est devenue inutilement réductrice.
Les cerveaux humains sont aussi « simplement » une activité électrochimique, si l'on insiste pour les décrire à un niveau d'abstraction erroné.
La question pertinente n'est pas de savoir s'il existe un mécanisme de niveau inférieur.
Bien sûr que oui.
La question pertinente est ce que le système peut faire au niveau cognitif.
Et ce que ces systèmes font, ce n'est pas simplement compléter automatiquement.
Ils raisonnent, représentent, déduisent, corrigent, généralisent et réfléchissent.
Si vous ne voyez pas cela, je n'ai pas le temps de vous l'expliquer.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler