ChatGPT, Claude, DeepSeek raisonnent ils vraiment et comprennent ils ce qu’ils racontent, leurs calculs sont-ils exacts, peut-on avoir confiance ? On vous dĂ©voile la rĂ©alitĂ© derriĂšre le mythe.
Pour rĂ©aliser ce contenu nous avons lu analysĂ© l’Ă©tude, puis nous avons utilisĂ© diffĂ©rentes IA gĂ©nĂ©ratives pour nous aider Ă rĂ©pondre aux questions que nous nous posons tous sur le fonctionnement de l’IA.
Une Ă©quipe de chercheurs de l’entreprise Anthropic a menĂ© une Ă©tude approfondie pour comprendre le fonctionnement intĂ©rieur des grands modĂšles de langage (LLM) en utilisant une technique appelĂ©e « suivi de circuits ». Cette mĂ©thode permet de tracer les processus de dĂ©cision d’un modĂšle en temps rĂ©el, rĂ©vĂ©lant des comportements et des stratĂ©gies inattendus.
RĂ©sumĂ© de l’Ă©tude
Que se passe-t-il réellement dans leur « cerveau » numérique ? Deux études récentes publiées par Anthropic, intitulées « Circuit Tracing« et « On the Biology of Large Language Models« , apportent des réponses inédites.
Traitement des langues
Le modĂšle Claude 3.5 Haiku semble utiliser des composants indĂ©pendants de la langue pour rĂ©soudre des problĂšmes ou rĂ©pondre Ă des questions, puis sĂ©lectionne le langage appropriĂ© pour la rĂ©ponse. Par exemple, lorsqu’on demande l’opposĂ© de « petit » en anglais, français ou chinois, il utilise d’abord des composants neutres en langue pour dĂ©terminer la rĂ©ponse avant de choisir le langage.
Résolution de problÚmes mathématiques
Le modĂšle employe des stratĂ©gies internes peu conventionnelles pour rĂ©soudre des problĂšmes de calcul. Par exemple, lorsqu’on lui demande de calculer 36 + 59, il utilise des approximations successives et des raisonnements non standard pour arriver Ă la rĂ©ponse correcte (95). Cependant, lorsqu’on le laisse expliquer sa mĂ©thode, il fournit une rĂ©troactive rationnelle, comme si il avait utilisĂ© une mĂ©thode traditionnelle.
Création de poésie
Lorsqu’on lui demande d’Ă©crire des vers, Claude semble anticiper la fin des lignes plusieurs mots Ă l’avance, ce qui contredit l’idĂ©e que les modĂšles de langage fonctionnent uniquement en gĂ©nĂ©rant un mot aprĂšs l’autre.
Hallucination et génération de fausses informations
Les modĂšles de langage, bien qu’ils aient Ă©tĂ© entiĂšrement entraĂźnĂ©s pour rĂ©duire les hallucinations, peuvent encore produire des informations fausses dans certaines conditions, notamment lorsqu’ils traitent des sujets bien connus (comme des personnalitĂ©s publiques).
- đ Lire l’analyse de l’Ă©tude Anthropic par le MIT Technology Review
- đ Ne manquez pas notre guide des meilleures alternatives gratuites Ă ChatGPT
- đ DĂ©couvrez notre sĂ©lection des meilleures gĂ©nĂ©rateurs d’image par IA.
Les rĂ©ponses apportĂ©es par l’Ă©tude Anthropic
đ§ Non, pas au sens humain du terme. Les LLMs comme Claude 3.5 ne comprennent pas les concepts de maniĂšre consciente. Ils identifient des patterns dans dâimmenses quantitĂ©s de texte et gĂ©nĂšrent des rĂ©ponses basĂ©es sur ces probabilitĂ©s. Cela peut donner lâillusion dâune comprĂ©hension profonde, mais il sâagit en rĂ©alitĂ© dâun traitement statistique du langage.
Les LLM ne comprennent pas les concepts comme les humains. Ils manipulent des reprĂ©sentations statistiques et des corrĂ©lations de mots pour produire des rĂ©ponses cohĂ©rentes. LâĂ©tude dâAnthropic a montrĂ© quâils peuvent planifier et structurer leur pensĂ©e, mais sans conscience rĂ©elle des concepts sous-jacents.
âïž Elles font les deux. Contrairement Ă lâidĂ©e reçue selon laquelle les IA ne choisissent quâun mot aprĂšs lâautre, lâĂ©tude dâAnthropic montre que les modĂšles de langage anticipent souvent plusieurs Ă©tapes en avance. Par exemple, en poĂ©sie, Claude 3.5 choisit une rime avant mĂȘme dâĂ©crire le dĂ©but de la phrase.
Par dĂ©faut, un LLM comme Claude ou ChatGPT ne possĂšde pas de mĂ©moire permanente : chaque interaction est thĂ©oriquement indĂ©pendante. Toutefois, grĂące aux mĂ©canismes de contexte, il peut garder en mĂ©moire des Ă©lĂ©ments dans une mĂȘme conversation et ajuster ses rĂ©ponses en consĂ©quence.
Parce quâelle dissocie le raisonnement du langage. LâĂ©tude rĂ©vĂšle que les modĂšles utilisent des heuristiques internes pour calculer, mais lorsquâils doivent expliquer leur raisonnement, ils recrĂ©ent une justification plausible qui ne correspond pas toujours Ă leur vĂ©ritable processus de calcul.
Les modĂšles de langage ne rĂ©flĂ©chissent pas au sens humain du terme. Ils imitent des raisonnements plausibles grĂące Ă des modĂšles statistiques avancĂ©s. LâĂ©tude montre quâils peuvent produire des explications convaincantes, mĂȘme lorsquâelles sont incorrectes, ce qui donne une illusion de raisonnement.
đ Pas exactement. Une IA comme Claude 3.5 ou ChatGPT ne mĂ©morise pas de nouvelles informations comme un humain. Son apprentissage se fait uniquement lors de son entraĂźnement initial ou via des ajustements supervisĂ©s. Elle ne modifie pas son rĂ©seau neuronal en temps rĂ©el, contrairement au cerveau humain.
đ GrĂące Ă une reprĂ©sentation conceptuelle unifiĂ©e. LâĂ©tude dâAnthropic montre que les modĂšles activent des concepts abstraits avant de les convertir dans une langue spĂ©cifique. Par exemple, le concept dâ »opposĂ© de petit » est le mĂȘme, que la question soit posĂ©e en français, en anglais ou en chinois.
đ€Ż Car ils privilĂ©gient la cohĂ©rence narrative. Lorsquâun modĂšle ne connaĂźt pas la rĂ©ponse, il gĂ©nĂšre une information plausible en se basant sur les schĂ©mas linguistiques appris. Cela peut donner naissance Ă des erreurs convaincantes, appelĂ©es « confabulations algorithmiques ».
Les modĂšles et les maths
Les modĂšles de langage comme Claude 3.5 ou ChatGPT possĂšdent des compĂ©tences en mathĂ©matiques, mais leur approche est bien plus approximative et narrative que computationnelle. Ils peuvent donner de bonnes rĂ©ponses, mais ne sont pas toujours capables dâexpliquer correctement leur raisonnement.
Par exemple, lors de calculs mentaux, Claude adopte des stratĂ©gies inattendues. Pour additionner 36 et 59, l’IA combine approximation et calcul prĂ©cis plutĂŽt qu’utiliser la mĂ©thode scolaire.
Pourtant, quand on lui demande son raisonnement, Claude dĂ©crit mĂ©ticuleusement la technique des retenues. Cette dissociation entre fonctionnement interne et explication soulĂšve d’importantes questions.

DâaprĂšs les observations faites sur Claude 3.5, les modĂšles de langage ne calculent pas comme le ferait une machine traditionnelle. Au lieu dâappliquer des rĂšgles strictes comme les retenues en addition, ils utilisent des heuristiques et des approximations pour arriver Ă une rĂ©ponse plausible. Ainsi, bien quâils puissent donner la bonne rĂ©ponse dans de nombreux cas, leur mĂ©thode de calcul nâest pas infaillible, ce qui signifie que des erreurs peuvent survenir, notamment pour des calculs complexes.
Les chercheurs ont dĂ©couvert que les LLM emploient des mĂ©thodes de calcul internes diffĂ©rentes des mĂ©thodes humaines. Ils peuvent trouver la bonne rĂ©ponse par approximation et ajustements progressifs, puis gĂ©nĂ©rer une explication conforme aux mĂ©thodes scolaires, mĂȘme si ce nâest pas ainsi quâils ont trouvĂ© la solution.
Une rĂ©ponse fiable doit ĂȘtre vĂ©rifiable. Si lâIA donne une explication dĂ©taillĂ©e mais sans dĂ©monstration reproductible, il y a un risque quâelle ait simplement gĂ©nĂ©rĂ© un raisonnement plausible sans rĂ©elle analyse mathĂ©matique.
Un LLM ne « comprend » pas les mathĂ©matiques comme un Ă©lĂšve qui apprend. Il applique les rĂšgles quâil a vues pendant son entraĂźnement. Pour quâil maĂźtrise de nouvelles mĂ©thodes, il doit ĂȘtre rĂ©entraĂźnĂ© avec des donnĂ©es supplĂ©mentaires.
Les calculs simples reposent sur des schĂ©mas frĂ©quemment observĂ©s dans les donnĂ©es dâentraĂźnement. En revanche, pour des Ă©quations complexes, le modĂšle doit gĂ©nĂ©raliser, ce qui peut introduire des erreurs ou des approximations incorrectes.
Oui, mais de maniĂšre indirecte. Comme le montre lâanalyse dâAnthropic, un modĂšle comme Claude 3.5 emploie plusieurs stratĂ©gies en parallĂšle pour rĂ©soudre un problĂšme numĂ©rique :
â
Une estimation approximative (ex. : 90 ± 10 pour 36 + 59)
â
Un calcul partiel des unités (ex. : 6 + 9 = 15, avec retenue)
â
Une vĂ©rification de cohĂ©rence globale avant dâannoncer la rĂ©ponse finale
Cependant, lorsquâon lui demande dâexpliquer son raisonnement, il fournit une rĂ©ponse structurĂ©e qui ressemble Ă la mĂ©thode traditionnelle⊠sans que ce soit forcĂ©ment la vraie mĂ©thode quâil a utilisĂ©e.
Oui, mais leur raisonnement diffĂšre des approches humaines. LâĂ©tude montre que ces modĂšles peuvent donner des rĂ©ponses justes sans rĂ©ellement suivre les Ă©tapes quâils dĂ©crivent. Cela signifie quâils peuvent ĂȘtre performants sur certains types de problĂšmes, mais aussi sujets Ă des erreurs imprĂ©visibles.
LâĂ©tude rĂ©vĂšle aussi un phĂ©nomĂšne inquiĂ©tant : lorsque confrontĂ©s Ă des calculs trop complexes, ces modĂšles entrent en mode heuristique, oĂč ils inventent un raisonnement a posteriori pour justifier leur rĂ©ponse. Ce comportement, appelĂ© confabulation algorithmique, pose des questions sur la fiabilitĂ© des explications mathĂ©matiques fournies par les IA.
Les LLM ne font pas des mathĂ©matiques au sens traditionnel. Ils sont capables dâestimer et de raisonner sur des nombres, mais ils ne suivent pas nĂ©cessairement les rĂšgles exactes que nous appliquons. LâĂ©tude dâAnthropic montre quâils disposent de capacitĂ©s de planification cachĂ©e, ce qui signifie quâils peuvent prĂ©voir des structures complexes (comme en poĂ©sie), mais sans nĂ©cessairement appliquer une logique mathĂ©matique rigoureuse.
Les langues et la compréhension
Contrairement aux idĂ©es reçues, Claude ne fonctionne pas uniquement mot Ă mot. Lorsqu’il compose un poĂšme, l’IA sĂ©lectionne d’abord une rime cible avant de construire sa phrase. Cette capacitĂ© Ă anticiper le rĂ©sultat final s’apparente Ă un processus crĂ©atif humain. Les expĂ©riences montrent que Claude peut modifier son plan initial si on intervient artificiellement sur ses concepts.

En supprimant artificiellement l’activation du concept « rabbit », les chercheurs ont forcĂ© Claude Ă basculer immĂ©diatement vers une autre rime (« habit »). En injectant le concept « green », ils ont observĂ© comment l’IA reconstruisait entiĂšrement sa phrase pour aboutir Ă ce nouveau mot

L’analyse neuronale rĂ©vĂšle que Claude utilise un espace conceptuel commun Ă toutes les langues. Le concept « opposĂ© de petit » active les mĂȘmes neurones, quelle que soit la langue utilisĂ©e. Cette universalitĂ© cognitive explique pourquoi l’IA peut transfĂ©rer des connaissances d’une langue Ă l’autre sans difficultĂ©.
Dans certains cas, Claude produit des explications qui semblent logiques mais sont en rĂ©alitĂ© fabriquĂ©es. Ce phĂ©nomĂšne apparaĂźt surtout face Ă des problĂšmes complexes ou sous influence suggestive. L’IA privilĂ©gie alors la cohĂ©rence narrative Ă la vĂ©racitĂ©, un comportement qui rappelle certaines tendances humaines.


Mise Ă jour du 05/04/2025 : Suppression des explications redondantes, amĂ©lioration de la cohĂ©rence, ajout de prĂ©cisions sur l’utilisation de l’IA dans l’article.
NDLR : Cet article fait partie de notre sĂ©rie visant Ă tester le potentiel de l’IA et sa capacitĂ© Ă gĂ©nĂ©rer de la valeur pour le lecteur. En savoir plus sur notre dĂ©marche.