Aller au contenu

“C’est de l’IA, donc ça hallucine et ça dit n’importe quoi.” “C’est magique, ça sait tout.”

Ni l’un ni l’autre. La vérité est plus intéressante.

Claude est un Large Language Model (LLM). Il a été entraîné sur une quantité massive de texte — des livres, du code, des articles, des conversations — et a appris les patterns du langage humain à un niveau très fin.

Ce qu’il fait concrètement : prédire le texte le plus pertinent en réponse à ce que tu lui donnes. Mais à cette échelle, “prédire du texte pertinent” devient quelque chose qui ressemble vraiment à de la compréhension et du raisonnement.

  • Raisonner sur des problèmes complexes étape par étape
  • Maintenir une cohérence sur de longues conversations
  • Suivre des instructions nuancées et précises
  • Générer et analyser du code
  • Adapter son ton et son niveau selon le contexte
  • Chercher sur internet (sauf si une extension le permet explicitement)
  • Se souvenir de toi entre deux conversations séparées (sauf mémoire activée)
  • Être infaillible — il peut se tromper, surtout sur des faits précis récents

Imagine un collaborateur très compétent qui :

  • A une culture générale immense
  • Ne connaît que ce que tu lui as dit dans la conversation en cours
  • Est honnête quand il ne sait pas
  • Donne de meilleurs résultats quand tu lui expliques le contexte

C’est Claude. Pas un oracle. Un collaborateur. Ce changement de posture — de l’outil au collaborateur — a des implications concrètes sur la façon dont tu vas lui parler. C’est ce qu’on explore dans la page suivante.


Prochaine étape → La bonne posture collaborative