Prochaines formations "Methodo, no-code et IA : concevez votre solution métier" (en téléprésentiel, et éligible CPF) : du 30 mars au 2 avril 2026. Plus d'infos ici !

Retour à Discernement(s)

Effet Dunning-Kruger et IA : pourquoi l’illusion de compétence explose avec le no-code et l’intelligence artificielle

Par 
Erwan
5/3/2026

L'effet Dunning-Kruger : le piège invisible du no-code et de l'IA

Il y a un phénomène dont on adore parler lorsqu'on forme aux outils no-code et à l'IA, et contre lequel on met sérieusement en garde : l'effet Dunning-Kruger.

On avait déjà écrit dessus il y a quelques années dans notre newsletter, mais aujourd'hui il nous paraît d'intérêt public d'en remettre une couche, car on voit les effets pervers de ce biais cognitif à différents niveaux.

Et avec l'explosion de l'IA générative, je suis convaincu que les occurrences de cet effet se multiplient - et vont continuer à se démultiplier -, avec les effets pervers qui en résultent.

C'est quoi, l'effet Dunning-Kruger ?

En gros, c'est simple : quand on commence à apprendre une compétence, une technique ou autre, très rapidement on arrive à faire des choses. Et là, boom, on a l'impression d'être super fort·e et d'avoir tout compris. Mais paradoxalement, plus on va avancer, plus on va se rendre compte qu'on ne sait rien.

Dit autrement : plus on est débutant·e, plus on a l'impression d'être expert·e. Et plus on monte en compétences, plus on comprend qu'il nous reste plein de choses à apprendre et qu'on est loin d'être expert·e.

Cet effet est aussi appelé l'”illusion de compétence” ou “biais de surconfiance”. Et c'est exactement ce qui se passe : on croit maîtriser quelque chose alors qu'on n'en connaît que la surface.

D'ailleurs, cela fait écho à ce que nous écrivions récemment sur la notion d'expert à utiliser avec prudence.

Et avant de poursuivre, je précise quelque chose. L'effet Dunning-Kruger est ce qu'on appelle un biais cognitif. Définition : un biais est “le résultat des mécanismes de notre cerveau qui nous aident à traiter rapidement l'information, mais qui peuvent aussi entraîner des erreurs de jugement” (source).

On va donc parler de plusieurs biais cognitifs ici. Et je vous rassure, même si le ton peut sonner pessimiste, nous sommes toutes et tous soumis à ces biais. Il ne s'agit pas, ici d’être trop alarmiste, mais bien de prendre un peu de recul sur ce qui est peut-être en train de se passer avec l'utilisation à grande échelle de l'IA générative.

Avec le no-code, on l'avait déjà vu venir

Avec les outils no-code, on avait déjà constaté ce biais chez des client·es, mais aussi chez des gens qui se présentaient comme professionnel·les alors qu'ils·elles étaient tout juste juniors — que ce soit des formateur·rices ou des prestataires en production.

Le problème, c'est que les outils no-code sont tellement accessibles qu'on a rapidement l'impression de maîtriser. On fait une petite automatisation, on crée quelques vues et relations dans Airtable, et hop : on se sent investi·e de super-pouvoirs.

Avec l'IA, c'est encore pire (et on vous explique pourquoi)

Mais alors, avec l'IA générative, on est passé·es à un autre niveau. Parce qu'avec l'IA, il y a quelque chose de vraiment pernicieux : on obtient des résultats ultra-rapidement, juste avec du langage naturel. Sans même avoir à passer par un minimum de prise en main technique.

Vous tapez une phrase, et l'IA vous pond un texte de 3 pages, une présentation PowerPoint, un morceau de musique, ou carrément une appli super stylée et fonctionnelle en mode vibe coding. C’est impressionnant. C'est puissant. C'est même un peu magique.

Et c'est là que le piège se referme : on a l'impression de faire un truc de fou, alors que c'est la puissance de l'outil qui fait un truc de fou. Pas nous.

L'anecdote du dîner

Je vous raconte un truc qui m'est arrivé récemment. J'étais à un dîner, et l’un des convives était vraiment très fier d'expliquer qu'il se faisait des agents personnalisés dans ChatGPT. Il expliquait clairement qu’il fallait s’y connaître un peu, qu’en fait tu ajoutais tes documents pour que ChatGPT ait de la matière, jusqu’à ce que … je me rende compte qu’il avait juste créé un “Projet” dans ChatGPT. Qui ne nécessite clairement que quelques clics - et surtout très peu de connaissances.

Les autres convives étaient impressionnés : "Ah ouais, mais toi t'es un geek, nous on pourrait jamais faire ça."

J'ai essayé de lui expliquer gentiment que c'était vraiment quelque chose de simple, et qu'il y avait énormément d'autres choses à découvrir. Mais il avait du mal à l'entendre.

Alors, après, bien sûr, on peut se dire que c'est un cas particulier de quelqu'un d'un peu auto-satisfait, qui ne veut pas se perdre la face devant les autres.

Mais je trouve que cet exemple illustre bien l'effet Dunning-Kruger, car il ne s'agissait pas de quelqu'un de complètement borné. Non : il était convaincu d’avoir franchi une étape technique significative (surtout en autodidacte, ce qui peut renforcer cette sensation), il se contentait donc de ça.

Et l'effet pervers, c'est que ça le bloquait dans sa progression potentielle - et que sans s'en rendre compte il avait censuré un peu les autres au passage, en leur faisant passer le message que c'était trop technique pour eux.

Pourquoi l'effet est encore plus fort avec l'IA

Ma conviction est qu'avec l'IA générative et les LLM, l'effet Dunning-Kruger peut être d'autant plus fort qu’on ne visualise pas tout ce qui est possible.

Au début, on hésite, puis on commence à utiliser l'IA de manière régulière et on a l'impression de faire des trucs de dingue. Surtout entouré de gens qui disent qu’ils ont du mal à s’y mettre et qu’ils n’osent pas trop.

Alors qu'on ne fait qu'effleurer la surface, sans voir tout ce qui peut être fait avec un peu (ou beaucoup plus d’effort : automatisations d’actions d’IA, agents IA, prompts avancés, choix d’outils et de modèles, exploration de fonctionnaités d’IA directement intégrées dans des solutions du quotidien (Notion, Slack, Google Workspace, Microsoft 365, etc.) ... Comme on ne sait pas ce qu'on ne sait pas, on se dit que juste parler dans l'interface de base suffit.

Ensuite, on s'attribue le mérite de ce que l'IA a fait. On peut d'ailleurs rapprocher ça de deux autres biais cognitifs :

  • L'illusion d'agentivité — qu'on pourrait résumer simplement ici dans le fait d'avoir l'impression d'être l'instigateur de quelque chose, alors qu'on ne l'avait pas initié soi-même à l'origine.
  • Le biais égocentrique, qui consiste à s'attribuer la réussite ou l'aboutissement d'une action, même si on n'est que peu (ou pas) acteur·rice de cette réussite.

Quand l'IA nous génère un texte magnifique, un site web fonctionnel ou une analyse détaillée, on a tendance à se dire : "C'est moi qui ai fait ça." Alors que non. C'est l'IA qui a fait le gros du boulot.

Quand l'IA prend des initiatives et suggère des choses auxquelles on n'avait pas pensé, on se dit : "Ouais, franchement, j'ai des super bonnes idées."

On n'est plus dans le mansplaining, mais dans l'IAsplaining ! 😄 En tout cas, ça demeure du bropropriating (je vous laisse découvrir ces concepts si vous ne les connaissez pas).

Ces combinaisons inconscientes risquant au final des cocktails aussi galvanisants que paralysants pour la progression des concerné·es.

Ça me rappelle l'époque où les smartphones devenaient plus performants pour prendre des photos, et où les publicités nous vendaient qu'on devenait photographe en achetant leur produit. Alors qu'il n'y a que très peu de gens qui s'exercent vraiment à aller plus loin.

Et ça, au-delà d'être un effet pervers, une illusion, ça peut aussi bloquer dans le fait d'aller acquérir de vraies compétences.

Les effets pervers qu'on observe sur le terrain

Maintenant qu'on a posé le décor, voici les principaux problèmes concrets que l'on rencontre — et qui s'appliquent aussi bien au no-code qu'à l'IA :

1. Stagner dans sa maîtrise des outils (et créer des monstres)

On sous-exploite complètement le potentiel des outils, voire on les utilise carrément de travers.

Avec le no-code, on a déjà vu des gens qui, après avoir fait une petite automatisation ou créé quelques vues dans Airtable, ont eu l'impression de maîtriser à fond. Du coup, ils·elles se sont contenté·es de ça sans vraiment se former, et ils·elles ont créé des monstres. Des trucs vraiment pas optimisés, mis en place sans méthode, sans bonnes pratiques, sans architecture. En se formant une journée de plus, ils·elles auraient pu économiser des heures — voire des journées entières — de galère.

Avec l'IA, c'est pareil. Après avoir un minimum prompté empiriquement peut donner l'impression de maîtriser ce qu'il faut. Alors qu'en termes de fonctionnalités — assistants, automatisations, agents IA — ils·elles passent vraiment à côté de quelque chose. On a souvent constaté cette asymétrie dans les questionnaires amont des formations présentielles, où le niveau déclaré par les stagiaires dans le questionnaire amont est souvent très différent de ce qu'on constate le jour de la formation.

2. Se croire prêt·e à proposer des prestations (danger !)

Ça, c'est très dangereux. D'abord parce que ça peut être traumatisant de se retrouver dans une situation où on a promis des choses à un·e client·e et où on n'y arrive pas — à base de nuits blanches, de crises de nerfs et de crises d'angoisse.

Mais ça fait aussi des dégâts du côté client : il·elle aura perdu son temps et peut-être même de l'argent. On a déjà vu des client·es dégoûté·es du no-code à cause de ce genre de situations (Cf. le point 4., ci-dessous 👇).

L'auto-satisfaction est un danger pour soi, parce que ça nous bloque dans notre progression. Mais c'est aussi un danger pour les autres : ça peut les bloquer, leur faire peur, ou pire, leur vendre du vent.

3. Alimenter l'IA avec du contenu médiocre (et dégrader la qualité globale)

Voilà un effet pervers qu'on voit de plus en plus avec l'IA, qui fait de plus en plus parler de lui : le fait de faire des prompts moyens et de générer du contenu moyen alimente l'IA avec du contenu moyen.

On vous parle plus en détail de ce cercle vicieux (qui s’appelle le “slop”) dans cet article qu’on a publié récemment.

Et ça, c'est un vrai problème à l'échelle du web et de la qualité des informations disponibles.

4. Un risque à plus grande échelle (un peu plus méta)

Le fait qu'une armée de gens se pensent expert·es — et sont souvent des expert·es autoproclamé·es, aussi parce que parfois on leur a fait croire qu'ils·elles deviendraient expert·es en quelques semaines — eh bien en plus des incidents ponctuels pointés plus haut au point 2.,  ça peut aussi décevoir beaucoup de monde, alimenter des standards moyens, et instaurer des mauvaises pratiques à plus grande échelle.

Avec l'IA, il y a fort à parier que ça va donner la même chose : aligner des grandes quantités de gens formé·es vite fait, qui auront un niveau médiocre et qui n'auront pas conscience qu'ils·elles peuvent passer au-dessus.

Et ça, c'est un vrai problème, car ça peut contribuer à gâcher l'opportunité réelle que le no-code et l'IA représentent — sans parler des risques de sécurité, d'impact environnemental, ou de consolidation d'une culture de la médiocrité.

En conclusion

Déjà, être conscient que cet effet Dunning-Kruger existe, c’est pouvoir s’en protéger un minimum !

Ou en tout cas, ça peut éviter de se retrouver coincé·e au sommet de la Montagne de l’ignirance (c'est comme ça qu'on appelle le pic de confiance des débutant·es dans la courbe de Dunning-Kruger 😉).

Donc : si vous commencez tout juste à utiliser l'IA ou le no-code, et que vous avez l'impression d'être déjà super fort·e... posez-vous la question. C'est peut-être vrai.

Mais c'est peut-être aussi l'effet Dunning-Kruger qui vous fait un petit coucou (dans le dos).

{encadré}

À retenir : les points clés

  • L'effet Dunning-Kruger (ou illusion de compétence) fait qu'on se croit expert·e quand on débute, alors qu'on ne maîtrise que la surface
  • Avec l'IA, cet effet est démultiplié : on obtient des résultats impressionnants rapidement, ce qui renforce l'illusion qu'on est doué·e
  • Les biais cognitifs (illusion d'agentivité, biais égocentrique) nous poussent à nous attribuer le mérite de ce que l'IA a fait
  • Les risques concrets : stagner dans sa progression, se lancer en prestation sans vraie compétence, alimenter le web avec du contenu médiocre, décrédibiliser ces technologies
  • L'auto-satisfaction nous bloque, mais elle peut aussi censurer les autres en leur faisant croire que c'est "trop technique"
  • Mieux vaut se former sérieusement que de rester coincé·e au sommet du mont Stupidité

{/encadré}

{encadré}

Pour aller plus loin dans votre montée en compétences

Pour vous former à l'IA, aux outils no-code, à la productivité moderne, ainsi qu'aux méthodes et bonnes pratiques qui les entourent, et dépasser la Montagne de l'ignorance avec la vélocité d'un téléphérique, vous pouvez regarder du côté :

Et en plus, toutes ces formations sont finançables (CPF, OPCO, etc.). N'hésitez surtout pas à nous contacter !

{/encadré}

Notre livre sur le no-code est disponible !

Publié aux Éditions Eyrolles, ce livre se positionne comme une bonne introduction pour comprendre ce que sont les outils no-code et tous les phénomènes qui les entourent

Inscrivez-vous à notre newsletter hebdomadaire

Pour recevoir toutes nos actualités, ressources et réflexions tous les jeudis, inscrivez-vous à notre newsletter (voir nos anciennes publications) :

Merci! Votre inscription a bien été prise en compte
Il y a un pépin! Pourriez-vous réessayer ou nous contacter?