
Si un singe vous imite en train de boire un verre d’eau, vous n’allez pas penser que le singe est un humain. Pourtant, c’est exactement ce que nous faisons avec l’IA générative. Elle imite notre intelligence et nous en concluons qu’elle est intelligente.
Dans ce cas, si un humain peut envoyer une bombe nucléaire, alors le singe qui nous imite aussi.
La prochaine fois qu’une personne vous expliquera avec gravité que l’IA générative est une menace existentielle pour l’humanité, expliquez-lui qu’un singe ne sait pas envoyer une bombe nucléaire… sauf dans cet article :

L’IA générative ne fait qu’imiter notre intelligence :
ATTENTION À L’anthropomorphisme !
Nous avons l’outil IA, la perception de l’outil trop souvent anthropomorphisé et les usages de l’outil qui peut faire du bien ou du mal, tout comme un marteau peut planter un clou ou tuer une personne. Toute chose, avion, voiture, TV, Internet ou IA provoque des externalités positives et négatives. Par exemple, si l’IA est entraînée sur des contenus racistes, elle devient raciste ! Cet article ne traite que de la perception, les usages seront présentés dans mon prochain livre en cours d’écriture parce que pour l’instant, nous avons la voiture, mais pas encore le code de la route.
Pour des raisons pédagogiques, j’ai utilisé le terme “imiter“, mais si on veut être précis, il s’agit plutôt d’une émulation ou d’une simulation de l’intelligence humaine par un calcul de probabilité pour assembler les morceaux d’un puzzle afin de répondre à notre prompt. Seul l’humain est capable de créer la pièce du puzzle qui n’existait pas sous l’effet de ses émotions, par hasard ou par sa volonté de briser les codes.
>>> Conférence : Gérez les risques décisionnels grâce à l’intelligence artificielle. Pour vous inscrire…
>>> Formation : L’intelligence artificielle pour les managers. Pour vous inscrire…
>>> Conférence : Devenez architecte des décisions complexes. Pour vous inscrire…
Abonnez-vous à ce blog pour recevoir les nouvelles publication