Tout ce que vous n’avez JAMAIS voulu savoir sur l’IA !

Vous savez certainement que l’IA et le Big Data sont indissociables et que les réponses d’une IA à votre prompt sont le fruit d’un calcul de probabilité, celle du mot suivant en fonction des mots précédents.

Aujourd’hui, je vous propose de découvrir tout ce que vous n’avez JAMAIS voulu savoir sur l’IA ! Pour vous motiver à lire la suite de cet article, je vous propose une énigme : comment est-il possible que certaines IA génératives soient capables de fonctionner sur un téléphone malgré leur puissance ?

Google met à votre disposition un site pour les installer sur votre téléphone et utiliser l’IA sans connexion internet : https://techcrunch.com/2025/05/31/google-quietly-released-an-app-that-lets-you-download-and-run-ai-models-locally/.

Pour résoudre cette énigme, il faut simplement dissocier l’IA et le Big Data ! Nous allons expliquer la genèse et le fonctionnement d’une IA générative ou LLM : Large Language Model (Modèle de Langage à Grande Échelle). On commence avec le LLM pur et on termine avec les versions hybrides.

1. Avant le prompt : le rôle du Big Data dans l’entraînement

Le Big Data est absolument central, mais essentiellement en amont, pendant la phase d’entraînement du modèle. Un modèle comme DeepSeek, GPT, Claude ou autres, est entraîné sur d’immenses quantités de textes – des corpus hétéroclites issus du web, de livres, d’articles, de forums, etc. C’est là que le Big Data entre en scène. Il est le carburant brut qui alimente la phase d’apprentissage.

Durant cette phase, le modèle apprend à prédire le mot suivant, à partir des contextes qu’il a vus des milliards de fois. Il ajuste ses milliards de paramètres internes afin de minimiser ses erreurs de prédiction. C’est là que les données massives permettent d’affiner le modèle pour capturer des régularités linguistiques, des styles, des faits, des logiques implicites. Par exemple, DeepSeek V3 possède 671 milliards de paramètres, mais n’en active qu’environ 37 milliards pour chaque requête, grâce à une architecture dite « Mixture of Experts » (MoE), optimisant ainsi l’efficacité. Il y a plus de 1 000 milliards de paramètres pour GPT-4.

En résumé, le big data façonne le modèle, mais une fois l’entraînement terminé, ces données ne sont plus consultées directement.

2. Au moment du prompt : pas de big data, mais des paramètres

Une fois le modèle entraîné, ce que vous interrogez par un prompt est une fonction mathématique gigantesque – une sorte de super moteur prédictif, où tous les savoirs et raisonnements appris sont encodés dans ses paramètres.

L’IA générative ne va pas chercher d’informations dans des bases de données externes ou dans le cloud d’un quelconque centre de données. Elle ne lit pas Wikipédia en temps réel. Ce sont les paramètres du modèle, raffinés durant l’entraînement, qui produisent la réponse. De même, quand vous demandez à un philosophe ce qu’il pense d’une question complexe, il ne court pas immédiatement à la bibliothèque pour chercher une réponse. Il mobilise son savoir intégré. C’est un peu comme une mémoire cristallisée, compressée. L’IA ne consulte pas le Big Data, elle est le produit du Big Data.

Imaginons un sommelier qui a goûté 100.000 vins dans sa vie, soit le Big Data de son apprentissage. Quand vous lui demandez quel vin accompagnera un risotto aux truffes, il ne va pas goûter 10 000 vins en direct. Il vous répond grâce à l’intégration de son expérience passée, encodée dans sa mémoire et son savoir-faire. Le modèle d’IA fonctionne de façon comparable.

3. L’entraînement d’une IA

Pour le dire très simplement, on demande à l’IA de recopier tout ce qui existe sur Internet. Au début, la copie ne ressemble pas du tout à l’original. On ajuste donc les paramètres jusqu’à ce que la copie soit au plus proche de l’original ! Ainsi, les ingénieurs d’OpenAI ont demandé à leur modèle de réécrire le web jusqu’à ce qu’il le fasse correctement. Sur ce point, je vous recommande le podcast : https://webtv.intefp.fr/embed-podcast/Owx3oppemn (pour les curieux uniquement).

En résumé :
  • Le Big Data sert à entraîner le modèle, pas à répondre en temps réel.
  • Lors du prompt, le modèle utilise uniquement ses paramètres internes (résultat de l’apprentissage sur les Big Data).
  • La réponse est donc une génération probabiliste à partir de ce savoir encapsulé.

DeepSeek V3 possède 671 milliards de paramètres. On distingue les paramètres du modèle appris pendant l’entraînement (des milliards de poids et de biais qui représentent les connaissances encodées dans le modèle et qui sont des valeurs numériques fixes) et les paramètres de décodage/génération utilisés au moment de générer une réponse pour influencer le style, la créativité, la longueur, etc. Voici 10 exemples de paramètres de décodage/génération :

  1. Température (temperature) – Contrôle le degré d’aléa dans ses réponses.
    Une température basse (~0,2) produit des réponses plus déterministes et rigoureuses tandis qu’une température haute (~0,8) favorise la créativité, parfois au détriment de la précision.
  2. Top-p (nucleus sampling) – Détermine la probabilité cumulative au-delà de laquelle l’IA ne considère plus d’options pour générer le mot suivant. Par exemple, avec un top-p de 0,9, l’IA choisit parmi les mots cumulant 90 % de la probabilité totale.
  3. Pénalité de répétition (repetition penalty) – Mécanisme qui l’encourage à éviter de répéter les mêmes mots ou phrases sans fin.
  4. Longueur maximale de réponse (max tokens) – Limite dure sur la longueur de sa réponse (en nombre de “morceaux de mots” appelés tokens). Sinon, elle pourrait continuer à écrire un roman sans fin.
  5. Poids contextuel – Importance donnée au contexte fourni par l’utilisateur dans la conversation pour construire ses réponses. Plus ce poids est élevé, plus elle s’efforce d’être cohérente et pertinente avec ce qui a déjà été dit.
  6. Paramètres d’attention (attention weights) – Mécanisme qui décide quelles parties du texte précédent méritent d’être “écoutées” plus intensément pour construire la réponse actuelle.
  7. Bias de tokens (token bias) – Forcer ou interdire certains mots ou styles. Par exemple, privilégier des réponses polies ou éviter des termes inappropriés.
  8. Formalisme stylistique – Influence le style d’écriture : formel, informel, humoristique, poétique, etc.
  9. Sensibilité aux intentions de l’utilisateur – Capacité à détecter ce que nous cherchons réellement : information brute, conseil, inspiration, confrontation d’idées… C’est un paramètre critique pour rendre l’interaction fluide et intelligente.
  10. Gestion de la contradiction interne – Paramètre qui ajuste son degré de vigilance pour éviter que l’IA se contredise dans une même réponse.

L’IA générative est donc un mélange de probabilités, d’optimisations et de stratégies d’écriture. Elle prend des milliards de micro-décisions à chaque seconde pour que chaque réponse semble naturelle et pertinente.


l’émergence des modèles hybrides

Des modèles hybrides émergent, mêlant LLM pur présenté ci-dessus et accès en temps réel à des bases de données, des documents internes ou même à Internet. Il s’agit des RAG pour Retrieval-Augmented Generation.

1. Qu’est-ce qu’un modèle RAG ?

Ce type de système est un modèle de génération de texte enrichi par une capacité de recherche documentaire dynamique. Au lieu de répondre uniquement à partir de sa mémoire interne (ses paramètres), le modèle va chercher des documents externes (dans une base, un intranet ou sur Internet), puis il va les utiliser comme support pour générer une réponse.

2. Architecture en 3 étapes

Retrieval – Récupération

Le système reformule votre question en une ou plusieurs requêtes de recherche. Il interroge ensuite une base documentaire :

  • interne (corpus métier, base de connaissances, fichiers PDF, etc.).
  • externe (moteur de recherche, API web, etc.), c’est-à-dire qu’il fait une recherche sur Internet à votre place sur des pages publiques.

Il utilise pour cela des techniques de vectorisation sémantique pour trouver les documents les plus pertinents sémantiquement, pas juste par mots-clés.

Augmentation – Construction du contexte

Les passages les plus pertinents sont ensuite intégrés dans le prompt envoyé au LLM. Cela donne un genre de méga-question, du style : “Voici ce que j’ai trouvé dans les documents [A, B, C]. À partir de cela, rédige une réponse claire à la question suivante : […]”

Generation – Réponse

Le LLM utilise alors ce contexte enrichi pour générer une réponse plus précise, ancrée dans l’information récupérée. Cela permet d’avoir une réponse :

  • plus fiable
  • plus actualisée
  • parfois plus expliquée ou justifiée (avec sources, citations, etc.)
3. Pourquoi les réponses sont-elles presque aussi rapides qu’avec un LLM pur ?

Une réponse RAG typique peut arriver en quelques secondes. Voici l’explication technique :

Recherche optimisée : les bases documentaires sont souvent indexées intelligemment, avec des moteurs de type Elasticsearch, FAISS, Weaviate, ou même des bases vectorielles dédiées. Cela permet de retrouver en quelques millisecondes les textes pertinents.

Limitation du contexte injecté : le système ne transmet pas toute l’encyclopédie. Il choisit 3 à 5 passages clés. Cela limite la taille du prompt et reste dans la fenêtre de contexte du LLM.

Parallélisation : certains systèmes RAG font plusieurs recherches en parallèle, pour aller plus vite (ex : recherche web + base interne).

Cache intelligent : pour certaines questions fréquentes, les résultats sont déjà pré-indexés ou même prérédigés. Cela permet un temps de réponse quasi instantané.

En résumé :
  • Le RAG, c’est un mariage entre la mémoire interne du LLM et une mémoire externe dynamique.
  • Il permet de réconcilier vitesse, profondeur et actualité.
  • Vous obtenez le meilleur des deux mondes : réactivité + pertinence + vérifiabilité.
  • Il s’agit d’une des architectures phares de l’IA moderne, notamment dans les usages professionnels (recherche juridique, assistance médicale, support client, etc.).

Vous savez maintenant tout… sur tout ce que vous n’avez JAMAIS voulu savoir ! J’espère quand même ne pas avoir écrit cet article pour rien. L’objectif était de vous montrer que :

  • L’IA générative n’est pas intelligente : juste des probabilités. Il s’agit techniquement d’un simulateur d’intelligence humaine qui s’appuie sur l’intelligence collective extraite du Big Data qui a servi à son entraînement.
  • Elle n’est pas une menace existentielle pour l’humanité : elle a la même puissance destructrice qu’une cuillère à soupe. L’humanité, à travers ses bombes nucléaires, ses modes de production et de consommation boostés à la dopamine, est la seule et unique menace existentielle pour l’humanité !
  • Elle n’utilise pas de base de données pour fonctionner, même avec le RAG. L’IA ne crée aucun risque supplémentaire sur vos données comparé à tous les risques qui existent déjà : espionnage, piratage et surtout manque de bon sens numérique, comme faire un prompt avec des données confidentielles. En termes de sécurité informatique, vous n’avez rien à faire de plus ou de moins comparé aux actions déjà menées pour les emails. En effet, il n’y a aucune différence entre l’information que vous entrez dans un email et celle d’un prompt. N’écrivez pas dans un prompt ce que vous ne mettriez pas dans un email qui part à l’extérieur de votre organisation si vous pensez que l’information est confidentielle !

L’IA générative, un danger pour la planète ?

Certains s’inquiètent de l’impact environnemental de l’IA (électricité, eau) ainsi que de son impact social en mentionnant les petites mains sous-payées pour faire du Data Labeling & Annotation. Cependant, l’IA est un vrai booster de l’innovation dans de multiples domaines. Elle permet de modéliser, simuler, anticiper et surtout, elle facilite la co-construction en augmentant les capacités cognitives humaines dans les processus de réflexion sur des sujets complexes.

Des entreprises comme Insilico Medicine ou BenevolentAI utilisent des modèles génératifs pour concevoir de nouvelles molécules thérapeutiques. L’IA explore des milliards de combinaisons chimiques et propose des structures inédites, que les chercheurs n’auraient peut-être jamais envisagées seuls.

Des outils comme Autodesk Dreamcatcher ou les modèles d’IA développés par Siemens permettent de concevoir automatiquement des pièces industrielles optimisées pour la légèreté, la solidité et la consommation énergétique. L’IA propose des formes biologiquement inspirées, souvent contre-intuitives pour l’esprit humain. Elle peut donc permettre de réduire l’empreinte carbone des objets produits.

Des plateformes comme Squirrel AI ou Khanmigo (de Khan Academy) utilisent des LLM pour adapter dynamiquement les contenus pédagogiques au niveau, au rythme et au style cognitif de chaque élève. Cela permet un accompagnement individualisé à grande échelle. Ainsi, on démocratise l’accès à une éducation sur-mesure, avec un potentiel particulièrement intéressant pour les environnements sous-dotés en enseignants.

Des IA comme celles développées par Bloomberg ou OpenAI sont utilisées pour simuler l’impact de décisions économiques, anticiper des crises ou recommander des stratégies d’investissement responsables. Ainsi, nous avons une meilleure gestion des risques systémiques et une intégration automatisée de critères ESG.

L’IA générative est utilisée dans des projets d’urbanisme durable pour générer des plans de villes ou de quartiers optimisés selon des critères énergétiques, climatiques et sociaux. Nous pouvons citer le projet “Urban GPT” de Sidewalk Labs (filiale de Google) ou les initiatives de Dassault Systèmes avec leur “Virtual Twin of the Earth”. Ces IA croisent des données environnementales, sociales, économiques pour proposer des agencements urbains réduisant les émissions de CO₂, optimisant la circulation, la ventilation naturelle ou encore l’accès à la verdure.

Une étude menée chez Procter & Gamble par la Harvard Business School met en lumière son impact positif sur la performance, le partage des connaissances et l’engagement social, ouvrant des perspectives inédites pour le futur du travail. Contrairement aux appréhensions, l’IA ne déshumanise pas le travail. Selon cette étude, elle contribue au contraire au bien-être au travail, en réduisant la pression et en favorisant l’engagement. Dans certains contextes, des entreprises peuvent arriver à cette équation : 1 personne + IA = 1 équipe sans IA en termes de performance ! Pour aller plus loin sur ce sujet, lire l’analyse de Sylvie Krstulovic…

LE DERNIER SERVICE NUMÉRIQUE ARRIVÉ NE DOIT PAS FORCÉMENT ÊTRE LE PREMIER À DISPARAÎTRE. L’impact environnemental de l’IA générative est réel, mais des études montrent qu’il a été exagéré. Je vous renvoie vers 2 études présentées par Gaspard Tertrais dans cet article… Par ailleurs, l’IA peut réduire son empreinte écologique, comme l’a démontré DeepSeek avec son architecture “Mixture of Experts” qui réduit la consommation électrique des centres de données. Enfin, le moteur de recherche classique de Google a intégré l’IA dans ces résultats en haut de page (disponible dans certains pays). En fonction de la requête, un aperçu sera généré par l’IA. Il est probable que nous n’ayons bientôt plus aucun moteur de recherche sans IA… sauf ceux qui personne n’utilise.

Voilà un aperçu d’une requête faite au Canada, environ 70% de mes requêtes produisent un “aperçu IA” sans que je puisse intervenir :

Si nous devions vraiment réduire nos usages de certains services numériques pour sauver la planète, il me semblerait plus prudent :

  • de réduire FORTEMENT les services de vidéos en ligne (Netflix ou YouTube) dont une grosse partie concerne le porno.
  • de limiter l’usage ou d’augmenter fortement le coût du stockage dans le Cloud des milliards de photos souvenirs, en particulier celle de votre assiette dans un restaurant hier soir, et des photos qu’on prend en rafale parce que cela ne coûte rien, pour capturer des choses parfois insignifiantes, qui sont si nombreuses sur nos disques durs que nous les stockons avec une probabilité de 95% de n’avoir ni la disponibilité, ni l’envie de les revoir un jour. Il est fini le temps des 4 albums photos sur papier rangés sur une étagère où chaque photo impliquait un coût de développement (pellicule). Nous sommes dans un paradoxe. Nous prenions le temps de regarder ces albums de temps en temps parce que les photos sont peu nombreuses et qu’ils étaient visibles sur nos étagères. Maintenant, nous avons mille fois plus de photos, si nombreuses qu’il faudrait des jours pour les regarder et comme elles sont cachées dans un répertoire de notre disque dur : loin des yeux, loin du cœur ! Trop de photos, cachées, mais stockées et donc polluant la planète chaque seconde pour rien.

Je vous propose une liste non exhaustive de pistes pour réduire nos empreintes numériques sans compromettre l’IA générative, un formidable outil pour innover et augmenter nos capacités cognitives. Dernier arrivée, premier à disparaître n’est pas un raisonnement, mais une émotion : la peur de ce qui est nouveau… tout comme certains avaient peur du train à ses débuts.

Cet article ne vise pas à démontrer que l’IA n’a pas d’impacts sociaux ou environnementaux, mais à lancer une réflexion globale sur les services numériques et leurs usages comme la photo de son assiette qu’on va ensuite stocker sur le Cloud et qu’on ne regardera plus jamais. En finance, on appelle cela le BBZ : budget base zéro. On remet tout à plat et on réfléchit !

Dans cette réflexion, nous pourrions bien sûr interroger les usages de l’IA comme nous pourrions le faire pour le pétrole. Nous devrions distinguer l’usage du pétrole qui a un impact social positif comme le transport de la nourriture et celui qui n’en a pas comme un weekend à Lisbonne. De même, nous pourrions bloquer les requêtes triviales sur ChatGPT, comme celles pour trouver les recettes de cuisine, alors qu’un moteur de recherche classique nous donnerait un résultat équivalent.

Malheureusement, au lieu de réflexion (la raison), nous sommes dans l’émotion (la peur). L’IA générative est devenue THE bouc émissaire du numérique irresponsable alors qu’une grande partie de nos usages numériques actuels sont beaucoup plus irresponsables, mais ne soulèvent pas autant d’indignation… uniquement parce qu’ils sont plus anciens et que nous avons pris nos habitudes. L’heure du BBZ a sonné en attendant le BBQ cet été et en évitant la pensée bulldozer.

Bien sûr, l’IA pose de nombreux problèmes sociaux et climatiques comme les fake news, l’eau et le carbone. Je ne cherche pas à les minimiser. Ces problèmes doivent être traités, mais ils ne sont pas l’objet de cet article. Il y a déjà des centaines d’articles sur le sujet. Concernant les impacts sociaux avec les petites mains, ils sont recevables. Cependant, ce sont les mêmes petites mains qui font nos vêtements et des objets à bas prix que nous achetons en masse en fermant les yeux sur les conditions de travail qui ont rendu possible ce prix. L’indignation à géométrie variable n’est pas acceptable dans un raisonnement sur l’IA à partir du moment où les protestations s’arrêtent là où commence la protection de mes intérêts : mon pouvoir d’achat. Nous aurions là aussi besoin d’un BBZ social !

Pour terminer, je vous propose une analogie entre l’IA et une voiture, deux outils qui peuvent être utiles et dangereux selon l’usage que l’on en fait. Nous sommes probablement tous d’accord sur l’importance d’avoir son permis avant de pouvoir conduire une voiture. Dans cette analogie, le problème est que de nombreuses personnes s’attaquent à la voiture en mode panique au lieu de s’attaquer au permis. Le permis est le problème, pas la voiture ! Les usages sont le problème, pas l’IA.

Pour aller plus loin sur ce sujet :

ChatGPT, mon AI.mour ?

Les IA génératives vont bientôt disparaître !


>>> Conférence : L’intelligence collective pour atteindre l’excellence décisionnelle. Pour vous inscrire…

>>> Formation sur l’excellence décisionnelle : la clé du succès dans l’excellence opérationnelle. Pour vous inscrire…


Abonnez-vous à ce blog pour recevoir les nouvelles publications

Author: Olivier Zara

https://www.linkedin.com/in/olivierzara/

4 thoughts on “Tout ce que vous n’avez JAMAIS voulu savoir sur l’IA !”

Leave a Reply

Your email address will not be published. Required fields are marked *