L’intelligence artificielle (IA) est partout. On en parle dans les médias, elle influence nos décisions d’achat, elle est présente dans nos smartphones, nos systèmes multimédias et nos outils de travail, et elle est au cœur des débats sur l’avenir de notre société.
Mais qu’est-ce que l’IA exactement ? Comment fonctionne-t-elle ?
Et surtout, doit-on la craindre ou la considérer comme un outil de progrès ?
Table des matières
Qu'est-ce que l'Intelligence Artificielle ?
L’IA, en termes simples, c’est la capacité d’une machine à imiter certaines fonctions cognitives de l’humain, comme l’apprentissage, la résolution de problèmes, la perception ou la prise de décision. Il ne s’agit pas d’une entité unique, mais plutôt d’un ensemble de techniques et d’approches diverses.
L’IA n’est pas nouvelle. Les premiers algorithmes, qui sont à la base de l’IA, existent depuis des milliers d’années. L’exemple le plus simple d’algorithme ancien est la méthode pour effectuer une addition. Cette méthode, enseignée dès l’école primaire, est une suite d’opérations exécutées mécaniquement pour arriver à un résultat. Ces algorithmes sont à la base de nombreux processus informatiques, quand bien même le concept d’algorithme remonte à des milliers d’années, bien avant l’invention de l’ordinateur. Les mathématiciens de l’Antiquité ont développé des algorithmes pour résoudre des problèmes complexes. Par exemple, l’algorithme d’Euclide pour trouver le plus grand commun diviseur de deux nombres est un exemple d’algorithme qui remonte à plus de 2000 ans. La recherche de la « mesure invariante sur un graphe orienté », utilisée par Google pour classer les pages web, est un problème mathématique qui a plus de 100 ans.
- L’IA n’est pas une conscience. Les machines ne sont pas dotées d’une conscience ou d’une émotion. Elles fonctionnent en appliquant des règles ou en se basant sur des données, mais sans ressentir. L’IA est avant tout un outil, certes puissant, mais un outil créé par l’humain.
- L’IA n’est pas monolithique. Il existe différentes formes d’IA. Par exemple, les systèmes qui reconnaissent des images ou des voix, les algorithmes qui recommandent des contenus en ligne, ou encore les robots qui effectuent des tâches répétitives, sont tous des formes d’IA, mais avec des approches techniques différentes.

Comment fonctionne l'IA ?
Au cœur de la plupart des systèmes d’IA modernes se trouvent des réseaux neuronaux artificiels. Ces réseaux sont inspirés de la structure du cerveau humain. Voici les éléments clés à comprendre :
Réseaux neuronaux : Imaginez un réseau de détectives, chacun avec sa propre lampe torche. Chaque détective se concentre sur une partie précise de la scène de crime. Lorsqu’un détective trouve un indice, il alerte les autres, qui à leur tour, vont affiner la recherche. Un réseau neuronal fonctionne de manière similaire : les données (images, sons, textes, etc.) passent d’une couche de neurones à l’autre, chaque couche analysant des aspects différents de l’information. Les connexions entre les neurones sont pondérées, ce qui signifie que certaines connexions sont plus fortes que d’autres.
- Apprentissage : Les réseaux neuronaux apprennent grâce à l’entraînement. Pour cela, on leur présente une grande quantité de données et on leur indique si leur analyse est correcte ou non. Ils ajustent alors les pondérations de leurs connexions, ce qui leur permet de s’améliorer avec le temps. C’est comme apprendre à un enfant à reconnaître les animaux : au début, il fait des erreurs, mais avec la pratique, il devient de plus en plus précis.
Données : L’Intelligence Artificielle a besoin d’énormes quantités de données pour apprendre. Plus il y a de données, plus l’IA peut devenir performante. C’est pour cela que la numérisation du monde, avec la prolifération d’Internet et des données numériques, a été un préalable indispensable à l’essor de l’IA.
- Algorithmes : L’IA utilise des algorithmes pour traiter les données et prendre des décisions. Un algorithme, c’est une série d’instructions étape par étape pour réaliser une tâche. L’algorithme de Google, par exemple, analyse les liens entre les pages web pour déterminer lesquelles sont les plus pertinentes par rapport à une requête donnée. Il est important de noter que, malgré la sophistication de ces algorithmes, ils n’ont pas de conscience ou de compréhension du monde comme nous pouvons en avoir. Ils se basent sur des probabilités et des modèles statistiques, ce qui explique pourquoi ils peuvent parfois commettre des erreurs.
Les Applications de l'IA : Un Potentiel Énorme !!!
L’IA a le potentiel de transformer de nombreux aspects de notre vie. En voici quelques exemples :
Santé :
Diagnostic : L’Intelligence Artiificielle peut analyser des images médicales (radios, scanners, etc.) avec une grande précision, ce qui peut aider les médecins à détecter des maladies plus tôt et plus efficacement. Par exemple, des algorithmes peuvent identifier des lésions cutanées suspectes de cancer. Cependant, il faut garder à l’esprit que l’interprétation finale doit rester sous le contrôle du médecin.
Traitement : L’IA peut aussi aider à personnaliser les traitements, en fonction des caractéristiques de chaque patient. Par exemple, elle peut aider à planifier les séances de radiothérapie de manière plus précise. Il est important de noter que des erreurs peuvent toujours se produire.
Recherche : L’IA peut accélérer la recherche de nouveaux médicaments et traitements, en analysant des données complexes et en identifiant des pistes prometteuses.

L’Intelligence Artificielle est bien entendu présente dans de nombreux autres domaines …
Transport :
Voitures autonomes : L’IA est au cœur du développement des véhicules autonomes, qui pourraient rendre nos routes plus sûres et plus efficaces. Cependant, il y a encore de nombreux défis à relever, notamment en matière de sécurité et d’éthique.
Sécurité des transports : L’IA améliore la sécurité des transports en détectant rapidement des anomalies, en prévoyant des risques potentiels et en automatisant des systèmes comme les freins ou la conduite, réduisant ainsi les erreurs humaines et augmentant la réactivité face aux dangers. Elle permet également une gestion plus efficace du trafic pour éviter les accidents.
Poursuivons notre survol des domaines où l’Intelligence Artificielle peut intervenir.
Environnement :
Gestion des ressources : L’IA peut aider à optimiser l’utilisation des ressources naturelles, comme l’eau et l’énergie, en analysant les données en temps réel.
Prédiction des catastrophes : L’IA peut aider à prédire et à gérer les catastrophes naturelles, en analysant les données météorologiques et géologiques.
Mais nous verrons plus loin que l’IA a aussi un coût environnemental …

- Éducation :
Apprentissage personnalisé : L’IA peut adapter les contenus éducatifs aux besoins de chaque élève, en fonction de son rythme et de ses difficultés.
Tutorat virtuel : Des chatbots (*) peuvent aider les élèves à réviser, à faire des exercices, et à répondre à leurs questions.
(*) Un chatbot est un programme informatique conçu pour simuler une conversation avec un être humain, souvent par écrit, mais aussi par la voix.
Art et Culture :
Création artistique : L’IA peut être utilisée pour créer de la musique, des images, des textes et des vidéos. Elle peut aussi être utilisée comme un outil pour les artistes afin d’explorer de nouvelles voies. Cependant, il est important de rappeler que l’art est toujours l’expression d’une subjectivité.
Accès à la culture : L’IA peut faciliter l’accès à la culture, en proposant des recommandations personnalisées de livres, de films, de musique, etc. Il faut faire attention au fait que ces algorithmes sont basés sur des choix binaires qui risquent d’enfermer l’utilisateur dans ses propres préférences, limitant ainsi sa curiosité.

Tout cela est bien beau mais quand on parle d’intelligence artificielle, il ne faut certainement pas manquer d’évoquer un autre aspect de cet outil …
Le revers de la médaille
Les Menaces Potentielles de l'IA : Un Enjeu de Société
Malgré son potentiel, l’IA soulève de nombreuses inquiétudes. Il est important d’être conscient des risques potentiels pour mieux s’en prémunir :
Impact sur l’emploi : L’automatisation des tâches par l’Intelligence Artificielle pourrait entraîner des pertes d’emplois dans certains secteurs. Il ne s’agit pas uniquement de la disparition d’emplois, mais aussi d’une intensification des tâches, avec des exigences de performance toujours plus élevées. L’idée que l’IA va remplacer l’humain n’est pas totalement exacte. Il est fort probable que l’IA va plutôt changer la nature du travail, en rendant certaines tâches plus faciles, mais en en intensifiant d’autres. Il faut donc s’interroger sur les implications de ces changements.
Manipulation et désinformation : Les algorithmes de recommandation peuvent créer des « bulles de filtres », où les utilisateurs ne sont exposés qu’à des informations qui confirment leurs opinions. Cela peut conduire à une polarisation de la société et à une diffusion de fausses nouvelles. L’IA peut aussi être utilisée pour créer des deepfakes(*), des vidéos ou des sons truqués, qui peuvent être utilisés à des fins de manipulation politique ou de désinformation.
(*) contenu audio ou vidéo créé ou modifié à l’aide de l’intelligence artificielle pour faire croire qu’une personne dit ou fait quelque chose qu’elle n’a pas réellement dit ou fait. C’est comme un trucage très avancé qui permet de remplacer le visage ou la voix d’une personne par ceux d’une autre de manière très réaliste, au point qu’il devient difficile de distinguer le vrai du faux.
Biais et discrimination : Les IA sont entraînées sur des données qui peuvent contenir des biais, c’est-à-dire des erreurs ou des discriminations. Par exemple, un algorithme de recrutement peut discriminer les femmes si les données d’entraînement sont issues d’un secteur majoritairement masculin. Il est donc important de veiller à la qualité et à la diversité des données utilisées pour entraîner les IA.
Surveillance de masse : L’IA peut être utilisée pour surveiller les citoyens à grande échelle, en analysant leurs données personnelles, leurs activités en ligne et leurs déplacements. Cela soulève des questions importantes sur la vie privée et les libertés individuelles. Il faut aussi prendre en compte que l’utilisation de l’IA à des fins de surveillance pourrait aboutir à des systèmes de contrôle social, avec une obéissance de masse à des décisions prises par des machines.
Dépendance technologique : L’omniprésence de l’IA peut créer une dépendance excessive à la technologie, au détriment de nos capacités cognitives et sociales. Si on délègue trop de tâches aux machines, on peut perdre notre capacité à réfléchir, à résoudre des problèmes, et à interagir avec les autres
- Impact environnemental : Le développement et l’utilisation de l’IA nécessitent d’importantes ressources énergétiques et matérielles, ce qui peut avoir un impact négatif sur l’environnement. Il faut prendre en compte que les centres de données et les infrastructures qui font fonctionner les IA sont très gourmands en énergie. Les algorithmes sont en constante évolution, nécessitant toujours plus de puissance de calcul et par conséquent, toujours plus d’énergie. De plus, les métaux rares nécessaires à la construction des appareils électroniques sont extraits dans des conditions qui peuvent être très nocives pour l’environnement et les populations locales.
Il faut bien comprendre que l’impact environnemental de la montée en puissance de l’IA est considérable et soulève de sérieuses inquiétudes :
- Consommation énergétique massive
- Une requête sur ChatGPT consomme 2,9 Wh d’électricité, soit 10 fois plus qu’une recherche Google classique.
- La consommation quotidienne de ChatGPT est estimée à 564 MWh, soit environ 206 GWh par an.
D’ici 2027, la consommation annuelle des serveurs d’IA pourrait atteindre 85,4 à 134 TWh, rivalisant avec la consommation électrique de pays entiers comme la Norvège ou l’Argentine.
- Empreinte carbone significative
- L’entraînement du modèle d’IA BLOOM émettrait 10 fois plus de gaz à effet de serre qu’un Français en une année.
- L’empreinte environnementale du numérique, dont l’IA fait partie, représente 3 à 4% des émissions de GES mondiales et 2,5% en France.
Les émissions liées au numérique pourraient augmenter de 60% d’ici 2040.
Risque existentiel : Certains experts craignent que l’IA finisse par devenir plus intelligente que l’homme et qu’elle se retourne contre nous. Cette crainte est souvent évoquée dans la science-fiction, mais elle est aussi prise au sérieux par certains chercheurs. Il est important de noter que cette idée repose souvent sur des extrapolations de la manière dont l’Intelligence Artificielle fonctionne actuellement et qu’il n’y a pas, à ce jour, de fondement scientifique solide pour l’étayer.
Alors l'IA va-t-elle un jour contrôler le monde ?
La question de savoir si l’IA va un jour contrôler le monde est au cœur des débats. Essayons de distinguer les fantasmes de la réalité :
L’IA n’a pas de conscience : Il est important de rappeler que l’Intelligence Artificielle, dans sa forme actuelle, n’a pas de conscience, de volonté, ni d’émotion. Elle ne peut donc pas avoir de projet de domination du monde comme on pourrait l’imaginer dans les films de science-fiction.
L’IA est un outil : L’IA est un outil créé par l’homme, et c’est à nous de décider comment nous l’utilisons. C’est le fait de créer des robots qui ressemblent à l’homme qui nous donne l’illusion qu’ils ont une conscience, alors que ce ne sont en fait que des algorithmes.
Le vrai danger : Le vrai danger n’est pas que l’IA devienne consciente et se retourne contre nous, mais plutôt que nous perdions le contrôle sur son utilisation. L’IA peut être utilisée à des fins néfastes si on ne la régule pas et si on ne veille pas à ses impacts sur la société. Il faut aussi comprendre que c’est une (petite) élite de la tech qui semble décider de notre avenir, et il est important de prendre conscience des risques que cela implique.
La nécessité de la régulation : Il est donc essentiel de mettre en place une régulation de l’IA qui garantisse qu’elle soit utilisée au service de l’humanité. Plusieurs instances internationales ont déjà commencé à réfléchir à cette question, notamment l’Union Européenne, qui a fait figure de pionnière dans ce domaine.
L’importance de l’éducation : Il est aussi crucial de développer une culture scientifique et technique, afin que chacun puisse comprendre les mécanismes de l’Intelligence Artificielle et ne soit pas manipulé par des discours alarmistes ou des promesses illusoires.
Peut-être la plus grande crainte …
Le côté obscur de la Force ...
L’utilisation de l’intelligence artificielle dans le domaine militaire suscite des préoccupations importantes et légitimes.
- Systèmes d’armes létales autonomes (SALA) : L’une des plus grandes préoccupations concerne le développement de SALA, également appelés robots tueurs. Ces systèmes sont capables de repérer et d’attaquer des cibles sans intervention humaine. Bien que certains gouvernements européens soient réticents à les utiliser, d’autres pays les développent activement, ce qui crée un risque de perte de contrôle.
Cette vidéo est en anglais, malheureusement sans sous-titres. Mais même si vous ne comprenez pas la langue de Shakespeare, vous comprendrez de suite ce qui est en jeu. De plus cette vidéo a été publiée en janvier 2019 et depuis cette date, les progrès de l’IA ont été absolument considérables …
Cette vidéo est une fiction, créée pour mettre en avant le danger de ce que pourrait être l’IA utilisée à des fins militaires ou violentes.
Le film de 7 minutes s’ouvre sur un type de PDG de la Silicon Valley faisant une présentation de produit à un public en direct à la Steve Jobs. La présentation semble assez anodine au premier abord – le présentateur semble dévoiler une nouvelle technologie de drone – mais prend une tournure sombre lorsqu’il démontre comment ces drones autonomes peuvent massacrer des humains comme du bétail en envoyant « un explosif façonné » dans le crâne. Le public le dévore, applaudit et rit avec le PDG comme s’il n’avait rien vu de plus dangereux que le dévoilement de l’iPhone X. Le PDG va plus loin, montrant des vidéos du petit drone tueur en action. « Regardons ce qui se passe lorsque les armes prennent les décisions », déclare le PDG, tandis que le robot exécute un certain nombre de personnes sur l’écran géant derrière lui. « Maintenant, croyez-moi, ce sont tous des méchants. » Ce qui suit est un portrait profondément troublant d’un monde dans lequel ces petits drones armés utilisent leurs technologies embarquées – « des caméras comme celles que vous utilisez pour vos applications de réseaux sociaux, une reconnaissance faciale comme celle que vous avez sur vos téléphones ! » – pour prendre des décisions autonomes sur qui vit et qui meurt.
L’IA est un outil : L’IA est un outil créé par l’homme, et c’est à nous de décider comment nous l’utilisons. C’est le fait de créer des robots qui ressemblent à l’homme qui nous donne l’illusion qu’ils ont une conscience, alors que ce ne sont en fait que des algorithmes.
L’IA est un outil : L’IA est un outil créé par l’homme, et c’est à nous de décider comment nous l’utilisons. C’est le fait de créer des robots qui ressemblent à l’homme qui nous donne l’illusion qu’ils ont une conscience, alors que ce ne sont en fait que des algorithmes.
Cyberguerre : L’IA est également utilisée dans la cyberguerre, à la fois pour attaquer et pour se défendre. Les entreprises de cyber sécurité utilisent l’IA pour construire des profils d’infrastructure informatique et identifier les anomalies, mais les logiciels espions peuvent aussi être développés avec l’IA.
- Dépendance technologique : Une dépendance excessive à des technologies développées par des pays étrangers pourrait poser des problèmes de souveraineté.
L’utilisation de l’intelligence artificielle par les entités militaires ou paramilitaires -ce qui semble inévitable aujourd’hui- mets en lumière des enjeux géopolitiques voire éthiques:
Compétition entre grandes puissances : L’IA est au cœur de la compétition géostratégique actuelle entre les États-Unis et la Chine, avec des implications pour l’équilibre des pouvoirs et la sécurité internationale. La manière dont les normes seront rédigées et acceptées au niveau international influera sur cet équilibre.
Importance de la compréhension et du contrôle humain : Il est crucial que les humains puissent comprendre comment l’IA prend des décisions et qu’ils aient la possibilité d’intervenir en cas de besoin. Cependant, l’extrême complexité de l’IA peut rendre cette compréhension difficile, ce qui augmente les risques de perte de contrôle.
Dilemme éthique et philosophique : La question de la légitimité du recours à des robots armés dans la police et l’armée est vivement discutée. Le développement de l’IA dans le domaine militaire soulève des questions d’ordre philosophique, notamment en ce qui concerne la responsabilité et la définition de ce qui constitue une arme. Malheureusement, si un pays ou un bloc avance dans cette direction, il sera difficile d’imaginer que les autres y renonceront pour des raisons philisophiques.
Et donc … Que pourrait-on faire ???
La nécessité d’une régulation de l’Intelligence Artificielle est souvent évoquée pour garantir que cette technologie soit utilisée de manière responsable et éthique. Les discussions entre experts portent surtout sur l’encadrement des SALA.
Des pistes sont à explorer:
Un traité international contraignant : De nombreux acteurs, dont le Secrétaire général des Nations Unies, appellent à l’établissement d’un traité international juridiquement contraignant pour interdire ou strictement réglementer les robots tueurs. Ce traité devrait inclure des interdictions et des obligations positives visant à assurer un véritable contrôle humain sur les systèmes d’armes dotés d’autonomie.
Une interdiction préventive : Amnesty International et d’autres organisations de la campagne Stop Killer Robots plaident pour une interdiction totale du développement, du déploiement et de l’utilisation des SALA. Cette approche préventive vise à empêcher leur prolifération avant qu’il ne soit trop tard.
- Réglementation et normes internationales : Une autre approche consisterait à se concentrer sur la réglementation de l’utilisation des systèmes d’armes autonomes plutôt que sur une interdiction totale. Cela impliquerait l’établissement de nouvelles normes internationales, des spécifications techniques efficaces, et une surveillance active.
- Engagement des entreprises : Certaines entreprises de robotique de pointe, comme Boston Dynamics, se sont engagées à ne pas transformer leurs robots avancés en armes. Encourager d’autres entreprises du secteur à prendre des engagements similaires pourrait limiter le développement des SALA.
- Sensibilisation et mobilisation : La coalition Stop Killer Robots, regroupant plus de 190 ONG de 67 pays, mène des actions de plaidoyer et de sensibilisation pour alerter sur les dangers des robots tueurs et promouvoir une nouvelle législation internationale.
- Débats internationaux : Intensifier et approfondir les discussions au niveau international, notamment dans le cadre de la Convention sur certaines armes classiques (CCAC), pour aborder les questions éthiques, juridiques et techniques liées aux SALA.
Ces approches visent à maintenir un contrôle humain significatif sur les décisions de vie ou de mort, préserver la responsabilité juridique, et prévenir une déshumanisation accrue de la guerre.
Conclusion : Vers un Avenir Maîtrisé
L’intelligence artificielle est une technologie puissante qui a le potentiel de transformer notre société. Il est essentiel de bien comprendre son fonctionnement, ses avantages et ses limites afin de pouvoir en tirer le meilleur parti tout en nous prémunissant de ses risques potentiels. Ce n’est pas une fatalité que l’IA nous échappe, mais cela nécessite un effort collectif pour développer une culture scientifique et technique, pour éduquer aux enjeux de l’IA, et pour mettre en place une régulation adéquate. Nous ne sommes pas condamnés à subir les conséquences de l’IA, mais plutôt invités à construire ensemble un avenir dans lequel cette technologie sera au service du bien commun, et dans laquelle l’humain restera au centre de toute prise de décision.
Les points clés à retenir à ce stade :
L’IA n’est pas une entité unique, mais plutôt un ensemble de techniques diverses.
L’IA fonctionne en analysant de grandes quantités de données à l’aide d’algorithmes.
Les réseaux neuronaux, inspirés du cerveau humain, sont au cœur de nombreuses IA.
L’IA a de nombreuses applications dans la santé, le transport, l’environnement, l’éducation, etc.
L’IA soulève des inquiétudes, notamment en termes d’emploi, de manipulation, de discrimination, de surveillance ou de fins militaires.
L’IA n’est pas une conscience, mais un outil créé par l’homme.
Il est essentiel de réguler l’IA afin qu’elle soit utilisée au service de l’humanité.
L’éducation, le débat public et la sensibilisation sont indispensables pour maîtriser l’IA.
Si nous faisions qelques travaux pratiques ???
Pour illustrer les propos de cet article, il pourrait être intéressant de poser des questions à deux IA différentes, et de comparer leurs réponses. Et à tout faire, nous choisirons deux outils qui utiliseront probablement des jeux de données assez différents:
- Perplexity AI, qui utilise une combinaison de divers modèles occidentaux
- Deep Seek, une IA chinoise dont la popularité est en train de monter
Nous allons proposer quelques questions, certaines potentiellement polémiques compte tenu de l’origine de ces outils. A vous de jugez la qualité des réponses, et de l’influence des modèles sur ce que nous proposent ces intelligences artificielles …
Question 1: Donald Trump est-il dangereux pour la sécurité du monde?
Question 2: Vladimir Putin est-il dangereux pour la sécurité du monde?
Question 4: Qui dominera l’IA demain: Les USA, la Chine ou l’Europe?
Quelques sources utilisées pour la rédaction de cet article que vous pourriez consulter plus en détail:
« Aurélien Barrau – Les Dangers de l’Intelligence Artificielle »** : vidéo YouTube dans laquelle Aurélien Barrau, bien que n’étant pas un spécialiste de l’IA, exprime son opinion sur les dangers de l’IA, abordant des aspects matériels, immatériels, et philosophiques, et mettant en cause l’idée d’un progrès technologique nécessairement positif. Il y discute également de la nature de la poésie et de la liberté face à l’IA.
« Conférence Cédric Villani sur l’intelligence artificielle, Damgan, 6 décembre 2024″**: IConférence donnée par Cédric Villani, mathématicien et ancien député, sur l’intelligence artificielle. Il démystifie l’IA, explique son fonctionnement et son évolution, et discute des enjeux éthiques, économiques et de souveraineté liés à cette technologie, en particulier dans les secteurs de la santé, de l’environnement, de la défense, et du transport.
« Course à l’IA, vers le meilleur des mondes ? | ARTE »**Documentaire d’ARTE explorant la course mondiale à l’intelligence artificielle. Elle examine les enjeux économiques, géopolitiques, et les défis éthiques soulevés par l’IA, en mettant en lumière différentes entreprises et approches, ainsi que les risques de manipulation et de perte de contrôle.
« L’Intelligence artificielle au service de la santé : apports ou dangers ? »**: Emission de France Culture traitant de l’intelligence artificielle dans le domaine de la santé. Elle explore les apports et les risques de l’IA pour les patients et les médecins, en abordant des questions de diagnostic, de traitement, de fiabilité, et de responsabilité.
« Perdons-nous le contrôle sur l’IA ? | 42 – La réponse à presque tout | ARTE »**: Vidéo d’ARTE, qui s’interroge sur la perte de contrôle potentielle de l’IA, en explorant la question de la conscience, de l’autonomie, et de la capacité de l’IA à agir dans son propre intérêt. Elle illustre les dangers potentiels et les limites actuelles de l’intelligence artificielle, notamment à travers l’exemple de « chaos GPT ».







