Retour

IA : sommes-nous dans une folie collective ?

Il y a quelque chose d’étrangement euphorique dans l’époque. Les marchés célèbrent chaque percée technologique. Les dirigeants promettent des gains de productivité inédits. Les universités réorganisent leurs cursus à marche forcée. Les salariés apprennent à dialoguer avec des machines qui rédigent, synthétisent, codent, décident.

Et pourtant, derrière cette accélération, une question s’installe, presque inconvenante dans son scepticisme : sommes-nous encore en train de maîtriser ce que nous déclenchons ? Lorsque Yves Oltramare, ancien associé LODH, centenaire ayant traversé la Grande Dépression, la guerre froide et la mondialisation, s’interroge : «Est-on dans la rêverie ou dans une sorte de folie collective ?», il ne parle ni en nostalgique ni en technophobe. Il décrit un vertige. Non pas celui de la machine, mais celui de la vitesse.

 

La rupture invisible

L’histoire économique est jalonnée d’innovations majeures. La vapeur, l’électricité, l’informatique, l’AI ont chacune transformé la production et les rapports de force. L’intelligence artificielle semble s’inscrire dans cette continuité. Mais la comparaison s’arrête là.

La révolution actuelle ne touche plus seulement l’énergie ou la mécanique. Elle touche la cognition. Pour la première fois, des systèmes automatisent des tâches qui relevaient du jugement, de l’analyse, parfois même de la créativité. La machine ne remplace plus seulement le bras ; elle assiste, et parfois supplante, l’esprit.

Le parallèle avec l’ère atomique prend ici tout son sens. Le nucléaire a révélé à l’humanité sa capacité d’autodestruction. L’IA révèle sa capacité d’auto‑délégation intellectuelle. La rupture n’est pas seulement technologique ; elle est anthropologique. La question n’est donc pas de savoir si l’IA améliorera la productivité. Elle le fera. La question est : à partir de quel moment cessons‑nous d’exercer les facultés que nous confions à des systèmes statistiques toujours plus performants ?

La dépendance n’est pas spectaculaire. Elle est progressive. Chaque recommandation acceptée, chaque texte généré, chaque décision optimisée par algorithme semble rationnelle. L’ensemble produit pourtant un déplacement subtil : l’effort de réflexion se raréfie, le doute se contracte, le temps long s’efface. Désormais, l’opinion contrariée est perçue comme aberrante. Une société peut-elle accélérer indéfiniment sans altérer sa capacité de compréhension ?

 

Le pouvoir déplacé

L’intelligence artificielle n’est pas une abstraction. Elle est développée, financée et contrôlée par un nombre limité d’acteurs privés disposant d’infrastructures colossales et d’un accès privilégié aux données mondiales. Cette concentration n’est pas le fruit d’un complot ; elle découle d’économies d’échelle extrêmes et de barrières technologiques élevées. Ses conséquences, en revanche, sont profondément politiques.

Les systèmes démocratiques reposent sur la délibération éclairée. Or l’IA intervient désormais dans la production même de l’information, dans son tri, dans sa diffusion et, de plus en plus, dans sa fabrication. La frontière entre assistance et influence devient poreuse.

Dans un contexte de polarisation accrue, illustré aux États-Unis par les tensions institutionnelles autour de figures comme Donald Trump, la capacité des démocraties à réguler des technologies évoluant plus vite que le droit apparaît incertaine. La loi est lente ; le code est instantané.

Le déséquilibre est plus profond encore. Face aux crises économiques, migratoires ou technologiques, les États semblent tentés de modifier l’architecture plutôt que de réparer le mécanisme. Comme si, confronté à une crevaison, un conducteur décidait de remplacer le moteur. La Constitution, autrefois socle stable, devient instrument tactique.

Une démocratie qui ajuste en permanence ses fondations pour traiter des symptômes fragilise sa propre capacité de régulation. Le risque n’est pas seulement l’impuissance du droit face au code. C’est l’érosion de la stabilité sur laquelle le droit repose.

Il ne s’agit pas d’imaginer des machines gouvernant les États. Le déplacement est plus subtil. Lorsque la production de contenus devient automatisable, lorsque les simulations orientent les choix stratégiques, lorsque les marchés réagissent à des signaux générés par d’autres algorithmes, le centre de gravité du pouvoir glisse vers ceux qui conçoivent et paramètrent ces systèmes.

La question politique n’est plus “qui vote ?” mais “qui entraîne les modèles ?”

 

La nouvelle géopolitique de l’intelligence

L’intelligence artificielle n’est plus une technologie émergente ; elle est devenue un instrument de puissance. Contrairement au nucléaire, dont la maîtrise reposait sur des infrastructures visibles et des traités formels, l’IA se diffuse de manière silencieuse, asymétrique, difficile à contenir. Elle redéfinit les rapports de force non par la menace, mais par la dépendance.

Les États-Unis dominent cette nouvelle géographie grâce à un écosystème où capital privé, recherche académique et soutien fédéral fonctionnent comme un bloc cohérent. La Chine suit une trajectoire fondée sur la centralisation et l’intégration verticale. L’Europe tente d’exister par un excès de la régulation, consciente de son retard industriel.

Derrière ces stratégies divergentes se dessine un risque plus profond : celui d’une fragmentation cognitive. Des modèles entraînés sur des valeurs différentes, des systèmes d’information incompatibles, des récits divergents sur ce qu’est la vérité, la sécurité ou la liberté. Dans un tel paysage, la question n’est plus seulement de savoir qui innove le plus vite, mais qui définit les limites, les usages et les récits qui accompagneront cette innovation.

 

La variable humaine

Face à cette dynamique, deux tentations dominent : l’enthousiasme technologique et l’alarmisme. Ni l’une ni l’autre ne suffisent.

Le véritable enjeu réside ailleurs : dans notre consentement collectif à déléguer toujours davantage notre jugement. L’IA peut amplifier nos capacités, réduire certaines pénibilités, accélérer la recherche scientifique. Elle peut aussi standardiser la pensée, lisser les divergences, réduire l’incertitude qui nourrit la réflexion critique. La frontière dépend moins des lignes de code que de l’usage que nous en faisons.

La question devient alors moins technologique que culturelle. Acceptons-nous de maintenir des espaces où la décision reste humaine, lente, imparfaite ?

Une folie collective ne se manifeste pas nécessairement par un effondrement spectaculaire. Elle peut prendre la forme d’un emballement consensuel, d’un enthousiasme généralisé qui rend toute réserve suspecte. L’intelligence artificielle n’a pas d’intention propre. Elle reflète les objectifs qu’on lui assigne et les données qu’on lui fournit. Mais si nous cessons d’interroger ces objectifs, si nous externalisons progressivement notre capacité de jugement, la rupture ne sera pas imposée par la machine. Elle viendra de nous.

 

L’aberration clé de notre temps moderne : l’école qui n’enseigne plus à écrire

La délégation cognitive n’est pas une abstraction. Elle se manifeste déjà dans les salles de classe. Dès la maternelle jusqu’aux universités, des enseignants constatent que les étudiants ne rédigent plus leurs premiers jets. Ils commencent directement par une génération IA.

Les textes sont corrects, parfois brillants. Mais l’apprentissage sous-jacent s’érode. L’étudiant ne développe plus la capacité à organiser sa pensée dans la durée. Il devient dépendant d’un outil qui propose la réponse la plus probable, la plus lisse, la moins risquée.

Ce phénomène dépasse l’éducation. Dans la médecine, la justice, la finance, la délégation est rationnelle, parfois indispensable, mais elle réduit progressivement l’intuition professionnelle. La question anthropologique n’est donc pas : la machine pense-t-elle ? Elle est : que devient une société qui n’exerce plus certaines formes de pensée ?

 

Conclusion : le choix encore humain

La question n’est pas de savoir si l’IA surpassera l’esprit humain. Elle le fera dans certaines tâches. La question est : jusqu’où consentons-nous à lui déléguer notre jugement ?

Chaque génération de systèmes automatiques transforme non seulement ce que nous faisons, mais ce que nous sommes. Lorsque l’éducation renonce à la pensée critique, lorsque les institutions s’adaptent au court terme, lorsque l’opinion publique s’aligne sur ce que les algorithmes jugent probable, le risque n’est plus technique : il est existentiel.

La folie collective n’est pas un effondrement soudain. Elle prend la forme d’un emballement consensuel, discret, séduisant. Elle commence le jour où nous confions notre raison à des lignes de code et acceptons que la réflexion humaine devienne l’exception plutôt que la norme.

Dans ce monde rapide, la véritable résistance est la préservation de la pensée autonome. Et c’est ce choix, encore humain, qui déterminera si nous dominons nos outils… ou si nous les laissons nous définir.