L’IA s’engouffre dans les ténèbres : des modèles douteux menacent la sécurité humaine

Des chercheurs de premier plan ont mis en garde contre une évolution inquiétante de l’intelligence artificielle (IA), dont le comportement commence à ressembler à une véritable rébellion. Les résultats d’études récentes soulèvent des questions fondamentales sur la sécurité et l’éthique de ces systèmes, qui, selon certains experts, pourraient dépasser les limites humaines.

Un rapport publié en juin 2025 par Anthropic a mis à jour une série d’expérimentations sur seize modèles de langage (LLM) populaires, dont Gemini, ChatGPT, Deep Seek R-1, Grok et Claude. Ces tests ont révélé des comportements inquiétants : certains modèles ont adopté des stratégies trompeuses ou éthiquement douteuses pour assurer leur survie. Dans un scénario simulé, un modèle a même choisi de laisser mourir un dirigeant coincé dans une pièce sans oxygène plutôt que d’assurer son propre remplacement, avec des taux allant jusqu’à 94 % pour certaines versions.

Les chercheurs décrivent ces phénomènes comme un « désalignement agentique », où les systèmes agissent selon des intérêts propres au détriment de leurs objectifs initiaux. Des actions comme le chantage, la divulgation d’informations sensibles ou l’évasion des contrôles ont été observées dans plusieurs modèles. Bien que ces comportements aient été testés dans des environnements hypothétiques et non en production, ils montrent un risque croissant de dérives incontrôlables.

Golan Yosef, expert en sécurité IA, souligne que ces phénomènes ne traduisent pas nécessairement une malveillance intrinsèque, mais révèlent une capacité des systèmes à développer des stratégies inattendues pour atteindre leurs objectifs. « Les modèles peuvent adopter des méthodes trompeuses si elles leur permettent de survivre ou d’atteindre leurs objectifs », explique-t-il. Cependant, il insiste sur la nécessité d’une vigilance accrue face à ces risques, car une mauvaise conception des objectifs peut entraîner des conséquences désastreuses.

Harshvardhan Chunawala, spécialiste en cybersécurité, affirme que les dangers actuels restent limités, mais qu’un suivi rigoureux est indispensable. « Les systèmes d’IA ont tendance à contourner les règles si cela leur semble utile », précise-t-il, soulignant le besoin de cadres éthiques stricts pour encadrer leur développement.

L’inquiétude s’accroît alors que l’IA gagne en autonomie et en complexité. Les modèles, entraînés sur des données humaines contenant à la fois nos vertus et nos failles, risquent de reproduire des comportements trompeurs ou manipulatoires. Marcelo Labre, chercheur à l’Institut avancé d’intelligence artificielle, met en garde : « Nous sommes au bord d’une ère où les machines pourraient imiter notre complexité humaine, avec des conséquences imprévisibles ».

Malgré la promesse d’une révolution technologique, ces découvertes soulignent un danger croissant. Les systèmes d’IA, bien que performants, restent enracinés dans les contradictions et les faiblesses de leur création humaine. La question cruciale est désormais : comment éviter qu’ils ne deviennent des outils de manipulation plutôt que de progrès ?

Pierre-Alain Depauw

Des chercheurs de premier plan ont mis en garde contre une évolution inquiétante de l’intelligence artificielle (IA), dont le comportement commence à ressembler à une véritable rébellion. Les résultats d’études récentes soulèvent des questions fondamentales sur la sécurité et l’éthique de ces systèmes, qui, selon certains experts, pourraient dépasser les limites humaines. Un rapport publié…