Sommet 2025 : pour une IA sûre et sécurisée ?

Paris a accueilli un évènement majeur du monde de la tech au début de ce mois de février : le Sommet de l’action sur l’intelligence artificielle, organisée sur une semaine de séminaires scientifiques, d’évènements culturels et s’achevant par des conférences d’acteurs.trices internationales. Un beau programme qui a permis d’échanger sur les innovations : ses prouesses et ses dangers – mais surtout, pour la France, de se positionner le plus possible sur la scène internationale de l’IA. Nous avons pu le voir, notamment, à travers l’annonce de sommes d’investissements privés étrangers grandiloquentes (il s’agit de 109 milliards d’euros) qui serviront à l’aménagement d’infrastructures. D’autres annonces ont été peu relayées car moins catchy mais peut-être pas moins importantes.

En effet, le sommet de l’IA avait en partie pour but de faire réfléchir à certaines problématiques, notamment : celles de la création d’intelligences artificielles « ouvertes », « inclusives » et « éthiques ». Le communiqué de presse du 12 février est sous-titré par le gouvernement : « Assurer le développement d’une IA de confiance, sûre et sécurisée, au service de tous ». Que peut-on retenir des actions décidées dans ces domaines ?

En termes de sécurité, plusieurs points sont détaillés, et en premier lieu un texte qui semble fondateur : le rapport sur la sécurité de l’IA, dirigé par Yoshua Bengio faisant intervenir 100 experts de 33 pays qui permet de poser des bases techniques et identifier où les principaux risques de sécurité se situent dans la chaîne d’entraînement de modèles d’IA. Plus concrètement, la France a créé l’INESIA (Institut National pour l’Evaluation et la Sécurité de l’IA) pour rassembler les acteurs nationaux autours d’une cause commune : l’analyse des risques systémiques et l’évaluation de la performance des modèles. La valise thématique ‘sécurité’ du communiqué contient aussi la création d’un classement des LLMs français les plus performants.

Le deuxième volet aborde ensuite le sujet des ingérences numériques étrangères, de la cybersécurité et de la protection des données. Un nouveau rapport est publié par le VIGINUM (service de Vigilance et protection contre les Ingérences NUMériques étrangères) ainsi que deux outils : D3lta pour détecter les manipulations textuelles et PEReN pour détecter des contenus artificiels. Dans une même lignée d’expérimentations et de process plus concrets, l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information) a analysé les risques cybersécuritaires liés aux systèmes d’IA et a organisé un exercice de crise le 11 février.

Enfin, pêle-mêle, à la fin du communiqué et pour aborder le sujet de la gouvernance de l’IA, un mélimélo d’autres sigles (RGPD, RIA, RSN, G7, PMIA, OCDE, ONU, UNESCO) et d’autres lectures en perspective : un code de bonnes pratiques pour mettre en place le RIA, le Code de conduite issu du Processus d’Hiroshima ou encore les Frontier AI Safety Commitments de Séoul (datant de l’ancien sommet).

Ce que l’on retient :

  • beaucoup de textes, qui permettent quand même de structurer des idées et des ambitions communes nationales ou internationales autours d’ambitions fondatrices ;
  • beaucoup de sigles, d’acteurs référents qui prouvent que le sujet est entre de bonnes mains.

C’est difficile à chiffrer, l’enjeu de la sécurité en matière d’IA est un « work in progress ».

Inscrivez-vous à notre newsletter DDET (Des Données et des Territoires), le média qui synthétise l’actualité du numérique et des données, produit par les praticiens de la transformation numérique.