IA & Ethique – Blockchain

 

IA & Ethique – Blockchain

 

#Intelligence Artificielle

L’« IA responsable »

L’ IA ne doit pas être une fin en soi mais un outil au service des individus et de la société. L’objectif est de garantir que les systèmes d’IA sont utilisés de manière transparente, équitable, sûre et efficace vis-à-vis des individus et de la société. Cela comprend notamment :

  • ​La protection de la confidentialité et de la sécurité des données
  • La prévention des préjugés dans les données et les algorithmes
  • La garantie de la transparence des décisions prises par le système d’IA 
  • La lutte contre les inégalités socio-économiques
  • La lutte contre la discrimination et la violation des droits fondamentaux
  • La gestion d’autres risques

Il s’agit de respecter la réglementation applicable mais aussi les normes éthiques de conception, de développement et d’utilisation de l’IA. 

Nos services

Par organisation​

Sensibilisation IA & ethique

Sensibilisation IA & Ethique

  • Présentation du règlement européen « AI Act »
  • Présentation de la notion d’ « IA responsable »
AI & ethics maturity assessment

AI & Ethics Maturity Assessment

  • Evaluation du niveau de maturité de l’organisation concernant la conception, le développement et l’utilisation de systèmes d’IA au regard des règlementations applicables et de standards d’éthique 
Ethic by design

« Ethic by design »

  • Définition d’une stratégie d’entreprise et d’une feuille de route sur l’IA et l’éthique
  • Ressources : charte éthique, guidelines, outils d’analyse des risques, supports de formation

Par projet

 

  • Analyse d’impact sur la protection des données (AIPD) sur les systèmes d’IA traitant de données personnelles
  • Analyse des risques sur les systèmes d’IA

FAQ

Qu’est-ce que l’intelligence artificielle ?

Il existe de nombreuses définitions. L’une d’elle est la suivante : « L’IA désigne les systèmes qui font preuve d’un comportement intelligent qui se traduit par l’analyse de leur environnement et la prise de décisions avec un certain degré d’autonomie – pour atteindre des objectifs spécifiques. Les systèmes basés sur l’IA peuvent être purement logiciels, agissant dans le monde virtuel (par exemple, assistants vocaux, logiciels d’analyse d’images, moteurs de recherche, systèmes de reconnaissance de la parole et des visages) ou l’IA peut être intégrée dans des dispositifs matériels (ex. robots avancés, voitures autonomes, drones ou applications de l’IoT). »

(Source : Groupe d’experts de haut niveau sur l’intelligence artificielle).

Qu’est-ce qu’un « système d’IA » ?

Un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées (fondées sur l’apprentissage automatique, ou sur la logique et les connaissances, ou sur les statistiques) et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit (source Draft AI Act). L’OCDE le définit comme un système basé sur une machine qui est capable d’influencer l’environnement en produisant un résultat (prédictions, recommandations ou décisions) pour un ensemble donné d’objectifs. Il utilise des données et des Inputs basés sur la machine et/ou sur l’homme, et bénéficie de degrés d’autonomie variés.

Qu’est-ce que l’IA Generative ?

Un domaine de l’IA qui utilise des modèles d’apprentissage automatique formés sur de grands ensembles de données pour créer de nouveaux contenus, tels que du texte écrit, du code, des images, de la musique, des simulations et des vidéos. Ces modèles sont capables de générer de nouveaux résultats à partir de données d’entrée ou de texte formulé par l’utilisateur (pompt).

Que signifie « Foundation model » ?

Un modèle pré-entraîné à grande échelle pour les capacités de l’IA, telles que le language (LLM), la vision, la robotique, le raisonnement, la recherche ou l’interaction humaine, qui peut servir de base à d’autres applications. Le modèle est entraîné sur des ensembles de données étendus et diversifiés.

Quelle est la relation entre « Large Langage Model » (LLM) et « Foundation model » ?

Les LLM constituent une classe de « foundation model ». Les LLM sont des réseaux neuronaux qui peuvent traiter des quantités massives de texte non structuré et apprendre les relations entre les mots ou les parties de mots, connues sous le nom de tokens. Cela permet aux LLM de générer des textes en langue naturelle et d’effectuer des tâches telles que le résumé ou l’extraction de connaissances. Ex. LaMDA est le LLM qui se cache derrière Bard.

Quelles législations encadrent la conception et l’utilisation de systèmes d’IA ?

Les lois de protection des données encadrent les traitements de données personnelles réalisés à l’aide de systèmes d’IA. En Europe, le Règlement Général sur la Protection des données (« RGPD ») encadre les traitements automatisés de données personnelles, dont le profilage (article 22).​

Un projet de règlement européen sur l’intelligence artificielle (« AI Act ») porte sur les règles applicables aux systèmes d’IA utilisé sur le marché européen à partir de leur classification fondée sur leur niveau de risques (minimal, limité, élevé, inacceptable). Le règlement prévoit des sanctions pouvant atteindre 6% du CA global de l’organisation ou 30 M€.​

De par le monde, il existe de plus en plus de législations visant à encadrer l’usage responsable et éthique des systèmes d’Ia.

Que dit l’ « Artificial Intelligence Act » quand un système d’IA présente un risque inacceptable ?

Tous les systèmes d’IA considérés comme une menace manifeste pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits, qu’il s’agisse du marquage social par les gouvernements ou des jouets utilisant une assistance vocale qui encourage les comportements dangereux.

Quels sont les secteurs où l’utilisation de système d’IA est identifiée comme étant à haut risque d'après l'AI Act ?

  • Les infrastructures critiques (par exemple, les transports) ​
  • L’enseignement ou la formation professionnelle (par exemple, la notation des examens) ​
  • Les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot) ​
  • L’emploi, la gestion des travailleurs et l’accès au travail indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement) ​
  • Les services privés et publics essentiels (par exemple, l’évaluation du crédit refusant aux citoyens la possibilité d’obtenir un prêt)​
  • La gestion des migrations, des demandes d’asile et des contrôles aux frontières (par exemple, vérification de l’authenticité des documents de voyage)​
  • Identification biométrique à distance et catégorisation des individus ​

Les systèmes d’IA à haut risque seront soumis à des obligations strictes avant de pouvoir être commercialisés sur le marché européen. ​

Dans quelles conditions sera-t-il possible d’utiliser des systèmes d’IA à haut risques ?

Les systèmes d’IA à haut risque seront soumis à des obligations strictes avant de pouvoir être mis sur le marché : Evaluation des risques et mesures d’atténuation des risques, haute qualité des ensembles de données alimentant le système pour minimiser les risques et les résultats discriminatoires , mesures de traçabilité des résultats, documentation détaillée fournissant toutes les informations nécessaires sur le système et son objectif pour que les autorités puissent évaluer sa conformité, une information claire et adéquate des utilisateurs, des mesures de surveillance humaine appropriées pour minimiser les risques et un niveau élevé de robustesse, de sécurité et de précision.

Est-ce que l’utilisation de systèmes d’IA sera également soumise au respect de règles particulières ?

Outre le respect des législations sur la protection des données (cf. #2) , l’ « AI Act » prévoit une obligation de transparence renforcée pour la mise sur le marché de solutions telles que les Chatbot par exemple.

Que signifie « une IA digne de confiance » ou « Trustworthy AI » ?

Il n’existe pas de cadre commun à une IA digne de confiance. L’OCDE a été la première en 2019 à définir des principes pour une IA digne de confiance, à un niveau intergouvernemental. En Europe, le groupe des experts de haut niveau a proposé que sur la base des droits fondamentaux et des principes éthiques, les systèmes d’IA devraient répondre à certaines exigences clés pour être dignes de confiance à savoir (liste non exhaustive) :

  • L’action et le contrôle de l’homme y compris le respect des droits fondamentaux
  • Robustesse technique et sécurité y compris l’exactitude, la fiabilité et la reproductibilité
  • Protection de la vie privée et gouvernance des données
  • Transparence y compris la traçabilité, l’explicabilité et la communication
  • Diversité, non-discrimination et équité
  • Bien-être sociétal et environnemental y compris la durabilité et le respect de l’environnement, l’impact social, la société et la démocratie
  • Responsabilité y compris l’auditabilité, la minimisation et la notification de l’impact négatif

Existe-t-il des standards permettant d’évaluer les risques liés aux systèmes d’IA ?

Oui il en existe plusieurs. Citons l’ISO/CEI 23894 qui propose des orientations stratégiques pour la gestion des risques liés au développement et à l’utilisation de l’IA et sur la manière dont les organisations peuvent intégrer la gestion des risques dans leurs activités basées sur l’IA. Cette norme fournit une cartographie fonctionnelle des processus de gestion des risques tout au long du cycle de vie du système d’IA. Le NIST a également publié l’AI RFM, un cadre conçu pour doter les organisations et les individus – les acteurs de l’IA – d’approches permettant d’accroître la fiabilité des systèmes d’IA et de favoriser la conception, le développement, le déploiement et l’utilisation responsables des systèmes d’IA au fil du temps.

#Blockchain

Les enjeux de la blockchain

La technologie blockchain a le potentiel de remodeler les modes d’interactions entre les agents économiques dans tous les secteurs. La blockchain apporte à l’internet la couche de confiance dont il était auparavant dépourvu.

L’intégration de la technologie blockchain n’est pas sans risques, notamment en ce qui concerne la conformité avec les réglementations de protection des données.

  • L’application de certains principes du RGPD est problématique dans le cas de l’utilisation des blockchains, notamment pour les blockchains sans permission.
  • Le contexte réglementaire peut ne pas apporter de réponses claires concernant les défis liés à la protection des données.
  • Le cadre réglementaire n’est pas pleinement défini et est encore en évolution.
  • Il n’y a pas d’harmonisation des réglementations dans le monde.
  • Le coût de développement ou d’intégration d’une solution blockchain est important.
  • Le caractère immuable et les systèmes de gouvernance par consensus de la blockchain rendent la rectification des erreurs difficile voire impossible.

Nos services

Stratégie

Stratégie

  • Définir une stratégie de protection des données pour l’enregistrement de données personnelles sur la blockchain par votre entreprise
  • Établir un cadre de gouvernance pour garantir la conformité vis-à-vis des exigences réglementaires
Formation

Formation

  • Sensibiliser votre équipe aux sujets de la blockchain, du web3, des métavers et des enjeux en matière de réglementations sur la protection des données.
  • Former les membres de votre direction aux enjeux liés à l’utilisation professionnelle de ces « technologies »
Accompagnement de projet

Accompagnement de projet

  • Evaluation des risques pour la protection des données liés à votre projet
  • Accompagnement dans la mise en œuvre du concept de « Privacy by design »
Audit

Audit

Réaliser un audit de votre projet blockchain :

  • Audit de conformité
  • Audit de conception 
  • Audit techniques (Architecture, Wearable, etc.)
Innovation

Innovation

  • Support technique : intégrer des techniques d’anonymisation afin de garantir la confidentialité
  • Sandbox plateforme : un environnement visant à faciliter les contrôles de conformité avant le déploiement de la solution

Vos interlocuteurs

Florence BONNET Partner
Rim FERHAH Directrice Associée
Youcef DAMMANE Directeur associé

Une idée, un besoin ?
Racontez-nous votre projet