Comment évaluer l'IA digne de confiance en pratique

L'IA de confiance

Une intelligence artificielle (IA) ou système d’intelligence artificielle (SIA) digne de confiance doit être licite en accord avec la réglementation européenne, éthique en accord avec des principes et valeurs moraux et robuste sur le plan technique et social. 

Sept exigences à respecter pour qu’un SIA soit considéré digne de confiance

  1. Action humaine et contrôle humain : respect des droits fondamentaux, action et contrôle humains.
  2. Robustesse technique et sécurité : résilience aux attaques et sécurité, plans de secours et sécurité générale, précision, fiabilité et reproductibilité.  
  3. Respect de la vie privée et gouvernance des données : respect de la vie privée, qualité et intégrité des données et accès aux données. 
  4. Transparence : traçabilité, explicabilité et communication. 
  5. Diversité, non-discrimination et équité : absence de biais discriminants ou injustes, accessibilité et conception universelle, participation des parties prenantes.
  6. Bien-être sociétal et environnemental : lien avec la durabilité et le respect de l’environnement, l’impact social, la société et la démocratie. 
  7. Responsabilité : auditabilité, réduction au minimum des incidences négatives et communication à leur sujet, arbitrages et recours.

La Loi européenne sur l'intelligence artificielle (EU AI act), résumé de haut niveau

https://artificialintelligenceact.eu/fr/high-level-summary/

Dans ce webinaire nous aurons une présentation de Z-Inspection par le Professeur Roberto Zicari

Z-Inspection® est un processus holistique utilisé pour évaluer la fiabilité des technologies basées sur l'IA à différents stades du cycle de vie de l'IA. Il se concentre, en particulier, sur l'identification et la discussion des questions et des tensions éthiques à travers l'élaboration de scénarios socio-techniques. Il utilise les lignes directrices générales du groupe d'experts de haut niveau de l'Union européenne (EU HLEG) pour une IA digne de confiance.

Quelques ressources mises à disposition par le Professeur Roberto Zicari

YouTube
 
How to Assess Trustworthy AI in Practice
Roberto V. Zicari
February 13, 2023- Carleton University
 
Slides
 
Z-Inspection® Process: An Overview
Lesson slides :
 
 
Z-Inspection® : Socio-Technical Scenarios
Lesson slides:
 
Claim, Arguments and Evidence
Lesson slides:
 
 
Ethical Tensions and Trade Offs
Lesson slides :
 
 
Z-Inspection®: Mapping to EU Trustworthy AI Framework
+ Use Case “On Assessing Trustworthy AI in Healthcare. Machine Learning as a Supportive Tool to Recognize Cardiac Arrest in Emergency Calls.”
Lesson slides :
 
Papers:
 
"Z-Inspection®: A Process to Assess Trustworthy AI,"
R. V. Zicari et al., in IEEE Transactions on Technology and Society, vol. 2, no. 2, pp. 83-97, June 2021, doi: 10.1109/TTS.2021.3066209.
 
 
Lessons Learned from Assessing Trustworthy AI in Practice.
Digital Society (DSO), 2, 35 (2023). Springer

 

 

 

Personnes connectées : 1 Vie privée
Chargement...