afnor - créer l’environnement normatif de confiance accompagnant les outils et les processus de certification des systèmes critiques à base d’intelligence artificielle

Les résultats d'une consultation de l'AFNOR sur des règles pour en gros « des gentilles IAs ».  Je cite, des
Normes de l’IA : 6 axes de travail
En gros, on a réfléchi sur les Normes à Normer en définissant déjà 6 axes de travail ... On est loin des 3 lois de la robotique

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

A vos commentaires, réflexions ...

Le PDF par là: Feuille de route stratégique - La normalisation de l’Intelligence Artificielle @promotion-afnor.org

Venez écrire les normes volontaires de l’intelligence artificielle


normalisation.afnor.org

Je cite:

Axe 1 : Développer les normes portant sur la confiance
Les caractéristiques prioritaires à normaliser retenues sont la sécurité, la sûreté, l’explicabilité, la robustesse, la transparence, l’équité (dont non-discrimination). Chaque caractéristique devra faire l’objet d’une définition, d’une description du concept, des exigences techniques et des métriques et contrôles associés.
Axe 2 : Développer les normes sur la gouvernance et le management de l’IA
L’IA génère de nouvelles applications, qui comportent toutes des risques. Ces risques sont d’origine diverse : mauvaise qualité des données, mauvaise conception, mauvaise qualification, etc. Une analyse des risques pour les systèmes à base d’IA est donc essentielle, pour ensuite proposer un système de management des risques.
Axe 3 : Développer des normes sur la supervision et le reporting des systèmes d’IA
Il s’agit de s’assurer que les systèmes d’IA sont contrôlables (capacité à reprendre la main), que l’humain pourra reprendre la main aux moments critiques où l’IA sortira de son domaine de fonctionnement nominal.
Axe 4 : Développer des normes sur les compétences des organismes de certification
Il reviendra à ces organismes de s’assurer, non seulement que les entreprises ont mis en place des processus de développement et de qualification des systèmes d’IA, mais également que les produits sont bien conformes aux exigences, notamment règlementaires.
Axe 5 : Développer la normalisation de certains outils numériques
L’un des enjeux de l’IA consiste à disposer de simulations reposant sur des données synthétiques, et non plus sur des données réelles. Les normes devront rendre ces données fiables.
Axe 6 : Simplifier l’accès et l’utilisation des normes
Afin de faire vivre cette stratégie et de l’ajuster en cours de route, une plateforme de concertation sera mise à votre disposition. En attendant, n’hésitez pas à consulter le document et à en parler autour de vous !

Haut de page