AUTEURS

Elodie de Fontenay
Data & AI Centre of
Excellence Lead – UK-US

Federica Montefoschi
Lead Data Scientist & AI
Risk Expert @Bip xTech

Paul Gillingwater
Responsible Data & AI
Lead – Data & AI COE

Antonio Ponzio
Lead Data Scientist & AI
Risk Expert @Bip xTech

L’intelligence artificielle (IA) est la généralisation de l’intelligence démontrée par les machines. Aujourd’hui, l’IA est largement adoptée par les organisations, qu’il s’agisse de start-ups ou de petites ou grandes entreprises, dans les secteurs privé et public. Un groupe clé d’acteurs sur le marché est constitué de fournisseurs de cloud computing qui ont rapidement intégré des capacités d’IA dans leurs offres. Les cas d’utilisation de l’IA comprennent le marketing, le profilage, l’efficacité, l’optimisation et la détection des problèmes.

Les principales préoccupations concernant l’utilisation sans entrave de l’IA et du profilage sont la violation des droits de l’homme et le traitement discriminatoire des personnes en fonction de leur sexe, de leur âge, de leur culture, de leur religion, de leur santé et d’autres caractéristiques protégées. En raison de ces risques potentiels, l’UE a décidé d’entamer le processus de réglementation, qui établit un équilibre entre les droits de l’homme et les besoins commerciaux.  L’objectif du règlement est de mettre en place un cadre réglementaire commun pour l’IA dans l’UE. Il fait suite à des travaux préparatoires qui ont commencé avec un groupe d’experts de haut niveau de 52 membres en 2018, qui s’est appuyé sur plus de 500 soumissions de parties prenantes et a inclus une consultation publique pour examiner la fiabilité et les aspects négatifs du développement et de l’utilisation de l’IA.

La proposition de loi sur l’IA

La proposition identifie trois types de systèmes d’IA basés sur l’analyse d’un système de gestion des risques.

  1. Nous disposons de systèmes d’IA à faible risque, dans lesquels l’application de la technologie est considérée comme inoffensive et tout à fait légale dans un contexte commercial, comme certains systèmes de profilage marketing ou des systèmes destinés à analyser plus efficacement des données à grande échelle à des fins d’optimisation ou d’objectifs commerciaux connexes.
  2. Ensuite, nous avons les systèmes d’IA à haut risque, qui présentent deux caractéristiques.
    • le système d’IA est destiné à être utilisé comme un composant de sécurité d’un produit ou est lui-même un produit.
    • le produit dont le composant de sécurité est le système d’IA, ou le système d’IA lui-même en tant que produit, doit faire l’objet d’une évaluation de conformité par un tiers.
  3. En dernier lieu, sont interdites les pratiques d’IA qui ont un impact significatif sur les individus, telles que l’utilisation de techniques subliminales pour déformer la conscience d’une personne, ou pour évaluer la fiabilité des individus, ce qui peut conduire à un traitement discriminatoire, ainsi que les systèmes d’identification biométrique en temps réel. Il existe un nombre limité d’exceptions où ces systèmes peuvent être utilisés.

Note : une quatrième catégorie qui n’entre pas dans le champ d’application de cette nouvelle loi est l’utilisation de systèmes d’IA dans les applications policières, de collecte de renseignements et militaires.

Principaux points à retenir

Tout système qui crée un risque élevé pour la santé et la sécurité ou les droits fondamentaux des personnes physiques doit se conformer aux exigences de conception et de développement. L’élément central du règlement est l’utilisation d’un système complet de gestion des risques qui consiste en un processus continu tout au long du cycle de vie d’un système d’IA à haut risque. Il renforce les meilleures pratiques requises pour la consommation de données et les projets d’IA :

  • Qualité des données, gouvernance des données et gestion des données
  • Importance du cadre de gestion des risques et du suivi.
  • Documentation, tenue de registres et traçabilité.
  • Transparence et fourniture de la ligne directrice aux utilisateurs et aux organismes concernés.
  • L’homme dans la boucle
  • Robustesse, précision, résilience et sécurité.
  • Responsabilité

Nous pensons que cette loi obligerait à mettre l’accent sur les risques associés à l’utilisation de l’IA, non seulement dans les organisations mais aussi dans la population en tant qu’utilisateurs, consommateurs ou citoyens. Nous pensons que les destinataires des résultats des systèmes d’IA exigeront d’en savoir plus sur l’utilisation de l’IA et sur les traitements éthiques équitables de la part des organisations. Cette proposition est tout à fait logique sur le plan commercial. Le bien commercial le plus précieux est la confiance. Pour maintenir la confiance, les organisations devraient considérer la création de leurs propres “codes de conduite de l’IA”, qui leur permettraient de se conformer aux bons comportements en matière d’IA, comme une décision commerciale stratégique pour être compétitives, continuer à servir leur communauté et se développer.


Si vous souhaitez en savoir plus sur notre offre ou avoir un entretien avec l’un de nos experts, veuillez envoyer un courriel à [email protected] avec pour objet “AI ACT Proposal”, et vous serez contacté rapidement.

Leia mais insights

red lines

Contacte-nos

Milan, Italy | BIP xTech Head Office

Torre Liberty Building
Galleria de Cristoforis 1, Milan, 20121

[email protected]

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.