La Commission européenne a présenté le 21 avril 2021 le premier cadre juridique européen sur l’Intelligence artificielle et ses utilisations dangereuses, accompagné d’un nouveau plan coordonné avec les Etats membres pour faire de l’Europe un pôle d’excellence et de confiance dans le domaine de l’IA.
Dans la continuité du livre blanc sur l’intelligence artificielle (IA) publié en 2020 qui fixait les grandes orientations de l’Union européenne en matière d’IA, la Commission européenne a présenté un texte pour réglementer les usages de l’IA. Ce projet de règlement répond à deux objectifs essentiels : créer un écosystème d’excellence pour garantir les investissements dans ces technologies et favoriser la confiance en veillant à minimiser les risques que l’IA pourrait poser. Cet enjeu est d’autant plus primordial que les usages et l’intégration de l’IA sont de plus en plus présents dans de nombreux secteurs au quotidien : de la santé aux transports en passant par les réseaux sociaux, de nombreuses technologies sont capables aujourd’hui de reproduire des comportements considérés comme « intelligents » par les humains.
Aussi, pour garantir la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en consolidant l’utilisation de l’IA et les innovations en la matière, le texte présenté adopte une approche basée sur 4 niveaux de risque.
1.Le risque minime
Ce volet concerne la grande majorité des systèmes d’IA, par exemple les jeux vidéo ou les filtres de reconnaissance de spams, qui constituent les applications présentant un risque minime, voire nul, pour les droits ou la sécurité des citoyens : elles échapperaient donc à toute obligation.
2. Le risque limité
Pour les systèmes d’IA dont l’usage revêt un risque limité, ils seraient soumis uniquement à des obligations de transparence, notamment en notifiant aux utilisateurs qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non. Les images ou vidéos modifiées et générées avec l’aide de l’IA seraient également obligées de l’afficher. Les « agents conversationnels », appelés « chatbots » (discussions robotisées, une forme courante d’intelligence artificielle utilisée sur un réseau social ou sur un service de messagerie, particulièrement pour la relation client-entreprise), devraient par exemple également informer les utilisateurs qu’ils ne sont pas de vraies personnes.
3. Le risque inacceptable
Ce risque concerne les systèmes d’IA qui représentent une menace évidente pour la sécurité des personnes et dont les usages sont jugés contraires aux droits fondamentaux, comme le fait de manipuler le comportement, l’opinion ou les décisions humaines pour priver les utilisateurs de leur libre arbitre. Le recours à ces systèmes d’IA serait donc interdit.
4. Le risque élevé
Ce risque, le plus encadré, concerne les technologies et applications qui interfèrent avec des domaines importants de la vie (ex. les logiciels d’éducation ou de formation professionnelle, l’aide au recrutement ou les logiciels inclus dans les voitures autonomes ou encore les systèmes d’identification biométrique à distance). Les applications à haut risque seraient encore autorisées, mais en respectant six grandes exigences en matière de qualité des données, de documentation technique ou encore de contrôle humain. Elles devraient aussi se soumettre à un test de conformité avant leur mise sur le marché. Les systèmes d’identification biométrique à distance fondés sur l’IA sont considérés comme à haut risque et donc soumis à des obligations strictes : leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre serait en principe interdite, sauf en cas d’exceptions strictement définies et réglementées.
De plus, le règlement crée un Comité européen de l’intelligence artificielle composé de vingt-sept autorités nationales et de l’autorité de protection des données des institutions européennes (EDPS), pour rédiger des lignes directrices pour les États membres dont dépendra l’application du texte final.
Par ailleurs, deux autres textes ont également été présentés par la Commission européenne pour compléter cette approche européenne de l’excellence dans le domaine de l’IA :
- Un nouveau règlement, remplaçant la Directive « machines », pour mettre en conformité les équipements et machines de nouvelles générations : ce texte vise à assurer la sécurité requise aux utilisateurs et consommateurs en garantissant une intégration sûre des systèmes d’IA dans les machines.
Le plan coordonné de l’Europe en matière d’IA réactualisé (alors que le premier plan avait été publié en 2018) : ce plan actualisé vise à accélérer les investissements et favoriser l’excellence, la compétitivité et l’innovation dans les technologies de l’IA, notamment dans des secteurs technologiques à « fort impact », comme la santé ou l’agriculture. Ce plan sera en partie financé par les programmes Europe numérique et Horizon Europe ainsi que par la facilité pour la reprise et la résilience, qui prévoit de consacrer 20 % du budget au numérique. Ce plan coordonné décrit par ailleurs les réorientations et les investissements nécessaires au niveau des États membres pour renforcer la position de premier plan de l’Europe dans le développement d’une IA centrée sur l’humain, durable, sûre, inclusive et digne de confiance.
Avec ce premier cadre juridique pour réglementer l’IA, la Commission européenne montre sa détermination à encadrer les domaines clés de l’économie européenne, que ce soit dans la cybersécurité, la protection des données personnelles, ou encore l’intelligence artificielle. Cette proposition s’inscrit en effet dans une dynamique de réglementation du numérique affichée depuis plus d’un an par l’Union européenne. En participant à renforcer la souveraineté numérique de l’UE, ce règlement tend à établir une autre norme mondiale, comme cela a été fait par exemple dans un autre domaine avec le désormais très connu « RGPD » (Règlement général sur la protection des données).
Enfin, ces propositions de nouvelles normes européennes rencontrent parfaitement les grandes orientations que la Région Grand Est s’est elle-même fixée en matière d’IA dans son Plan régional en faveur de l’Intelligence Artificielle présenté dès juin 2019 : ce plan, élaboré en lien avec l’Agence régionale d’innovation et de prospection internationale, Grand E-Nov+, visait à répondre à un besoin de structuration de la filière numérique dans le Grand Est et concernait trois secteurs prioritaires : l’Industrie du Futur, la bioéconomie et la santé. A l’instar de l’ambition européenne, il s’agit pour le Grand Est de devenir, au travers de ce plan, un territoire d’excellence reconnu en intelligence artificielle appliquée dans des domaines ciblés.