Cela fait presque un an que la Fee européenne a dévoilé le projet de ce qui pourrait bien être l’un des cadres juridiques les plus influents au monde : le Loi sur l’IA de l’UE. Selon la Fondation Mozilla, le cadre est toujours en cours de développement et il est maintenant temps de s’engager activement dans l’effort de façonner sa course.
La mission déclarée de la Fondation Mozilla est de veiller à ce qu’Web reste une ressource publique ouverte et accessible à tous. Depuis 2019, la Fondation Mozilla a concentré une partie importante de ses programmes de création de mouvements de santé sur Web sur l’IA.
Nous avons rencontré le directeur exécutif de la Fondation Mozilla, Mark Surman, et le chercheur principal en politiques, Maximilian Gahntz, pour discuter de l’orientation et de la place de Mozilla sur l’IA, des faits clés concernant la loi européenne sur l’IA et de son fonctionnement dans la pratique, ainsi que des recommandations de Mozilla pour l’améliorer et des moyens pour que chacun soit impliqué dans le processus.
La loi européenne sur l’IA est en route, et c’est un gros problème même si vous n’êtes pas basé dans l’UE
En 2019, Mozilla a identifié l’IA comme un nouveau défi pour la santé d’Web. Le raisonnement est que l’IA prend des décisions pour nous et à notre sujet, mais pas toujours avec nous : elle peut nous dire quelles nouvelles nous lisons, quelles publicités nous voyons ou si nous sommes éligibles pour un prêt.
Les décisions prises par l’IA ont le potentiel d’aider l’humanité mais aussi de nous nuire, Remarques de Mozilla. L’IA peut amplifier les préjugés et la discrimination historiques, donner la priorité à l’engagement plutôt qu’au bien-être des utilisateurs, cimenter davantage le pouvoir de la Huge Tech et marginaliser les individus.
« Une IA digne de confiance a été un élément clé pour nous au cours des dernières années, automobile les données et l’apprentissage automatique et ce que nous appelons aujourd’hui l’IA sont un tissu industrial approach et social tellement central pour ce qu’est Web et remark Web se croise avec la société et l’ensemble de nos vies », a noté Surman.
Alors que l’IA imprègne de plus en plus nos vies, Mozilla convient avec l’UE qu’un changement est nécessaire dans les normes et les règles régissant l’IA, écrit Gahntz dans La réaction de Mozilla à la loi européenne sur l’IA.
La première selected à noter à propos de la loi européenne sur l’IA est qu’elle ne s’applique pas exclusivement aux organisations ou aux citoyens basés dans l’UE. L’ondulation peut être ressentie dans le monde entier de la même manière que l’effet que le RGPD a eu.
La loi européenne sur l’IA s’applique aux utilisateurs et aux fournisseurs de systèmes d’IA situés dans l’UE, aux fournisseurs établis en dehors de l’UE qui sont à l’origine de la mise sur le marché ou de la mise en service d’un système d’IA au sein de l’UE, et aux fournisseurs et utilisateurs de systèmes d’IA établis en dehors de l’UE lorsque les résultats générés par le système sont utilisés dans l’UE.
Cela signifie que les organisations développant et déployant des systèmes d’IA devront soit se conformer à la loi de l’UE sur l’IA, soit se retirer complètement de l’UE. Cela dit, la loi sur l’IA de l’UE diffère à certains égards de RGPD — Mais plus là-dessus plus tard.
Comme toutes les réglementations, la loi européenne sur l’IA swimsuit une ligne high quality entre les besoins des entreprises et de la recherche et les préoccupations des citoyens Par ra2 studio — Shutterstock
Un autre level clé concernant la loi européenne sur l’IA est qu’il s’agit toujours d’un travail en cours et qu’il faudra un sure temps avant qu’il ne devienne effectif. Son cycle de vie a commencé avec la formation d’un groupe d’specialists de haut niveau, qui, comme l’a noté Surman, a coïncidé avec l’accent mis par Mozilla sur l’IA digne de confiance. Mozilla surveille de près la loi européenne sur l’IA depuis 2019.
Comme l’a noté Gahntz, depuis la publication du premier projet de loi sur l’IA de l’UE en avril 2021, toutes les personnes impliquées dans ce processus se préparent à s’engager. Le Parlement européen devait décider quelles commissions et quelles personnes de ces commissions y travailleraient, et les organisations de la société civile ont eu la possibilité de lire le texte et de développer leur place.
Le level où nous en sommes en ce second est là où la partie passionnante start, comme l’a dit Gahntz. C’est à ce second que le Parlement européen élabore sa place, en tenant compte des contributions qu’il reçoit des commissions désignées ainsi que des tiers. Une fois que le Parlement européen aura consolidé ce qu’il comprend sous le terme d’IA digne de confiance, il soumettra ses idées sur la manière de modifier le projet preliminary.
Les États membres de l’UE feront de même, puis il y aura un dernier cycle de négociations entre le Parlement, la Fee et les États membres, et c’est à ce moment-là que la loi européenne sur l’IA sera promulguée. C’est une route longue et sinueuse, et selon Gahntz, nous envisageons un horizon d’un an au minimal, plus une période de transition entre la promulgation de la loi et son entrée en vigueur.
Pour le RGPD, la période de transition était de deux ans. Ce ne sera donc probablement pas avant 2025, jusqu’à ce que la loi européenne sur l’IA entre en vigueur.
Définir et catégoriser les systèmes d’IA
Avant d’entrer dans les détails de la loi européenne sur l’IA, nous devrions nous arrêter et nous demander à quoi elle s’applique exactement. Il n’existe pas de définition largement acceptée de l’IA, c’est pourquoi la loi de l’UE sur l’IA fournit une annexe qui définit les methods et les approches qui entrent dans son champ d’utility.
Comme noté par l’Institut d’éthique en IA de Montréalla Fee européenne a choisi une définition massive et neutre des systèmes d’IA, les désignant comme des logiciels « qui sont développés avec une ou plusieurs des methods et approches énumérées à l’annexe I et peuvent, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent ».
Les methods mentionnées dans l’annexe de la loi sur l’IA de l’UE comprennent à la fois des approches d’apprentissage automatique et des approches basées sur la logique et les connaissances. Ils sont vastes, au level de dessin critique pour « proposer de réglementer l’utilisation de l’estimation bayésienne ». Bien que la navigation entre les besoins des entreprises et de la recherche et les préoccupations des citoyens soit délicate, de telles affirmations ne semblent pas saisir l’essentiel de la philosophie du projet de loi : l’approche dite fondée sur le risque.
Dans la loi européenne sur l’IA, les systèmes d’IA sont classés en 4 catégories en fonction du risque perçu qu’ils présentent : les systèmes à risque inacceptable sont totalement interdits (bien que certaines exceptions s’appliquent), les systèmes à haut risque sont soumis à des règles de traçabilité, de transparence et de robustesse, à faible -les systèmes de risque exigent la transparence de la half du fournisseur, et les systèmes de risque minimal pour lesquels aucune exigence n’est fixée.
Il ne s’agit donc pas de réglementer certaines methods mais plutôt de réglementer l’utility de ces methods dans certaines purposes en fonction du risque que présentent les purposes. En ce qui concerne les methods, le cadre proposé notice que des diversifications supplémentaires peuvent être nécessaires pour suivre l’évolution du domaine.
Sont exclus du champ d’utility de la loi européenne sur l’IA les systèmes d’IA développés ou utilisés exclusivement à des fins militaires. Les autorités publiques de pays tiers et les organisations internationales utilisant des systèmes d’IA dans le cadre d’accords internationaux de coopération judiciaire et répressive avec l’UE ou avec un ou plusieurs de ses membres sont également exemptées de la loi de l’UE sur l’IA.
Dans la loi européenne sur l’IA, les systèmes d’IA sont classés en 4 catégories en fonction du risque perçu qu’ils présentent Getty Photos/iStockphoto
Les purposes d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre et les systèmes qui permettent une notation sociale par les États membres de l’UE sont classés comme présentant un risque inacceptable et sont carrément interdits.
Les systèmes d’IA à haut risque comprennent l’identification biométrique, la gestion des infrastructures critiques (eau, énergie, and so on.), les systèmes d’IA destinés à être affectés dans les établissements d’enseignement ou pour la gestion des ressources humaines, et les purposes d’IA pour l’accès aux companies essentiels (crédits bancaires, companies publics, companies sociaux). avantages sociaux, justice, and so on.), utilisation pour des missions de police ainsi que pour la gestion des migrations et le contrôle des frontières.
Cependant, l’utility de identification biométrique comprend plusieurs exceptions, telles que la recherche d’un enfant disparu ou la localisation de suspects dans des affaires de terrorisme, de traite des êtres humains ou de pédopornographie. La loi européenne sur l’IA stipule que les systèmes d’IA à haut risque doivent être enregistrés dans une base de données gérée par la Fee européenne.
Les systèmes à risque limité incluent principalement divers bots. Pour ceux-ci, la principale exigence est la transparence. Par exemple, si les utilisateurs interagissent avec un chatbot, ils doivent en être informés, afin qu’ils puissent prendre une décision éclairée sur l’opportunité de continuer ou non.
Enfin, selon la Fee, les systèmes d’IA qui ne présentent pas de risque pour les droits des citoyens, tels que les filtres anti-spam ou les jeux, sont exemptés de l’obligation réglementaire.
La loi européenne sur l’IA comme moyen d’atteindre une IA digne de confiance
L’idée principale qui sous-tend cette approche de la réglementation de l’IA basée sur les risques rappelle quelque peu l’approche appliquée à l’étiquetage des appareils électroménagers en fonction de leur efficacité énergétique dans l’UE. Les appareils sont classés en fonction de leurs caractéristiques d’efficacité énergétique et reçoivent des labels allant de A (meilleur) à G (pire).
Mais il y a aussi des différences importantes. Plus vital encore, alors que les étiquettes énergétiques sont censées être vues et prises en compte par les consommateurs, l’évaluation des risques des systèmes d’IA n’est pas conçue avec le même objectif en tête. Cependant, si Mozilla réussit, cela pourrait changer au second où la loi sur l’IA de l’UE entrera en vigueur.
Il est toujours intéressant de faire des analogies, mais ce qui est vraiment vital ici, c’est que l’approche basée sur les risques tente de minimiser l’impression de la réglementation sur ceux qui développent et déploient des systèmes d’IA peu ou pas préoccupants, a déclaré Gahntz.
« L’idée est de concentrer l’consideration sur les éléments où cela devient délicat, là où le risque est introduit pour la sécurité, les droits et la vie privée des personnes, and so on. C’est aussi la partie sur laquelle nous voulons nous concentrer automobile la réglementation n’est pas une fin dans et de lui-même.
Nous voulons accomplir nos recommandations et notre travail de plaidoyer autour de cela. Les events du règlement qui se concentrent sur l’atténuation ou la prévention des risques sont renforcées dans la model finale de la loi sur l’IA de l’UE.
Il y a beaucoup d’analogies à établir avec d’autres approches fondées sur les risques que nous voyons ailleurs dans la législation et la réglementation européennes. Mais il est également vital d’examiner les risques spécifiques à chaque cas d’utilisation. Cela signifie essentiellement répondre à la query de savoir remark nous pouvons nous assurer que l’IA est digne de confiance », a déclaré Gahntz.
Gahntz et Surman ont souligné que les recommandations de Mozilla ont été élaborées avec soin et avec la diligence requise pour s’assurer que personne ne soit blessé et que l’IA finisse par être un avantage internet pour tous.
Nous continuerons avec une élaboration des recommandations de Mozilla pour améliorer la loi européenne sur l’IA, ainsi que la philosophie sous-jacente de L’IA digne de confiance et la théorie du changement de l’IA et remark s’impliquer dans la dialog partie 2 de cet article.