Nouvelles Mesures de l’UE pour Encadrer l’Utilisation de l’IA: Transparence, Éthique et Sécurité au Cœur de la Législation”
L’Union Européenne a franchi un pas significatif dans la régulation de l’intelligence artificielle avec la présentation de son premier ensemble législatif dédié à encadrer la production et l’utilisation de l’IA. Cette initiative, dévoilée vendredi, vise à adopter une approche basée sur le risque, en mettant l’accent sur la restriction des aspects de l’IA considérés comme les plus dangereux pour la société, selon Reuters.
Selon le député européen Dragos Tudorache, l’un des principaux négociateurs, la législation impose des exigences de transparence pour tous les modèles d’IA à usage général, avec des exigences plus strictes pour les modèles plus importants et plus puissants susceptibles de présenter des “risques systémiques pour l’Union”.
Les utilisations “à haut risque” de l’IA, classées comme telles en raison de leur potentiel de nuisance significatif pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’état de droit, devront faire l’objet de tests de sécurité rigoureux avant toute mise en service publique. Les secteurs spécifiquement mentionnés incluent les assurances, la banque, ainsi que les systèmes liés aux élections et au vote.
Les citoyens auront la possibilité de déposer des plaintes pour exiger des explications sur la manière dont une décision prise par un système d’IA a affecté leurs droits et leur vie.
Les créateurs de deepfakes, de grands modèles de langage et d’autres moteurs de création devront désormais étiqueter leur travail comme étant généré par l’IA et s’efforcer de protéger les détenteurs de droits d’auteur contre le vol de leur travail par l’IA.
La législation interdit les systèmes biométriques utilisant des “caractéristiques sensibles” telles que la race et l’orientation sexuelle pour identifier les personnes, ainsi que le raclage indiscriminé de visages dans des bases de données en ligne ou autres dépôts d’images.
Sont également prohibés les systèmes de notation sociale, les systèmes manipulant le comportement humain pour contourner leur libre arbitre, et la reconnaissance des émotions par les employeurs ou les institutions éducatives. L’utilisation de la technologie de reconnaissance faciale par les forces de l’ordre sera limitée à “certaines exemptions de sécurité et de sécurité nationale”, comme pour prévenir une “menace terroriste spécifique et présente”.
Pour l’utilisation “post-éloignée” du suivi biométrique par l’IA, la cible doit avoir été condamnée ou suspectée d’avoir commis un crime grave. Ces interdictions prendront effet dans six mois, tandis que les exigences de transparence seront appliquées à partir d’un an. L’ensemble de la législation entrera en vigueur dans deux ans.
Le projet final de législation, élaboré au cours de trois jours de négociations commençant par une session marathon de 22 heures mercredi, n’a pas encore été publié et doit être approuvé par des votes au Parlement et au Conseil européen.
L’UE espère être un leader mondial dans la régulation de l’IA, écho à ses efforts controversés pour réguler le flux d’informations sur Internet avec le Digital Services Act plus tôt cette année. Comme cette législation, elle s’accompagne de lourdes sanctions financières – les contrevenants pourraient se voir infliger des amendes allant jusqu’à 35 millions d’euros (37,7 millions de dollars) ou 7 % des revenus mondiaux.
Soyez le premier à commenter