Analyses

Cette page comprend une poignée d'analyses de la loi sur l'IA, parmi plusieurs centaines, que nous avons sélectionnées. Nous avons choisi ces analyses parce qu'elles contiennent, à notre avis, des idées constructives et stimulantes sur la manière d'améliorer la loi. La première analyse est la nôtre. 

Institut pour l'avenir de la vie

Le Future of Life Institute (FLI), un organisme indépendant à but non lucratif dont l'objectif est de maximiser les avantages de la technologie et de réduire les risques qui y sont associés, a fait part à la Commission européenne de ses recommandations concernant la loi européenne sur l'IA. Il affirme que la loi devrait garantir que les fournisseurs d'IA prennent en compte l'impact de leurs applications sur la société dans son ensemble, et pas seulement sur l'individu. Les applications d'IA qui causent des préjudices négligeables aux individus peuvent causer des préjudices importants au niveau de la société. Par exemple, une application de marketing utilisée pour influencer le comportement électoral des citoyens pourrait affecter les résultats des élections. Pour en savoir plus sur les recommandations, cliquez ici.   

Institutions de l'Université de Cambridge

Le Leverhulme Centre for the Future of Intelligence et le Centre for the Study of Existential Risk, deux institutions de premier plan de l'université de Cambridge, ont fait part à la Commission européenne de leurs commentaires sur la proposition de loi européenne sur l'IA. Ils espèrent que la loi contribuera à établir des normes internationales pour permettre les avantages et réduire les risques de l'IA. L'une de leurs recommandations est de permettre de proposer des modifications à la liste des systèmes restreints et à haut risque, afin d'accroître la flexibilité de la réglementation. Lire l'intégralité du raisonnement ici.

Access Now Europe

Access Now, une organisation qui défend et étend les droits numériques des utilisateurs à risque, a également fait part de ses commentaires sur la loi européenne sur l'IA. Elle craint que la loi, dans sa forme actuelle, n'atteigne pas l'objectif de protection des droits fondamentaux. Plus précisément, elle estime que la proposition ne va pas assez loin pour protéger les droits fondamentaux en ce qui concerne les applications biométriques telles que la reconnaissance des émotions et les polygraphes de l'IA. Le projet actuel de loi sur l'IA préconise des obligations de transparence pour ces applications, mais Access Now recommande des mesures plus strictes pour réduire tous les risques associés, telles que des interdictions. Lisez ses suggestions concrètes ici.

Michael Veale & Frederik Zuiderveen Borgesius

Michael Veale, professeur adjoint à l'University College London dans le domaine des droits et de la réglementation numériques, et Frederik Zuiderveen Borgesius, professeur de TIC et de droit privé à l'université néerlandaise Radboud, proposent une analyse approfondie de certaines des parties les plus sensibles de la loi européenne sur l'IA. L'un des points surprenants de leur article est que le respect de la loi dépendrait presque entièrement de l'auto-évaluation. L'auto-évaluation signifie qu'il n'y a pas d'obligation de se conformer à la loi. Une fois que les organismes de normalisation tels que le CEN et le CENELEC auront publié leurs normes, la vérification de la loi par un tiers ne sera plus nécessaire. L'article complet est disponible ici.

La société future

The Future Society, une organisation à but non lucratif enregistrée en Estonie, qui milite pour l'adoption responsable de l'IA au profit de l'humanité, a soumis ses commentaires à la Commission européenne sur l'Acte de l'UE sur l'IA. L'une de ses suggestions est de veiller à ce que la gouvernance reste réactive aux tendances technologiques. Cet objectif pourrait être atteint en améliorant le flux d'informations entre les institutions nationales et européennes et en compilant et en analysant systématiquement les rapports d'incidents provenant des États membres. Lire l'intégralité du retour d'information ici.

Nathalie A. Smuha et ses collègues

Nathalie A. Smuha, chercheuse à la faculté de droit de la KU Leuven, Emma Ahmed-Rengers, chercheuse en droit et informatique à l'université de Birmingham, et leurs collègues affirment que la loi européenne sur l'IA ne reconnaît pas toujours avec précision les torts et les préjudices associés aux différents types de systèmes d'IA et qu'elle n'en attribue pas la responsabilité de manière adéquate. Ils affirment également que la proposition ne fournit pas un cadre efficace pour l'application des droits et des devoirs légaux. La proposition néglige de garantir la transparence, la responsabilité et les droits de participation du public. Lire l'article complet ici.

L'alliance européenne des PME du secteur numérique

L'alliance européenne DIGITAL SME Alliance, un réseau de petites et moyennes entreprises (PME) du secteur des TIC en Europe, se félicite de l'harmonisation de la réglementation sur l'IA et de l'accent mis sur l'IA éthique dans l'UE, mais suggère de nombreuses améliorations afin d'éviter de surcharger les PME. Par exemple, elle soutient que lorsque les évaluations de conformité seront basées sur des normes, les PME devraient participer activement à l'élaboration de ces normes. Dans le cas contraire, les normes risquent d'être rédigées d'une manière impraticable pour les PME. De nombreuses autres recommandations peuvent être consultées ici.

Le coût de la loi européenne sur l'IA

Le Center for Data Innovation, une organisation à but non lucratif axée sur l'innovation fondée sur les données, a publié un rapport affirmant que la loi européenne sur l'IA coûtera 31milliards d'eurosau cours des cinq prochaines années et réduira les investissements dans l'IA de près de 20 %. L'entrepreneur Meeri Haataja et l'universitaire Joanna Bryson ont publié leurs propres recherches, qui indiquent que le coût sera probablement bien moindre, car la réglementation ne couvre qu'une petite partie des applications de l'IA considérées comme présentant un risque élevé. En outre, l'analyse des coûts ne tient pas compte de tous les avantages de la réglementation pour le public. Enfin, le CEPS, un groupe de réflexion et un forum de débat sur les affaires européennes, a publié sa propre analyse des estimations de coûts et est parvenu à une conclusion similaire à celle de M. Haataja et de Mme Bryson.  

Le préjudice sociétal et la loi

Nathalie Smuha, distingue le préjudice sociétal du préjudice individuel dans le contexte de la loi sur l'AI. Le préjudice sociétal ne concerne pas les intérêts d'un individu en particulier, mais prend en compte les préjudices subis par la société dans son ensemble, au-delà de la somme des intérêts individuels. Elle affirme que la proposition reste imprégnée de préoccupations liées presque exclusivement aux préjudices individuels et semble négliger la nécessité d'une protection contre les préjudices sociétaux de l'IA. L'article complet peut être lu ici.

Le rôle des normes

Des chercheurs d'Oxford Information Labs examinent le rôle que la loi européenne sur l'IA confère aux normes relatives à l'IA. Ils soulignent que la conformité à des normes harmonisées créera une présomption de conformité pour les applications et les services d'IA à haut risque. Cela permettra de renforcer la confiance dans le respect des exigences complexes du règlement proposé et d'inciter fortement l'industrie à se conformer aux normes européennes. L'analyse détaillée du rôle des normes dans le règlement de l'UE sur l'IA est disponible ici.