Análisis

Esta página incluye un puñado de análisis de la Ley de IA, entre muchos cientos, que hemos seleccionado. Hemos elegido estos análisis porque, en nuestra opinión, contienen ideas constructivas y que invitan a la reflexión sobre cómo mejorar la Ley. El primer análisis es nuestro. 

Instituto del Futuro de la Vida

El Future of Life Institute (FLI), organización independiente sin ánimo de lucro cuyo objetivo es maximizar los beneficios de la tecnología y reducir sus riesgos asociados, ha presentado a la Comisión Europea sus recomendaciones para la Ley de Inteligencia Artificial de la UE. Según el FLI, la Ley debe garantizar que los proveedores de IA tengan en cuenta el impacto de sus aplicaciones en la sociedad en general, no sólo en el individuo. Las aplicaciones de IA que causan daños insignificantes a los individuos podrían causar daños significativos a nivel social. Por ejemplo, una aplicación de marketing utilizada para influir en el comportamiento electoral de los ciudadanos podría afectar a los resultados de las elecciones. Lea aquí más recomendaciones.   

Instituciones de la Universidad de Cambridge

El Centro Leverhulme para el Futuro de la Inteligencia y el Centro para el Estudio del Riesgo Existencial, dos instituciones punteras de la Universidad de Cambridge, presentaron a la Comisión Europea sus comentarios sobre la propuesta de ley de la UE sobre IA. Esperan que la Ley contribuya a establecer normas a escala internacional para hacer posibles los beneficios y reducir los riesgos de la IA. Una de sus recomendaciones es permitir que se propongan cambios en la lista de sistemas restringidos y de alto riesgo, aumentando así la flexibilidad de la normativa. Lea el razonamiento completo aquí.

Acceso ahora Europa

Access Now, organización que defiende y amplía los derechos digitales de los usuarios en situación de riesgo, también ha aportado sus comentarios sobre la Ley de AI de la UE. Le preocupa que la ley, en su forma actual, no logre el objetivo de proteger los derechos fundamentales. En concreto, no cree que la propuesta vaya lo suficientemente lejos como para proteger los derechos fundamentales en relación con aplicaciones biométricas como el reconocimiento de emociones y los polígrafos de IA. El actual borrador de la Ley de IA aboga por obligaciones de transparencia para estas aplicaciones, pero Access Now recomienda medidas más contundentes para reducir todos los riesgos asociados, como prohibiciones. Lea sus sugerencias concretas aquí.

Michael Veale y Frederik Zuiderveen Borgesius

Michael Veale, catedrático adjunto de Derechos Digitales y Regulación del University College de Londres, y Frederik Zuiderveen Borgesius, catedrático de TIC y Derecho Privado de la Universidad holandesa de Radboud, analizan a fondo algunas de las partes más delicadas de la Ley de Inteligencia Artificial de la UE. Una de las muchas ideas sorprendentes de su artículo es que el cumplimiento de la ley dependería casi por completo de la autoevaluación. La autoevaluación significa que no hay obligación de cumplir la ley. Una vez que organismos de normalización como el CEN y el CENELEC hayan publicado sus normas, ya no será necesaria la verificación por terceros del cumplimiento de la ley. El artículo completo puede consultarse aquí.

La sociedad del futuro

La Sociedad del Futuro, organización sin ánimo de lucro registrada en Estonia que aboga por la adopción responsable de la IA en beneficio de la humanidad, presentó a la Comisión Europea sus comentarios sobre la Ley de IA de la UE. Una de sus sugerencias es garantizar que la gobernanza siga respondiendo a las tendencias tecnológicas. Esto podría lograrse mejorando el flujo de información entre las instituciones nacionales y europeas y recopilando y analizando sistemáticamente los informes de incidentes de los Estados miembros. Lea la respuesta completa aquí.

Nathalie A. Smuha y colaboradores

Nathalie A. Smuha, investigadora de la Facultad de Derecho de la Universidad Católica de Lovaina, Emma Ahmed-Rengers, investigadora doctoral en Derecho e Informática de la Universidad de Birmingham, y sus colegas sostienen que la Ley de Inteligencia Artificial de la UE no siempre reconoce con precisión los males y daños asociados a los distintos tipos de sistemas de IA ni asigna adecuadamente la responsabilidad por ellos. También afirman que la propuesta no proporciona un marco eficaz para el cumplimiento de los derechos y deberes legales. La propuesta se olvida de garantizar una transparencia significativa, la rendición de cuentas y los derechos de participación pública. Lea el artículo completo aquí.

Alianza Europea DIGITAL para las PYME

La Alianza Europea DIGITAL para las PYME, una red de pequeñas y medianas empresas (PYME) europeas del sector de las TIC, acoge con satisfacción la armonización de la normativa sobre IA y la atención prestada a la IA ética en la UE, pero sugiere muchas mejoras para evitar sobrecargar a las PYME. Por ejemplo, sostiene que siempre que las evaluaciones de conformidad se basen en normas, las PYME deben participar activamente en el desarrollo de las mismas. De lo contrario, las normas podrían redactarse de forma poco práctica para las PYME. Muchas otras recomendaciones pueden leerse aquí.

El coste de la Ley de IA de la UE

Center for Data Innovation, una organización sin ánimo de lucro centrada en la innovación impulsada por los datos, publicó un informe en el que afirmaba que la Ley de IA de la UE costará 31.000 millones de euros en los próximos cinco años y reducirá las inversiones en IA en casi un 20%. El empresario Meeri Haataja y la académica Joanna Bryson publicaron su propia investigación en la que escribían que probablemente será mucho más barato, ya que el reglamento cubre sobre todo una pequeña proporción de aplicaciones de IA consideradas de alto riesgo. Además, el análisis de costes no tiene en cuenta todos los beneficios de la regulación para el público. Por último, CEPS, un grupo de reflexión y foro de debate sobre asuntos de la UE, publicó sus propios análisis de las estimaciones de costes y llegó a una conclusión similar a la de Haataja y Bryson.  

El perjuicio social y la Ley

Nathalie Smuha, distingue el perjuicio social del perjuicio individual en el contexto de la Ley de AI. El perjuicio para la sociedad no se refiere a los intereses de un individuo concreto, sino que tiene en cuenta los perjuicios para la sociedad en su conjunto, más allá de la suma de los intereses individuales. Afirma que la propuesta sigue estando imbuida de preocupaciones relacionadas casi exclusivamente con el daño individual, y parece pasar por alto la necesidad de protección contra los daños sociales de la IA. El documento completo puede leerse aquí.

El papel de las normas

Investigadores de Oxford Information Labs debaten el papel que la Ley de Inteligencia Artificial de la UE otorga a las normas sobre IA. El punto clave que plantean es que la conformidad con las normas armonizadas creará una presunción de conformidad para las aplicaciones y servicios de IA de alto riesgo. Esto, a su vez, puede aumentar la confianza en que cumplen los complejos requisitos del reglamento propuesto y crear fuertes incentivos para que la industria cumpla las normas europeas. Aquí encontrará un extenso análisis del papel de las normas en el Reglamento de la UE sobre IA.