1. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 a fin de modificar el anexo III añadiendo o modificando casos de uso de sistemas de IA de alto riesgo cuando se cumplan las dos condiciones siguientes:
(a) los sistemas de IA están destinados a utilizarse en cualquiera de los ámbitos enumerados en el anexo III;
(b) los sistemas de IA plantean un riesgo de daño para la salud y la seguridad, o un impacto adverso en los derechos fundamentales, y ese riesgo es equivalente o superior al riesgo de daño o de impacto adverso que plantean los sistemas de IA de alto riesgo ya mencionados en el anexo III.
2. Al evaluar la condición prevista en la letra b) del apartado 1, la Comisión tendrá en cuenta los siguientes criterios:
(a) la finalidad prevista del sistema de IA;
(b) la medida en que se ha utilizado o es probable que se utilice un sistema de IA;
(c) la naturaleza y la cantidad de los datos tratados y utilizados por el sistema de IA, en particular si se tratan categorías especiales de datos personales;
(d) la medida en que el sistema de IA actúa de forma autónoma y la posibilidad de que un humano anule una decisión o recomendaciones que puedan provocar un daño potencial;
(e) la medida en que el uso de un sistema de IA ya ha causado daños a la salud y la seguridad, ha tenido repercusiones negativas en los derechos fundamentales o ha suscitado preocupaciones importantes en relación con la probabilidad de que se produzcan tales daños o repercusiones negativas, como demuestran, por ejemplo, informes o alegaciones documentadas presentados a las autoridades nacionales competentes u otros informes, según proceda;
(f) el alcance potencial de dicho daño o impacto adverso, en particular en términos de su intensidad y su capacidad para afectar a múltiples personas o para afectar de forma desproporcionada a un grupo particular de personas;
(g) la medida en que las personas potencialmente perjudicadas o que sufren un impacto adverso dependen del resultado producido con un sistema de IA, en particular porque por razones prácticas o jurídicas no es razonablemente posible excluirse de dicho resultado;
(h) la medida en que existe un desequilibrio de poder, o las personas potencialmente perjudicadas o que sufren un impacto adverso se encuentran en una posición vulnerable en relación con quien despliega un sistema de IA, en particular debido a su estatus, autoridad, conocimientos, circunstancias económicas o sociales, o edad;
(i) la medida en que el resultado producido por un sistema de IA es fácilmente corregible o reversible, teniendo en cuenta las soluciones técnicas disponibles para corregirlo o invertirlo; los resultados que tengan un impacto adverso en la salud, la seguridad o los derechos fundamentales no se considerarán fácilmente corregibles o reversibles;
(j) la magnitud y probabilidad del beneficio del despliegue del sistema de IA para individuos, grupos o la sociedad en general, incluidas las posibles mejoras en la seguridad de los productos;
(k) la medida en que el Derecho de la Unión vigente prevé:
(i) medidas efectivas de reparación en relación con los riesgos que plantea un sistema de IA, con exclusión de las reclamaciones por daños y perjuicios;
(ii) medidas eficaces para prevenir o reducir sustancialmente dichos riesgos.
3. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 a fin de modificar la lista del anexo III suprimiendo los sistemas de IA de alto riesgo cuando se cumplan las dos condiciones siguientes:
(a) el sistema de IA de alto riesgo de que se trate ya no plantea riesgos significativos para los derechos fundamentales, la salud o la seguridad, teniendo en cuenta los criterios enumerados en el apartado 2;
(b) la supresión no disminuye el nivel general de protección de la salud, la seguridad y los derechos fundamentales con arreglo al Derecho de la Unión.