1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de tal manera, incluso con herramientas adecuadas de interfaz persona-máquina, que puedan ser supervisados eficazmente por personas físicas durante el período en que estén en uso.
2. La supervisión humana tendrá por objeto prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que puedan surgir cuando un sistema de IA de alto riesgo se utilice de acuerdo con su finalidad prevista o en condiciones de uso indebido razonablemente previsible, en particular cuando dichos riesgos persistan a pesar de la aplicación de otros requisitos establecidos en la presente
sección.
3. Las medidas de supervisión serán proporcionales a los riesgos, el nivel de autonomía y el contexto de uso del sistema de IA de alto riesgo, y se garantizarán mediante uno o ambos de los siguientes tipos de medidas:
(a) medidas identificadas e incorporadas, cuando sea técnicamente viable, al sistema de IA de alto riesgo por el proveedor antes de su comercialización o puesta en servicio;
(b) medidas identificadas por el proveedor antes de comercializar o poner en servicio el sistema de IA de alto riesgo y que sea conveniente que aplique el implantador.
4. A efectos de la aplicación de los apartados 1, 2 y 3, el sistema de IA de alto riesgo se facilitará a quien lo despliegue de forma que se habilite a las personas físicas a las que se asigne la supervisión humana, según proceda y resulte proporcionado:
(a) comprender adecuadamente las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y poder supervisar debidamente su funcionamiento, incluso con vistas a detectar y abordar anomalías, disfunciones y rendimientos inesperados;
(b) ser conscientes de la posible tendencia a confiar automáticamente o en exceso en los resultados producidos por un sistema de IA de alto riesgo (sesgo de automatización), en particular en el caso de los sistemas de IA de alto riesgo utilizados para proporcionar información o recomendaciones para la toma de decisiones por parte de personas físicas;
(c) interpretar correctamente los resultados del sistema de IA de alto riesgo, teniendo en cuenta, por ejemplo, las herramientas y métodos de interpretación disponibles;
(d) decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o hacer caso omiso, anular o invertir el resultado del sistema de IA de alto riesgo;
(e) intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema mediante un botón de "parada" o un procedimiento similar que permita detener el sistema en un estado seguro.
5. En el caso de los sistemas de IA de alto riesgo a que se refiere el anexo III, punto 1, letra a), las medidas a que se refiere el apartado 3 del presente artículo serán tales que garanticen que, además, el responsable del despliegue no tome ninguna medida o decisión sobre la base de la identificación resultante del sistema a menos que dicha identificación haya sido verificada y confirmada por separado por al menos dos personas físicas con la competencia, la formación y la autoridad necesarias. El requisito de verificación por separado por al menos dos personas físicas no se aplicará a los sistemas de IA de alto riesgo utilizados con fines policiales, de migración, de control fronterizo o de asilo, cuando el Derecho de la Unión o nacional considere desproporcionada la aplicación de este requisito.