1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de forma que alcancen un nivel adecuado de precisión, solidez y ciberseguridad, y que funcionen de forma coherente en esos aspectos a lo largo de su ciclo de vida.
2. Para abordar los aspectos técnicos de cómo medir los niveles adecuados de precisión y solidez establecidos en el apartado 1 y cualquier otra métrica de rendimiento pertinente, la Comisión, en cooperación con las partes interesadas y las organizaciones pertinentes, como las autoridades de metrología y evaluación comparativa, fomentará, según proceda, el desarrollo de parámetros de referencia y metodologías de medición.
3. Los niveles de precisión y las métricas de precisión pertinentes de los sistemas de IA de alto riesgo se declararán en las instrucciones de uso adjuntas.
4. Los sistemas de IA de alto riesgo serán lo más resistentes posible frente a los errores, fallos o incoherencias que puedan producirse en el sistema o en el entorno en el que opera el sistema, en particular debido a su interacción con personas físicas u otros sistemas. Se adoptarán medidas técnicas y organizativas a este respecto. La solidez de los sistemas de IA de alto riesgo podrá lograrse mediante soluciones técnicas de redundancia, que podrán incluir planes de reserva o a prueba de fallos. Los sistemas de IA de alto riesgo que sigan aprendiendo después de su comercialización o puesta en servicio se desarrollarán de forma que se elimine o reduzca en la medida de lo posible el riesgo de que los resultados posiblemente sesgados influyan en los datos de entrada para futuras operaciones (bucles de retroalimentación), y que se garantice que dichos bucles de retroalimentación se abordan debidamente con medidas de mitigación adecuadas.
5. Los sistemas de IA de alto riesgo serán resistentes a los intentos de terceros no autorizados de alterar su uso, resultados o rendimiento aprovechando las vulnerabilidades del sistema. Las soluciones técnicas destinadas a garantizar la ciberseguridad de los sistemas de IA de alto riesgo serán adecuadas a las circunstancias y riesgos pertinentes. Las soluciones técnicas para hacer frente a las vulnerabilidades específicas de la IA incluirán, cuando proceda, medidas para prevenir, detectar, responder, resolver y controlar los ataques que intenten manipular el conjunto de datos de entrenamiento (envenenamiento de datos), o los componentes preentrenados utilizados en el entrenamiento (envenenamiento de modelos), las entradas diseñadas para hacer que el modelo de IA cometa un error (ejemplos adversos o evasión de modelos), los ataques a la confidencialidad o los defectos de los modelos.