Desafíos actuales de la Inteligencia Artificial

136 Desafíos actuales de la Inteligencia Artificial seres humanos, al tiempo que se supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia. Estos principios se concretan a lo largo del articulado del RIA y, en una línea similar, aunque de manera más genérica, el CIA prevé, entre las obligaciones generales para los sistemas de IA, las de transparencia y supervisión; las de igualdad y no discriminación; las de privacidad y protección de datos personales; la de la fiabilidad y la de la transparencia. 4. UN ENFOQUE DE LA REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL BA- SADO EN LOS RIESGOS. La regulación de la IA, tal y como se concibe en Europa, aunque no solo en este espacio jurídico, requiere la aplicación de un enfoque basado en los riesgos, que adapte las normas y su contenido a la intensidad y el alcance de los riesgos que puedan generar los sistemas de IA. Se trata de una de las concreciones del bien conocido «principio de precaución», que guía la actuación de la Unión Europea. El RIA define el riesgo como la combinación de la probabilidad de que se produzca un perjuicio y la gravedad de dicho perjuicio (artículo 3.2) y, como consecuencia, en algunos casos el riesgo resultante será inaceptable y eso conducirá a la prohibición de los sistemas que lo generen. Otros sistemas se caracterizan de alto riesgo porque son capaces de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas; por este motivo se les someterá (artículo 9) a un proceso iterativo continuo, planificado y ejecutado durante todo el ciclo de vida, que requerirá revisiones y actualizaciones sistemáticas periódi- cas. Constará de las siguientes etapas: a) la determinación y el análisis de los riesgos conocidos y previsibles que el sistema de IA pueda plantear para la salud, la seguridad o los derechos fundamentales cuando se utilice de conformidad con su finalidad prevista; b) la estimación y la evaluación de los riesgos que podrían surgir cuando el sistema de IA se utilice de confor- midad con su finalidad prevista y cuando se le dé un uso indebido razonablemente previsible; c) la evaluación de otros riesgos que podrían surgir, a partir del análisis de los datos recogidos con el sistema de vigilancia post-comercialización; d) la adopción de medidas adecuadas y específicas de gestión de riesgos diseñadas para hacer frente a los riesgos detectados… Con vistas a eliminar o reducir los riesgos asociados a la utilización del sistema de IA de alto riesgo, se tendrán en cuenta los conocimientos técnicos, la experiencia, la educación y la formación que se espera que posea el responsable del despliegue, así como el contexto en el que está previsto que se utilice el sistema. También el CIA contempla un marco jurídico de gestión de riesgos e impactos (artículo 16), imponiendo a los Estados parte medidas para la identificación, evaluación, prevención y mitigación de los riesgos planteados por los sistemas de inteligencia artificial, teniendo en cuenta los impactos reales y potenciales en los derechos humanos, la democracia y el Estado de Derecho. Dichas medidas se graduarán y diferenciarán, según proceda, y deberán tener en cuenta el contexto y el uso previsto de los sistemas de IA, en particular en lo que respecta

RkJQdWJsaXNoZXIy NTEwODM=