Desafíos actuales de la Inteligencia Artificial

La inteligencia artificial en el ejercicio de la función jurisdiccional 189 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se esta- blecen normas armonizadas en materia de inteligencia artificial, en el que la Unión Europea ha establecido la primera Ley sobre Inteligencia Artificial Europea (LIAE) que establece un modelo de IA confiable, de transparencia y explicabilidad, de minimización del sesgo de los datos y de gestión del riesgo 14 con dos objetivos: Que el ser humano y la dignidad que le es inherente sean el centro del marco normativo y que el uso de los sistemas de IA genere con- fianza a los ciudadanos 15 . Con respecto al ejercicio de la potestad jurisdiccional que es objeto de esta comunica- ción, la LIAE consciente de la afectación del uso de la IA en los derechos fundamentales, cataloga los sistemas de IA en este ámbito como de alto riesgo 16 . No obstante, deben diferen- ciarse dos usos de estos sistemas en el ámbito de la Administración de Justicia: Los sistemas de ayuda judicial y los sistemas de tramitación. Sobre los primeros, se advierte de la afección de estos en el derecho a la tutela judicial efectiva y en la imparcialidad e independencia judicial, por lo que deben ser considerados de alto riesgo todos aquellos sistemas que complementen a los Jueces y Magistrados a la hora de interpretar los hechos objeto de enjuiciamiento y la aplicación del ordenamiento jurídico. Respecto de los segundos, estos no afectan al ejercicio de la potestad jurisdiccional sino al funcionamiento ordinario de la Administración de Justicia a través de herramientas de anonimización o seudonimización de las sentencias judiciales, de documentos, tareas administrativas o comunicaciones judiciales, por lo que han de ser consideraros de riesgo bajo. 3.2.Ámbito nacional En el ámbito nacional, se han establecido importantes estrategias y mecanismos de re- gulación en esta materia. Sirva como ejemplo, la Carta de Derechos Digitales que trata de 14 La Unión Europea a través de la LIAE ha establecido un sistema de riesgos donde se diferencia entre: 1) Sistemas de IA prohibidos, que implican un riesgo inadmisible para la seguridad, la vida y los derechos funda- mentales, por ejemplo, la identificación biométrica. 2) Sistemas de IA de alto riesgo, que afectan a los derechos y libertades de las personas, aunque si bien no están prohibidos, sí están sujetos a obligaciones reforzadas que garanticen su uso legal, ético, robusto y seguro, como por ejemplo la asistencia en la interpretación jurídica y aplicación de la ley.3) Sistemas de IA de riesgo medio/bajo como los asistentes virtuales o chatbots . 4) Sistemas IA de riego mínimo como los filtros de spam, entre otros 15 WISNER GLUSKO, Diana Carolina: “Breves reflexiones sobre la importancia del Estado de Derecho en el desarrollo del marco legal sobre los sistemas de inteligencia artificial en la Unión Europea”, Coord. GARRI- DO Garrido Martin, Joaquín y Valdivia Jiménez, Ramón, en Inteligencia artificial y filosofía del derecho, Ediciones Laborum. 2022. pp. 529-545 16 El art 6.2 del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, dispone que son sistemas de inteligencia artificial de alto riesgo los recogidos en el anexo III, en cuyo punto número ocho se recoge “ la Administración de justicia y los procesos democráticos señalando su apartado a) los “sistemas de IA destinados a ser utilizados por una autoridad judicial, o en su nombre, para ayudar a una autoridad judicial en la investigación e interpretación de hechos y de la ley, así como en la garantía del cumplimiento del Derecho a un conjunto concreto de hechos, o a ser utilizados de forma similar en una resolución alternativa de litigios”.

RkJQdWJsaXNoZXIy NTEwODM=