Desafíos actuales de la Inteligencia Artificial

138 Desafíos actuales de la Inteligencia Artificial 6. LOS POSIBLES “EFECTO BRUSELAS” Y “EFECTO ESTRASBURGO” DE LA REGULACIÓN EUROPEA DE LA INTELIGENCIA ARTIFICIAL. En un conocido artículo publicado en 2012, que adoptó formato de libro en 2020, la profesora Anu Bradford explicó cómo y por qué las normas y reglamentos “de Bruselas” han penetrado en muchos aspectos de la vida económica dentro y fuera de Europa a través del proceso de “globalización normativa unilateral”. La potencia del mercado interior de la UE, unido a unas instituciones reguladoras con buena reputación, obliga a las empresas extranjeras que quieran participar en ese mercado a adaptar su conducta o su producción a las normas de la UE, que a menudo son las más estrictas; la alternativa es la renuncia a ese mercado. Explica Bradford que las empresas multinacionales suelen tener un incentivo para estandarizar su producción a escala mundial y adherirse a una única norma. Esto convierte a la norma de la UE en una norma mundial: es el “efecto Bruselas de facto”. Y, una vez que estas empresas orientadas a la exportación hayan ajustado sus prácticas empresariales para cumplir las estrictas normas de la UE, a menudo tienen el incentivo de presionar a sus gobier- nos para que adopten esas mismas normas en un esfuerzo por igualar las condiciones frente a las empresas nacionales no exportadoras: el “efecto Bruselas de iure”. Pues bien, cabría pensar que la regulación europea de la IA podría generar, en la línea de lo que ha ocurrido en ámbitos como la vida privada y la protección de datos, una expor- tación del contenido de esa nueva normativa a otros Estados, un “efecto Bruselas” sobre la regulación de la IA. Sin embargo, la propia Bradford se ha mostrado escéptica al respecto en su último trabajo - Digital Empires: The Global Battle to Global Battle to Regulate Technology -, de 2023, recordando que Estados Unidos sigue siendo un modelo basado en el mercado abierto, China un modelo de centralismo estatal y la Unión Europea sigue apostando por la regulación. Ahora bien, Estados Unidos también ha optado por aprobar normas que regulen la IA, aunque no sea con la misma intensidad que en la Unión Europeas; así, el 30 de octubre de 2023 el presidente Biden emitió la Executive Order on Safe, Secure, and Trustworthy Artificial Intelli- gence , donde se proclama que el Gobierno Federal tratará de promover principios y acciones responsables de seguridad y protección de la IA con otras naciones, “incluidos nuestros com- petidores”. Además, y en la línea de la UE, en esa Orden se define la IA como un sistema basado en máquinas que puede, para un conjunto dado de objetivos definidos por el ser humano, hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales. Y se enuncian los ocho principios que deben guiar el desarrollo de la IA: la seguridad de los sistemas, la innovación responsable, el compromiso con los trabajadores, avance en igualdad y derechos, protección de los consumidores, protección de la intimidad, gestión de los riesgos y uso responsable de la IA, búsqueda del liderazgo social, económico y tecnológico. En definitiva, y aunque en el caso de la regulación de la IA el impacto del “efecto Bruse- las” pueda ser menor que en otros ámbitos, no parece en absoluto, por lo que está ocurriendo en otros espacios jurídicos, que esta propuesta vaya a tener repercusiones únicamente hacia dentro de la Unión.

RkJQdWJsaXNoZXIy NTEwODM=