Primera propuesta de reglamento sobre inteligencia artificial en la UE: En búsqueda de un mundo más humanista

image_pdfimage_print

La Presidencia del Consejo y los negociadores del Parlamento Europeo dieron luz verde en diciembre de 2023 al acuerdo provisional sobre la primera propuesta legislativa relativa a normas armonizadas en materia de Inteligencia Artificial (IA), un referente mundial en la regulación de la IA, que se encuentra en el centro de relevantes conversaciones geopolíticas1. El objetivo del citado Proyecto de Reglamento se fundamenta en garantizar que los sistemas de IA operantes en el mercado europeo y que son utilizados en dicha comunidad sean seguros y respeten los derechos fundamentales y valores de la UE, esto es, seguridad y confiabilidad. El citado texto legal se prevé aplicar a partir de 2026.

En base a lo anterior, en este post se pretende mostrar al lector la ineludible vinculación que posee dicha propuesta legislativa con los objetivos relacionados con la sostenibilidad marcados por la UE, toda vez que ha sido acordado en un periodo donde, por un lado, la importancia de los criterios ASG a nivel europeo, y en general, a nivel mundial es cada vez mayor, y por otro, donde el uso de la IA está creciendo a un nivel exponencial2. Como consecuencia, los importantes riesgos legales y desafíos que esta tecnología plantea provocan que el uso responsable de la inteligencia artificial (RAI) resulte esencial para avanzar hacia una sociedad equilibrada, confiable y próspera, y, por tanto, se configure como un gran reto a afrontar en la agenda ASG de instituciones y entidades.

En primer lugar, se hace preciso centrar el foco de atención en la perspectiva humanista que se desprende de la propuesta legislativa sobre IA. Al respecto uno de los principales propósitos es respetar y proteger los derechos fundamentales de las personas, tanto desde la perspectiva de la IA legal como desde el enfoque de la ética digital y el uso de tecnologías seguras y responsables, conocida como IA ética. El motivo fundamental que impulsa este objetivo es el riesgo al que están sometido derechos tales como la igualdad, no discriminación, libertad de expresión, dignidad humana o protección de datos personales, al hacer uso de sistemas de IA, ya que, a pesar de ser un gran avance para el entramado organizativo y empresarial así como para toda la sociedad en su conjunto, no resulta baladí las posibles implicaciones que estos sistemas pueden tener sobre los derechos fundamentales y sobre la seguridad de los usuarios que adquieren servicios y productos con tecnologías de IA integradas.

Por todo ello, la UE propone una regulación de la IA, en todo el mercado europeo, basado en los riesgos, de forma tal que, a mayor riesgo, mayores obligaciones legales y más rigurosas, buscando, además, que la misma sirva como referente mundial para la regulación de la IA en otras jurisdicciones. De acuerdo con ello, la citada regulación propone diferentes requisitos para los cuatro niveles de riesgos propuestos, que van desde “inaceptable” a “mínimo”, tal y como se muestra en la siguiente figura:

Fuente: Forética (2024). Tendencias ESG 2024. Claves para la Agenda empresarial de sostenibilidad. Obtenido de Comisión Europea.

Con esa finalidad, la comunidad europea propone una serie de elementos a tener en cuenta para alcanzar un sistema de IA seguro y fiable, y que en términos generales son los que a continuación se detallan:

  • Normas sobre modelos de IA de uso general de gran impacto3 que puedan causar un riesgo sistémico, junto con normas sobre los sistemas de IA de riesgo elevado.
  • Un sistema de gobernanza cuyas competencias relativas a la ejecución del mismo han sido en parte otorgadas a la UE. Con tal fin, se ha creado una oficina de IA en la Comisión para supervisar los modelos de IA más avanzados, fomentar las prácticas de prueba, y garantizar que se cumplen con las normas comunes en todos los Estados Miembros.
  • Incremento de las prohibiciones, aunque con limitaciones para las autoridades policiales que pueden hacer uso de la identificación biométrica remota4 en zonas públicas con determinadas garantías.
  • Mejora en la protección de los derechos fundamentales al exigir a los que hagan uso de sistemas de IA de alto riesgo una pre – evaluación del impacto que dicha implementación ocasionaría en los derechos humanos.

De acuerdo con lo expuesto, se puede concluir que la citada regulación busca dos objetivos fundamentales en su conexión con la sostenibilidad:

  • Impulsar una IA confiable reduciendo los impactos negativos derivados de su uso. Al respecto, el uso irresponsable de la IA puede dar lugar a impactos sociales y ambientales negativos de gran relevancia que deben evitarse, como, por ejemplo:
  • En el entorno medioambiental, por un lado, el derivado de la elevada demanda energética que supone su uso, y por otro, el ocasionado por el empleo intensivo de materias primas tales como el cobalto, el litio, el níquel, entro otros, que ejercen presión sobre la naturaleza y ponen en peligro la integridad social al encontrarse en zonas de alto riesgo (i.e. Rusia, República Democrática del Congo, etc.)
  • En el aspecto social, el provocado en el entorno laboral al ser capaz de sustituir puestos de trabajo aumentando la tasa de empleo, así como el producido en las relaciones humanas ante el ineludible cambio que suscita en la forma de comunicarnos y actuar en el día a día.
  • El empleo responsable de la IA para estimular la inversión y la innovación. La aplicación de la IA puede convertirse también en una buena alidada de la sostenibilidad ya que sus múltiples aplicaciones pueden mejorar y acelerar la repercusión de las políticas ASG en la sociedad. Ejemplo de ello se puede encontrar en el desarrollo de la I+D en tecnologías verdes; avances en la educación; mayor productividad en la investigación de curas contra enfermedades; mejora en la gestión y el reporte en materia de sostenibilidad en las corporaciones, así como en el análisis de riesgos y oportunidades ASG, entre otras.

En conclusión, la IA se configura como un nuevo paradigma con una importante incidencia en la privacidad de las personas, por ello, este nuevo acuerdo regulatorio por parte de la UE no sólo se configura como un gran reto mundial en un acelerado entorno tecnológico, sino también un gran acierto para avanzar hacia una sociedad próspera y comprometida con la sostenibilidad.

Así, como acertadamente expuso Stephen Hawking, “la inteligencia artificial es el mayor desafío de nuestra época. Es una tecnología que tiene el potencial de mejorar nuestras vidas de muchas maneras, pero también podría ser utilizada para causar daños. Debemos ser muy cuidadosos con cómo desarrollamos y usamos esta tecnología”.


[1] Por ejemplo, en la asociación transatlántica creada entre la UE y los EE. UU., conocida como Consejo de Comercio y Tecnología, para facilitar el comercio y poner en marcha normas mundiales en materia de tecnología y seguridad. Ambas potencias están intentando llegar a acuerdos para establecer los principios que sustentan una IA confiable y responsable.

[2] Ejemplo de ello lo encontramos en el lanzamiento de ChatGPT que ha mostrado aceleradas tasas de adopción de la tecnología, multiplicándose el número de usuarios en cuestión de días.

[3] Hace referencia a los sistemas de IA que pueden utilizarse para varios fines diferentes y que disponen de una gran cantidad de datos caracterizados por su complejidad que pueden generar riesgos sistémicos.

[4] La identificación biométrica es la técnica que permite distinguir y chequear la identidad de una persona mediante el reconocimiento de determinados rasgos que son exclusivamente de dicha persona.

Autores

María del Mar Molina Parra
Arnie Zareei Bogoya
José Antonio Díaz Campos
Edufinet
José M. Domínguez Martínez
¿Quieres escribir en nuestro blog?

Estamos abiertos a colaboraciones, cualquier artículo que se quiera publicar nos lo pueden enviar a contacto@edufinet.com.

Los autores seleccionados recibirán un obsequio