Oportunidades y desafíos de la regulación europea de la IA

6min

La Inteligencia Artificial está abriendo extraordinarias oportunidades, pero como sucede en los orígenes de cualquier tecnología disruptora, también plantea interrogantes y desafíos. Entre ellos, sobresalen la seguridad, la privacidad, la democratización del acceso a la misma y la confianza en las aplicaciones que funcionan a partir de ella. La Unión Europea ya ha avanzado de cara a su regulación.

Índice

El enfoque de la IA responsable como base

En apenas un año, la Inteligencia Artificial ha pasado de ser un tema propio de novelas distópicas y películas de ciencia ficción a una conversación habitual entre personas sin vinculación directa con el mundo tecnológico.

Parece claro que, en una transformación que afecta a todos los sectores de la sociedad, subyace la necesidad de que las organizaciones apuesten por el enfoque de la Inteligencia Artificial responsable, definido como el marco de gobernanza que documente la forma en que esta aborda los desafíos de esa tecnología desde el punto de vista ético y legal. Y, en paralelo a esa perspectiva, circula el debate sobre la pertinencia de que se produzca una regulación de la IA por parte de las instituciones públicas. 

Ya en abril de 2021, la Comisión Europea propuso la formación de un marco regulador para su uso en los países miembros de la UE. La idea que germinaba de dicha propuesta era que los sistemas de IA utilizados en cualquier aplicación fueran analizados y clasificados según el riesgo que pudiesen suponer para los usuarios. No obstante, también hay que tener en cuenta que la IA no deja de ser una forma de procesar datos y  que los usuarios europeos ya tienen  un marco jurídico para proteger sus derechos, el propio RGPD.

Más de dos años después, con la popularización de los avances de compañías como OpenAI, Europa va mucho más allá y ya está desarrollando la que promete ser la primera normativa sobre esta tecnología del mundo: la Ley de Inteligencia Artificial

¿Cuáles son las claves de la Ley de Inteligencia Artificial de la UE?

El pasado 14 de junio de 2023, los eurodiputados acordaron comenzar las conversaciones acerca de la forma que determinarán la formalización de la primera ley integral en el planeta sobre esta tecnología. El propósito es que, a finales de este año, esté establecida una regulación sobre la IA en la Unión Europea y pueda entrar en vigor en los años siguientes. Los principales desafíos a los que se enfrenta esta norma pionera en el mundo se centran en clasificar los sistemas de IA en función de su tipología

Por ello, la UE propone un sistema de categorización en función del riesgo potencial que posee para los ciudadanos. 

Sistemas de IA de riesgo inaceptable

En este caso, la ley prohibirá toda aquella herramienta que sea utilizada con los siguientes fines:

  • Manipulación de grupos o personas vulnerables. El ejemplo que pone la UE para estos casos son aquellos juguetes que puedan ser activados mediante la voz por niños y promuevan comportamientos peligrosos. 
  • Sistemas de identificación biométrica en tiempo real y en espacios públicos. Entre ellos se incluye, por ejemplo, la identificación facial. La excepción en estos casos se producirá con los sistemas biométricos usados por motivos de seguridad en la que la identificación se produce a posteriori y siempre tras una autorización judicial. 
  • Sistemas que promueven la puntuación social. En su lucha por evitar la discriminación, la nueva regulación de la IA en la Unión Europea prohibirá aquellas aplicaciones que fomenten la identificación de personas en función de aspectos como su estatus social o económico, su aspecto físico o su comportamiento personal. 

Sistemas de IA de alto riesgo

Todos ellos habrán de ser evaluados antes de su puesta al servicio de los ciudadanos y tener una vigilancia durante su ciclo de vida. Sólo podrán introducirse en el mercado si se demuestra su respeto a los valores de la Unión Europea y los derechos fundamentales. 

Los sistemas de alto riesgo deberán estar registrados en una base de datos creada por la UE.  Serán considerados como tal los que formen parte de los siguientes ámbitos. 

  • Aplicación de la ley. 
  • Gestión del asilo, la migración y el control de fronteras. 
  • Empleo, administración de trabajadores y acceso al autoempleo. 
  • Asistencia en la aplicación de la ley e interpretación jurídica. 
  • Categorización de personas e identificación biométrica. 
  • Formación profesional y educación. 
  • Explotación y gestión de infraestructuras críticas.
  • Acceso y disfrute de servicios y prestaciones públicas y servicios privados esenciales. 
  • Sistemas utilizados en productos sujetos a la legislación de seguridad de la UE, como juguetes, automóviles, aviones, ascensores o dispositivos médicos. 

Sistemas de riesgo moderado

En este caso se incluyen las IA generativas como ChatGPT o capaces de generar o manipular vídeos o imágenes. El objetivo es la transparencia, que el usuario esté informado de que esos contenidos están realizados por dichas herramientas y que protegen los derechos de autor. Con ello, además, se pretende evitar la generación de contenido ilegal, como los deep fakes, que puedan perjudicar a los usuarios. 

En busca de un marco ético para la IA

Las oportunidades de crecimiento que ofrece la Inteligencia Artificial en las organizaciones son enormes y no menos lo son sus beneficios para la sociedad. Pero, como ya comentamos anteriormente, para evitar posibles manipulaciones y perjuicios resulta fundamental ser muy conscientes del papel de la ética en relación con la IA. Ya a finales de 2021, la UNESCO aprobó una Recomendación sobre la Ética en la Inteligencia Artificial que definía las buenas prácticas para aprovechar sus repercusiones positivas y evitar las negativas. 

Teniendo esto en cuenta, existen cuatro pilares que definen la relación entre IA y sus aspectos éticos:

  • La privacidad. 
  • El sesgo. 
  • La transparencia. 
  • El impacto en la organización. 

Cualquier regulación debe tenerlos como soporte sin menoscabar los indudables beneficios que la tecnología puede aportar a las sociedades. La ya referida Inteligencia Artificial responsable será la clave para conseguirlo y estamos convencidos de que las empresas que apliquen sus fundamentos actuarán bajo los principios que se van a integrar en normativas como la regulación de la UE sobre Inteligencia Artificial. 

Fernando Fuentes

Productos relacionados: