La inteligencia artificial responsable, el enfoque de base en la empresa
La inteligencia artificial responsable se define como un marco de gobernanza encargado de documentar la forma en que una organización determinada aborda los desafíos que surgen de la aplicación de la inteligencia artificial (IA) desde un punto de vista tanto ético como legal.
Cuando una empresa emprende el camino de integrar y desarrollar servicios basados en la inteligencia artificial, debe tomar en cuenta otros muchos aspectos alejados de lo meramente técnico.
Como ya avanzamos hace poco, la ética con respecto a la inteligencia artificial tiene cuatro pilares principales: la privacidad, el sesgo, la transparencia y el impacto en la organización.
¿Por qué es importante la inteligencia artificial responsable?
La inteligencia artificial responsable es, en cierto modo, algo novedoso dentro de la gobernanza de la IA. Ese «responsable» pretende abarcar tanto el concepto de ética que describimos en el epígrafe anterior, hasta la democratización.
Empieza a ser muy necesario la regulación de la IA, aunque es difícil prever qué hay que hacer en el caso de que la programación de la IA genere consecuencias imprevistas. ¿Cómo podemos regular esos comportamientos?
Hemos de pensar que un modelo de machine learning, por ejemplo, depende de uno o varios conjuntos de datos de entrenamiento. Además, esos entrenamientos llevan su tiempo y, si los datos no son todo lo correctos que deben ser, los modelos de aprendizaje automático pueden introducir sesgos.
Si los datos de entrenamiento están sesgados, así lo estarán las decisiones tomadas en base a esos modelos y, por tanto, entraremos en un bucle negativo de imprecisiones que tienen un impacto negativo. La tecnología es una facilitadora para conseguir cosas asombrosas, pero puede utilizarse mal por accidente, o de manera consciente. Eso sí, gran parte del mal uso de estas tecnologías se debe al sesgo en la selección de datos para entrenamiento.
El objetivo de la IA responsable es, por tanto, reducir el riesgo de que un pequeño cambio en un dato de entrada cambie drásticamente el resultado del modelo inicial. Ese riesgo nunca se puede eliminar por completo.
Los principios de la IA responsable
Todo lo que tiene que ver con la IA ha de sostenerse por modelos completos, explicables, éticos y eficientes. Estos son los principios básicos de este enfoque:
- Exhaustividad, de modo que existan criterios de prueba y gobernanza definidos muy claramente desde el principio, para evitar que el aprendizaje automático pueda ser manipulado con facilidad
- La IA ha de estar programada para describir su propósito, justificación y el proceso de toma de decisiones de manera que pueda ser entendida por el usuario final medio. No deben quedar dudas, ni ambigüedades, así será posible confiar en los resultados obtenidos
- Las iniciativas de IA ética deben contar con procesos especialmente pensados para buscar y, en caso de encontrarlos, eliminar los sesgos en los modelos de aprendizaje automático
- Por último, una IA eficiente tiene que ser capaz de funcionar sin interrupciones y de responder con rapidez a cualquier cambio en el entorno operativo
¿Cómo podemos asegurarnos de que desarrollamos modelos de inteligencia artificial responsables? Existen una serie de herramientas al alcance de los desarrolladores que nos permiten conocer y controlar los modelos, además de proteger los datos.
Es necesario conocer en profundidad los sistemas de inteligencia artificial. La razón es sencilla: estos se pueden comportar de forma inesperada por motivos diferentes. Algunas herramientas que ayudan a conocer el comportamiento de los sistemas de inteligencia artificial podrían ser, entre otras, InterpretML, Error Analysis o Fairlearn.
Por otro lado, es crítico proteger los datos, que son la base de cualquier sistema de IA, y de su entrenamiento, principalmente. Las herramientas de software como SmartNoise, el kit de herramientas de cifrado homomórfico SEAL pueden ayudar a proteger esos datos, manteniendo la privacidad y garantizando la confidencialidad.
El gobierno y control a lo largo de todo el ciclo de desarrollo es algo imprescindible para la inteligencia artificial responsable. Por ese motivo debe organizarse un sistema adecuado de auditoría para mejorar la trazabilidad, el linaje y el control, con el fin de cumplir los requisitos legales.