Por María Luisa Acuña, Socia Cyber Risk Advisory Deloitte
No es sorpresa para nadie escuchar de la Inteligencia Artificial generativa. Pueden existir muchas
definiciones, pero en términos sencillos, es un tipo de Inteligencia Artificial (IA) que puede generar
nuevos contenidos, como texto, imágenes y videos a través de patrones de aprendizaje que se
obtienen de datos preexistentes. Asimismo, este tipo de IA también puede incluir varias técnicas de
aprendizaje automático.
A menudo escuchamos historias de familiares y colegas que usan Chat GPT (tipo de IA generativa más
difundido) para distintas labores que pueden tardar mucho tiempo, o que la persona no tiene
conocimiento experto o bien, no nacen naturalmente en ellos. Algunos ejemplos van desde la
confección de un discurso de apertura señalando la temática, público objetivo y extensión de tiempo,
el envío de un correo electrónico de comunicaciones dentro de la compañía en el que el remitente
quiere parecer más cercano y empático cuando esas características no son innatas o con nuestros
hijos, creando cuentos a la medida que se pueden hasta ilustrar, indicando características del niño,
extensión y gustos particulares. Todos estos casos se tratan justamente del uso de Inteligencia
Artificial Generativa.
La cuestión relevante es que en todas estas interacciones con Chat GPT que nos parecen muy lógicas
e intuitivas, no hay ningún cuestionamiento en si estoy entregando información sensible, o hacia
dónde se va toda la información que entrego, o qué hacen con la información que envío, o más
legalmente, si los entregables de IA generativa están protegidos por derechos de autor. Al final todo
se trata de la información y si bien estos riesgos no son propios solamente de este tipo de IA, su uso
cada vez más frecuente, su libre acceso y asombrosa capacidad, nos presentan nuevos desafíos para
la seguridad de la información y la privacidad de los datos, que es importante tener en consideración,
aun cuando no exista en nuestro país una regulación específica.
En ese escenario, es importante conocer los conceptos que engloban una IA Responsable. Entre ellos:
IA de uso libre: Si es de su interés que los colaboradores tengan acceso y puedan usar IA en sus
labores diarias, al menos deberá establecer una política en la que incluya cómo usar correctamente IA,
que información se debe proteger y las implicancias de una violación a la confidencialidad en esta
materia. En este mismo sentido, deberá actualizar las cláusulas contractuales que sean atingentes.
IA como procesos de negocio: Si está evaluando que IA sea parte de sus procesos de negocio,
debe sopesar los riesgos de privacidad de los datos a lo largo del ciclo de vida del desarrollo. Para eso,
puede ser de utilidad el Framework de la NIST AI 100-1 que entrega elementos específicos de gestión
de riesgos para IA (AI RMF 1.0).
IA transparente: El miedo al uso de IA es generalizado principalmente porque representa un
conjunto de habilidades que en muchos aspectos puede superar a la inteligencia humana con la ayuda
de la tecnología; y porque es como una caja negra en la que se desconoce lo que pasa con la
información. Por ello, las organizaciones que están analizando utilizar IA en sus procesos de negocios
o que ya lo han desplegado, deben trabajar en transparentar a su entorno cuáles son sus políticas de
privacidad y protección de datos, cómo sus algoritmos se hacen cargo de cuestiones éticas como la no
discriminación, sesgos y equidad, entre otros; y cómo la IA puede complementar y mejorar ciertas
tareas humanas.
En efecto, todos estos conceptos se agrupan dentro de lo que hoy comúnmente conocemos como
“Inteligencia Artificial Responsable”, que es la corriente destinada a diseñar, desarrollar e implementar
IA con una intención de empoderar a los colaboradores y organizaciones, impactando de una manera
positiva y justa hacia los clientes y sociedad, para así, contribuir a un entorno de confianza en el uso
de esta tecnología que pueda ser utilizada amplia y democráticamente por todos, pero de una manera
sana.