¿Están las organizaciones preparadas para el uso de sistemas basados en IA?

Por Macarena Gatica.

Abogada. Socia del estudio jurídico Alessandri Abogados.


El 2023 tuvo un protagonista indiscutible: “Chat GPT”. La mayoría de las personas ha escuchado de esta herramienta y de la IA generativa. Sin perjuicio de que muchos no la han utilizado, existe miedo ante impensables e impredecibles usos que la IA pueda tener en el futuro.

La Real Academia Española define miedo como “la perturbación angustiosa del ánimo por un riesgo o daño real o imaginario”. El problema con el miedo es la reacción que genera. Podrá ser una paralización o bien una conducta reactiva, pero cualquiera de las dos se traduce en una traba al desarrollo de tecnologías idóneas para distintas industrias. Así, por ejemplo, la urgencia de legislar el uso de esta tecnología.

La IA no es nueva, ni siquiera es atribuible a este siglo. Recordemos a Alan Turing y su máquina “Enigma”, que permitió descifrar los códigos secretos de la Alemania Nazi. Ya en 1936, este científico matemático se refería a los algoritmos y a una máquina de calcular (base de la máquina Enigma). ¡Quién podría haber cuestionado la utilidad de este sistema! No existe evidencia de que la técnica utilizada hubiere generado cuestionamientos o miedos, muy por el contrario, se le agradeció su trabajo y Winston Churchill señaló que Turing les había ahorrado aproximadamente dos años de guerra.

Ahora bien, toda actividad tiene riesgos y la IA no está exenta de ellos. Por tanto, como sociedad somos responsables de no fomentar el miedo frente a los riesgos relacionados con el uso de IA. La pregunta es cómo lo logramos, teniendo presente el abanico inmensurable de usos de IA que se plantean a diario en las organizaciones.

La respuesta está en la autorregulación. Las organizaciones deben definir una gobernanza que permita utilizar sistemas basados en IA con una mirada enfocada en riesgos. El objeto es establecer directrices generales que la organización deberá aplicar en su trabajo diario al momento de utilizar herramientas de IA, teniendo en cuenta las mejores prácticas de la industria y las normas legales aplicables, especialmente las que regulan los derechos fundamentales, la protección del consumidor, los datos personales, la política nacional de IA, regulación laboral, entre otras.

Es fundamental considerar evaluaciones de riesgos en diferentes etapas del ciclo de vida del sistema basado en IA. La evaluación de los riesgos en forma temprana e inicial puede alertar resultados distintos a los evaluados en una etapa posterior. Algunos riesgos pueden estar latentes en una etapa y no en otras, considerando sobre todo la evolución del sistema.

Todo esto debe quedar detallado en la respectiva evaluación de riesgo, la que formará parte del registro de sistemas de IA que se utilicen, permitiendo la auditabilidad y el control de su correcto funcionamiento. Lo anterior servirá de evidencia de la debida diligencia y de la conducta preventiva.

Esta gobernanza tiene como premisa que la IA debe ser utilizada en beneficio de la humanidad, respetando los derechos fundamentales, la dignidad humana, la no discriminación arbitraria, igualdad de género, libertad de expresión, derechos de propiedad industrial e intelectual, debido proceso, entre otros. Asimismo, debe promover la calidad de los datos que se utilicen en el sistema de IA, proveer documentación/evidencia que acrediten el cumplimiento del marco de actuación definida, trazabilidad, transparencia, supervisión, precisión y robustez, entre otros.

En la medida que las organizaciones actúan diligentemente, previniendo riesgos y entregando información útil de los sistemas en forma simple, contribuirá a disminuir los temores, permitirá reconocer los aportes de la IA y en general incentivará el desarrollo de sistemas basados en IA.