El científico de datos estadounidense John McCarthy fue quien, en el año 1956, acuñó el término Inteligencia Artificial (IA) para referirse a la ciencia capaz de hacer inteligentes a las máquinas. ¿Cómo conseguirlo? A través de métodos y fórmulas que permitan a las máquinas tomar decisiones humanas para resolver problemas. Esto incluye el uso de procedimientos procedentes de áreas tan diversas como aprendizaje, planificación, percepción y entendimiento del lenguaje de la robótica.
Una importante debilidad del sistema –sobre todo, en lo que se refiere a la elaboración de auditorías de IA- es que la velocidad de razonamiento de la máquina supera, con mucho, al del pensamiento humano. Por este motivo será especialmente importante poder garantizar tanto el origen de los datos como la trazabilidad del resultado…puesto que lo que sucede entre ambos puntos es una suerte de caja negra imposible de escrutar en caso de error o fraude.
Actualmente la Unión Europea trabaja en la aprobación de la llamada Ley de Inteligencia Artificial. Éste, aún proyecto de ley y que estará centrado en las cuestiones éticas derivadas del uso de esta tecnología, propone cómo garantizar la seguridad, transparencia y responsabilidad para evitar cualquier forma de sesgo y discriminación en el uso de IA. Además, cualquier normativa que finalmente se apruebe, deberá garantizar el respeto de los derechos fundamentales.
A la medida de las auditorías externas
Si se tiene en cuenta que una auditoría externa se centra en evaluar los riesgos y oportunidades relacionados con las capacidades de una empresa para alcanzar sus objetivos estratégicos, bien puede decirse que la IA parece diseñada a la medida de las necesidades de un auditor.
La IA, a través del trabajo del auditor, ayuda a las compañías a comprender y evaluar sus propias capacidades para crear valor en el corto, medio y largo plazo. Lo hace participando en el desarrollo de cinco elementos básicos, y críticos, presentes en cualquier auditoría:
- Diseñar un plan de auditoría, que evalúe la gestión de los principales riesgos.
- Implementar, desde el comienzo, la IA en proyectos de auditoría. De este modo, la herramienta ira mejorando tanto en la ejecución de la tarea como en el mantenimiento de la independencia y objetividad del proceso.
- Asegurar y evaluar la gestión de los riesgos relacionados con la confiabilidad de los algoritmos subyacentes y los datos con los que trabaja la IA.
- Asegurar la existencia de controles internos capaces de identificar problemáticas relacionadas con los algoritmos de la IA y que, de manera directa, pueden afectar al código ético de las empresas.
- Evaluar tanto el diseño como la operatividad de las estructuras de control interno diseñadas e implementadas.
Cada vez más frecuentes
Aunque aún no son, ni mucho menos mayoritarias (ni siquiera, frecuentes) lo cierto es que, cada vez más, tanto los reguladores como las propias legislaciones están empezando a exigir auditorias de IA. Eso sí, de forma paralela, también se obliga a las firmas auditoras, y también a las empresas, a evaluar tanto riesgos potenciales como a asegurar la protección frente a usos poco éticos e inseguros.
El objetivo debe ser crear un marco de gestión de IA con capacidad para asegurar implementaciones sostenibles y seguras de esta tecnología. Y todo ello, y siempre, de manera objetiva y bajo control.
Verificar y proteger
Cuando hablamos de una auditoria de IA nos estamos refiriendo a un proceso sistematizado de revisión –y, también, de evaluación- de sistemas y procesos de IA diseñados con un fin: garantizar el correcto desarrollo de la auditoría en términos de ética, seguridad y cumplimiento de las regulaciones.
Una auditoria de IA tiene que permitir verificar con precisión, equidad y robustez los modelos de trabajo establecidos. De este modo será posible la evaluación de los protocolos de manejo y protección de los datos sensibles y personales involucrados. Así mismo, tendrá que ser posible verificar si los modelos de IA operan con sesgos discriminatorios. Los objetivos de todo ello deberán ser:
- Evaluar tanto la seguridad de los sistemas como la posible existencia de vulnerabilidades que pudieran facilitar posibles ciberataques
- Verificar si los sistemas de IA cumplen con las normas y regulaciones vigentes
Todo este trabajo se fundamenta en una combinación de pruebas técnicas, evaluaciones de datos, entrevistas con expertos y revisión de documentación.
Analizar el tiempo presente y predecir el futuro
Teniendo siempre en cuenta que cada compañía y situación son diferentes, el auditor tendrá que tener siempre presente que su modo de operar tendrá que ser personalizado, adaptado a cada circunstancia.
La realidad demuestra que, casi en tiempo real, las firmas de auditoría están desarrollando herramientas tecnológicas adaptadas a los permanentes cambios del entorno económico. Y es que, de forma continua, crece la necesidad de dar respuesta, casi en tiempo real, a los usuarios de la información financiera.
Los expertos en IA trabajan en el desarrollo de herramientas que, no sólo permitan analizar los datos de una forma estática. También deben poder crear patrones capaces de predecir comportamientos (visión dinámica) en base a las experiencias aprendidas por la IA que gestiona esos datos. Esta es la fase de investigación, actualmente en curso, conocida como machine learning que, como su nombre indica, supone el uso de algoritmos para el análisis de los datos. El objetivo final es que la tecnología sea capaz de aprender a establecer patrones que lleven a predicciones futuras.
Una vez superada la fase machine learning, el proceso debería llevar al análisis de big data. Este paso no sólo implicará analizar los datos internos de la empresa, sino, también, un gran volumen de datos externos que tendrán las siguientes características:
- Gran velocidad de cambio
- Variada procedencia
- Necesidad de análisis certero y veraz que aporte valor a la toma de decisiones.
Como conclusión, señalar que, aunque la tecnología será capaz de desarrollar patrones de comportamiento e hipótesis razonadas gracias al aprendizaje adquirido, al menos de momento, siempre tendrá que haber un ser humano que aporte las instrucciones para hacerlo.
Hasta que la máquina sea capaz de autocuestionarse de manera autónoma, la inteligencia humana seguirá teniendo una gran importancia en el entorno de la auditoría de empresas. Una persona seguirá siendo la responsable última de conocer el comportamiento de la tecnología de IA, la forma en cómo ésta genera y verifica los datos.