Una investigación del Senado en Australia se enfocó en examinar a
fondo la ética y la responsabilidad social de la industria de
consultoría en el país, incluyendo a prestigiosas empresas consultoras
como KPMG y Deloitte, para considerar cambios regulatorios amplios. Sin
embargo, esta investigación ha desencadenado un debate sobre la reputación en la industria, en medio de acusaciones por parte de KPMG de que la inteligencia artificial (IA) ha dañado su reputación.
El informe presentado por un grupo de académicos señalaba a las
principales empresas de consultoría, incluyendo a KPMG, como supuestas
involucradas en una serie de escándalos y prácticas cuestionables. Sin
embargo, se descubrió que estas acusaciones eran completamente
infundadas y habían sido generadas por una herramienta de IA conocida
como Google Bard, de acuerdo con The Guardian.
Implicación de KPMG en escándalos
El informe sostenía que KPMG estaba involucrada en un supuesto
«escándalo de robo de salarios de 7-Eleven de KPMG» que resultó ser
completamente inexistente. Además, acusaba a KPMG de auditar al
Commonwealth Bank durante un escándalo de planificación financiera, una
afirmación que carecía de fundamento. La gravedad de estas acusaciones
radicaba en el hecho de que estaban protegidas por el privilegio
parlamentario, lo que dificultaba la capacidad de KPMG para defenderse y
proteger su reputación.
La respuesta de KPMG a esta situación no se hizo esperar. Andrew
Yates, director ejecutivo de KPMG, escribió al comité parlamentario
conjunto de corporaciones y servicios financieros, que había aprobado y
cargado el documento, expresando su profunda preocupación y descontento.
Yates también subrayó que las vidas de más de 10,000 empleados de
KPMG podían verse afectadas negativamente cuando se difundía información
evidentemente incorrecta respaldada por el privilegio parlamentario y
presentada como un hecho. La firma acusó a la IA de dañar su reputación y
resaltó en riesgo de confiabilidad de las herramientas de IA en la
generación de información.
Confianza en la IA
El escándalo ha planteado importantes cuestionamientos y
responsabilidad social en el uso de la IA sin una verificación adecuada
de los datos generados por estas herramientas. En la declaración del
Senado, este destaca que, aunque las herramientas de IA pueden parecer
una forma de reducir la carga de trabajo, si no se comprenden
adecuadamente ni se aplican con supervisión detallada y una verificación
rigurosa, pueden poner en peligro la integridad y la precisión del
trabajo.
En este caso, la información arrojada por Google Bard, es un ejemplo
de cómo las nuevas tecnologías están transformando la forma en que se
produce y se difunde información. Si bien pueden generar grandes
cantidades de datos y texto de manera eficiente sin una adecuada
verificación corre el riesgo de dañar más que ayudar.
Responsabilidad en la generación de información
En una carta al Senado, el profesor emérito James Guthrie asumió la
responsabilidad por los errores generados por la IA y se disculpó en
nombre de los académicos involucrados. Guthrie destacó que, dada la
utilización de la IA, el equipo de autores entero se disculpaba
sinceramente con el comité y con las principales empresas de consultoría
por haber dañado su reputación.
La académica de la Universidad de Sídney, Jane Andrew, quien no
estaba directamente involucrada en la investigación de la IA, pero sí
contribuyó a la presentación, ya había expresado previamente
preocupaciones sobre el creciente papel de la IA en la publicación
académica. En un artículo de 2022 titulado «Los peligros de la
inteligencia artificial en la publicación académica,» se centró en cómo
la creciente influencia de la IA en tareas históricamente realizadas por
seres humanos, como la edición y revisión de artículos académicos,
planteaba desafíos a la comunidad académica.
La Universidad de Sídney señaló que Jane Andrew no tuvo la
oportunidad de revisar la presentación antes de ser enviada y que se
habría opuesto a la inclusión de partes generadas por la IA si hubiera
tenido la oportunidad de hacerlo. Esto destaca la importancia de la
supervisión y revisión humanas en los procesos que involucran la
generación de información y la toma de decisiones basadas en datos
generados por la IA.
KPMG acusa a IA de dañar su reputación
Deloitte, otra firma de consultoría, también presentó una queja al
comité del Senado sobre la presentación inexacta. La asesora general de
Deloitte, Tala Bennett, expresó su preocupación por la presentación que
acusaba erróneamente a su empresa de ser demandada por los liquidadores
de la empresa constructora Probuild que colapsó por supuestamente no
auditar adecuadamente sus cuentas. Deloitte nunca auditó a Probuild.
Esta queja pone de manifiesto que la situación no se limita a un caso
aislado y que otras empresas de consultoría también se ven afectadas
por la proliferación de información inexacta generada por la IA.
James Guthrie, a pesar de reconocer la lamentable naturaleza de los
errores generados por la IA, insistió en que los argumentos sustantivos y
las recomendaciones de reforma presentadas en la investigación seguían
siendo importantes para garantizar un sector de consultoría sostenible
basado en valores compartidos por la comunidad.
La noticia de que KPMG acusa a IA de dañar su reputación pone de
manifiesto la importancia de utilizar la IA con responsabilidad y con un
enfoque riguroso en la verificación de datos. La integridad y la
reputación de las empresas son activos críticos, y su protección debe
ser una prioridad en la era de la IA. Este incidente debe servir como un
recordatorio de los desafíos y riesgos que conlleva la implementación
de la IA en procesos críticos y la necesidad de una supervisión
adecuada.