Actualidad, Inteligencia Artificial

¿Por qué la IA tiene alucinaciones?

No descubro nada nuevo si digo que la Inteligencia artificial (en adelante, IA) ha venido para quedarse. Lo que tenemos que pensar bien los humanos es cómo utilizarla de manera segura y ética. Ya he hablado en este post sobre la IA en el TFG y he intentado responder a la pregunta de si la IA sería capaz de escribir un artículo científico. Hoy voy a hablar sobre las alucinaciones.

En efecto, queridos lectores, la IA (que en realidad debería llamarse, propiamente, inteligencia generativa) alucina más que cualquier humano en un viaje psicodélico. De ahí que sea crucial que los estudiantes de pregrado y posgrado aprendan los riesgos que entraña su uso acrítico. A quienes tenemos ya más de cuarenta años, utilizar el concepto de alucinación para referirse a inteligencias no humanas, nos retrotrae a esa guerra de las máquinas que nos ha mostrado el cine con tintes apocalípticos en Terminator o Matrix, pero lo cierto es que existen. En este post intentaré definir el concepto de alucinación y explicar cómo evitarlo.

La IA alucina porque es un modelo: necesita un filtro humano que la guíe. [Imagen: Pexels]

¿Qué es una alucinación de la IA?

De forma simplificada y comprensible, se refiere al fenómeno por el cual una IA percibe patrones inexistentes y ofrece resultados inexactos, cuando no directamente falsos. Por decirlo de algún modo, si en su base de datos no encuentra nada que pueda satisfacer una determinada pregunta, la completa con mentiras, datos irreales, aunque tengan una apariencia perfectamente verosímil. La tendencia a la alucinación puede parecer nimia e incluso graciosa, pero sus consecuencias son tangibles: propagar bulos y datos falsos.

Ejemplos de alucinaciones de la IA

En los últimos tiempos se han dado casos sonados. Los que aparecen a continuación están mencionados en el artículo de W.D. Heaven, del MIT, que cito al final de este post.

1. Bulos sobre salud

La Organización Mundial de la Salud, diseñó un chatbot llamado SARAH para proporcionar consejos de salud en varios idiomas las 24 horas del día. Respaldado por el modelo GPT-3.5, rápidamente se descubrió que daba información incorrecta, incluyendo direcciones y nombres ficticios de clínicas en San Francisco.

2. Una (curiosa) política de reembolso

La aerolínea Air Canada recibió la orden de cumplir una política de reembolso inventada por su chatbot de atención al cliente.

3. El abogado listillo

En 2023, un abogado fue multado por presentar documentos judiciales llenos de opiniones judiciales falsas y citas legales inventadas por ChatGPT.

Cómo reducir el riesgo de que la IA tenga alucinaciones

Como vemos, las alucinaciones en la IA provocan desprestigio, información falsa y graves perjuicios a personas o entidades. Además, en el caso de temas sensibles o que sean objeto de especial protección, las consecuencias pueden ser catastróficas. ¿Por qué sucede esto? De acuerdo con Heaven «cada modelo [de IA] está compuesto por billones de parámetros que ajustan sus predicciones con base en patrones lingüísticos encontrados en grandes cantidades de datos textuales de internet. Cuando se les hace una pregunta, estos modelos generan secuencias de palabras nuevas basadas en probabilidades estadísticas, no en conocimiento específico almacenado».

Para evitar las alucinaciones, este autor señala la importancia de mejorar el refinado de los modelos matemáticos en los que se basan las predicciones lingüísticas esperadas. A medida que mejoren en precisión, será crucial «mantener una vigilancia constante para identificar y corregir los errores que puedan surgir». Además, subraya la necesidad de una mayor investigación y desarrollo en métodos que mitiguen la alucinación en los modelos de lenguaje. Otro método consiste en «pedir a los modelos que comprueben su trabajo sobre la marcha, desglosando las respuestas paso a paso . Este método, conocido como «cadena de pensamiento», ha demostrado aumentar la precisión de los resultados de un chatbot».

En definitiva: aunque los modelos numéricos son cruciales para desarrollar IA, es necesaria la intervención humana para adecuar los procedimientos de trabajo. Cuando yo era estudiante de Historia, me harté de oír esa famosa cantinela que diferenciaba a los de Ciencias y Letras como miembros de bandos irreconciliables. Si algo nos ha enseñado la IA (y todavía no ha hecho más que asomar la patita), es que matemáticos, ingenieros, lingüistas, traductores, filósofos y humanistas deben trabajar en equipo para que la inteligencia que se nos viene encima sea útil, eficaz y realista. Porque, después de todo, estamos hablando de creaciones humanas, de ética y de ciencia. No lo olvidemos.

En Docendo Discitur nos apasiona la actualidad. Recurrir a ChatGPT puede ser muy tentador para ahorrar tiempo en tu TFG, pero yo puedo proporcionarte esa corrección humana tan necesaria para evitar alucinaciones. ¡A nadie le gusta echar a perder su TFG o TFM por un mal viaje! No arriesgues y consúltame.

FUENTE: Heaven, W.D. Why Does AI Hallucinate? MIT Technology Review. June 2024.

2 comentarios en “¿Por qué la IA tiene alucinaciones?”

Los comentarios están cerrados.