Los fallos de la inteligencia artificial: Alucinaciones IA

Entre los muchos perfiles de la Inteligencia Artificial (IA) en continua evolución, se encuentra la cuestión de sus «alucinaciones», la zona de penumbra, en la que esta tecnología se equivoca.

Los fallos de la inteligencia artificial: Alucinaciones IA: El caso del escritor-pintor Juan Re Crivello por María José Luque Fernández (*)

La inteligencia artificial (IA) ha avanzado de manera extraordinaria en los últimos años, ofreciendo respuestas rápidas, generando contenido detallado y facilitando la búsqueda de información. Sin embargo, como toda tecnología, no es infalible. Un caso reciente de error en la IA pone en evidencia sus limitaciones y los desafíos que aún enfrenta en la precisión de la información.

El caso de Juan Re Crivello: de escritor a pintor

Un ejemplo claro de estos fallos ocurrió cuando se solicitó información sobre Juan Re Crivello. En lugar de proporcionar datos correctos sobre su trayectoria como escritor, editor y gestor cultural , la IA generó un perfil ficticio, describiéndolo como un pintor chileno con una carrera enfocada en la exploración de la figura humana y el paisaje. Este error no solo creó una biografía inexistente, sino que también atribuyó al personaje influencias artísticas, exposiciones y una conexión con la cultura chilena que no existen.

Este tipo de equivocaciones demuestra que, aunque la IA puede ofrecer respuestas convincentes, estas no siempre son precisas. La mezcla de datos reales con información inventada crea lo que se conoce como «alucinaciones de IA», un fenómeno en el que el sistema genera información errónea pero presentada con gran seguridad y coherencia.

Causas de los Errores en la IA

Existen varias razones por las cuales una IA puede cometer este tipo de fallos:

Inferencia basada en patrones: Los modelos de IA no comprenden el mundo como lo hace un ser humano. En lugar de verificar fuentes, buscan patrones en grandes volúmenes de datos y generan respuestas basadas en probabilidades. Si los datos disponibles no son suficientes o están mezclados, pueden generar información incorrecta.

Confusión de identidades: Cuando hay nombres similares o figuras con perfiles que comparten ciertas características, la IA puede combinar información de diferentes personas, creando biografías incorrectas.

Falta de verificación en tiempo real: A diferencia de un investigador humano, la IA no siempre verifica la actualidad o exactitud de la información en fuentes confiables antes de responder. Esto puede generar respuestas obsoletas o incorrectas.

Fallos en los datos de entrenamiento: Los modelos de IA son entrenados con grandes cantidades de datos, pero si estos contienen errores o información inexacta, el sistema reflejará esas mismas fallas en sus respuestas.

Las consecuencias de los errores de IA

Los fallos de la IA pueden parecer inofensivos en algunos casos, pero en otros pueden tener consecuencias significativas:

  • Desinformación: Si un usuario no verifica la información proporcionada por la IA, puede difundir datos incorrectos, afectando la percepción de figuras públicas, hechos históricos o información científica.
  • Pérdida de confianza: Si los errores se presentan con frecuencia, las personas pueden perder la confianza en la IA como una herramienta fiable para obtener información.
  • Impacto en la reputación: Para los individuos mencionados erróneamente, como en el caso de Juan Re Crivello, la difusión de información incorrecta puede generar confusión y afectar su imagen pública.

Cómo mejorar la precisión de la IA

Para reducir estos fallos y mejorar la confiabilidad de la IA, es necesario adoptar medidas que refuercen la precisión de la información:

  • Verificación de fuentes en tiempo real: Integrar sistemas que consulten bases de datos actualizadas y fuentes oficiales antes de generar respuestas.
  • Mayor supervisión humana: La combinación de IA con supervisión humana puede reducir la propagación de errores, permitiendo la corrección de respuestas antes de su publicación.
  • Transparencia en los modelos de IA: Informar a los usuarios sobre las limitaciones del sistema y fomentar la verificación cruzada de datos.
  • Mejoras en el entrenamiento de IA: Usar conjuntos de datos más curados y minimizar sesgos para reducir la generación de información falsa.

Conclusión

El caso del «escritor-pintor» Juan Re Crivello es un recordatorio de que la IA, aunque poderosa, no es infalible. Sus errores resaltan la importancia de la verificación de datos y la necesidad de un uso crítico de la información que proporciona. A medida que la tecnología avanza, es fundamental seguir desarrollando métodos para mejorar su precisión y minimizar la propagación de datos incorrectos. La IA es una herramienta valiosa, pero sigue necesitando la supervisión humana para garantizar su fiabilidad y evitar malentendidos.

Un hecho verídico que confirmo yo,  María José Luque Fernández editora y escritora de Masticadores de Letras.

¿Como ocurrió? Solicité enlaces e información disponible sobre Juan Re Crivello para completar la que ya disponía, con el fin de que no existiera ninguna laguna, en la organización de una tertulia que tendrá lugar próximamente y en la que le presentaré.

Al decirle que no era posible pues Juan no era ni chileno ni pintor me mostro la información real respecto a Juan escritor y editor. Quise ir más allá y le pedí me mostrará alguna de las obras del pintor Juan Re Crivello a lo que me respondió que no existía tal pintor sino un escritor con ese nombre. Y yo que soy muy terca dije, si, pues vamos a dar un paso más aún, ¿y saben qué? Le copie el texto que me había mostrado sobre el pintor y el que me había mostrado sobre el escritor y le pregunte ¿Esto es un error del IA? y me contesto: «Son alucinaciones de IA»

Ahí queda eso…

(*) Fuente: Este texto fue publicado originalmente en Masticadores, página nacida en Cataluña, que Jr Crivello dirige y con numerosos colaboradores en el mundo.

Deja un comentario