Soluciones para las "alucinaciones" en la IA Generativa

Soluciones para las «alucinaciones» en la IA Generativa

En un estudio del Instituto de Tecnología de Massachusetts (MIT) se sugiere que varios chatbots deberían «debatir» entre sí antes de responder a un usuario para determinar la respuesta correcta, lo que podría ayudar a reducir las alucinaciones.

Esto sí que es disruptivo… y es que la IA Generativa a menudo ofrece respuestas bien estructuradas pero inexactas, lo que se denomina «alucinaciones». Este problema ha surgido en tecnologías de empresas líderes como Microsoft, Google y OpenAI. Las alucinaciones suelen ocurrir en conversaciones largas, lo que plantea preocupaciones tanto para los usuarios como para las empresas que ofrecen estos servicios.

Imagen de rawpixel.com en Freepik

Otra estrategia, mencionada en un artículo de investigadores de Cambridge, consiste en hacer la misma pregunta varias veces al mismo chatbot para verificar si la respuesta es consistente. Siempre que la respuesta sea coherente, se consideraría correcta. Pero claro, esto es más arriesgado, el modelo puede estar mal entrenado.

Es importante tener en cuenta que las alucinaciones en IA generativa pueden ser muy variadas y que no hay una lista completa de ejemplos posibles. Sin embargo, los ejemplos anteriores dan una idea del tipo de respuestas incorrectas que puede generar un modelo de IA Generativa.

En el contexto profesional, buena parte del enfoque debería residir en entrenar modelos sobre datos acotados para obtener respuestas con alta tasa de fiabilidad.

Share this article
0
Share
Shareable URL
Read next

Suscríbete a nuestra Newsletter