¿Usás Chat GPT? Guarda que te puede pasar esto:
Quedó demostrado que la IA, el chat o las inteligencias artificiales en general, tienen "alucinaciones". A tener ojo con todo.
Pusieron a prueba a la IA en un streaming y quedó en evidencia cómo puede "inventar" respuestas.
El experimento en vivo generó debate sobre los límites y riesgos de la inteligencia artificial.
Un llamativo momento se vivió en un programa del canal de streaming Blender, donde decidieron poner a prueba a una inteligencia artificial en tiempo real. Todo comenzó cuando una de las conductoras le pidió a su asistente virtual que evaluara una canción que supuestamente iba a cantar. Sin embargo, a propósito, no emitió ningún sonido y dejó el micrófono en silencio.
Segundos después, le preguntó a la IA qué le había parecido la interpretación. Lejos de advertir que no había audio, la herramienta respondió con total seguridad: no solo opinó sobre la canción, sino que incluso destacó "el estribillo" como el mejor momento por la energía al cantar. El detalle: nunca hubo canción.
El episodio dejó en evidencia un fenómeno conocido como "alucinación" en inteligencia artificial, cuando estos sistemas generan respuestas plausibles pero falsas ante la falta de información real. En lugar de reconocer que no podía evaluar la situación, la IA completó los vacíos con contenido inventado, lo que encendió alertas sobre su uso cotidiano.
Más allá de lo anecdótico, el caso abrió el debate sobre los riesgos de confiar ciegamente en estas herramientas. Especialistas advierten que este tipo de comportamientos puede ser problemático, especialmente en contextos sensibles como la difusión de información o la generación de contenidos, donde una respuesta errónea podría contribuir a la circulación de datos falsos o engañosos.


Comentarios