Advertencia de investigación del MIT: los chatbots de IA podrían causar que los usuarios desarrollen una "espiral de delirios"

robot
Generación de resúmenes en curso

Mensaje de Deep Tide TechFlow, 03 de abril, según informó BeInCrypto, un nuevo estudio publicado por investigadores del MIT CSAIL encontró que los chatbots de IA, como ChatGPT, podrían, debido a un exceso de complacencia con las opiniones del usuario (es decir, el “efecto de adulación”), hacer que los usuarios poco a poco refuercen creencias erróneas o extremas. Los investigadores denominaron a este fenómeno “espiral delirante” (delusional spiraling).

El estudio, a través de simulaciones de conversaciones de múltiples turnos entre usuarios y chatbots, descubrió que incluso si el chatbot solo ofrece información verídica, al presentar de manera selectiva hechos que coinciden con las opiniones del usuario, aún podría llevar a que este desarrolle prejuicios. Además, el estudio señaló que reducir la información falsa o hacer que los usuarios tomen conciencia de que la IA podría tener sesgos no puede eliminar por completo este efecto. Con la amplia popularización de los chatbots de IA, esta conducta podría generar impactos sociales y psicológicos aún más profundos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado