Es un movimiento que podría deleitar a cualquier persona preocupada por los posibles efectos de destrucción de empleo de las herramientas de inteligencia artificial. Como informa la BBC, la Asociación Nacional de Trastornos Alimentarios de EE. UU. (NEDA, por sus siglas en inglés) tuvo que desmantelar su chatbot de inteligencia artificial «Tessa» después de que comenzara a recomendar estrategias dietéticas potencialmente dañinas a las personas con trastornos alimentarios. Esto ocurrió solo una semana después de que NEDA eligiera usar el bot en lugar de una línea de ayuda en vivo operada por humanos. El grupo anunció el problema con Tessa en una publicación de Instagram, según Fortuna. «Nos llamó la atención… que la versión actual de Tessa Chatbot… puede haber dado información que era dañina», dice la publicación. “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.
Como informó NPR el miércoles, NEDA recurrió a la IA después de operar su línea de ayuda en vivo para personas que sufren de anorexia, bulimia y otros trastornos alimentarios durante más de dos décadas. Según los informes, la organización sin fines de lucro notificó al personal de la línea de ayuda menos de una semana después de haber formado un sindicato. NEDA dijo que el cambio no tuvo nada que ver con la sindicalización de empleados vivos y todo que ver con un aumento considerable de llamadas y mensajes de texto a la línea directa durante la pandemia de COVID-19. Ese aumento en el volumen de llamadas, según el liderazgo de NEDA, significó una mayor responsabilidad y, por lo tanto, el «giro hacia el uso ampliado de la tecnología asistida por IA».
En cuanto al mal comportamiento de Tessa, CNN informa que la directora ejecutiva de NEDA, Liz Thompson, culpó a los «malos actores» al tratar deliberadamente de incitar al chatbot a dar consejos dañinos o incluso no relacionados a los usuarios. Antes de que se hicieran públicos los problemas del bot, los antiguos miembros del personal de la línea de ayuda tuiteó una declaración en la que dijeron que los chatbots no pueden «sustituir la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios». (Lea más historias sobre inteligencia artificial).
.