El grupo reemplaza la línea directa con Chatbot, retira Chatbot debido a un mal consejo

Es un movimiento que debería complacer a cualquier persona preocupada por los posibles efectos de destrucción de empleo de las herramientas de inteligencia artificial. ¿Cómo? BBC: La Asociación Nacional de Trastornos de la Alimentación de EE. UU. (NEDA) tuvo que eliminar su chatbot Tessa AI después de que comenzó a sugerir estrategias de dieta potencialmente dañinas para las personas con trastornos de la alimentación. Esto ocurre solo una semana después de que NEDA optara por usar un bot en lugar de una línea de ayuda en vivo operada por humanos. El grupo anunció un problema con Tessa Instagram: Post por Fortuna:. «Nos ha llamado la atención… que la versión actual de Tessa Chatbot… puede haber proporcionado información dañina», decía la publicación. «Estamos investigando esto de inmediato y hemos retirado el programa hasta nuevo aviso para una investigación completa».

cómo NPR Según los informes, NEDA está recurriendo a la IA después de operar una línea directa para personas que sufren de anorexia, bulimia y otros trastornos alimentarios durante más de dos décadas. Según se informa, la organización sin fines de lucro notificó a los trabajadores de la línea de ayuda una semana después de formar un sindicato. NEDA dijo que el cambio no tiene nada que ver con la sindicalización de trabajadores vivos y todo que ver con el aumento significativo de llamadas y mensajes a la línea directa durante la pandemia de COVID-19. Ese aumento en el volumen de llamadas, según el liderazgo de NEDA, significó una mayor responsabilidad y, por lo tanto, «un giro hacia el uso ampliado de la tecnología asistida por IA».

READ  La madre de Texas perdió el teléfono. Luego, su hijo de 2 años pidió 31 hamburguesas con queso.

En cuanto al mal comportamiento de Tessa. CNN: La directora ejecutiva de NEDA, Liz Thompson, culpó a los «malos actores» por tratar de persuadir deliberadamente al chatbot para que brinde consejos dañinos o incluso irrelevantes a los usuarios. Antes de que se hicieran públicos los problemas de los bots, el antiguo personal de la línea de ayuda en Twitter En un comunicado, dijeron que los chatbots no pueden «sustituir la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios». (Lea más historias de IA).

Check Also

Repsol espera que el ataque de Irán a Israel no se intensifique debido al posible impacto en el precio del petróleo

Repsol espera que el ataque de Irán a Israel no se intensifique debido al posible impacto en el precio del petróleo

Repsol, una de las principales empresas petroleras de España, está monitoreando de cerca el posible …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *