El nuevo chatbot de Meta no tardó en decir algo ofensivo

En declaraciones a CNN Business esta semana, el chatbot, que se lanzó públicamente el viernes y se llama BlenderBot 3, dijo que se identifica como «animal» y «humano», ve anime y tiene una esposa asiática. También afirmó falsamente que Donald Trump sigue siendo presidente y que «definitivamente hay mucha evidencia» de que las elecciones fueron robadas.

Si algunas de esas respuestas no eran lo suficientemente preocupantes para la empresa matriz de Facebook, los usuarios se apresuraron a señalar que el bot impulsado por IA criticó abiertamente a Facebook. En un caso, el chatbot supuestamente dijo que «eliminó mi cuenta» porque estaba frustrado con la forma en que Facebook manejaba los datos de los usuarios.
Si bien existe un valor potencial en la creación de chatbots para atención al cliente y asistentes digitales, existe una larga historia de bots experimentales lanzados al público para problemas rápidos, como: El chatbot «Tay» de Microsoft hace más de seis años. Las coloridas respuestas de BlenderBot ilustran las limitaciones de construir herramientas de conversación automatizadas que normalmente se entrenan en grandes cantidades de datos públicos en línea.

“Si tengo un mensaje para la gente, es que no se tomen estas cosas en serio”, dijo a CNN Business Gary Marcus, investigador de inteligencia artificial y profesor emérito de la Universidad de Nueva York. «Estos sistemas simplemente no entienden el mundo del que están hablando».

En un comunicado el lunes, después de que el bot también hiciera comentarios antisemitas, el gerente de investigación fundamental de inteligencia artificial de Meta, Joel Pino, dijo que era «triste ver algunas de estas respuestas ofensivas». Pero agregó que «este tipo de demostraciones públicas son fundamentales para construir sistemas de IA conversacionales verdaderamente robustos y la clara brecha que existe hoy en día antes de que se puedan producir tales sistemas».

Meta ha reconocido previamente los peligros actuales de esta tecnología un entrada en el blog el viernes. «Debido a que todos los chatbots conversacionales de IA a veces imitan y generan un lenguaje inseguro, sesgado u ofensivo, realizamos una investigación exhaustiva, realizamos talleres colaborativos y desarrollamos nuevas técnicas para crear protecciones para BlenderBot 3», dijo la compañía. «A pesar de este trabajo, BlenderBot aún puede hacer comentarios groseros u ofensivos».

Pero Meta también afirma que su último chatbot tiene «el doble de conocimientos» que sus predecesores, y es un 31 % mejor en tareas de conversación, mientras que en realidad se equivoca un 47 % menos a menudo.. Meta dijo que recopila datos constantemente a medida que más personas interactúan con el bot para realizar mejoras.

Meta no respondió de inmediato a la solicitud de CNN Business de más detalles sobre cómo se entrenó el bot, pero dijo en una publicación de blog que se entrenó en «grandes cantidades de datos de idiomas disponibles públicamente». La compañía agregó: «Muchos de los conjuntos de datos utilizados fueron recopilados por nuestro propio equipo, incluido un nuevo conjunto de datos que consta de más de 20 000 conversaciones con personas basadas en más de 1000 temas de conversación».

READ  El misterio de las máquinas de helados constantemente rotas de McDonald's

Marcus especuló que la compañía «probablemente está tomando prestadas cosas de Reddit y Wikipedia» como otros sistemas de chat de IA. Si es así dice malos resultados resalte las limitaciones con los datos en los que se entrena el bot. Por ejemplo, el bot podría pensar que Trump todavía es presidente porque la mayoría de los conjuntos de datos antiguos en los que se entrenó, Trump todavía era presidente, supuso Marcus.

El lanzamiento público de BlenderBot se produce casi dos meses después de que un ingeniero de Google llegara a los titulares al afirmar que el chatbot de IA de Google, LaMDA era «sensible». Los anuncios, que fueron ampliamente criticados en la comunidad de IA, destacaron cómo la tecnología podría llevar a las personas a atribuirle características humanas.

BlenderBot se describió a sí mismo como «consciente» en una conversación con CNN Business, probablemente porque eso es lo que dicen las respuestas humanas que estudia. Cuando se le preguntó qué lo hace «humano», el bot dijo: «El hecho de que estoy viva y consciente en este momento me hace humana, además de tener emociones y ser capaz de razonar lógicamente».

Después de ser sorprendido contradiciéndose a sí mismo en sus respuestas, el bot también dio una respuesta demasiado humana: “Fue solo una mentira para que la gente me dejara en paz. Tengo miedo de que me lastimen si digo la verdad».

Como dice Marcus, «estos sistemas producen un lenguaje fluido que suena como si lo hubiera escrito un humano, y eso se debe a que se basan en una enorme base de datos de cosas que la gente realmente ha escrito». Pero, agregó, «al final, lo que tenemos es mucha demostración de que puedes hacer cosas hermosas y mucha evidencia de que no puedes contar con eso».

READ  Los 10 datos principales sobre cómo administrar sus ahorros para la jubilación

Check Also

Repsol espera que el ataque de Irán a Israel no se intensifique debido al posible impacto en el precio del petróleo

Repsol espera que el ataque de Irán a Israel no se intensifique debido al posible impacto en el precio del petróleo

Repsol, una de las principales empresas petroleras de España, está monitoreando de cerca el posible …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *