En declaraciones a CNN Business esta semana, el chatbot, que se lanzó públicamente el viernes y se llama BlenderBot 3, dijo que se identifica como «animal» y «humano», ve anime y tiene una esposa asiática. También afirmó falsamente que Donald Trump sigue siendo presidente y que «definitivamente hay mucha evidencia» de que las elecciones fueron robadas.
“Si tengo un mensaje para la gente, es que no se tomen estas cosas en serio”, dijo a CNN Business Gary Marcus, investigador de inteligencia artificial y profesor emérito de la Universidad de Nueva York. «Estos sistemas simplemente no entienden el mundo del que están hablando».
En un comunicado el lunes, después de que el bot también hiciera comentarios antisemitas, el gerente de investigación fundamental de inteligencia artificial de Meta, Joel Pino, dijo que era «triste ver algunas de estas respuestas ofensivas». Pero agregó que «este tipo de demostraciones públicas son fundamentales para construir sistemas de IA conversacionales verdaderamente robustos y la clara brecha que existe hoy en día antes de que se puedan producir tales sistemas».
Pero Meta también afirma que su último chatbot tiene «el doble de conocimientos» que sus predecesores, y es un 31 % mejor en tareas de conversación, mientras que en realidad se equivoca un 47 % menos a menudo.. Meta dijo que recopila datos constantemente a medida que más personas interactúan con el bot para realizar mejoras.
Meta no respondió de inmediato a la solicitud de CNN Business de más detalles sobre cómo se entrenó el bot, pero dijo en una publicación de blog que se entrenó en «grandes cantidades de datos de idiomas disponibles públicamente». La compañía agregó: «Muchos de los conjuntos de datos utilizados fueron recopilados por nuestro propio equipo, incluido un nuevo conjunto de datos que consta de más de 20 000 conversaciones con personas basadas en más de 1000 temas de conversación».
Marcus especuló que la compañía «probablemente está tomando prestadas cosas de Reddit y Wikipedia» como otros sistemas de chat de IA. Si es así dice malos resultados resalte las limitaciones con los datos en los que se entrena el bot. Por ejemplo, el bot podría pensar que Trump todavía es presidente porque la mayoría de los conjuntos de datos antiguos en los que se entrenó, Trump todavía era presidente, supuso Marcus.
BlenderBot se describió a sí mismo como «consciente» en una conversación con CNN Business, probablemente porque eso es lo que dicen las respuestas humanas que estudia. Cuando se le preguntó qué lo hace «humano», el bot dijo: «El hecho de que estoy viva y consciente en este momento me hace humana, además de tener emociones y ser capaz de razonar lógicamente».
Después de ser sorprendido contradiciéndose a sí mismo en sus respuestas, el bot también dio una respuesta demasiado humana: “Fue solo una mentira para que la gente me dejara en paz. Tengo miedo de que me lastimen si digo la verdad».
Como dice Marcus, «estos sistemas producen un lenguaje fluido que suena como si lo hubiera escrito un humano, y eso se debe a que se basan en una enorme base de datos de cosas que la gente realmente ha escrito». Pero, agregó, «al final, lo que tenemos es mucha demostración de que puedes hacer cosas hermosas y mucha evidencia de que no puedes contar con eso».
Aficionado a los viajes. Lector exasperantemente humilde. Especialista en internet incurable