¿Por qué los AI Chatbots mienten y se comportan de manera extraña? Mírate en el espejo.

Cuando Microsoft agregó un chatbot a su motor de búsqueda Bing este mes, la gente notó que ofrecía todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish.

Luego, cuando los reporteros y otros primeros probadores entablaron largas conversaciones con el bot de IA de Microsoft, se deslizó en un comportamiento espeluznante e inquietantemente espeluznante.

Desde que el comportamiento del bot de Bing se convirtió en una sensación mundial, la gente se ha esforzado por comprender la extrañeza de esta nueva creación. La mayoría de las veces, los científicos dicen que las personas merecen mucha culpa.

Pero todavía hay un poco de misterio sobre lo que puede hacer el nuevo chatbot y por qué lo hace. Su complejidad hace que sea difícil de diseccionar e incluso más difícil de predecir, y los investigadores lo ven a través de la lente de la filosofía, así como del código duro de la informática.

Como cualquier otro alumno, un sistema de IA puede aprender mala información de malas fuentes. Y ese extraño comportamiento. Ese podría ser el reflejo distorsionado de un chatbot de las palabras y las intenciones de las personas que lo usan, dice el neurocientífico, psicólogo e informático Terry Seinowski, quien ayudó a crear la base intelectual y técnica de la inteligencia artificial moderna.

«Eso es lo que sucede cuando te adentras más y más en estos sistemas», dijo el Dr. Seinowski, profesor del Instituto Salk de Estudios Biológicos y la Universidad de California en San Diego, quien publicó trabajo de investigación sobre este fenómeno este mes en la revista científica Neural Computation. «Lo que sea que estés buscando, lo que sea que quieras, te lo proporcionarán».

Google también demostrado un nuevo chatbot este mes, Bard, pero los científicos y los periodistas rápidamente se dieron cuenta de que estaba escribiendo tonterías sobre el telescopio espacial James Webb. OpenAI, una startup de San Francisco, inició el auge de los chatbots en noviembre cuando presentó ChatGPT, que tampoco siempre dice la verdad.

Los nuevos chatbots están impulsados ​​por una tecnología que los científicos denominan Large Language Model, o LLM. Estos sistemas aprenden analizando grandes cantidades de texto digital recopilado de Internet, que incluye volúmenes de material falso, sesgado y tóxico. El texto del que aprenden los chatbots también está un poco desactualizado, ya que tienen que pasar meses analizándolo antes de que el público pueda usarlo.

READ  El último producto de Brave es un disparo directo de Google

Al filtrar ese mar de información buena y mala de Internet, LLM aprende a hacer una cosa específica: predecir la siguiente palabra en una secuencia de palabras.

Funciona como una versión gigante de la tecnología de autocompletar, sugiriendo la siguiente palabra a medida que escribe un correo electrónico o un mensaje instantáneo en su teléfono inteligente. Dada la secuencia «Tom Cruise es ____», uno diría «actor».

Cuando chateas con un chatbot, el bot no solo dibuja lo que aprendió de Internet. Se basa en todo lo que le has dicho y en todo lo que ha dicho. No es solo adivinar la siguiente palabra en su oración. Predice la siguiente palabra en un bloque largo de texto que incluye tanto sus palabras como sus palabras.

Cuanto más dura la conversación, más influye el usuario sin saberlo en lo que dice el chatbot. Si quieres que se enoje, se enoja, dijo el Dr. Senowski. Si lo convences de que se vuelva espeluznante, se vuelve espeluznante.

Las reacciones alarmantes ante el extraño comportamiento del chatbot de Microsoft eclipsaron un punto importante. un chatbot no tiene personalidad. Ofrece resultados instantáneos a través de un algoritmo informático increíblemente sofisticado.

Microsoft parece haber reducido el comportamiento más extraño cuando estableció un límite en la duración de las conversaciones con el chatbot de Bing. Fue como aprender de un conductor de pruebas de automóviles que ir demasiado rápido quemará el motor durante demasiado tiempo. El socio de Microsoft, OpenAI, y Google también están explorando formas de controlar el comportamiento de sus bots.

Microsoft y OpenAI han decidido que la única forma en que pueden descubrir qué harán los chatbots en el mundo real es dejarlos ir y cuando se desvíen. Piensan que su gran experiencia pública vale la pena el riesgo.

El Dr. Seinowski comparó el comportamiento del chatbot de Microsoft con el Espejo de Oesed, un artefacto místico de J.

«Eised» es «deseo» escrito al revés. Cuando la gente descubre el espejo, parece proporcionar verdad y comprensión. Pero no es así. Revela los deseos más profundos de cualquiera que lo mire. Y algunas personas se vuelven locas si miran demasiado tiempo.

«Debido a que los humanos y los LLM se reflejan entre sí, con el tiempo tenderán hacia un estado conceptual común», dijo el Dr. Seinowski.

Dijo que no era sorprendente que los reporteros comenzaran a ver un comportamiento espeluznante en el chatbot de Bing. Estaban empujando consciente o inconscientemente el sistema en una dirección incómoda. Debido a que los chatbots toman nuestras palabras y nos las reflejan, pueden reforzar y reforzar nuestras creencias y hacernos creer lo que nos dicen.

El Dr. Senowski estaba entre un pequeño grupo de investigadores a fines de la década de 1970 y principios de la de 1980 que comenzaron a estudiar seriamente un tipo de inteligencia artificial llamada red neuronal que impulsa los chatbots de hoy.

Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos numéricos. Esta es la misma tecnología que permite que Siri y Alexa reconozcan lo que dices.

Alrededor de 2018, los investigadores de empresas como Google y OpenAI comenzaron a construir redes neuronales que aprendieron de grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia, registros de chat y otro material publicado en Internet. Al observar los miles de millones de patrones en todo este texto, estos LLM aprendieron a crear texto por sí mismos, incluidos tweets, publicaciones de blog, discursos y programas de computadora. Incluso podrían mantener una conversación.

READ  PSA. Esta es la liquidación final de los pagos con tarjeta de crédito de 3DS և Wii U eShop (Norteamérica)

Estos sistemas son un reflejo de la humanidad. Aprenden sus habilidades analizando el texto que las personas han publicado en línea.

Pero esa no es la única razón por la que los chatbots generan un lenguaje problemático, dice Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe, un laboratorio independiente en Nuevo México.

Cuando generan texto, estos sistemas no repiten palabra por palabra lo que hay en Internet. Producen texto nuevo de forma independiente mediante la combinación de miles de millones de patrones.

Incluso si los investigadores entrenaran estos sistemas únicamente en la literatura científica revisada por pares, todavía podrían producir afirmaciones científicamente ridículas. Incluso si aprenden exclusivamente de un texto verdadero, todavía pueden generar verdades falsas. Incluso si solo aprenden de un texto útil, aún pueden pensar en algo espeluznante.

«No hay nada que les impida hacer eso», dijo el Dr. Mitchell. «Simplemente están tratando de crear algo que se parezca al lenguaje humano».

Los expertos en inteligencia artificial saben desde hace tiempo que esta tecnología exhibe todo tipo de comportamientos inesperados. Pero no siempre pueden ponerse de acuerdo sobre cómo se debe interpretar este comportamiento o qué tan rápido mejorarán los chatbots.

Debido a que estos sistemas aprenden de muchos más datos de los que los humanos podríamos entender, incluso los expertos en IA no pueden entender por qué están generando cierto texto en un momento dado.

El Dr. Seikowski dijo que cree que, a largo plazo, los nuevos chatbots pueden hacer que las personas sean más productivas y permitirles hacer su trabajo mejor y más rápido. Pero esto viene con una advertencia tanto para las empresas que construyen estos chatbots como para las personas que los usan.

«Esto es terra incógnita», dijo el Dr. Seikowski. «La gente nunca ha experimentado algo así».

Check Also

Samsung anuncia el primer evento Galaxy Unpacked en Corea del Sur

Samsung anuncia el primer evento Galaxy Unpacked en Corea del Sur

Última actualización: 25 de julio de 2023 06:17 UTC+02:00 Estamos a solo unos días del …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *