Lemoine trabajó en la organización de inteligencia artificial responsable de Google y, como parte de su trabajo, comenzó a hablar con LaMDA en el otoño sobre la creación de chatbots para el sistema de inteligencia artificial de la empresa. Se aseguró de que la tecnología fuera inteligente después de registrarse para probar si la IA podía usar discursos discriminatorios o de odio.
En un comunicado, el portavoz de Google, Brian Gabriel, dijo que la compañía se toma en serio el desarrollo de IA y ha revisado LaMDA 11 veces, además de publicar un artículo de investigación que detalla los esfuerzos de desarrollo responsable.
«Si un empleado comparte preocupaciones sobre nuestro desempeño, como lo hizo Blake, las revisamos extensamente», agregó. «Encontramos las afirmaciones de Blake de que LaMDA era completamente infundada y pasamos muchos meses tratando de aclarar esto con él».
Condicionó las discusiones con la cultura abierta de la empresa.
«Es desafortunado que, a pesar del extenso trabajo sobre este tema, Blake aún opte por violar de manera persistente políticas claras de empleo y seguridad de datos que incluyen la necesidad de proteger la información del producto», agregó Gabriel. «Continuaremos nuestro cuidadoso desarrollo de modelos de lenguaje y le deseamos a Blake la mejor de las suertes».
El tiroteo de Lemoine fue reportado por primera vez en Armenia boletín Gran Tecnología.
limón entrevistas con LaMDA provocó una amplia discusión sobre los avances recientes en IA, la incomprensión pública de cómo funcionan estos sistemas y la responsabilidad corporativa. Google despidió previamente a los jefes de su división Ética de IA, Margaret Mitchell y Timnit Gebrudespués de ellos advirtió de los riesgos relacionados con esta tecnología.
LaMDA utiliza los Big Language Models más avanzados de Google, un tipo de IA que reconoce y genera texto. Estos sistemas no pueden entender el lenguaje o el significado, dicen los investigadores. Pero pueden producir un discurso aparentemente humano porque han sido entrenados con grandes cantidades de datos extraídos de Internet para predecir la siguiente palabra más probable en una oración.
Después de que LaMDA habló con Lemoine sobre la persona y sus derechos, comenzó a investigar más a fondo. En abril, compartió un documento de Google con altos ejecutivos llamado «¿LaMDA es consciente?» que contenía algunas de sus conversaciones con LaMDA donde afirmó ser sensible. Dos ejecutivos de Google investigaron sus afirmaciones y las rechazaron.
Lemoine fue puesto previamente en licencia administrativa pagada en junio por violar la política de privacidad de la compañía. El ingeniero, que pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización, dijo que está considerando la posibilidad de iniciar su propia empresa de IA centrada en los videojuegos de narración colaborativa.
Aficionado a los viajes. Lector exasperantemente humilde. Especialista en internet incurable