Bing Chat impulsado por IA adquiere tres personalidades distintas Ars Technica

Bing Chat impulsado por IA adquiere tres personalidades distintas Ars Technica

Tres cabezas de robot de diferentes colores.

Benj Edwards / Ars Technica

Mike Davidson de Microsoft el miércoles Anunciado que la compañía creó tres estilos de personalidad diferentes para su bot experimental de Bing Chat: Creativo, Equilibrado o Preciso. Microsoft ha sido pruebas característica del 24 de febrero a un número limitado de usuarios. Cambiar entre modos produce diferentes resultados que lo cambian balance entre la precisión y la creatividad.

Bing Chat es un asistente impulsado por IA basado en el modelo avanzado de lenguaje grande (LLM) desarrollado por OpenAI. Una característica clave de Bing Chat es que puede buscar en la web e incluir los resultados en sus respuestas.

Microsoft anunció Bing Chat el 7 de febrero, y poco después de su lanzamiento, los ataques de los adversarios llevaron regularmente a la primera versión de Bing Chat a un frenesí simulado, y los usuarios descubrieron que se podía convencer al bot; amenazar a ellos. No mucho después, Microsoft desconectó abruptamente las ráfagas de Bing Chat, imponiendo límites estrictos sobre la duración de las conversaciones.

Desde entonces, la compañía ha estado experimentando con formas de recuperar algo de la personalidad ingeniosa de Bing Chat para aquellos que lo querían, pero también permitir que otros usuarios busquen respuestas más precisas. Esto resultó en una nueva interfaz de «estilo de conversación» de tres opciones.

En nuestros experimentos con los tres estilos, notamos que el modo Creativo producía sugerencias más cortas y extravagantes que no siempre eran seguras o prácticas. El modo «preciso» erró por el lado de la precaución, a veces no ofrecía nada si no había una forma segura de lograr el resultado. En el medio, el modo Equilibrado a menudo producía las respuestas más largas, con los resultados de búsqueda más detallados y las citas de sitios web en sus respuestas.

Con modelos de lenguaje grandes, las inexactitudes inesperadas (alucinaciones) a menudo se vuelven más frecuentes a medida que aumenta la «creatividad», lo que generalmente significa que el modelo de IA se desviará más de la información aprendida en su base de datos. Los investigadores de IA a menudo llaman a esta característica “la temperaturaPero los miembros del equipo de Bing dicen que hay más en los nuevos estilos de conversación.

Según un empleado de Microsoft mikhail parakhinCambiar de modo en Bing Chat cambia aspectos fundamentales del comportamiento del bot, incluido el intercambio entre los diferentes modelos de IA que recibe. entrenamiento adicional de las respuestas humanas a su salida. Los diferentes modos también usan diferentes avisos iniciales, lo que significa que Microsoft cambia el aviso que determina la identidad, como se reveló en el ataque de inyección rápida sobre el que escribimos en febrero.

Si bien Bing Chat todavía está disponible solo para aquellos que se han registrado en la lista de espera, Microsoft continúa mejorando Bing Chat y otras funciones de búsqueda de Bing impulsadas por IA a medida que se prepara para implementarlo a más usuarios. Microsoft anunció recientemente planes para integrar la tecnología en Windows 11.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *