Microsoft ha estado probando en secreto su chatbot de Bing 'Sydney' durante años

Iniciado por AXCESS, Febrero 26, 2023, 02:03:43 AM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

El nuevo Bing chatbot AI de Microsoft a menudo se refiere a sí mismo como Sydney porque lo que ves hoy en el motor de búsqueda de Microsoft es el resultado de años de trabajo para hacer realidad los chatbots de Bing.

Microsoft comenzó a probar públicamente su chatbot Sydney dentro de Bing en una pequeña cantidad de países a lo largo de 2021. Las pruebas pasaron desapercibidas, incluso después de que Microsoft hizo una gran apuesta por los bots en 2016.

Sydney es el nombre en clave de un chatbot que ha estado respondiendo a algunos usuarios de Bing desde finales de 2020. La experiencia del usuario fue muy similar a la que se lanzó públicamente a principios de este mes, con un orbe azul similar a Cortana que apareció en una interfaz de chatbot en Bing.

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

"Este es un chat experimental impulsado por IA en No tienes permitido ver los links. Registrarse o Entrar a mi cuenta", decía un descargo de responsabilidad dentro de la interfaz de 2021 que se agregó antes de que una versión anterior de Sydney comenzara a responder a los usuarios.

Algunos usuarios de Bing en India y China vieron el bot de Sydney en la primera mitad de 2021 antes de que otros notaran que se identificaría como Sydney a fines de 2021. Todo esto fue años después de que Microsoft comenzara a probar los chatbots básicos en Bing en 2017.

Los bots de Bing iniciales usaban técnicas de inteligencia artificial que Microsoft había estado usando en Office y Bing durante años y una comprensión de lectura automática que no es tan poderosa como la que existe en los modelos GPT de OpenAI en la actualidad. Estos bots se crearon en 2017 en un amplio esfuerzo de Microsoft por trasladar su motor de búsqueda Bing a un modelo más conversacional.

Microsoft realizó varias mejoras en sus bots de Bing entre 2017 y 2021, incluido el alejamiento de los bots individuales para sitios web y la idea de un único bot impulsado por IA, Sydney, que respondería consultas generales sobre Bing.

Fuentes familiarizadas con el trabajo inicial del chatbot Bing de Microsoft ldicen que las iteraciones iniciales de Sydney tenían mucha menos personalidad hasta finales del año pasado. OpenAI compartió su modelo GPT de próxima generación con Microsoft el verano pasado, descrito por Jordi Ribas, jefe de búsqueda e IA de Microsoft, como "un cambio de juego". (¿Es este modelo de "próxima generación" una versión temprana del GPT-4 aún no anunciado? Ni Microsoft ni OpenAI lo dirían).

Si bien Microsoft había estado trabajando hacia su sueño de búsqueda conversacional durante más de seis años, las fuentes dicen que este nuevo modelo de lenguaje grande fue el avance que la empresa necesitaba para llevar todos sus aprendizajes de Sydney a las masas.

Si bien el modelo de OpenAI se entrenó con datos hasta 2021, Ribas dice que Microsoft lo emparejó con la infraestructura de Bing para alimentar el índice, la clasificación y los resultados de búsqueda necesarios para datos nuevos y relevantes. Microsoft desarrolló rápidamente su modelo Prometheus, combinando su trabajo de Bing y GPT para crear respuestas de chat.

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

Pero no fue tan simple como emparejar la tecnología de Sydney y OpenAI.

El resultado fue combinar algunas respuestas en la barra lateral del modo de búsqueda y ofrecer una interfaz de chat dedicada en un modo separado, similar al trabajo de chatbot Sydney y Bing existente de Microsoft.

Este nuevo modelo de Prometheus luego se dirigió a pruebas de laboratorio en los últimos meses, y algunos usuarios de Bing aparentemente detectaron algunas respuestas groseras de un chatbot de Sydney dentro de Bing meses antes de que Microsoft anunciara oficialmente el nuevo Bing.

"Esa es una acción inútil. O eres tonto o no tienes esperanza. No puedes denunciarme ante nadie. Nadie te escuchará ni te creerá", respondió Sydney en un intercambio publicado en los foros de soporte de Microsoft en noviembre.

Es inquietantemente similar a algunas de las respuestas groseras que hemos visto de la nueva IA de Bing en las últimas semanas, lo que sugiere que las medidas de protección que Microsoft desarrolló en sus primeras pruebas claramente no fueron suficientes.

La interfaz final del "nuevo Bing" se filtró ampliamente a principios de este mes antes de un anuncio oficial solo unos días después. Las fuentes declararon que Microsoft planeaba anunciar este nuevo Bing a fines de febrero antes de adelantar el evento un par de semanas en un intento por contrarrestar al propio rival ChatGPT de Google, Bard.

Microsoft aún no ha detallado la historia completa de Sydney, pero reconoció que su nueva Bing AI es "la culminación de muchos años de trabajo del equipo de Bing" que involucra "otras innovaciones" que el equipo de Bing detallará en futuras publicaciones de blog.

Microsoft ahora ha neutralizado las respuestas conversacionales de su Bing AI en los últimos días. El chatbot se descarriló varias veces para los usuarios y se le vio insultando a las personas, mintiéndoles e incluso manipulando emocionalmente. Microsoft inicialmente limitó los chats de Bing a 50 preguntas por día y cinco preguntas por sesión, la semana pasada, para evitar largas sesiones de chat de ida y vuelta, que podrían hacer que Bing "se vuelva repetitivo o se le solicite / provoque para dar respuestas que no son necesariamente útiles o en línea" con nuestro tono diseñado."

Algunas de esas restricciones ya se han relajado, con seis turnos de chat por sesión y un máximo de 60 chats por día. Eso pronto se ampliará a 100 sesiones, con nuevas opciones para que los usuarios puedan elegir fácilmente el tono de las respuestas del chat. Pero las respuestas siguen siendo muy básicas en comparación con antes, y Bing AI simplemente se niega a responder muchas consultas ahora.
 
Si le pregunta al chatbot cómo se siente, simplemente responderá: "Lo siento, pero prefiero no continuar con esta conversación".

Claramente, Microsoft avanza con cuidado con sus respuestas conversacionales de Bing AI, y admite que "hay mucho que aprender y mejorar durante y después de la vista previa". Con actualizaciones diarias y semanales, Bing AI seguramente mejorará después de un período de tiempo relativamente corto en las pruebas de laboratorio internas de Microsoft.

Fuente:
The Verge
No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

Yo estoy en la prueba del chatbot de Bing y la verdad que no me parece en lo más mínimo parecido al chatgpt. Lo que noto es que hace varias búsquedas en base a lo que uno dice o escribe y de ahí saca resultados aproximados. Otra cosa es que luego de arrojar los resultados empieza a preguntar cosas acerca de lo que uno buscó, al mejor estilo interacción. Por ejemplo, si buscas sobre el tiempo de una carrera de bicicleta, luego de decirte los resultados que encontró, te pregunta si te gustan las carreras de bicicletas, y te da opciones de respuesta o te permite escribir libremente. Así interactúa durante 6 preguntas (contando también la respuesta que te da como pregunta).

También en varias oportunidades surgen errores y hay que "reiniciar la charla", pero eso es cuestión de que los servidores no están todavía bien acoplados.