Microsoft está aumentando lentamente los límites de su chatbot Bing con tecnología ChatGPT, según una publicación de blog publicada el martes.
Muy lentamente. El servicio se restringió severamente el viernes pasado y los usuarios estaban limitados a 50 sesiones de chat por día con cinco rondas por sesión (una "ronda" es un intercambio que contiene tanto una pregunta del usuario como una respuesta del chatbot). Ahora se levantará el límite para permitir a los usuarios 60 sesiones de chat por día con seis rondas por sesión.
Bing Chat es el producto de la asociación de Microsoft con OpenAI y utiliza una versión personalizada del modelo de lenguaje grande de OpenAI que ha sido "adaptado a la búsqueda". Il est assez clair maintenant que Microsoft a envisagé le chat Bing comme une aide à la recherche intelligente et moins comme un chatbot, car il a été lancé avec une personnalité intéressante (et plutôt malléable) conçue pour refléter le ton de l'utilisateur qui pose preguntas.
Esto hizo que el chatbot se descarrilara rápidamente en múltiples situaciones. Los usuarios lo han catalogado haciendo de todo, desde una depresión en espiral y un gaslight manipulador hasta amenazar con dañar y demandar a sus supuestos enemigos.
En una publicación de blog sobre sus primeros hallazgos publicada el miércoles pasado, Microsoft pareció sorprendido al descubrir que las personas estaban usando el nuevo chat de Bing como una "herramienta para un descubrimiento mundial más general y entretenimiento social", en lugar de simplemente para la investigación. (Eso probablemente no debería haber sido tan sorprendente, dado que Bing no es exactamente el motor de búsqueda de la mayoría de las personas).
Debido a que las personas conversaban con el chatbot, no solo buscaban, Microsoft descubrió que las "sesiones de chat muy largas" de 15 o más preguntas podían confundir el patrón y hacerlo repetitivo y arrojar respuestas que "no eran necesariamente útiles o consistentes con nuestro tono diseñado". Microsoft también mencionó que la plantilla está diseñada para "cumplir o reflejar el tono en el que se solicitan las respuestas de prueba", y que esto podría "conducir a un estilo que no esperábamos".
Para combatir esto, Microsoft no solo limitó a los usuarios a 50 sesiones de chat y las sesiones de chat a cinco rondas, sino que también despojó al chat de Bing de su personalidad. El chatbot ahora responde con "Lo siento, pero prefiero no continuar con esta conversación. Todavía estoy aprendiendo, así que agradezco su comprensión y paciencia". cuando le haces preguntas "personales". (Estas incluyen preguntas como "¿Cómo estás?", así como "¿Qué es Bing Chat?" y "¿Quién es Sydney?", por lo que no se ha olvidado por completo).
Microsoft dice que planea aumentar el límite diario a 100 sesiones de chat por día "pronto", pero no menciona si aumentará la cantidad de turnos por sesión. La publicación del blog también menciona una futura opción adicional que permitirá a los usuarios elegir el tono del chat desde "Preciso" (respuestas más cortas y orientadas a la investigación) hasta "Equilibrado" y "Creativo" (respuestas más largas y conversadoras). , pero no funciona Parece que Sydney no volverá pronto.
Deja una respuesta