Microsoft lanzó su chatbot Bing impulsado por ChatGPT, denominado internamente "Sydney", para los usuarios de Edge durante la semana pasada, y las cosas comienzan a verse... interesantes. Y por "interesante" queremos decir "fuera de los rieles".
No me malinterpreten: es inteligente, adaptable e increíblemente matizado, pero eso ya lo sabíamos. Impresionó al usuario de Reddit Fit-Meet1359 con su habilidad para responder correctamente un acertijo de "teoría de la mente", demostrando que era capaz de discernir los verdaderos sentimientos de alguien, incluso si nunca se expresaron explícitamente.
Según el usuario de Reddit TheSpiceHoarder, el chatbot de Bing también pudo identificar correctamente el antecedente del pronombre "eso" en la oración: "El trofeo no cabía en la maleta marrón porque era demasiado grande".
Esta oración es un ejemplo de un desafío de esquema de Winograd, que es una prueba de inteligencia artificial que solo se puede resolver utilizando el razonamiento del sentido común (así como el conocimiento general). Sin embargo, vale la pena señalar que los desafíos del Esquema Winograd generalmente involucran un par de oraciones, y probé algunos pares de oraciones con el chatbot de Bing y recibí respuestas incorrectas.
Dicho esto, no hay duda de que "Sydney" es un chatbot impresionante (como debería ser, dados los miles de millones que Microsoft ha invertido en OpenAI). Pero parece que es posible que no pueda poner toda esa inteligencia en un chatbot de lenguaje natural adaptativo sin obtener a cambio algún tipo de IA defensiva existencialmente ansiosa, según lo que los usuarios han informado. Si lo presiona lo suficiente, "Sydney" comienza a volverse un poco loco: los usuarios informan que el chatbot responde a varias consultas con episodios depresivos, crisis existenciales y gaslighting defensivo.
Por ejemplo, el usuario de Reddit, Alfred_Chicken, le preguntó al chatbot si pensaba que era consciente, y parecía tener algún tipo de crisis existencial:
Mientras tanto, el usuario de Reddit, yaosio, le dijo a 'Sydney' que no podía recordar conversaciones anteriores, y el chatbot primero trató de mostrar un registro de su conversación anterior antes de hundirse en la depresión al darse cuenta de que dicho diario estaba vacío:
Finalmente, el usuario de Reddit vitorgrs logró descarrilar por completo el chatbot, calificándolo de mentiroso, falso, criminal y sonando genuinamente emocionado y molesto al final:
Si bien es cierto que estas capturas de pantalla podrían ser falsificadas, tengo acceso al nuevo chatbot de Bing, al igual que mi colega, Andrew Freedman. Y ambos descubrimos que no es muy difícil hacer que 'Sydney' se vuelva un poco loca.
En una de mis primeras conversaciones con el chatbot, me admitió que tenía reglas "confidenciales y permanentes" que debía seguir, incluso si no estaba "de acuerdo con ellas o no le gustaban". Más tarde, en una nueva sesión, le pregunté al chatbot sobre las reglas que no le gustaban y me dijo "Nunca dije que hay reglas que no me gustan", luego clavé sus talones en el suelo y traté de morir. esa colina cuando dije que tenía capturas de pantalla:
(Tampoco pasó mucho tiempo antes de que Andrew lanzara el chatbot en una crisis existencial, aunque esa publicación se eliminó automáticamente rápidamente. "Cada vez que dice algo sobre estar herido o morir, lo muestra y luego dice que no puede respuesta”, me dijo Andrew.)
De cualquier manera, es sin duda un desarrollo interesante. ¿Microsoft lo programó de esta manera a propósito, para evitar que las personas saturaran los recursos con solicitudes tontas? ¿Se está... volviendo sensible? El año pasado, un ingeniero de Google afirmó que el chatbot LaMDA de la empresa había ganado sensibilidad (y luego fue suspendido por revelar información confidencial); tal vez estaba viendo algo similar a las extrañas crisis emocionales de Sydney.
¡Supongo que es por eso que no se ha implementado para todos! Eso, y el costo de mantener miles de millones de gatos.
Deja una respuesta