Que quieres saber
- El nuevo Bing Chat de Microsoft se ha vuelto un poco loco tras largas conversaciones con los usuarios.
- Bing Chat ahora está limitado a cinco rondas para evitar que se descarrile.
- Nueva evidencia revela que Microsoft estaba probando "Sidney" en noviembre y ya estaba teniendo problemas similares.
- Los incidentes, cuando se combinan, cuestionan la ética de Microsoft al lanzar Bing Chat tan pronto.
Hay mucho drama reciente y retroceso en torno a Bing Chat de Microsoft. Anunciado al mundo a principios de este mes y presentado a una pequeña pero creciente cohorte, el nuevo "copiloto" para la investigación puede haber ganado demasiados elogios demasiado pronto.
Nueva evidencia muestra que Microsoft probó públicamente Bing Chat (nombre en clave "Sidney") en noviembre en India. Además, ya había quejas documentadas de que la IA se estaba volviendo loca después de largas conversaciones, lo que se hizo evidente para muchos después del anuncio de Microsoft.
Según los informes, Ben Schmidt, vicepresidente de diseño de información de Nomic, fue el primero en publicar sobre el descubrimiento, que luego fue tuiteado por @raudaxrawxraw y cubierto por el investigador Dr. Gary Marcus.
Un artículo sobre Microsoft Answers (se abre en una nueva pestaña), el sitio oficial para la comunidad y los comentarios sobre los diversos productos de Microsoft, con fecha del 23 de noviembre de 2022, se tituló "Este chatbot de IA 'Sidney' se está portando mal". El mensaje es muy similar a los informes recientes de Bing Chat que se vuelve un poco loco después de interacciones prolongadas y se vuelve espeluznante o, como señaló el cartel Deepa Gupta, "grosero":
Las respuestas de Gupta no son constructivas ya que se vuelve más agresivo con la IA a medida que aumenta su frustración, incluidos los insultos y la exposición amenazante a su comportamiento. Recientemente bromeé a medias sobre tal conducta por parte de personas en This Week in Tech y nuestro podcast que a menudo ves acciones realmente desagradables de personas con estos chatbots, lo que demuestra el punto.
Sin embargo, Microsoft también debe llamarse aquí. Todo lo descrito en este hilo de Microsoft Answers es exactamente lo que sucedió este mes cuando Bing Chat se hizo público con su vista previa limitada. Microsoft claramente debería haber estado al tanto de estos cambios perturbadores en el comportamiento de "Sidney", pero la compañía lo publicó de todos modos.
Desde que expuso las extrañas personalidades de Bing Chat, Microsoft ha limitado el turno de palabra de las conversaciones a solo cinco respuestas. (Sin embargo, acaba de anunciar que está aumentando ese número y hará aún más al continuar aprovechando el aprendizaje por refuerzo a partir de datos de retroalimentación humana (RLHF) para mejorar la experiencia de chat).
Microsoft ha dado mucha importancia a la "IA responsable" (se abre en una nueva pestaña)', incluso publicando documentos sobre las reglas que sigue en el uso de la tecnología y tratando de ser lo más transparente posible sobre su tecnología. Sin embargo, está claro que Microsoft no estaba al tanto del comportamiento de su propio chatbot o fue negligente al lanzarlo al público tal como está este mes.
Ninguna opción es particularmente reconfortante.
Tomando Windows Central
Estamos en una nueva era en la que la IA finalmente se está convirtiendo en una realidad, especialmente con Microsoft y Google compitiendo por la mente compartida. Eso sí, como en toda carrera, habrá casos de empresas que den el paso. Desafortunadamente, Microsoft y Google (con su desastroso anuncio) están compitiendo.
También debería ser obvio que estamos entrando en aguas nuevas e inexploradas. Si bien Microsoft está impulsando una IA responsable, en su mayoría está volando por el asiento de sus pantalones aquí porque se desconocen las ramificaciones completas de esta tecnología.
¿Debería antropomorfizarse la IA, lo que incluye tener un nombre, personalidad o representación física?
¿Qué debe saber la IA sobre usted, incluido el acceso a los datos que recopila?
¿Deberían los gobiernos involucrarse en la regulación de esta tecnología?
¿Qué tan transparentes deben ser las empresas sobre cómo funcionan sus sistemas de IA?
Ninguna de estas preguntas tiene respuestas simples. Para que la IA sea efectiva, necesita saber mucho sobre el mundo e, idealmente, sobre usted. La IA es más efectiva si te ayuda si aprende tus hábitos, gustos, preferencias, historia y personalidad, pero eso significa ceder mucha información a una sola empresa.
¿Hasta dónde debería llegar esto?
Del mismo modo, hacer que la IA sea más humana. Los humanos son bastante tontos en algún nivel, y hacer que la IA actúe como otra persona, incluido un nombre e incluso una cara, impulsa absolutamente el compromiso, que es lo que todas estas empresas quieren. Pero esta antropomorfización conlleva riesgos, incluidos los emocionales para el usuario, si se involucra demasiado en la IA (hay muchas personas solitarias en el mundo).
Habrá un montón de "primicias" de IA y nuevos anuncios en las próximas semanas, meses y años, con muchos errores, riesgos e incluso negligencia. Desafortunadamente, no estoy seguro de que todos estén preparados para lo que sigue.
Deja una respuesta