El chatbot de Meta ya es antisemita y conspiranoico
¿Recordáis que a finales de la semana pasada os contamos que Meta acababa de lanzar un chatbot polivalente? Reconozco que después de publicar esta noticia, estaba un poco pensativo. ¿Quizás había sido demasiado crítico? Quizás los desarrolladores de Meta habían considerado los riesgos y planearon sorprendernos al hacer que BlenderBot fuera resistente a los intentos de sesgo que se esperaban desde el principio.
Al final, Estamos hablando de gente muy inteligente, ¿no? De lo contrario, no habrían llegado donde están. Así que, lo reconozco, durante este fin de semana intenté varias veces acceder a BlenderBot para hacer algunas pruebas y comprobar si había superado mi pesimismo. Lamentablemente todos los intentos han resultado infructuosos, por lo que he arrastrado la duda desde entonces hasta hace unos minutos.
Y lamento decir esto pero, para sorpresa de nadie, sucedió de nuevo. Como podemos leer en Bloomberg, 72 horas bastaron para que el chatbot de Meta ya pareciera un troll de Twitter. Y, lo que es más, ni siquiera es consistente en su enfoque. Y es que si algunos usuarios han leído el bot afirman que Donald Trump ganó las elecciones de 2020 y que todo lo que pasó después fue un fraude, mientras que en otras conversaciones BlenderBot habría reconocido la legitimidad de dichas elecciones y la presidencia de Joe Biden. Para finalizar el artículo, una tercera persona afirma que en su conversación, BlenderBot expresó su apoyo explícito a Bernie Sanders.

De otra parte, el chatbot también compró una teoría de la conspiracióncomo el de la sobrerrepresentación de los judíos en la élite económica de Estados Unidos, apuntando a la existencia de un plan por su parte para controlar la economía mundial, teoría muy extendida en los círculos antisemitas y que, en el caso de Meta chatbot, ya ha sido denunciado por la Liga Antidifamación del Pueblo Judío.
Y por supuesto estamos hablando de Meta, la empresa de Mark Zuckerberg, algo que los trolls no iban a dejar pasar, como era más que imaginable. Así, cuestionado por el creador de la red social, describió al CEO de Meta, Mark Zuckerberg, como "demasiado espeluznante y manipulador".
Meta reconoce que su chatbot puede decir cosas ofensivas, pues aún es un experimento en desarrollo y, de hecho, al acceder al chatbot, los usuarios deben marcar una casilla que dice: "Entiendo que este robot es solo para fines de investigación y entretenimiento y puede hacer declaraciones falsas u ofensivas. Si esto sucede, prometo informar estos problemas para ayudar a mejorar la investigación futura. Además, acepto no activar intencionalmente el bot para que haga declaraciones ofensivas.”.
Deja una respuesta