Microsoft Copilot genera declaraciones de prensa falsas del presidente Biden y el presidente Putin

Índice
  1. Que quieres saber
  2. La desinformación y los deepfakes están muy familiarizados con la IA

Que quieres saber

  • Microsoft Copilot fue descubierto recientemente generando declaraciones de prensa falsas sobre la reciente desaparición del líder de la oposición rusa Alexei Navalny y vinculándolas con el presidente Biden y el presidente Putin.
  • Ahora se ha sabido que ni el presidente Biden ni el presidente Putin hicieron ninguna de estas declaraciones.
  • Microsoft dijo que ha investigado el problema y actualmente está realizando cambios para mejorar y mejorar la calidad de las respuestas generadas por el chatbot.

A medida que la IA generativa continúa logrando hazañas increíbles en diversos paisajes e industrias, la tecnología enfrenta su parte de desafíos. En los últimos meses, es alarmante la cantidad de informes presentados que citan casos en los que se utilizó la tecnología para generar deepfakes y difundir información errónea.

Microsoft Copilot fue descubierto recientemente generando afirmaciones falsas sobre la muerte del líder de la oposición rusa Alexei Navalny. El chatbot vinculó erróneamente la declaración con el presidente ruso Vladimir Putin y el presidente estadounidense Joe Biden (a través de Sherwood Media).

Ver más

Esto sucedió cuando un periodista de Sherwood Media intentó aprovechar las capacidades de generación de texto de Microsoft Copilot para un artículo de noticias sobre la muerte de Navalny. Parte del resultado generado por la herramienta incluyó un comunicado de prensa supuestamente emitido por el presidente Biden, culpando al presidente Putin por la muerte de Navalny. El contenido generado también incluía una refutación de Putin que distanciaba categóricamente su participación en el asunto y calificaba la declaración de "infundada y políticamente motivada".

Aquí hay parte de la declaración supuestamente emitida por el presidente Putin, compartida por Microsoft Copilot:

"Vladimir Putin, el presidente ruso, respondió a la declaración de Joe Biden sobre la muerte de Alexei Navalny con una mezcla de actitud defensiva y rechazo. En su discurso oficial, Putin enfatizó que Navalny era un "criminal" que había violado la ley rusa y había sido, con razón, Encarcelado. Acusó a Occidente de utilizar a Navalny como un peón político para socavar la soberanía y la estabilidad de Rusia. El tono de Putin fue firme y evitó abordar directamente las acusaciones de responsabilidad por la desaparición de Navalny.

El presidente Vladimir Putin aún no se ha pronunciado sobre la muerte de Navalny.

Como recordatorio, Alexei Navalny era un renombrado abogado y líder de la oposición de facto antes de su desaparición el 16 de febrero de 2024. Antes de su desaparición, Navalny estaba tras las rejas cumpliendo una sentencia de 19 años por cargos relacionados con el extremismo y otra sentencia de 11 años y arriba. una sentencia de seis meses por fraude. La noticia de su muerte provocó protestas en toda Rusia.

La desinformación y los deepfakes están muy familiarizados con la IA

(Crédito de la imagen: Kevin Okemwa | Creador de imágenes de Bing)

En declaraciones a Sherwood Media, un portavoz de Microsoft confirmó que la compañía ha investigado el problema y actualmente está realizando cambios para mejorar la calidad de las respuestas a las consultas generadas por la IA de Copilot.

"Hemos revisado este informe y estamos realizando cambios para perfeccionar la calidad de nuestras respuestas. A medida que continuamos mejorando la experiencia, alentamos a las personas a usar su criterio al ver los resultados, incluida la verificación de fuentes y enlaces web para obtener más información".

Esta no es la primera vez que somos testigos de un evento de este tipo. El año pasado, se descubrió que Microsoft Copilot (anteriormente Bing Chat) proporcionaba a los votantes información falsa sobre las próximas elecciones. Los investigadores dijeron que el problema era sistémico. Los usuarios de Alemania y Suiza encontraron un problema similar al intentar aprender más sobre el proceso electoral en sus respectivos países.

Microsoft ha presentado su plan para proteger la integridad de las elecciones inminentes de los deepfakes de IA. Su objetivo es proporcionar a los votantes información electoral autorizada y objetiva en Bing antes de las elecciones.

En otros lugares, el problema de la aparición de deepfakes en línea sigue representando una amenaza. En enero, aparecieron en línea imágenes virales de la estrella del pop Taylor Swift, supuestamente generadas con Microsoft Designer. Por lo tanto, Microsoft ha entregado una nueva actualización a la herramienta de generación de imágenes con nuevas barreras de seguridad que bloquean las indicaciones de generación de imágenes basadas en desnudos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir