ChatGPT puede crear malware mutante que evade las técnicas de seguridad modernas

ChatGPT logró crear cosas divertidas e hilarantes en las manos adecuadas, como esta Bigmouth Billy Bass plan. Sin retención, hay un banda mucho más umbrátil de la IA que podría estilarse para crear algunos problemas muy complicados para el futuro de la informática. Algunos expertos en TI han señalado recientemente el peligroso potencial de ChatGPT y su capacidad para crear malware polimórfico que es casi increíble de detectar mediante la detección y respuesta de puntos finales (EDR).

EDR es un tipo de técnica de ciberseguridad que se puede implementar para detectar malware. Sin retención, los expertos sugieren que este protocolo tradicional no coincide con el daño potencial que puede causar ChatGPT. El código que puede mutar (aquí es donde entra el término polimorfo) puede ser mucho más difícil de detectar.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir