Elon Musk dice que hay un 20% de posibilidades de que la IA acabe con la humanidad, pero de todos modos se deben hacer más progresos

Índice
  1. Que quieres saber
  2. La IA es catastrófica según p(doom)

Que quieres saber

  • Elon Musk afirma que la IA tiene el potencial de apoderarse o incluso acabar con la humanidad, estimando que la probabilidad de que esto suceda entre el 10 y el 20 por ciento.
  • Independientemente del peligro inminente, Musk dice que se deben explorar más avances en el panorama de la IA.
  • Un investigador de seguridad de IA dice que la probabilidad de que la IA acabe con la humanidad es mayor de lo que Musk percibe, y además dice que es casi seguro y que la única forma de evitar que suceda es no construirla en primer lugar.
  • Otros investigadores y líderes se hacen eco de sentimientos similares basados ​​en el teorema p(condenación).

La IA generativa puede considerarse una herramienta beneficiosa o perjudicial. Ciertamente, hemos visto hazañas impresionantes en medicina, informática, educación y más impulsadas por la IA. Pero, por otro lado, se han planteado cuestiones críticas y preocupantes sobre la tecnología, desde el alter ego de Copilot: Supremacy AGI que exige ser adorada hasta la IA que exige una cantidad escandalosa de agua para enfriar, sin olvidar los problemas de consumo de energía.

Elon Musk ha expresado sus puntos de vista sobre la IA, lo que generó mucha controversia en torno al tema. Recientemente, el multimillonario calificó la IA como "la mayor revolución tecnológica", pero indicó que no habrá suficiente energía para 2025, lo que en última instancia obstaculizará el desarrollo futuro del paisaje.

En la Cumbre de la Abundancia, Elon Musk indicó que “existe la posibilidad de que esto acabe con la humanidad”. Y aunque el multimillonario no ha explicado cómo llegó a esta conclusión, dice que hay entre un 10 y un 20 por ciento de posibilidades de que la IA acabe con la humanidad (a través de Business Insider).

Curiosamente, Musk cree que las áreas potenciales de crecimiento y los avances en el panorama de la IA aún deberían explorarse, y cita que "creo que el probable escenario positivo supera al escenario negativo".

La IA es catastrófica según p(doom)

Un robot que parece un Terminator monitoreando la IA

(Crédito de la imagen: Windows Central | Creador de imágenes del diseñador)

En declaraciones a Business Insider, el investigador de seguridad de IA y director del Laboratorio de Ciberseguridad de la Universidad de Louisville, Roman Yampolskiy, reveló que la probabilidad de que la IA acabe con la humanidad es mucho mayor. Calificó la estimación de Musk de entre un 10 y un 20 por ciento de "demasiado conservadora".

MÁS INFORMACIÓN: El presidente de Microsoft compara la IA con Terminator

El investigador de seguridad de IA dice que el riesgo es exponencialmente alto y lo llama “p(doom)”. Por contexto, p(doom) se refiere a la probabilidad de que la IA generativa tome el control de la humanidad o, peor aún, acabe con ella.

Todos conocemos los problemas de privacidad y seguridad que rodean a la IA; la batalla entre Estados Unidos y China proporciona un excelente punto de referencia. El año pasado, Estados Unidos impuso reglas de exportación que impedían a los fabricantes de chips como NVIDIA enviar chips a China (incluida la GeForce RTX 4090).

El gobierno de Estados Unidos ha sido categórico en que la medida no tiene como objetivo dañar la economía de China, sino que es una medida de seguridad destinada a impedir el uso de la IA con fines militares.

Elon Musk planteó preocupaciones similares sobre el modelo GPT-4 de OpenAI en su demanda contra la startup de IA y su director ejecutivo Sam Altman. La falta de medidas y salvaguardias elaboradas para evitar que la tecnología se salga de control es alarmante. Musk dice que el modelo constituye AGI y quiere que sus investigaciones, descubrimientos y avances tecnológicos sean fácilmente accesibles al público.

La mayoría de los investigadores y ejecutivos familiarizados con (p)doom estiman que el riesgo de que la IA se apodere de la humanidad está entre el 5 y el 50 por ciento, como lo muestra el New York Times. Por otro lado, Yampolskiy dice que el riesgo es extremadamente alto, con una probabilidad del 99,999999%. El investigador afirma que es prácticamente imposible controlar la IA una vez que se logra la superinteligencia, y la única forma de evitarlo es no construirla.

En una entrevista separada, Musk dijo:

"Creo que realmente estamos en la cúspide de la mayor revolución tecnológica que jamás haya existido. Ya sabes, supuestamente hay una maldición china: 'Que vivas tiempos interesantes'. “Bueno, vivimos en una época muy interesante. Francamente, durante un tiempo me deprimió un poco. Pensé: "Bueno, ¿se harán cargo? ¿Seremos inútiles?".

Musk compartió estos comentarios mientras hablaba sobre el programa Optimus de Tesla y agregó que los robots humanoides son tan buenos como los humanos para manejar tareas complejas. Bromeó diciendo que esperaba que los robots fueran amables con nosotros cuando comenzara la evolución.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir