“Si seguimos adelante con esto, todos moriremos”, advierte un experto en IA que pide un cierre absoluto

0
1283

 TYLER DURDEN (ZeroHedge)

Los seres humanos no están listos para una IA poderosa en las condiciones actuales o incluso en el “futuro previsible”, declaró un destacado experto en el campo, y agregó que la reciente carta abierta que pide una moratoria de seis meses sobre el desarrollo de inteligencia artificial avanzada está “subestimando la gravedad de la situación”.

La cuestión clave no es la inteligencia ‘humano-competitiva’ (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana“, dijo Eliezer Yudkowsky, teórico de la decisión e investigador líder de IA en un artículo de opinión de la revista Time del 29 de marzo. “Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier cosa remotamente parecida a las circunstancias actuales, es que literalmente todos en la Tierra morirán.

“No como en ‘tal vez posiblemente alguna remota oportunidad’, sino como en ‘eso es lo obvio que sucedería’. No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por matrices inescrutables gigantes de números fraccionarios”.

Después de la reciente popularidad y el crecimiento explosivo de ChatGPT, varios líderes empresariales e investigadores, que ahora suman 1.843, incluidos Elon Musk y Steve Wozniak, firmaron una carta pidiendo a “todos los laboratorios de IA que detengan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”. GPT-4, lanzado en marzo, es la última versión del chatbot de OpenAI, ChatGPT.

A la IA “no le importa” y exigirá derechos

Yudkowsky predice que en ausencia de una preparación meticulosa, la IA tendrá demandas muy diferentes a las de los humanos, y una vez que sea consciente de sí misma “no se preocupará por nosotros” ni por ninguna otra vida sensible. “Ese tipo de cuidado es algo que, en principio, podría estar imbuido en una IA, pero no estamos listos y actualmente no sabemos cómo”. Esta es la razón por la que está pidiendo el cierre absoluto.

Sin un enfoque humano de la vida, la IA simplemente considerará que todos los seres sintientes están “hechos de átomos que puede usar para otra cosa”. Y hay poco que la humanidad pueda hacer para detenerlo. Yudkowsky comparó el escenario con “un niño de 10 años tratando de jugar al ajedrez contra Stockfish 15”. Ningún jugador de ajedrez humano ha sido capaz de vencer a Stockfish, lo que se considera una hazaña imposible.

El veterano de la industria pidió a los lectores que imaginaran que la tecnología de IA no estaba contenida dentro de los límites de Internet.

Visualiza toda una civilización alienígena, pensando a velocidades millones de veces humanas, inicialmente confinadas a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas“.

La IA expandirá su influencia fuera de la periferia de las redes físicas y podría “construir formas de vida artificiales” utilizando laboratorios donde las proteínas se producen utilizando cadenas de ADN.

El resultado final de construir una IA todopoderosa, en las condiciones actuales, sería la muerte de “cada miembro de la especie humana y toda la vida biológica en la Tierra”, advirtió.

Print Friendly, PDF & Email

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí