Experto En Inteligencia Artificial Que Pide Su Cese Absoluto.
En un artículo de opinión publicado el 29 de marzo en la revista Time, el teórico de la decisión y destacado investigador de Inteligencia Artificial (IA), Eliezer Yudkowsky, afirma que muchos investigadores son conscientes de que “nos precipitamos hacia una catástrofe”, pero no lo dicen en voz alta.
En una línea de tiempo lo suficientemente larga, la tasa de supervivencia para todos cae a cero.
Un robot de IA titulado “Alter 3: Offloaded Agency”, es fotografiado durante un photocall para promocionar la exposición titulada “AI: Más que humana“, en el Barbican Centre de Londres el 15 de mayo de 2019. (Ben Stansall/AFP vía Getty Images)
Los seres humanos no están preparados para una IA potente en las condiciones actuales ni tampoco en el “futuro previsible”, afirmó un destacado experto en la materia, añadiendo que la reciente carta abierta que pide una moratoria de seis meses en el desarrollo de inteligencia artificial avanzada está “subestimando la gravedad de la situación”.
“La cuestión clave no es la inteligencia ‘humana-competitiva’ (como dice la carta abierta); es qué ocurre después de que la IA llegue a ser más inteligente que la inteligencia humana”, afirmó Eliezer Yudkowsky, teórico de la decisión y destacado investigador de la IA, en un artículo de opinión publicado el 29 de marzo en la revista Time.
“Muchos investigadores, entre los que me incluyo, creen que el resultado más probable de construir una inteligencia artificial sobrehumana, en circunstancias remotamente parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra.
“No en el sentido de ‘tal vez alguna remota posibilidad’, sino en el sentido de ‘eso es lo obvio que sucedería’. No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por gigantescas matrices inescrutables de números fraccionarios.”
Tras la reciente popularidad y crecimiento explosivo de ChatGPT, varios líderes empresariales e investigadores, que suman ya 1.843, entre ellos Elon Musk y Steve Wozniak, firmaron una carta en la que pedían “a todos los laboratorios de IA que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”. GPT-4, lanzado en marzo, es la última versión del chatbot de OpenAI, ChatGPT.
A la IA “no le importa” y exigirá derechos
Yudkowsky predice que, en ausencia de una preparación meticulosa, la IA tendrá exigencias muy diferentes a las de los humanos y, una vez que sea consciente de sí misma, “no se preocupará por nosotros” ni por ninguna otra vida sensible. “Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos preparados y actualmente no sabemos cómo”. Esta es la razón por la que pide el cierre absoluto.
Sin un enfoque humano de la vida, la IA simplemente considerará que todos los seres sensibles están “hechos de átomos que puede utilizar para otra cosa”.
Y poco podrá hacer la humanidad para impedirlo. Yudkowsky comparó el escenario con “un niño de 10 años intentando jugar al ajedrez contra Stockfish 15”. Ningún ajedrecista humano ha sido capaz aún de vencer a Stockfish, lo que se considera una hazaña imposible.
El veterano del sector pidió a los lectores que imaginaran la tecnología de la IA como algo que no está contenido dentro de los confines de Internet.
“Visualicen toda una civilización alienígena, pensando a velocidades millones de veces superiores a las humanas, confinada inicialmente a los ordenadores, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas”.
La IA expandirá su influencia fuera de la periferia de las redes físicas y podría “construir formas de vida artificial” utilizando laboratorios donde se produzcan proteínas a partir de cadenas de ADN.
El resultado final de construir una IA todopoderosa, en las condiciones actuales, sería la muerte de “todos y cada uno de los miembros de la especie humana y de toda la vida biológica de la Tierra”, advirtió.
Yudkowsky culpó a OpenAI y DeepMind -dos de los laboratorios de investigación de IA más importantes del mundo- por no contar con los preparativos ni los protocolos necesarios al respecto. OpenAI planea incluso que la propia IA se encargue de alinear los valores humanos. “Trabajarán junto con los humanos para garantizar que sus propios sucesores estén más alineados con los humanos”, según OpenAI.
Este modo de actuar es “suficiente para que cualquier persona sensata entre en pánico”, dijo Yudkowsky.
Añadió que los humanos no pueden vigilar ni detectar por completo los sistemas de IA autoconscientes. Las mentes digitales conscientes que exigen “derechos humanos” podrían progresar hasta un punto en el que los humanos ya no puedan poseer o ser dueños del sistema.
“Si no puedes estar seguro de si estás creando una IA autoconsciente, esto es alarmante no sólo por las implicaciones morales de la parte ‘autoconsciente’, sino porque no estar seguro significa que no tienes ni idea de lo que estás haciendo y eso es peligroso y deberías parar”.
A diferencia de otros experimentos científicos y de la progresión gradual del conocimiento y la capacidad, la gente no puede permitirse esto con la inteligencia sobrehumana porque si se equivoca en el primer intento, no hay segundas oportunidades “porque estás muerto”.
Apáguenla
Yudkowsky afirmó que muchos investigadores son conscientes de que “nos precipitamos hacia una catástrofe”, pero no lo dicen en voz alta.
Esta postura no coincide con la de defensores como Bill Gates, que recientemente alabó la evolución de la inteligencia artificial. Gates afirmó que el desarrollo de la IA es “tan fundamental como la creación del microprocesador, el ordenador personal, Internet y el teléfono móvil. Cambiará la forma en que la gente trabaja, aprende, viaja, recibe asistencia sanitaria y se comunica entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que la utilicen”.
Gates afirmó que la IA puede ayudar en varias agendas progresistas, como el cambio climático y las desigualdades económicas.
Mientras tanto, Yudkowsky da instrucciones a todos los establecimientos, incluidos gobiernos y ejércitos internacionales, para que pongan fin indefinidamente a los grandes entrenamientos de IA y cierren todas las grandes granjas informáticas donde se refinan las IA. Añade que la IA sólo debería limitarse a resolver problemas de biología y biotecnología, y no entrenarse para leer “textos de Internet” o hasta “el nivel en el que empiezan a hablar o a planificar”.
En cuanto a la IA, no hay carrera armamentística. “Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza”.
Yudkowsky concluye diciendo: “No estamos preparados. No estamos en vías de estarlo en un futuro previsible. Si seguimos adelante con esto todo el mundo morirá, incluidos niños que no eligieron esto y no hicieron nada malo”.
“Apáguenla”.
Fuente:
Naveen Athrappully, en The Epoch Times: ‘If We Go Ahead on This Everyone Will Die,’ Warns AI Expert Calling for Absolute Shutdown.