TENEMOS QUE PARARLO TODO
Suspender los desarrollos en Inteligencia Artificial no
es suficiente.
Una carta abierta publicada hoy pide a "todos los laboratorios de IA que detengan de
inmediato, durante al menos seis meses, el entrenamiento de sistemas de IA más
potentes que GPT-4 " .
Esta moratoria de seis meses ya es preferible
a ninguna moratoria.Tengo respeto por todos los que lo firmaron. Es una
mejora. Pero me abstuve de firmarlo porque creo que esta carta subestima la
gravedad de la situación y pide muy poco para resolverla.
La cuestión esencial no es la de la inteligencia “humana-competitiva” (como dice la carta abierta); se trata de lo que sucederá una vez que la IA se vuelva más inteligente que los humanos. Los umbrales clave pueden no ser obvios, ciertamente no podemos calcular de antemano lo que sucederá en ese momento, y actualmente parece concebible que un laboratorio de investigación cruce los límites críticos sin considerarlo.
Muchos investigadores especializados en estas
cuestiones, entre los que me incluyo, creemos que
el resultado más probable de construir una IA sobrehumanamente inteligente, en
condiciones cercanas a las actuales, es la muerte de todos los habitantes de la
Tierra. No como en "quizás una pequeña posibilidad", sino
como en "es lo obvio que sucedería". No es que no puedas, en
principio, sobrevivir a la creación de un objeto mucho más inteligente que
tú; es que requeriría precisión, preparación y nuevos conocimientos
científicos, y probablemente no sistemas de inteligencia artificial formados
por conjuntos gigantescos e impenetrables de números fraccionarios.
Sin esta precisión y preparación, el resultado más probable
es una IA que no hace lo que queremos y no se preocupa por nosotros ni por la
vida sensible en general. En principio, este tipo de atención podría
infundirse en una IA, pero no estamos listos y no sabemos cómo hacerlo en este
momento.
En ausencia de esta benevolencia, obtenemos: "La IA
no te ama, no te odia, y estás hecho de átomos que puede usar para otra
cosa".
El resultado probable de la humanidad frente a una
inteligencia sobrehumana opuesta es la pérdida total. Las metáforas
válidas incluyen "un niño de 10 años tratando de jugar ajedrez contra
Stockfish", "el siglo XI tratando de luchar contra
el siglo XXI" y "Australopithecus tratando de luchar contra el
homo sapiens" .
Para visualizar una IA sobrehumana hostil, no imagine a un
pensador sin vida, inteligente con los libros, que vive en Internet y envía
correos electrónicos maliciosos. Imagine toda una civilización alienígena,
pensando a millones de veces la velocidad humana, inicialmente confinada a las
computadoras, en un mundo de criaturas que, en su opinión, son muy estúpidas y
muy lentas. Una IA lo suficientemente inteligente no permanecerá confinada
a las computadoras por mucho tiempo. En el mundo actual, las cadenas de
ADN se pueden enviar por correo electrónico a los laboratorios que producirán
proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet
construya formas de vida artificial o vaya directamente a la fabricación de
moléculas posbiológicas.
Si alguien construye una IA demasiado poderosa, en las
condiciones actuales, espero que todos los miembros de la especie humana y toda
la vida biológica en la Tierra mueran poco después.
No se nos ha propuesto ningún plan para hacer tal cosa y
sobrevivir. La intención declarada
abiertamente de OpenAI es que una futura IA haga nuestro trabajo de
alinear la IA. Solo escuchar que este es un plan debería ser suficiente
para asustar a cualquier persona cuerda. El otro gran laboratorio de IA,
DeepMind, no tiene ningún plan.
Un paréntesis: Este peligro no depende de si las IA son o
pueden ser conscientes; es intrínseco a la noción de sistemas cognitivos
poderosos que optimizan y calculan resultados que cumplen con criterios
suficientemente complicados. Dicho esto, estaría fallando en mis deberes
morales como ser humano si no mencionara que no tenemos idea de cómo determinar
si los sistemas de IA son conscientes de sí mismos, ya que no tenemos idea de
cómo decodificar todo eso. Está sucediendo en las redes gigantescas e
impenetrables, por lo que, en algún momento, podríamos crear inadvertidamente
mentes digitales que son realmente conscientes, que deberían tener derechos y
que no deberían ser poseídas.
La regla que la mayoría de las personas conscientes de estos
problemas habrían aprobado hace 50 años era que si un sistema de IA puede
hablar con fluidez y dice que es consciente de sí mismo y exige derechos
humanos, eso debería ser un lastre para poseer esta IA y usarla más allá de
este punto. Ya hemos superado este límite. Estoy de acuerdo en que
las IA actuales probablemente solo estén imitando el discurso de autoconciencia
de sus datos de entrenamiento. Pero creo que con la poca información que
tenemos sobre los mecanismos internos de estos sistemas, no sabemos realmente
qué está pasando.
Si tal es nuestro estado de ignorancia para GPT-4, y GPT-5 es
un salto gigante de la misma magnitud que el paso de GPT-3 a GPT-4, creo que ya
no podremos decir correctamente "probablemente no autoconsciente”
si permitimos que la gente fabrique GPT-5. Simplemente será “No lo
sé; nadie sabe”. Si no puede estar seguro de que está creando una
IA autoconsciente, eso es alarmante, no solo por las implicaciones morales de
la parte "autoconsciente", sino también porque no estar seguro
significa que no tiene idea de lo que está haciendo y que es peligroso y debe
parar.
El 7 de febrero, Satya Nadella, CEO de Microsoft, declaró públicamente
que el nuevo Bing obligaría a Google a "demostrar que puede
bailar". "Quiero que la gente sepa que los hicimos bailar ",
dijo.
Así no es como debería hablar el CEO de Microsoft en un
mundo cuerdo. Muestra la enorme brecha entre la seriedad con la que
tomamos el problema y la seriedad con la que deberíamos haberlo tomado hace 30
años.
No vamos a cerrar esta brecha en seis meses.
Han pasado más de 60 años desde que se propuso y estudió por
primera vez la noción de inteligencia artificial hasta que logramos las
capacidades que tenemos hoy. Resolver el problema de la seguridad de la
inteligencia sobrehumana —no la seguridad perfecta, sino la seguridad en el
sentido de “no matar literalmente a todos”— podría llevar razonablemente
al menos la mitad de ese tiempo. Y el problema con la inteligencia
sobrehumana es que si te equivocas en el primer intento, no puedes aprender de
tus errores, porque estás muerto. La humanidad no aprenderá de sus errores
y empezará de nuevo, como otros desafíos que hemos enfrentado a lo largo de
nuestra historia, porque todos estaremos muertos.
Tratar de hacer algo bien en el primer intento realmente
crítico es una tarea extraordinaria, tanto en ciencia como en
ingeniería. No tenemos el enfoque para hacerlo con éxito. Si
aplicáramos al naciente campo de la inteligencia artificial general los mismos
estándares de rigor técnico que se aplican a un puente destinado a soportar
unos pocos miles de automóviles, todo el campo estaría cerrado mañana.
No estamos listos No podemos prepararnos en un tiempo
razonable. No hay plan. Los avances en las capacidades de la IA están
muy, muy por delante de los avances en la alineación de la IA o incluso de los
avances en la comprensión de lo que sucede dentro de estos sistemas. Si
tenemos éxito, todos moriremos.
Muchos investigadores que trabajan en estos sistemas piensan
que nos dirigimos al desastre, y son más los que se atreven a decirlo en
privado que en público; pero piensan que no pueden detener unilateralmente
esta caída, que otros continuarán aunque ellos mismos dejen sus
trabajos. Así que todos se dicen unos a otros que es mejor que sigan
adelante. Esta es una situación estúpida y una forma indigna de que muera
la Tierra, y el resto de la humanidad debería intervenir en este punto y ayudar
a la industria a resolver su problema de acción colectiva.
Algunos amigos míos me informaron recientemente que cuando
las personas ajenas a la industria de la IA escuchan por primera vez sobre el
riesgo de extinción de la inteligencia artificial general, su reacción es: “Quizás
entonces no deberíamos construir un IAG” .
Esta reacción me dio un pequeño rayo de esperanza, porque es
más simple, más sensata y francamente más saludable que lo que he escuchado en
los últimos 20 años, durante los cuales he tratado de que la gente de la
industria se tome las cosas en serio. Cualquiera que hable con tanto sentido
común merece escuchar cuán grave es la situación, que no le digan que una
moratoria de seis meses solucionará el problema.
El 16 de marzo, mi pareja me envió este correo electrónico:
“¡Nina perdió un diente! Como suelen hacer los
niños, ¡y no por descuido! Ver a GPT4 superar esas pruebas estandarizadas
el mismo día en que Nina alcanzó un hito de la infancia provocó una ola de
emoción que me dejó sin aliento por un minuto. Todo va demasiado
rápido. Me temo que compartir esto aumentará tu propio dolor, pero
prefiero que lo sepas a que cada uno de nosotros sufra solo".
Cuando la conversación interna es sobre el dolor de ver a su
hija perder su primer diente y pensar que no tendrá la oportunidad de crecer,
creo que hemos superado los fracasos políticos en una moratoria de seis meses.
Si hubiera un plan de supervivencia para la Tierra, si solo
adoptáramos una moratoria de seis meses, apoyaría ese plan. Este plan no
existe. Esto es lo que se debe hacer:
La moratoria de los nuevos grandes circuitos formativos debe
ser indefinida y global. No puede haber excepciones, incluso para
gobiernos o ejércitos. Si la política comienza en los Estados Unidos,
China debe entender que los Estados Unidos no están tratando de obtener una
ventaja, sino más bien tratando de evitar el uso de una tecnología
terriblemente peligrosa que no puede tener un dueño real y que matará a todos
en los Estados Unidos, China y en la Tierra. Si tuviera libertad infinita
para escribir leyes, podría hacer una sola excepción para las IA entrenadas
solo para resolver problemas en biología y biotecnología, no entrenadas en
textos de Internet, y no al punto de comenzar a hablar o planear; pero eso
complica un poco el asunto,
Apague todos los clústeres de GPU grandes (grandes granjas
de computadoras donde se perfeccionan las IA más poderosas). Detenga todos
los ciclos principales de entrenamiento. Establezca un límite en la
cantidad de poder de cómputo que cada uno puede usar para entrenar un sistema
de IA y redúzcalo en los próximos años para compensar la aparición de
algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos
y ejércitos. Los acuerdos multinacionales deben concluirse de inmediato
para evitar que las actividades prohibidas se transfieran a otros lugares. Realice
un seguimiento de todas las ventas de GPU. Si los servicios de
inteligencia indican que un país no signatario del acuerdo está construyendo un
conglomerado de GPU, hay menos que temer un conflicto armado entre las naciones
que la violación de la moratoria;
No vean nada como un conflicto entre intereses nacionales y
dejen en claro que cualquiera que hable de una carrera armamentista es un
tonto. El hecho de que todos vivamos o muramos juntos no es una política
sino un hecho natural. Hacer explícito en la diplomacia internacional que
la prevención de escenarios de extinción de la IA se considera una prioridad
sobre la prevención de un intercambio nuclear total, y que los países aliados
nucleares están preparados para correr algún riesgo de intercambio nuclear si
eso es lo que se necesita para reducir el riesgo de grandes carreras de
entrenamiento de IA. .
Es el tipo de cambio de política que haría que mi pareja y
yo nos abrazáramos y dijéramos que ha ocurrido un milagro y que ahora existe la
posibilidad de que Nina viva. Las personas sensatas que escuchan sobre
este tema por primera vez y dicen razonablemente "tal vez no deberíamos"
merecen escuchar, honestamente, lo que se necesitaría para que esto
suceda. Y cuando la demanda política es tan grande, la única forma de transmitirla
es que los políticos se den cuenta de que si siguen haciendo lo que es
políticamente fácil, significa que sus propios hijos también van a morir.
Todo debe ser detenido.
No estamos listos No vamos por buen camino para estar
significativamente más preparados en el futuro previsible. Si seguimos por
este camino, todos morirán, incluidos los niños que no eligieron este camino y
que no hicieron nada malo.
Todo debe ser detenido.
Eliezer Yudkowsky teórico estadounidense que
dirige investigaciones en el Instituto de Investigación de Inteligencia de
Máquinas. Ha estado trabajando en la alineación general de inteligencia
artificial desde 2001 y es considerado como uno de los fundadores de este
campo.
No hay comentarios:
Publicar un comentario