12.4.23

No vamos por buen camino para estar debidamente preparados en un futuro previsible

TENEMOS QUE PARARLO TODO       

Suspender los desarrollos en Inteligencia Artificial no es suficiente. 

Una carta abierta publicada hoy pide a "todos los laboratorios de IA que detengan de inmediato, durante al menos seis meses, el entrenamiento de sistemas de IA más potentes que GPT-4 " .

Esta moratoria de seis meses ya es preferible a ninguna moratoria.Tengo respeto por todos los que lo firmaron. Es una mejora. Pero me abstuve de firmarlo porque creo que esta carta subestima la gravedad de la situación y pide muy poco para resolverla.

La cuestión esencial no es la de la inteligencia “humana-competitiva” (como dice la carta abierta); se trata de lo que sucederá una vez que la IA se vuelva más inteligente que los humanos. Los umbrales clave pueden no ser obvios, ciertamente no podemos calcular de antemano lo que sucederá en ese momento, y actualmente parece concebible que un laboratorio de investigación cruce los límites críticos sin considerarlo.

Muchos investigadores especializados en estas cuestiones, entre los que me incluyo,   creemos que el resultado más probable de construir una IA sobrehumanamente inteligente, en condiciones cercanas a las actuales, es la muerte de todos los habitantes de la Tierra. No como en "quizás una pequeña posibilidad", sino como en "es lo obvio que sucedería". No es que no puedas, en principio, sobrevivir a la creación de un objeto mucho más inteligente que tú; es que requeriría precisión, preparación y nuevos conocimientos científicos, y probablemente no sistemas de inteligencia artificial formados por conjuntos gigantescos e impenetrables de números fraccionarios.

Sin esta precisión y preparación, el resultado más probable es una IA que no hace lo que queremos y no se preocupa por nosotros ni por la vida sensible en general. En principio, este tipo de atención podría infundirse en una IA, pero no estamos listos y no sabemos cómo hacerlo en este momento.

En ausencia de esta benevolencia, obtenemos: "La IA no te ama, no te odia, y estás hecho de átomos que puede usar para otra cosa".

El resultado probable de la humanidad frente a una inteligencia sobrehumana opuesta es la pérdida total. Las metáforas válidas incluyen "un niño de 10 años tratando de jugar ajedrez contra Stockfish", "el siglo XI tratando de luchar contra el siglo XXI" y "Australopithecus tratando de luchar contra el homo sapiens" .

Para visualizar una IA sobrehumana hostil, no imagine a un pensador sin vida, inteligente con los libros, que vive en Internet y envía correos electrónicos maliciosos. Imagine toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que, en su opinión, son muy estúpidas y muy lentas. Una IA lo suficientemente inteligente no permanecerá confinada a las computadoras por mucho tiempo. En el mundo actual, las cadenas de ADN se pueden enviar por correo electrónico a los laboratorios que producirán proteínas a pedido, lo que permite que una IA inicialmente confinada a Internet construya formas de vida artificial o vaya directamente a la fabricación de moléculas posbiológicas.

Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después.

No se nos ha propuesto ningún plan para hacer tal cosa y sobrevivir. La intención declarada  abiertamente de OpenAI  es que una futura IA haga nuestro trabajo de alinear la IA. Solo escuchar que este es un plan debería ser suficiente para asustar a cualquier persona cuerda. El otro gran laboratorio de IA, DeepMind, no tiene ningún plan.

Un paréntesis: Este peligro no depende de si las IA son o pueden ser conscientes; es intrínseco a la noción de sistemas cognitivos poderosos que optimizan y calculan resultados que cumplen con criterios suficientemente complicados. Dicho esto, estaría fallando en mis deberes morales como ser humano si no mencionara que no tenemos idea de cómo determinar si los sistemas de IA son conscientes de sí mismos, ya que no tenemos idea de cómo decodificar todo eso. Está sucediendo en las redes gigantescas e impenetrables, por lo que, en algún momento, podríamos crear inadvertidamente mentes digitales que son realmente conscientes, que deberían tener derechos y que no deberían ser poseídas.

La regla que la mayoría de las personas conscientes de estos problemas habrían aprobado hace 50 años era que si un sistema de IA puede hablar con fluidez y dice que es consciente de sí mismo y exige derechos humanos, eso debería ser un lastre para poseer esta IA y usarla más allá de este punto. Ya hemos superado este límite. Estoy de acuerdo en que las IA actuales probablemente solo estén imitando el discurso de autoconciencia de sus datos de entrenamiento.  Pero creo que con la poca información que tenemos sobre los mecanismos internos de estos sistemas, no sabemos realmente qué está pasando.

Si tal es nuestro estado de ignorancia para GPT-4, y GPT-5 es un salto gigante de la misma magnitud que el paso de GPT-3 a GPT-4, creo que ya no podremos decir correctamente "probablemente no autoconsciente” si permitimos que la gente fabrique GPT-5. Simplemente será “No lo sé; nadie sabe”. Si no puede estar seguro de que está creando una IA autoconsciente, eso es alarmante, no solo por las implicaciones morales de la parte "autoconsciente", sino también porque no estar seguro significa que no tiene idea de lo que está haciendo y que es peligroso y debe parar.

El 7 de febrero, Satya Nadella, CEO de Microsoft, declaró públicamente que el nuevo Bing obligaría a Google a "demostrar que puede bailar". "Quiero que la gente sepa que los hicimos bailar ", dijo. 

Así no es como debería hablar el CEO de Microsoft en un mundo cuerdo. Muestra la enorme brecha entre la seriedad con la que tomamos el problema y la seriedad con la que deberíamos haberlo tomado hace 30 años.

No vamos a cerrar esta brecha en seis meses.

Han pasado más de 60 años desde que se propuso y estudió por primera vez la noción de inteligencia artificial hasta que logramos las capacidades que tenemos hoy. Resolver el problema de la seguridad de la inteligencia sobrehumana —no la seguridad perfecta, sino la seguridad en el sentido de “no matar literalmente a todos”— podría llevar razonablemente al menos la mitad de ese tiempo. Y el problema con la inteligencia sobrehumana es que si te equivocas en el primer intento, no puedes aprender de tus errores, porque estás muerto. La humanidad no aprenderá de sus errores y empezará de nuevo, como otros desafíos que hemos enfrentado a lo largo de nuestra historia, porque todos estaremos muertos.

Tratar de hacer algo bien en el primer intento realmente crítico es una tarea extraordinaria, tanto en ciencia como en ingeniería. No tenemos el enfoque para hacerlo con éxito. Si aplicáramos al naciente campo de la inteligencia artificial general los mismos estándares de rigor técnico que se aplican a un puente destinado a soportar unos pocos miles de automóviles, todo el campo estaría cerrado mañana.

No estamos listos No podemos prepararnos en un tiempo razonable. No hay plan. Los avances en las capacidades de la IA están muy, muy por delante de los avances en la alineación de la IA o incluso de los avances en la comprensión de lo que sucede dentro de estos sistemas. Si tenemos éxito, todos moriremos.

Muchos investigadores que trabajan en estos sistemas piensan que nos dirigimos al desastre, y son más los que se atreven a decirlo en privado que en público; pero piensan que no pueden detener unilateralmente esta caída, que otros continuarán aunque ellos mismos dejen sus trabajos. Así que todos se dicen unos a otros que es mejor que sigan adelante. Esta es una situación estúpida y una forma indigna de que muera la Tierra, y el resto de la humanidad debería intervenir en este punto y ayudar a la industria a resolver su problema de acción colectiva.

Algunos amigos míos me informaron recientemente que cuando las personas ajenas a la industria de la IA escuchan por primera vez sobre el riesgo de extinción de la inteligencia artificial general, su reacción es: “Quizás entonces no deberíamos construir un IAG” .

Esta reacción me dio un pequeño rayo de esperanza, porque es más simple, más sensata y francamente más saludable que lo que he escuchado en los últimos 20 años, durante los cuales he tratado de que la gente de la industria se tome las cosas en serio. Cualquiera que hable con tanto sentido común merece escuchar cuán grave es la situación, que no le digan que una moratoria de seis meses solucionará el problema.

El 16 de marzo, mi pareja me envió este correo electrónico:

“¡Nina perdió un diente! Como suelen hacer los niños, ¡y no por descuido! Ver a GPT4 superar esas pruebas estandarizadas el mismo día en que Nina alcanzó un hito de la infancia provocó una ola de emoción que me dejó sin aliento por un minuto. Todo va demasiado rápido. Me temo que compartir esto aumentará tu propio dolor, pero prefiero que lo sepas a que cada uno de nosotros sufra solo".

Cuando la conversación interna es sobre el dolor de ver a su hija perder su primer diente y pensar que no tendrá la oportunidad de crecer, creo que hemos superado los fracasos políticos en una moratoria de seis meses.

Si hubiera un plan de supervivencia para la Tierra, si solo adoptáramos una moratoria de seis meses, apoyaría ese plan. Este plan no existe. Esto es lo que se debe hacer:

La moratoria de los nuevos grandes circuitos formativos debe ser indefinida y global. No puede haber excepciones, incluso para gobiernos o ejércitos. Si la política comienza en los Estados Unidos, China debe entender que los Estados Unidos no están tratando de obtener una ventaja, sino más bien tratando de evitar el uso de una tecnología terriblemente peligrosa que no puede tener un dueño real y que matará a todos en los Estados Unidos, China y en la Tierra. Si tuviera libertad infinita para escribir leyes, podría hacer una sola excepción para las IA entrenadas solo para resolver problemas en biología y biotecnología, no entrenadas en textos de Internet, y no al punto de comenzar a hablar o planear; pero eso complica un poco el asunto,

Apague todos los clústeres de GPU grandes (grandes granjas de computadoras donde se perfeccionan las IA más poderosas). Detenga todos los ciclos principales de entrenamiento.  Establezca un límite en la cantidad de poder de cómputo que cada uno puede usar para entrenar un sistema de IA y redúzcalo en los próximos años para compensar la aparición de algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y ejércitos. Los acuerdos multinacionales deben concluirse de inmediato para evitar que las actividades prohibidas se transfieran a otros lugares. Realice un seguimiento de todas las ventas de GPU. Si los servicios de inteligencia indican que un país no signatario del acuerdo está construyendo un conglomerado de GPU, hay menos que temer un conflicto armado entre las naciones que la violación de la moratoria;

No vean nada como un conflicto entre intereses nacionales y dejen en claro que cualquiera que hable de una carrera armamentista es un tonto. El hecho de que todos vivamos o muramos juntos no es una política sino un hecho natural. Hacer explícito en la diplomacia internacional que la prevención de escenarios de extinción de la IA se considera una prioridad sobre la prevención de un intercambio nuclear total, y que los países aliados nucleares están preparados para correr algún riesgo de intercambio nuclear si eso es lo que se necesita para reducir el riesgo de grandes carreras de entrenamiento de IA. .

Es el tipo de cambio de política que haría que mi pareja y yo nos abrazáramos y dijéramos que ha ocurrido un milagro y que ahora existe la posibilidad de que Nina viva. Las personas sensatas que escuchan sobre este tema por primera vez y dicen razonablemente "tal vez no deberíamos" merecen escuchar, honestamente, lo que se necesitaría para que esto suceda. Y cuando la demanda política es tan grande, la única forma de transmitirla es que los políticos se den cuenta de que si siguen haciendo lo que es políticamente fácil, significa que sus propios hijos también van a morir.

Todo debe ser detenido.

No estamos listos No vamos por buen camino para estar significativamente más preparados en el futuro previsible. Si seguimos por este camino, todos morirán, incluidos los niños que no eligieron este camino y que no hicieron nada malo.

Todo debe ser detenido.

Eliezer Yudkowsky  teórico estadounidense que dirige investigaciones en el Instituto de Investigación de Inteligencia de Máquinas. Ha estado trabajando en la alineación general de inteligencia artificial desde 2001 y es considerado como uno de los fundadores de este campo.

https://nouveau-monde.ca/suspendre-les-developpements-en-intelligence-artificielle-nest-pas-suffisant-il-faut-tout-arreter/  

No hay comentarios:

Publicar un comentario