La preocupación, como la vio Edward Teller, era literalmente el fin del mundo. Había hecho los cálculos y había una posibilidad real, les dijo a sus colegas del Proyecto Manhattan en 1942, de que cuando detonaran la primera bomba nuclear del mundo, la explosión provocaría una reacción en cadena. La atmósfera se encendería. Toda la vida en la Tierra sería incinerada. Algunos de los colegas de Teller descartaron la idea, pero otros no. Si hubiera una mínima posibilidad de ignición atmosférica, dijo Arthur Compton, director de un laboratorio del Proyecto Manhattan en Chicago, todo el trabajo en la bomba debería detenerse. “Mejor aceptar la esclavitud de los nazis”, dijo. más tarde escribió“que correr la posibilidad de correr el último telón sobre la humanidad”.
Ofrezco esta historia como una analogía, o tal vez un contraste con nuestro momento actual de IA. En apenas unos meses, la novedad de ChatGPT ha dado paso a pronunciar manía. De repente, la IA está en todas partes. ¿Es este el comienzo de una nueva crisis de desinformación? un nuevo crisis de la propiedad intelectual? ¿El final del ensayo universitario? ¿De trabajo de cuello blanco? Algunos se preocupan, como lo hizo Compton hace 80 años, por el futuro mismo de la humanidad, y han defendido pausar o ralentizar el desarrollo de la IA; otros dicen que ya es demasiado tarde.
Frente a tanta emoción, incertidumbre y miedo, lo mejor que se puede hacer es tratar de encontrar una buena analogía, alguna forma de hacer que esta nueva tecnología desconocida sea un poco más familiar. la IA es fuego. la IA es esteroides. La IA es un niño extraterrestre. (Cuando pedí una analogía propia, GPT-4 sugirió la caja de Pandora, lo que no es muy tranquilizador). Algunas de estas analogías son, por decirlo suavemente, mejores que otras. Algunos de ellos son incluso útiles.
Teniendo en cuenta los últimos tres años, no sorprende que abunden las analogías relacionadas con la pandemia. El desarrollo de la IA ha estado comparado a la investigación de ganancia de función, por ejemplo. Los defensores de este último trabajo, en el que se mejoran virus potencialmente mortales en un entorno de laboratorio controlado, dicen que es esencial para detener la próxima pandemia. Los opositores dicen que es menos probable que evite una catástrofe que la provoque, ya sea a través de una fuga accidental o un acto de bioterrorismo.
A un nivel literal, esta analogía funciona bastante bien. El desarrollo de IA es realmente un tipo de investigación de ganancia de función, excepto que los algoritmos, no los virus, son las cosas que obtienen las funciones. Además, ambos prometen beneficios a corto plazo: Este experimento podría ayudar a prevenir la próxima pandemia; esta IA podría ayudar a cura tu cancer. Y ambos vienen con riesgos potenciales que trastornan el mundo: Este experimento podría ayudar a causa una pandemia muchas veces más mortal que la que acabamos de soportar; esta IA podría acabar con la humanidad por completo. Poner un número a las probabilidades de cualquiera de estos resultados, ya sea bueno o malo, no es algo sencillo. Las personas serias no están de acuerdo con vehemencia acerca de su probabilidad.
Leer: La gripe aviar deja al mundo con una elección existencial
Lo que la analogía de la ganancia de función no logra captar son las motivaciones y los incentivos que impulsan el desarrollo de la IA. La virología experimental es una empresa académica, realizada principalmente en laboratorios universitarios por profesores universitarios, con el objetivo al menos de proteger a las personas. No es una empresa lucrativa. Ni los científicos ni las instituciones que representan están ahí para enriquecerse. No se puede decir lo mismo cuando se trata de IA. Dos empresas privadas con ganancias de miles de millones de dólares, Microsoft (asociada con OpenAI) y Google (asociada con Anthropic), están enfrascadas en una batalla por Supremacía de la IA. Incluso los jugadores más pequeños de la industria están inundados de efectivo. A principios de este año, cuatro de los principales investigadores de inteligencia artificial de Google renunciaron a comenzar su propia empresa, aunque no estaban exactamente seguros de lo que haría; aproximadamente una semana después, tenía una valoración de $ 100 millones. En este sentido, la mejor analogía es…
Medios de comunicación social. Hace dos décadas, había mucho dinero fresco para hacer en tecnología, y la forma de hacerlo no era disminuyendo la velocidad o esperando o vacilando sobre tonterías como el destino de la democracia. Las empresas privadas se movieron rápido a riesgo de romper la civilización humana, al diablo con los enemigos. Las regulaciones no siguieron el ritmo. Todo lo mismo podría decirse de la IA actual.
Leer: El dinero matará la magia de ChatGPT
El problema con la comparación de las redes sociales es que subestima el potencial destructivo de la IA. A pesar de lo dañinas que han sido las redes sociales, no presentan una amenaza existencial. Tampoco parece haber conferido, a ningún país, ventajas estratégicas muy significativas sobre los adversarios extranjeros, preocupaciones sobre TikTok a pesar de. No se puede decir lo mismo de la IA. En ese sentido, la mejor analogía es…
Armas nucleares. Esta comparación captura tanto la gravedad de la amenaza como dónde es probable que se origine. Pocas personas podrían reunir los colosales recursos y la experiencia técnica necesarios para construir y desplegar una bomba nuclear. Afortunadamente, las armas nucleares son dominio de los estados-nación. La investigación de IA tiene barreras de entrada igualmente altas y dinámicas geopolíticas globales similares. La carrera armamentista de IA entre EE. UU. y China es en marcha, y los ejecutivos de tecnología ya lo están invocando como una justificación para moverse lo más rápido posible. Como fue el caso de la investigación de armas nucleares, citando la competencia internacional ha sido una forma de desestimar las súplicas para pisar el freno.
Pero la tecnología de armas nucleares tiene un alcance mucho más limitado que la IA. La utilidad de las armas nucleares es puramente militar; y los gobiernos, no las empresas ni los individuos, los construyen y manejan. Eso hace que sus peligros sean menos difusos que los que provienen de la investigación de IA. En ese sentido, la mejor analogía es…
Electricidad. La sierra es para cortar, la pluma para escribir, el martillo para clavar clavos. Estas cosas son herramientas; cada uno tiene una función específica. La electricidad no. Es menos una herramienta que una fuerza, más un coeficiente que una constante, que impregna prácticamente todos los aspectos de la vida. La IA también es así, o podría serlo.
Leer: ¿Qué acaban de desatar los humanos?
Excepto que la electricidad nunca (en realidad) amenazó con matarnos a todos. La IA puede ser difusa, pero también es amenazante. Ni siquiera la analogía nuclear capta del todo la naturaleza de la amenaza. Olvídese de los temores de la era de la Guerra Fría de los líderes estadounidenses y soviéticos con sus dedos sobre pequeños botones rojos. La mayor amenaza de la IA superinteligente no es que nuestros adversarios la usen contra nosotros. Es la propia IA superinteligente. En ese sentido, la mejor analogía es…
El miedo de Teller a la ignición atmosférica. Una vez que detonas la bomba, una vez que construyes la IA superinteligente, no hay vuelta atrás. O la atmósfera se enciende o no se enciende. Sin repeticiones. Al final, la preocupación de Teller resultó ser infundada. Cálculos adicionales demostrado que la atmósfera no se encendió, aunque dos ciudades japonesas finalmente lo hicieron, y el Proyecto Manhattan siguió adelante.
Ningún cálculo adicional descartará la posibilidad de un apocalipsis de IA. La analogía de Teller, como todas las demás, solo llega hasta cierto punto. Hasta cierto punto, esta es solo la naturaleza de las analogías: son esclarecedoras pero incompletas. Pero también habla de la naturaleza arrolladora de la IA. Abarca elementos de investigación de ganancia de función, redes sociales y armas nucleares. Es como todos ellos—y, en ese sentido, como ninguno de ellos.