Cómo comenzar un pánico de IA

La semana pasada el El Centro de Tecnología Humana convocó a más de 100 líderes en finanzas, filantropía, industria, gobierno y medios de comunicación a la sala Kissinger en el Centro Paley para los Medios de la Ciudad de Nueva York para escuchar cómo la inteligencia artificial podría eliminar a la humanidad. Los dos oradores, Tristan Harris y Aza Raskin, comenzaron su presentación en el tiempo de conies con una diapositiva esa lectura: “Lo que las armas nucleares son para el mundo físico … la IA es para todo lo demás”.

Nos dijeron que esta reunión era histórica, una que recordaríamos en los próximos años, ya que, presumiblemente, los cuatro jinetes del Apocalipsis, con la apariencia de Bing Chatbots, descenderían para reemplazar nuestra inteligencia con la suya. Evocó la escena en las viejas películas de ciencia ficción, o la farsa más reciente no mires hacia arriba– Donde los científicos descubren una amenaza e intentan sacudir a una población dormida por sus hombros para explicar que Esta amenaza mortal se dirige a nosotros, y moriremos si no haces algo ahora.

Al menos eso es lo que Harris y Raskin parecen haber concluido después, en su cuenta, algunas personas que trabajan dentro de compañías que desarrollaban IA se acercaron al centro con preocupaciones de que los productos que estaban creando eran fenomenalmente peligrosos, diciendo que se requería una fuerza externa para evitar la catástrofe. Los cofundadores del Centro citaron repetidamente una estadística de una encuesta que encontró que la mitad de los investigadores de IA creen que hay al menos un 10 por ciento de posibilidades de que la IA se extinga a los humanos.

En este momento de exageración e incertidumbre, Harris y Raskin están rompiendo el vaso y tirando de la alarma. No es la primera vez que activan sirenas. Los diseñadores tecnológicos convertían en comunicadores expertos en medios, cofundaron el centro para informar al mundo que las redes sociales eran una amenaza para la sociedad. La expresión final de sus preocupaciones se produjo en su participación en un popular documental de Netflix semen película de terror llamada El dilema social. Si bien la película es libre de matices y algo histérica, estoy de acuerdo con muchas de sus quejas sobre la captura de atención de las redes sociales, los incentivos para dividirnos y la arma de los datos privados. Estos fueron presentados a través de entrevistas, estadísticas y gráficos. Pero el Doc torpedió su propia credibilidad al cortar a una narración ficticia publicada directamente de Locura por el porromostrando cómo una familia de corazón sana (inventada) es llevada a la ruina, un niño radicalizado y encarcelado, otro deprimido, por publicaciones de Facebook.

Esta unilaterals también caracteriza la nueva campaña del Centro llamada, Adivina qué, el dilema de IA. (El Centro es tímido sobre si otro Doc de Netflix está en proceso). Al igual que el dilema anterior, muchos puntos que Harris y Raskin hacen son válidos, como nuestra incapacidad actual para comprender completamente cómo Bots como ChatGPT produce su salida. También dieron un buen resumen de cómo la IA se ha vuelto tan rápidamente lo suficientemente poderosa como para hacer la tarea, la búsqueda de power bing y Expresar amor para New York Times El columnista Kevin Roose, entre otras cosas.

No quiero descartar por completo el peor de los casos que Harris y Raskin invoquen. Esa estadística alarmante sobre los expertos en IA que cree que su tecnología tiene la oportunidad de matarnos a todos, en realidad se verifica, más o menos. En agosto de 2022, una organización llamó Impactos de IA Contactó a 4,271 personas que escribieron o coautoran documentos presentados en dos conferencias de IA, y les pidió que completaron una encuesta. Solo alrededor de 738 respondieron, y algunos de los resultados son un poco contradictorios, pero, efectivamente, el 48 por ciento de los encuestados vio al menos un 10 por ciento de posibilidades de un resultado extremadamente malo, a saber, la extinción humana. Los impactos de IA, debo mencionar, es apoyado en parte por el Centro de Altruismo Efectivo y otras organizaciones que han mostrado interés en escenarios de IA lejanos. En cualquier caso, la encuesta no preguntó a los autores por qué, si pensaban que la catástrofe es posible, estaban escribiendo documentos para avanzar esta ciencia supuestamente destructiva.

Share:

Facebook
Twitter
Pinterest
LinkedIn

Leave a Reply

Your email address will not be published. Required fields are marked *

Social Media

Most Popular

Get The Latest Updates

Subscribe To Our Weekly Newsletter

No spam, notifications only about new products, updates.

Categories

On Key

Related Posts