Los temores fuera de lugar de un ChatGPT ‘malvado’ oscurecen el daño real que se está haciendo | Juan Naughton

Ol 14 de febrero, Kevin Roose, el New York Times columnista de tecnología, tuvo una conversación de dos horas con Bing, el motor de búsqueda mejorado con ChatGPT de Microsoft. Salió de la experiencia como un hombre aparentemente cambiado, porque el chatbot le había dicho, entre otras cosas, que le gustaría ser humano, que albergaba deseos destructivos y que estaba enamorado de él.

La transcripción de la conversación.junto con la aparición de Roose en la portada del periódico El diario podcast, aumentó de inmediato el pánico moral que ya se estaba desatando sobre las implicaciones de los modelos de lenguaje grande (LLM) como GPT-3.5 (que aparentemente respalda a Bing) y otras herramientas de “IA generativa” que ahora están sueltas en el mundo. Estos son vistos de diversas formas como artefactos crónicamente no confiables, como ejemplos de tecnología que está fuera de control o como precursores de la llamada inteligencia general artificial (AGI) – es decir, inteligencia a nivel humano – y por lo tanto plantean un problema. amenaza existencial a la humanidad

Acompañando a esta histeria hay una nueva fiebre del oro, mientras los capitalistas de riesgo y otros inversores se esfuerzan por entrar en acción. Parece que todo ese dinero está quemando agujeros en bolsillos muy profundos. Afortunadamente, esto tiene sus lados cómicos. Sugiere, por ejemplo, que los chatbots y los LLM han reemplazado a las criptomonedas y la web 3.0 como el próximo gran avance, lo que a su vez confirma que la industria de la tecnología colectivamente tiene la capacidad de atención de un tritón.

Sin embargo, lo más extraño de todo es que el pandemónium ha sido provocado por lo que uno de sus principales investigadores llamó “loros estocásticos” – con lo que quiere decir que los chatbots con tecnología LLM son máquinas que predicen continuamente qué palabra es estadísticamente más probable que siga a la anterior. Y esto no es magia negra, sino un proceso computacional que se entiende bien y ha sido claramente descrito por el profesor Murray Shanahan y elegantemente disecado por el informático Stephen Wolfram.

¿Cómo podemos darle sentido a toda esta locura? Un buen lugar para comenzar es alejar a las personas de su incurable deseo de interpretar las máquinas de manera antropocéntrica. Desde entonces Eliza de Joe Weizenbaum, los humanos que interactúan con los chatbots parecen querer humanizar la computadora. Esto era absurdo con Eliza, que simplemente estaba ejecutando un script escrito por su creador, por lo que tal vez sea comprensible que los humanos que ahora interactúan con ChatGPT, que aparentemente puede responder de manera inteligente a la entrada humana, caigan en la misma trampa. Pero sigue siendo tonto.

El cambio persistente de LLM como “IA” tampoco ayuda. Estas máquinas son ciertamente artificiales, pero considerarlas como “inteligentes” me parece que requiere una concepción bastante pobre de la inteligencia. Sin embargo, algunos observadores, como el filósofo Benjamin Bratton y el informático Blaise Agüera y Arcas, son menos desdeñosos. “Es posible,” conceden, “que estos tipos de IA son ‘inteligentes’, e incluso ‘conscientes’ de alguna manera, dependiendo de cómo se definan esos términos”, pero “ninguno de estos términos puede ser muy útil si se definen de manera fuertemente antropocéntrica”. Argumentan que deberíamos distinguir la sensibilidad de la inteligencia y la conciencia y que “la verdadera lección para la filosofía de la IA es que la realidad ha superado el lenguaje disponible para analizar lo que ya está disponible. Un vocabulario más preciso es esencial”.

Es. Sin embargo, por el momento, estamos atrapados en la histeria. Un año es mucho tiempo en esta industria. Recuerde, hace solo dos años, las próximas grandes cosas serían la criptografía/web 3.0 y la computación cuántica. El primero se ha derrumbado bajo el peso de su propio absurdo, mientras que el segundo, como la fusión nuclear, todavía está en el horizonte.

Con los chatbots y los LLM, el resultado más probable es que eventualmente serán vistos como un aumento significativo de las capacidades humanas (hojas de cálculo con esteroides, como dijo un cínico colega). Si eso sucede, los principales beneficiarios (como en todas las fiebres del oro anteriores) serán los proveedores de picos y palas, que en este caso son los recursos de computación en la nube que necesita la tecnología LLM y que son propiedad de grandes corporaciones.

Dado eso, ¿no es interesante que la única cosa de la que nadie habla en este momento es el impacto ambiental de la gran cantidad de computación necesarios para capacitar y operar LLM? Un mundo que dependa de ellos podría ser bueno para los negocios, pero sin duda sería malo para el planeta. Tal vez eso es lo que Sam Altman, el CEO de OpenAI, el equipo que creó ChatGPT, tenía en mente cuando el observó que “probablemente la IA conducirá al fin del mundo, pero mientras tanto, habrá grandes empresas”.

lo que he estado leyendo

perfiles de dolor
Las redes sociales son una de las principales causas de la epidemia de enfermedades mentales en las adolescentes es una encuesta impresionante del psicólogo Jonathan Haidt.

Deleitó al público
Lo que el poeta, el playboy y el profeta de las burbujas aún pueden enseñarnos es un hermoso ensayo de Tim Harford sobre la locura de las multitudes, entre otras cosas.

Realeza tecnológica
Lo que María, reina de Escocia, puede enseñar a los fanáticos de la seguridad informática de hoy es una publicación intrigante de Rupert Goodwins en el Registro.

Share:

Facebook
Twitter
Pinterest
LinkedIn

Leave a Reply

Your email address will not be published. Required fields are marked *

Social Media

Most Popular

Get The Latest Updates

Subscribe To Our Weekly Newsletter

No spam, notifications only about new products, updates.

Categories

On Key

Related Posts