No eres el único que se enamoró del falso abrigo de papa.

Estar vivo y en Internet en 2023 de repente significa ver imágenes hiperrealistas de personas famosas haciendo cosas extrañas, divertidas, impactantes y posiblemente perturbadoras que en realidad nunca sucedieron. Tan solo la semana pasada, la herramienta de arte de inteligencia artificial Midjourney generó dos imágenes separadas, convincentes y parecidas a fotografías de celebridades que se volvieron virales. La semana pasada, imaginó el arresto de Donald Trump y su eventual escape de la cárcel. Durante el fin de semana, el Papa Francisco tuvo su turno en las fauces de Midjourney cuando una imagen generada por IA del pontífice con una elegante chaqueta blanca hinchada explotó en Reddit y ..

Pero el arresto falso de Trump y las representaciones de Balenciaga del Papa tienen una diferencia significativa: mientras que la mayoría de la gente se apresuró a no creer las imágenes de Trump, el fanfarrón del Papa engañó incluso a los más perspicaz habitantes de internet. Esta distinción aclara cómo los medios sintéticos, ya tratados como el coco de las noticias falsas por algunos, moldearán y no moldearán nuestras percepciones de la realidad.

La parka radical del Papa Francisco engañó a los espectadores inteligentes porque describía lo que habría sido un evento noticioso de bajo riesgo: el tipo de historia no noticiosa de tabloide que, si fuera real, finalmente sería agregada por cuentas populares de redes sociales, luego por medios de noticias chismosas, antes tal vez ir viral. Es una pequeña pepita de efímero de Internet, como esas fotos que solían circular de Vladimir Putin sin camisa.

Como tal, la imagen no exige un escrutinio estricto. Cuando vi la imagen en mi feed, no la miré demasiado; Asumí que era real y un ejemplo divertido de una celebridad usando algo inesperado, o que era falso y parte de una broma interna en línea que no conocía. Mi instinto ciertamente fue no peinar la foto en busca de fallas típicas de las herramientas de inteligencia artificial (no me di cuenta de que el Papa manos con fallas, Por ejemplo). He hablado con varias personas que tuvieron una respuesta similar. Fueron momentáneamente engañados por la imagen, pero describieron su experiencia de la falsificación en un sentido más ambiental: estaban desplazándose; vio la imagen y pensó, Oh wow, mira al papa; y luego se trasladó junto con su día. Las imágenes del arresto de Trump, por el contrario, mostraban un evento noticioso anticipado que, de haber ocurrido, habría tenido graves repercusiones políticas y culturales. Uno no sigue simplemente desplazándose después de ver al ex presidente ser derribado al suelo.

Entonces, los dos conjuntos de imágenes son una buena ilustración de la forma en que muchas personas evalúan si la información es verdadera o falsa. Todos nosotros usamos diferentes heurísticas para tratar de descubrir la verdad. Cuando recibimos nueva información sobre algo de lo que ya tenemos conocimiento, simplemente nos basamos en hechos que hemos aprendido previamente. Pero cuando no estamos seguros, confiamos en heurísticas menos concretas como la plausibilidad (¿sucedería esto?) o el estilo (¿algo se siente, se ve o se lee auténticamente?). En el caso del arresto de Trump, tanto la heurística de estilo como la de plausibilidad estaban fuera de lugar.

“Si Trump ha sido arrestado públicamente, me pregunto, ¿Por qué veo esta imagen pero los trending topics de Twitter, los tweets y los periódicos y redes nacionales no lo reflejan??” Mike Caulfield, investigador del Centro para un Público Informado de la Universidad de Washington, me lo dijo. “Pero, para el Papa, su única heurística disponible es, ¿Llevaría el Papa un abrigo genial? Dado que casi todos nosotros no tenemos ninguna experiencia allí, recurrimos a la heurística del estilo y la respuesta que encontramos es, tal vez”.

Como escribí la semana pasada, las llamadas imágenes alucinadas que representan grandes eventos que nunca ocurrieron funcionan de manera diferente a las teorías de conspiración, que son elaboradas, a veces vagas y, con frecuencia, difíciles de refutar. Caulfield, que investiga campañas de desinformación en torno a las elecciones, me dijo que los intentos más efectivos de engañar provienen de actores que toman informes sólidos de los medios de comunicación tradicionales y luego los enmarcan mal.

Digamos que está tratando de generar indignación en torno a una elección local. Una buena manera de hacer esto sería tomar una noticia reportada sobre el alcance de los votantes e inferir incorrectamente una intención maliciosa sobre un detalle en el artículo. Una frase descartable sobre una campaña que envía correos electorales a personas que no son ciudadanos puede convertirse en una teoría de conspiración viral si un propagandista sugiere que esos correos fueron de hecho papeletas Alegando fraude electoral, los conspiradores pueden construir todo un universo de falsedades. Podrían investigar los registros de donaciones y las contribuciones políticas del secretario de Estado e idear vínculos imaginarios con George Soros u otros activistas políticos, creando intriga e insinuaciones donde en realidad no hay evidencia de irregularidades. “Todo esto crea una sensación de una realidad densa, y todo es posible porque hay una pizca de realidad en el centro”, dijo Caulfield.

Para que los medios sintéticos engañen a las personas en entornos noticiosos de alto riesgo, las imágenes o el video en cuestión deberán generar dudas o enmarcar incorrectamente los informes precisos sobre eventos noticiosos reales. Inventar escenarios de la nada aligera la carga de la prueba hasta el punto de que incluso los lectores ocasionales pueden encontrar la verdad muy fácilmente. Pero eso no significa que las falsificaciones generadas por IA sean inofensivas. Caulfield descrito en un tweet cómo los modelos de lenguaje grande, o LLM, la tecnología detrás de Midjourney y programas similares, son maestros en la manipulación del estilo, que las personas tienden a vincular con la autoridad, la autenticidad y la experiencia. “Internet realmente separó los hechos y el conocimiento, los LLM podrían hacer lo mismo con el estilo”, escribió.

El estilo, argumenta, nunca ha sido la heurística más importante para ayudar a las personas a evaluar la información, pero sigue siendo bastante influyente. Usamos estilos de escritura y habla para evaluar la confiabilidad de los correos electrónicos, artículos, discursos y conferencias. También usamos el estilo visual para evaluar la autenticidad: piense en los logotipos de la empresa o en las imágenes en línea de los productos a la venta. No es difícil imaginar que inundar Internet con información de bajo costo que imita un estilo auténtico podría revolver nuestros cerebros, de manera similar a cómo la democratización de la publicación en Internet hizo que el proceso de búsqueda de hechos sea más complejo. Como señala Caulfield, “cuanto más mundano es el asunto, mayor es el riesgo”.

Debido a que estamos en la infancia de una era de IA generativa, es demasiado prematuro sugerir que estamos cayendo de cabeza en las profundidades de un infierno posterior a la verdad. Pero considere estas herramientas a través de la lente de Caulfield: las tecnologías sucesivas, desde Internet temprano hasta las redes sociales y la inteligencia artificial, cada una se ha centrado en diferentes heurísticas de procesamiento de información y las ha abaratado en sucesión. El efecto acumulativo evoca una imagen espeluznante de tecnologías como un mar embravecido, minando lentamente las herramientas necesarias que tenemos para dar sentido al mundo y permanecer resilientes. Una lenta erosión de algo de lo que nos hace humanos.

Share:

Facebook
Twitter
Pinterest
LinkedIn

Leave a Reply

Your email address will not be published. Required fields are marked *

Social Media

Most Popular

Get The Latest Updates

Subscribe To Our Weekly Newsletter

No spam, notifications only about new products, updates.

Categories

On Key

Related Posts