Comentario
GPT-4, por el contrario, es un sistema de última generación capaz de crear no solo palabras, sino también describir imágenes en respuesta a los comandos escritos simples de una persona. Cuando se muestra una foto de un guante de boxeo colgando sobre un balancín de madera con una pelota en un lado, por ejemplo, una persona puede preguntar qué sucederá si el guante se cae, y GPT-4 responderá que golpearía el balancín y causaría el pelota para volar.
El zumbido lanzamiento coronó meses de entusiasmo y anticipación sobre un programa de IA, conocido como un modelo de lenguaje grande, que los primeros probadores habían afirmado que era notablemente avanzado en su capacidad para razón y aprender cosas nuevas. De hecho, el público tuvo una vista previa de la herramienta: Microsoft anunció el martes que el chatbot Bing AI, lanzado el mes pasado, había estado usando GPT-4 todo el tiempo.
Los desarrolladores se comprometieron en un martes entrada en el blog que la tecnología podría revolucionar aún más el trabajo y la vida. Pero esas promesas también han alimentado la ansiedad sobre cómo las personas podrán competir por trabajos subcontratados a máquinas inquietantemente refinadas o confiar en la precisión de lo que ven en línea. Los propios desarrolladores dijeron que estaban retrasando funciones clave por temor a abrir nuevas oportunidades para el abuso.
Funcionarios del laboratorio de San Francisco dicho El entrenamiento “multimodal” de GPT-4 a través de texto e imágenes le permitiría escapar del cuadro de chat y emular más completamente un mundo de color e imágenes, superando a ChatGPT en sus “capacidades de razonamiento avanzadas”. Una persona podría cargar una imagen y GPT-4 podría subtitularla, describiendo los objetos y la escena.
Pero la compañía dijo que está retrasando el lanzamiento de esa función de descripción de imágenes debido a temores de abuso, y que la versión disponible ahora solo ofrece texto. OpenAI dijo que los miembros de su servicio de suscripción, ChatGPT Plus, podían usar GPT-4 de forma limitada y que había creado una lista de espera para todos los demás.
En su publicación de blog, OpenAI dijo que GPT-4 todavía comete muchos de los errores de las versiones anteriores, incluidas las tonterías “alucinantes”, perpetuando los prejuicios sociales y ofreciendo malos consejos. También carece de conocimiento de los eventos que ocurrieron después de septiembre de 2021, cuando se finalizaron sus datos de capacitación, y “no aprende de su experiencia”, lo que limita la capacidad de las personas para enseñarle cosas nuevas.
Microsoft ha invertido miles de millones de dólares en OpenAI con la esperanza de que su tecnología se convierta en un arma secreta para su software de trabajo, motor de búsqueda y otras ambiciones en línea. Pero los impulsores de la IA dicen que es posible que solo rocen la superficie de lo que esa IA puede hacer, y que podría conducir a modelos comerciales y empresas creativas que nadie puede predecir.
Los rápidos avances de la IA, junto con la gran popularidad de ChatGPT, han impulsado una carrera armamentista multimillonaria sobre el futuro del dominio de la IA y han transformado los nuevos lanzamientos de software en grandes espectáculos.
OpenAI y Microsoft, que el año pasado lanzó un chatbot impulsado por GPT en su herramienta de búsqueda Bing, se han movido agresivamente para contrarrestar a Google y otros pioneros de la IA con la creencia de que estas herramientas podrían resultar cruciales para las industrias futuras.
Pero el frenesí también ha provocado críticas de que las empresas se apresuran a explotar una tecnología no probada, no regulada e impredecible que podría engañar a la gente, socavar el trabajo de los artistas y provocar daños en el mundo real.
Los modelos de lenguaje de IA a menudo ofrecen respuestas incorrectas con confianza porque están diseñados para escupir frases convincentes, no hechos reales. Y debido a que han sido capacitados en texto e imágenes de Internet, también han aprendido a emular los prejuicios humanos de raza, género, religión y clase.
OpenAI dijo que su nuevo modelo podría manejar más de 25,000 palabras de texto, un avance que podría facilitar conversaciones más largas y permitir la búsqueda y el análisis de documentos extensos.
Los desarrolladores de OpenAI dijeron que GPT-4 era más probable que ChatGPT proporcionara respuestas fácticas y menos probable que rechazara solicitudes inofensivas. Y la función de análisis de imágenes, que está disponible solo en forma de “vista previa de investigación” para evaluadores seleccionados, permitiría que alguien le muestre una imagen de la comida en su cocina y solicite algunas ideas de comidas.
Los desarrolladores crearán aplicaciones con GPT-4 a través de una interfaz, conocida como API, que permite conectar diferentes piezas de software. Duolingo, la aplicación de aprendizaje de idiomas, ya usó GPT-4 para presentar nuevas funciones, como un compañero de conversación de IA y una herramienta que les dice a los usuarios por qué una respuesta fue incorrecta.
Pero los investigadores de IA se apresuraron a comentar el martes sobre la falta de divulgación de OpenAI. La compañía no compartió evaluaciones sobre sesgos que se han vuelto cada vez más comunes después de la presión de los especialistas en ética de la IA. Los ingenieros ansiosos también se sintieron decepcionados al ver pocos detalles sobre el modelo, su conjunto de datos o métodos de entrenamiento.
GPT-4 tendrá competencia en el creciente campo de la IA multisensorial. DeepMind, una firma de inteligencia artificial propiedad de la empresa matriz de Google, Alphabet, lanzó el año pasado un modelo “generalista” llamado gatos que pueden describir imágenes y jugar videojuegos. Y Google lanzó este mes un sistema multimodal, Palma-Eque combinó la visión de la IA y la experiencia lingüística en un robot de un solo brazo sobre ruedas: si alguien le decía que fuera a buscar algunas fichas, por ejemplo, podía comprender la solicitud, ir a un cajón y elegir la bolsa adecuada.
Tales sistemas tienen inspiró un optimismo ilimitado en torno al potencial de esta tecnología, algunos ven en sus respuestas una sensación de inteligencia o sensibilidad casi a la par de los humanos. Sin embargo, los sistemas, como los críticos y los investigadores de IA se apresuran a señalar, simplemente repiten patrones y asociaciones que se encuentran en sus datos de entrenamiento sin una comprensión clara de lo que está diciendo o cuándo está mal.
A pesar de su falta de fiabilidad, Silicon Valley ve un enorme potencial económico en este tipo de IA debido a la facilidad de uso de estos modelos. Cualquiera puede escribir lo que se conoce como “mensaje” en inglés simple en un cuadro de chat, brindando a las personas que no saben cómo escribir código la capacidad de comunicarse con las máquinas de la misma manera que lo han hecho los programadores de computadoras durante décadas.
GPT-4, el cuarto “transformador preentrenado generativo” desde el primer lanzamiento de OpenAI en 2018, se basa en una técnica de red neuronal innovadora en 2017 conocida como el transformador que avanzó rápidamente en la forma en que los sistemas de IA pueden analizar patrones en el habla y las imágenes humanas.
Los sistemas están “pre-entrenados” mediante el análisis de billones de palabras e imágenes tomadas de Internet: artículos de noticias, reseñas de restaurantes y argumentos en tableros de mensajes; memes, fotos familiares y obras de arte. Luego, grupos gigantes de supercomputadoras de chips de procesamiento de gráficos mapearon sus patrones estadísticos, aprendiendo qué palabras tendían a seguirse en frases, por ejemplo, para que ahora la IA pueda imitar esos patrones, elaborando automáticamente largos pasajes de texto o imágenes detalladas, una palabra. o píxel a la vez.
OpenAI se lanzó en 2015 como una organización sin fines de lucro, pero se ha convertido rápidamente en uno de los gigantes privados más formidables de la industria de la IA, aplicando avances en modelos de lenguaje a herramientas de IA de alto perfil que pueden hablar con personas (ChatGPT), escribir código de programación (GitHub Copilot) y crear imágenes fotorrealistas (DALL-E 2).
A lo largo de los años, también ha cambiado radicalmente su enfoque sobre los riesgos sociales potenciales de lanzar herramientas de IA a las masas. En 2019, la empresa se negó a publicar GPT-2, diciendo que era tan bueno que estaban preocupados por las “aplicaciones maliciosas” de su uso, desde avalanchas de correo no deseado automatizado hasta campañas masivas de suplantación de identidad y desinformación.
La pausa fue temporal. En noviembre, ChatGPT, que utilizó una versión mejorada de GPT-3 que se lanzó originalmente en 2020, vio más de un millón de usuarios a los pocos días de su lanzamiento público.
Los experimentos públicos con ChatGPT y el chatbot de Bing han demostrado lo lejos que está la tecnología de un rendimiento perfecto sin intervención humana. Después de una serie de conversaciones extrañas y respuestas extrañamente incorrectas, los ejecutivos de Microsoft reconocieron que la tecnología aún no era confiable en términos de brindar respuestas correctas, pero dijeron que estaban desarrollando “métricas de confianza” para abordar el problema.
Se espera que GPT-4 mejore algunas deficiencias, y los evangelistas de IA como el bloguero de tecnología Robert Scoble han argumentado que “GPT-4 es mejor de lo que nadie espera”. Pero a los críticos les preocupa que eso pueda tener sus propias consecuencias, como ayudar a crear fotos falsas de eventos inexistentes o personas que hacen cosas que nunca hicieron.
El director ejecutivo de OpenAI, Sam Altman, trató de moderar las expectativas en torno a GPT-4 y dijo en enero que la especulación sobre sus capacidades había alcanzado niveles imposibles. “La rumorología del GPT-4 es una cosa ridícula”, dijo en un acto realizado por el boletín. EstrictamenteVC. “La gente está rogando por estar decepcionada, y lo estará”.
Pero Altman también ha comercializado la visión de OpenAI con el aura de la ciencia ficción hecha realidad. En una publicación de blog el mes pasado, dijo que la compañía estaba planeando formas de garantizar que “toda la humanidad” se beneficiara de la “inteligencia general artificial” o AGI, un término de la industria para la idea aún fantástica de una superinteligencia de IA que generalmente es tan inteligente como, o más inteligente que, los propios humanos.
Microsoft, un inversionista de OpenAI, está trabajando para empaquetar GPT-4 en un producto vendible y ha comercializado la tecnología como un compañero súper eficiente que puede manejar el trabajo sin sentido y liberar a las personas para actividades más creativas. La herramienta podría, por ejemplo, ayudar a un desarrollador de software a hacer el trabajo de todo un equipo o permitir que una tienda familiar planifique y diseñe una campaña publicitaria profesional sin ayuda externa.
Un ejecutivo de Microsoft dijo el sitio de noticias alemán Heise que un desarrollador había utilizado la IA para crear un prototipo para resumir y responder a las conversaciones del centro de llamadas con los clientes de una manera que podría ahorrarle a una empresa aproximadamente 500 horas al día, o más de 60 personas trabajando ocho horas turnos, en decenas de miles de llamadas diarias.
corrección
Una versión anterior de esta historia ofrecía un número incorrecto para los parámetros de GPT-4. La compañía se ha negado a dar una estimación.