Microsoft presenta nueva herramienta de inteligencia artificial para crear avatares y voces
En su conferencia de desarrolladores de esta semana, Microsoft anunció su última contribución a la carrera de la inteligencia artificial: un software que puede generar nuevos avatares y voces o replicar la apariencia y el habla existentes de un usuario. Sin embargo, esta innovación ha generado preocupaciones sobre la posibilidad de potenciar la creación de deepfakes creados por IA, es decir, videos de eventos que nunca sucedieron.
La herramienta Azure AI Speech de Microsoft
La herramienta, llamada Azure AI Speech, fue presentada en Microsoft Ignite 2023. Se entrena con imágenes humanas y permite a los usuarios ingresar un script que luego puede ser “leído” en voz alta por un avatar fotorrealista creado con inteligencia artificial. Los usuarios tienen la opción de elegir un avatar de Microsoft precargado o cargar imágenes de una persona cuya voz y semejanza deseen replicar. Según Microsoft, esta herramienta puede ser utilizada para crear “agentes conversacionales, asistentes virtuales, chatbots y más”.
Salvaguardas para evitar el mal uso
Ante las preocupaciones sobre el mal uso de esta tecnología, Microsoft aseguró que el software de conversión de texto a voz cuenta con una variedad de límites y salvaguardas. La compañía afirmó que está comprometida con una IA responsable y diseñó el avatar de texto a voz con la intención de proteger los derechos de los individuos y la sociedad, fomentar la interacción transparente entre humanos y computadoras, y contrarrestar la proliferación de deepfakes dañinos y contenido engañoso.
Además, los clientes que deseen utilizar avatares personalizados deben solicitar y ser aprobados por Microsoft. También se les requerirá revelar cuándo se utilizó IA para crear una voz o un avatar sintético. Estas medidas buscan limitar los riesgos potenciales y garantizar que las capacidades avanzadas de voz y habla se utilicen de manera transparente y segura.
Críticas y respuesta de Microsoft
El anuncio de esta nueva herramienta generó críticas, ya que algunos consideraron que Microsoft había lanzado un “creador de deepfakes” que facilitaría la replicación de la imagen de una persona y la manipulación de sus palabras y acciones. Sin embargo, la compañía rechazó estas acusaciones y afirmó que los avatares personalizados ahora tienen un acceso limitado y están sujetos a aprobación.
Sarah Bird, de la división responsable de ingeniería de IA de Microsoft, declaró: “Con estas salvaguardas implementadas, ayudamos a limitar los riesgos potenciales y capacitamos a los clientes para infundir capacidades avanzadas de voz y habla en sus aplicaciones de IA de una manera transparente y segura”.
La última herramienta en el auge de la inteligencia artificial
El creador de avatares de texto a voz de Microsoft se suma a la lista de herramientas de inteligencia artificial lanzadas por las principales empresas tecnológicas en los últimos años. Empresas como Meta y Google también han capitalizado el auge de la IA con el lanzamiento de sus propias herramientas.
A medida que la tecnología continúa avanzando, es importante que se implementen medidas de seguridad y regulaciones para evitar el mal uso de estas herramientas y proteger los derechos de las personas.
La IA y los deepfakes: preocupaciones sobre la interferencia electoral
En medio del auge de la inteligencia artificial (IA), se ha generado una creciente preocupación sobre las capacidades de esta tecnología. Recientemente, el director ejecutivo de OpenAI, Sam Altman, advirtió al Congreso sobre el potencial de la IA para interferir en las elecciones y destacó la necesidad de implementar salvaguardias.
Los expertos señalan que los deepfakes representan un peligro particular cuando se trata de la interferencia electoral. Microsoft ha lanzado una herramienta este mes que permite a los políticos y las campañas autenticar y marcar sus videos con marcas de agua para verificar su legitimidad y evitar la propagación de deepfakes. Por su parte, Meta ha anunciado una política que exige la divulgación del uso de IA en anuncios políticos y prohíbe a las campañas utilizar las propias herramientas de IA generativa de Meta para anuncios.