Microsoft lanza una herramienta de inteligencia artificial para copiar fotorrealistas de rostros y voces | Inteligencia artificial (IA)

by tiempoantenacom

Microsoft presenta nueva herramienta de inteligencia ‌artificial para crear avatares ⁤y voces

En su conferencia de⁣ desarrolladores de esta semana, Microsoft ‍anunció su última contribución a la carrera de ‍la inteligencia artificial: un software‍ que puede generar nuevos avatares ‍y voces o replicar la apariencia y el habla existentes de un usuario. Sin embargo, esta innovación ‌ha generado preocupaciones sobre la posibilidad de potenciar⁣ la creación de deepfakes creados por ‌IA,‌ es decir,​ videos de eventos que nunca sucedieron.

La herramienta⁤ Azure ‌AI Speech de Microsoft

La herramienta, llamada ‌Azure AI⁣ Speech, fue presentada en ​Microsoft Ignite 2023. Se entrena con imágenes humanas‌ y‍ permite a los usuarios ingresar un script que luego ⁢puede ser “leído” en voz alta‌ por ‍un avatar fotorrealista creado con inteligencia ⁤artificial. Los usuarios ​tienen la opción de elegir‌ un avatar de Microsoft precargado o cargar imágenes de una persona​ cuya voz y ⁣semejanza deseen‍ replicar. Según Microsoft, esta herramienta puede ser utilizada para⁤ crear “agentes conversacionales, asistentes virtuales, chatbots ‌y más”.

Salvaguardas para evitar ⁤el mal uso

Ante las preocupaciones sobre ​el mal uso⁢ de esta tecnología, Microsoft aseguró que el software‌ de conversión de texto a voz ​cuenta ⁣con una variedad​ de límites y salvaguardas. La compañía afirmó que está​ comprometida con⁣ una IA‍ responsable y diseñó el avatar de texto a voz con la intención ‍de proteger los derechos de ⁢los individuos y la sociedad,‍ fomentar la interacción ⁤transparente entre humanos y computadoras,⁢ y contrarrestar la proliferación de deepfakes dañinos y contenido engañoso.

Además, los clientes que ⁤deseen utilizar avatares personalizados deben solicitar y ser aprobados por Microsoft. También se les requerirá revelar cuándo se utilizó IA ‌para crear una voz o un ‍avatar sintético. Estas medidas buscan limitar los ⁢riesgos potenciales y garantizar que las capacidades avanzadas de voz y habla se utilicen de manera transparente y ‌segura.

Críticas y respuesta de Microsoft

El anuncio de esta nueva ‍herramienta generó críticas, ya que algunos consideraron que Microsoft había ‌lanzado un “creador de ⁣deepfakes” que facilitaría la replicación de la imagen de una persona⁢ y la manipulación de sus palabras y acciones. Sin‌ embargo, ⁤la compañía rechazó estas acusaciones y⁣ afirmó que los ⁢avatares personalizados ahora ‌tienen un⁢ acceso limitado y están sujetos a aprobación.

Sarah ‌Bird, de la división responsable de ingeniería de IA de Microsoft, declaró: “Con estas ⁢salvaguardas implementadas, ayudamos​ a limitar los riesgos potenciales y capacitamos a ⁤los clientes para infundir capacidades ⁤avanzadas de ⁢voz y habla en sus aplicaciones de​ IA de una⁤ manera​ transparente y segura”.

La⁢ última herramienta en el auge⁤ de la⁣ inteligencia ⁣artificial

El creador⁢ de avatares de texto a voz de Microsoft se suma a la lista de herramientas de inteligencia artificial lanzadas por⁢ las​ principales⁣ empresas tecnológicas en los últimos años.⁣ Empresas ⁢como Meta ⁣y Google también han capitalizado el auge de la IA con el lanzamiento‍ de sus propias herramientas.

A medida que la tecnología continúa avanzando, es importante que se⁤ implementen medidas de seguridad y ​regulaciones para evitar el mal uso de estas herramientas ⁣y proteger los derechos de las personas.

La IA ⁤y ⁣los deepfakes: preocupaciones sobre la interferencia electoral

En medio del auge de la inteligencia artificial (IA), se ha generado una‌ creciente preocupación ⁢sobre las capacidades de esta‍ tecnología. Recientemente, el‍ director ejecutivo ⁣de OpenAI, Sam Altman, advirtió al Congreso sobre el​ potencial de la⁣ IA para interferir en‍ las elecciones y destacó la necesidad de implementar salvaguardias.

Los expertos⁤ señalan que los deepfakes representan un peligro particular cuando ‌se trata de la interferencia electoral. Microsoft ha lanzado una herramienta este mes que ⁣permite ⁤a los políticos ‌y las campañas autenticar y marcar sus videos con marcas de​ agua para verificar su ‌legitimidad ⁢y evitar la propagación de‍ deepfakes. Por su parte, Meta ha anunciado una política que exige la divulgación del uso de IA ⁤en anuncios​ políticos y ⁢prohíbe a las campañas utilizar las propias ​herramientas​ de IA generativa de Meta para anuncios.

You may also like

Leave a Comment