Así la IA generativa de Adobe que crea música y edita audio personalizado

Adobe lanzó  una inteligencia artificial generativa (IA) de audio y música personalizada para creadores. Se trata de Project Music GenAI Control, una herramienta de edición y generación musical; esta tecnología permite a los usuarios generar música a partir de simples indicaciones de texto y, lo que es aún más emocionante, ofrece un control detallado para editar el audio según las necesidades precisas de cada usuario.

Nicholas Bryan, investigador científico sénior de Adobe Research, destaca la colaboración de la IA generativa como un «cocreador» en el proceso creativo. Esta herramienta busca facilitar a locutores, podcasters y cualquier persona que necesite audio con un estado de ánimo específico, tono y duración la posibilidad de crear música personalizada de manera intuitiva.

La tecnología detrás de Project Music GenAI Control se basa en la familia de modelos de IA generativa de Adobe llamada Firefly, la misma  que genera imágenes de IA para uso comercial. Hasta la fecha, esta ha generado más de 6 mil millones de imágenes. 

Te puede interesar: Google Cloud integra Gemini en herramientas de análisis y bases de datos ¿Cómo ayudará a ingenieros?

La herramienta utiliza un enfoque de entrada de texto, similar al empleado en Firefly. Los usuarios simplemente ingresan un mensaje de texto como «rock poderoso», «baile feliz» o «jazz triste» para generar música. Una vez que se crea la música, la herramienta permite una edición detallada integrada directamente en el flujo de trabajo.

La interfaz de usuario de Project Music GenAI Control es simple e intuitiva, permitiendo a los usuarios transformar el audio generado según una melodía de referencia, ajustar el tempo, la estructura y los patrones repetitivos, controlar la intensidad del audio, extender la longitud de un clip, remezclar secciones y generar bucles perfectamente repetibles.

Nicholas Bryan resalta la versatilidad de estas nuevas herramientas, equiparándolas con el control de píxeles que ofrece Photoshop pero aplicado al ámbito musical. Este avance no solo facilita la generación de audio, sino que proporciona a los creativos un control profundo para dar forma, ajustar y editar su música.

La IA  fue desarrollada junto a la Universidad de California en San Diego y la Universidad Carnegie Mellon. 

Imagen: futas_studio

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos