ai generativa

Adobe lancia Project Music GenAI Control



Indirizzo copiato

Si tratta di uno strumento innovativo per la creazione e modifica di audio e musica basato su intelligenza artificiale generativa. Questa tecnologia consente la generazione di musica da semplici prompt testuali, offrendo un controllo dettagliato per personalizzare l’audio secondo le esigenze specifiche.

Pubblicato il 29 feb 2024



Adobe Project Music GenAI Control

Adobe è pronta a rivoluzionare il modo in cui le persone creano e modificano audio e musica personalizzati. Grazie al lavoro sperimentale del team di Adobe Research, nasce Project Music GenAI Control, un innovativo strumento di generazione ed editing musicale basato su intelligenza artificiale generativa. Questa tecnologia permette agli utenti di generare musica a partire da semplici prompt testuali, offrendo poi un controllo dettagliato per modificare l’audio secondo le esigenze specifiche.

“Con Project Music GenAI Control, l’intelligenza artificiale diventa il tuo co-creatore. Aiuta le persone a creare la musica perfetta per i loro progetti, che siano broadcaster, podcaster o chiunque abbia bisogno di un audio con l’atmosfera, tono e durata giusti”, spiega Nicholas Bryan, Senior Research Scientist presso Adobe Research e uno dei creatori della tecnologia.

Adobe e l’intelligenza artificiale

Adobe vanta una lunga tradizione nell’innovazione legata all’intelligenza artificiale. Firefly, la famiglia di modelli generativi AI di Adobe, è diventata in tempo record il modello più popolare per la generazione di immagini adatto all’uso commerciale sicuro a livello globale. Firefly ha già prodotto oltre 6 miliardi di immagini. Adobe si impegna a sviluppare la sua tecnologia in linea con i principi etici dell’IA: responsabilità, trasparenza e accountability. Tutti i contenuti generati con Firefly includono automaticamente le Content Credentials – etichette informative digitali che rimangono associate ai contenuti ovunque essi vengano utilizzati, pubblicati o archiviati.

Come funziona Project Music GenAI Control

I nuovi strumenti si basano su un prompt testuale inserito in un modello di intelligenza artificiale generativa, metodo già utilizzato in Firefly. L’utente inserisce un prompt testuale come “rock potente”, “dance felice” o “jazz triste” per generare musica. Una volta generata la musica, l’editing dettagliato è integrato direttamente nel flusso di lavoro. Grazie a una semplice interfaccia utente, gli utenti possono trasformare il loro audio generato sulla base di una melodia di riferimento; regolare il tempo, la struttura e i pattern ripetitivi di un brano; scegliere quando aumentare e diminuire l’intensità dell’audio; estendere la durata di un clip; remixare una sezione; o generare un loop perfettamente ripetibile.

Project Music GenAI Control | Adobe Research
Video: Project Music GenAI Control

Project Music GenAI Control può aiutare gli utenti a creare esattamente i pezzi che necessitano, risolvendo problemi legati al flusso di lavoro dall’inizio alla fine. Non sarà più necessario tagliare manualmente la musica esistente per creare intro, outro e audio di sottofondo. “Una delle cose emozionanti di questi nuovi strumenti è che non si limitano a generare audio – portano le cose ad un livello superiore, offrendo ai creativi lo stesso tipo di controllo profondo per modellare, regolare ed editare il loro audio. È come avere un controllo pixel-per-pixel sulla musica”, spiega Bryan.

Project Music GenAI Control è sviluppato in collaborazione con colleghi dell’Università della California, San Diego, tra cui Zachary Novack, Julian McAuley e Taylor Berg-Kirkpatrick, e colleghi della School of Computer Science della Carnegie Mellon University, tra cui Shih-Lun Wu, Chris Donahue e Shinji Watanabe.

Articoli correlati

Articolo 1 di 4