- Runway ML ha sviluppato Gen-1, un modello di diffusione video che genera nuovi video da quelli esistenti, basato su descrizioni visive o testuali. Gli utenti possono modificare i video caricati utilizzando prompt di testo.
- Gen-1 è addestrato congiuntamente su immagini e video, permettendo di applicare in modo realistico composizioni e stili desiderati senza ulteriore formazione. È descritto come capace di generare video di alta qualità senza bisogno di riprese fisiche.
- Attualmente accessibile solo a pochi utenti invitati, Gen-1 sarà disponibile pubblicamente a breve. Esistono versioni gratuite e a pagamento, con diverse opzioni di risoluzione video. Runway ML promuove Gen-1 come un passo avanti significativo nella creatività tramite AI.
News
Arriva Gen-1, modello di AI che genera un nuovo video da uno già esistente
Realizzato dai ricercatori che hanno creato anche Stable Diffusion, è un modello di diffusione video guidato dai contenuti. Modifica i video in base a descrizioni visive o testuali a seconda dell’output desiderato
Continua a leggere questo articolo
Argomenti
Canali