Adobe Premiere si unisce al carrozzone delle AI | Stavolta sbalordisce tutti

adobe premiere firefly

La rivoluzione del video editing è iniziata.

Il montaggio video sta forse per entrare nella sua seconda rivoluzione industriale. La prima, ovviamente, è stata rappresentata dal passaggio dalla tecnologia analogica a quella digitale, che ha completamente rivoluzionato i processi produttivi, industriali ed economici del settore. Messa in cantina l’antica moviola, sono arrivati i computer con i loro software di montaggio, i fotogrammi di pellicola sono stati sostituiti da informazioni codificate in codice binario, e l’unità minima di lavoro è passata dal frame al layer.

I software di video editing non distruttivo hanno cambiato i paradigmi e le modalità di lavoro dell’antica arte del montaggio, che da forma di artigianato manuale all’insegna del fisico taglia-e-cuci- della pellicola è passato a essere un lavoro di chirurgia di precisione effettuata con l’estrema precisione del software informatico. Abbattuti i costi ed espanse a dismisura le possibilità pratiche di manipolazione dell’immagine, ogni frontiera sembrava essere stata oltrepassata, fino all’arrivo dell’intelligenza artificiale generativa, con cui Adobe si appresta ancora una volta a cambiare le regole del gioco.

Lucciola digitale

Firefly rivoluzionerà il video editing
Firefly rivoluzionerà il video editing

Lanciato in versione beta a marzo 2023, Firefly è il rivoluzionario modello di machine learning generativo messo a punto da Adobe per rivoluzionare il settore del montaggio video. Il dataset utilizzato per il suo addestramento attinge a database sterminati di immagini e video, a partire ovviamente da Adobe Stock, passando per Wikimedia, Creative Commons, Flickr Commons e materiali di pubblico dominio. L’intento è quello di offrire tool integrati in Premiere (ma anche in altre app della Creative Suite di Adobe) che apportino modifiche generative istantanee all’interno del progetto di montaggio video, con risultati in grado di correggere errori sul set o assecondare idee scaturite proprio in fase di montaggio e finora impossibili da ottenere “dal nulla”.

Al di là dei VFX e delle correzioni rese possibili da cinema digitale, infatti, finora il montatore ha sempre dovuto lavorare sulla base del materiale girato in fase di ripresa, con tutti limiti del caso. Ma grazie all’avvento dell’AI generativa nel video editing, questa concezione potrebbe diventare nel giro di pochi anni un ricordo del passato. Per dare un’idea di quello che ci aspetta, Adobe ha recentemente pubblicato un video che mostra alcuni tool di Firefly integrati in Premiere, e i risultati sono davvero incredibili.

A me gli occhi!

Il video pubblicato qui sopra dimostra alcune delle nuove funzioni di Firefly integrate in Adobe Premiere 2024. Queste funzioni non sono ancora disponibili, ma dovrebbero essere incluse nel prossimo aggiornamento del popolare software di video editing. Entro fine anno quindi tutti i montatori che utilizzando la suite di Adobe dovrebbero essere in grado di sperimentare l’utilizzo di quelli che sembrano essere strumenti a dir poco rivoluzionari.

Nella breve dimostrazione vengono mostrati molteplici strumenti estremamente interessanti. Si va dalla possibilità di rimuovere elementi della scena evidenziati da una funzione di individuazione intelligente degli oggetti, che possono essere tracciato e rimossi sostituendoli con uno sfondo generato in base al contesto, all’aggiunta o modifica di elementi presenti nel fotogramma, ad esempio cambiando leggermente l’outfit di un personaggio i inserendo un oggetto non presente sulla scena al momento delle riprese, sulla base di un semplice prompt testuale. Nell’esempio del video, una valigetta viene riempita di pietre preziose, e una cravatta viene aggiunta sopra la camicia di un attore.

Ci sono poi altre funzioni eccezionali, ad esempio il prolungamento generativo di un’inquadratura, di cui i fotogrammi vengono “interpretati” dall’algoritmo per proseguire la scena in modo coerente (ad esempio continuare il movimento di una vettura che allontana o indugiare per qualche secondo virtuale sull’espressione di un attore. Ulteriori integrazioni con i partner OpenAI, Runway e Pika Labs offriranno ulteriori possibilità, come creare vere e propri clip AI-generated da usare come inserti o establishing shots. Insomma non resta che attendere la release pubblica di questi strumenti per saggiare con mano il futuro del video editing!