IL RUMORISTA “INTELLIGENTE”. NON SOLO MUSICA NELLA SONORIZZAZIONE DI FILM MUTI
di Piero Chianura
Recentemente ho fatto parte della giuria di un concorso internazionale di composizione musicale i cui candidati erano chiamati a creare e montare una nuova colonna sonora su film dell’epoca del muto.
Il livello delle opere presentate era molto alto e infatti, quando a fine concorso ho potuto dare un’occhiata all’elenco degli ammessi alla fase finale di valutazione da parte della nostra giuria, ho notato la presenza di musicisti professionisti, docenti di conservatorio e così via… compositori tutt’altro che alle prime armi.

Visionare i film ascoltando le soluzioni adottate da questi compositori per sonorizzare opere come il Faust di Stiftung, il Viaggio sulla Luna di Méliès, La corazzata Potëmkin di Ėjzenštejn, Il Gabinetto del Dottor Caligari di Wiene e altri titoli più o meno noti, è stata un’esperienza illuminante su come è cambiato negli anni l’approccio alla composizione per film muti, quando fino a un paio di decenni fa ci si affidava quasi esclusivamente alla sensibilità di un pianista in solo.
Fra tutti quelli visionati, però, un lavoro in particolare ha attirato la mia attenzione. In questo caso, il compositore non si era limitato a commentare in musica le scene del film, ma aveva ricostruito l’intera traccia dei rumori ambientali così come li aveva immaginati. Un lavoro minuzioso incredibile, da apparire ad alcuni giurati quasi fastidioso perché, se su un film muto è oramai pratica consolidata aggiungere musiche di commento di qualunque tipo (mentre i dialoghi sono testi sovrascritti considerati parte integrante dell’opera), spingersi a ricostruire rumori ambientali ed effetti sonori può risultare un’operazione fin troppo audace e aleatoria.
Mentre seguivo lo sviluppo di quella traccia sonora ricostruita su A Page of Madness di Teinosuke Kinugasa pensavo che il tempo che aveva speso il compositore “rumorista” per ricostruire tutti gli eventi sonori presenti nella realtà proposta dalle scene del pur breve film d’epoca, sarebbe stato enormemente ridotto dall’uso di un programma basato sull’intelligenza artificiale in grado di assegnare a questi eventi sonori il corrispondente segnale audio.
Pensavo che, oltre alle musiche, il compositore avrebbe potuto affidarsi all’IA per ricostruire anche i rumori di fondo e i suoni ambientali sincronizzati con il video, supportata eventualmente da più precise istruzioni testuali sul tipo di suono e rumore da assegnare a un dato evento (la chiusura di una porta, il fruscio di una veste, un temporale, ecc.). Mentre riflettevo su tutto ciò, è stato naturale ipotizzare che qualche software progettato per far questo fosse già in commercio e che probabilmente il candidato di cui stavo valutando il lavoro lo avesse già utilizzato.
Facendo una rapida ricerca online si scopre infatti che esistono già una decina di questi programmi, a partire da MMAudio di Sony Group, che permette di caricare un video muto (anche attraverso URL) e, sulla base del contenuto visivo, generare automaticamente una traccia audio sincronizzata. C’è anche Adobe Firefly integrato negli strumenti audio di Adobe, che permette di creare effetti sonori (ambientali, effetti speciali e rumori specifici) partendo da un prompt (descrizione testuale) o analizzando anch’esso le scene video per generare la colonna sonora adatta. Il più complesso ThinkSound richiede invece maggiori competenze di programmazione nell’utente e una GPU potente del computer per analizzare il video e generare tre differenti tracce sonore: ambiente, oggetti specifici e interventi mirati utilizzando prompt testuali.
Qualche anno fa ho potuto assistere alla performance di un rumorista impegnato a doppiare in tempo reale un breve spezzone di film utilizzando gli oggetti sonori della sua “valigetta del mestiere” per emulare rumori e suoni ambientali. Al termine del suggestivo doppiaggio, il rumorista si era lamentato della concorrenza dei sample digitali, che giudicava impersonali e omologanti.
Non eravamo ancora arrivati al punto in cui siamo oggi, quello in cui il cosiddetto Auto Foley utilizza modelli di IA per analizzare i fotogrammi video, identificare le azioni e generare in modo sincrono i relativi effetti sonori, con l’obiettivo di automatizzare e velocizzare la post-produzione. Oggi dobbiamo domandarci per quanto tempo ancora la figura del rumorista umano resterà fondamentale per l’anima del suono di un film in un’industria cinematografica sempre più pervasa dall’IA.
