INTELLIGENZA ARTIFICIALE. L’OBBLIGO DI AFFRONTARLA
di Piero Chianura
Arriva il momento in cui un’innovazione esce dai laboratori di ricerca per essere prima testata in qualche applicazione professionale e poi divulgata per entrare definitivamente nella vita delle persone comuni. È in quel momento che quell’innovazione nasce ufficialmente, i media la trasformano in notizia e la sfruttano per far partire il dibattito mediatico delle opinioni a confronto, quello dei pro e contro il suo utilizzo diffuso. È così che oggi ci troviamo a discutere di Intelligenza Artificiale, evoluzione dei primi algoritmi di reti neurali già applicati in vari contesti della nostra attività, compreso quello musicale.
Una quindicina di anni fa IBM presentò il suo ambizioso progetto Watson, un sistema di intelligenza artificiale basato sulla raccolta di un’enorme mole di informazioni opportunamente collegate attraverso reti neurali digitali emulazione di quelle del nostro cervello. Sfruttato inizialmente per applicazioni in ambito sanitario e oggi a disposizione delle aziende in molti settori, Watson era stato utilizzato anche dall’inglese Decibel, la cui app MusicGeek utilizzava il supercomputer IBM per fornire raccomandazioni musicali ai suoi utenti, proprio come fanno oggi le piattaforme di streaming e download musicale.
Da allora, la capacità delle macchine di apprendere e dare risposte come fanno gli esseri umani è divenuta sempre più sofisticata e così è entrata a far parte, in diverse applicazioni, della nostra vita quotidiana.
Nell’odierna visione di un futuro fatto di realtà virtuale e robot umanoidi, il lancio da parte di OpenAI dell’ormai popolare ChatGPT ha fatto esplodere la febbre dell’intelligenza artificiale, ma chi compone musica si interroga da tempo su come l’IA (ebbene sì, possiamo scrivere l’acronimo in italiano), al pari di tutte le precedenti tecnologie digitali, possa essere usata a supporto dell’atto creativo e in quali occasioni.
UOMO O MACCHINA? MUSICA SENZA PATERNITÀ
Se consideriamo l’attività in buona parte meccanica dell’esecuzione di partiture musicali, la sostituzione del musicista con macchine programmate non è una novità. Ma dopo i primi esperimenti analogici, la rivoluzione digitale ha fatto nascere strumenti come arpeggiatori, armonizzatori e altri processori in grado di elaborare autonomamente parti di composizione sulla base di input ricevuti dal musicista. Sappiamo che si può parlare di intelligenza artificiale solo se il sistema è in grado di pianificare autonomamente un ragionamento partendo da un base di informazioni che costituiscono il bagaglio della conoscenza umana. Nel caso degli arpeggiatori e degli armonizzatori, possiamo considerare “intelligente” la capacità di arpeggiare o armonizzare in tonalità maggiore, minore, settima ecc. sulla base di input (anche vocali) ricevuti dall’esecutore. Possiamo considerare intelligenza artificiale anche il tentativo di “umanizzare” la fredda esecuzione delle macchine attraverso algoritmi di randomizzazione in grado di simulare la variabilità e la fallibilità imprevedibile dell’esecutore umano, nel rispetto di regole musicali che fanno parte del bagaglio di conoscenze del musicista. Si potrebbe obiettare che simulare l’imprevedibilità dell’essere umano non significa ragionare come un essere umano, ma quando ascoltiamo l’esecuzione della macchina non siamo sempre in grado di capire questa differenza perché in entrambi i casi il tutto suonerà comunque credibile alle nostre orecchie di ascoltatori.
Il fatto è che l’uso spinto della tecnologia digitale nella produzione musicale ha ridotto già da tempo la nostra capacità di distinguere un’esecuzione umana (o IA) da una performance totalmente programmata. Che si tratti di una riproduzione musicale o di un concerto dal vivo, talvolta non riusciamo neppure più a riconoscere quale strumento reale o virtuale stia generando i suoni che stiamo ascoltando. Nella fruizione musicale attraverso i media attuali, gli uomini e le macchine sono già intercambiabili. Perciò, il fatto che un brano musicale sia stato composto dalla mente creativa di un uomo o da una sofisticata rete neurale, potrebbe non interessare alla maggior parte degli ascoltatori di musica di oggi. Potrebbe essere invece interessante per l’industria discografica, che, grazie all’IA, potrebbe avere campo totalmente libero sul riconoscimento dei diritti d’autore… ma questo è un altro discorso. Di certo, la diffusione delle playlist costituite da grandi quantità di brani, di cui spesso non conosciamo i compositori, ci ha già abituati a godere del piacere dell’ascolto senza necessariamente indagare sulla paternità autoriale.
È esattamente quello che accade oggi in tutte le altre attività umane in ambito digitale, non solo artistiche: l’emozione indotta da una stimolazione esterna non lascia spazio all’approfondimento su quale sia la vera sorgente di provenienza, perché siamo immediatamente distratti da altre stimolazioni emotive. E allora dovremmo domandarci se alla maggior parte delle persone, già inconsapevoli della falsa paternità di una composizione musicale, di una notizia, di una citazione famosa e persino di un atto compiuto, oggi interessi veramente sapere quale “mente” (umana o IA) stia dietro a ciò che la emoziona per quell’istante in cui ne fruisce. Il dibattito in corso sulla IA ci sta portando a riflettere una volta di più su questi aspetti della fruizione digitale in generale.
IA PER STIMOLARE LA CREATIVITÀ… E AUMENTARE IL FATTURATO
Se il nostro obiettivo non è quello di recuperare la verità nella relazione tra musicista e ascoltatore, ma è fornire nuovi strumenti creativi a chi produce musica, allora l’IA si rivela uno strumento piuttosto utile su diversi fronti:
1. Può stimolare il lavoro creativo dei compositori impegnati in un’intensa produzione commerciale in cui non è sempre richiesta originalità compositiva;
2. Può offrire nuovi stimoli ai compositori più curiosi e interessati a percorrere nuove strade basate sull’uso delle nuove tecnologie;
3. Può interagire in tempo reale con i musicisti durante una performance dal vivo per realizzare composizioni istantanee anche in ottica sperimentale;
4. Può aiutare i non-musicisti a comporre musica di varia natura per produzioni multimediali (anche commerciali) senza doversi appoggiare, pagando i relativi diritti d’autore, a compositori professionisti.
La maggior parte delle applicazioni di IA in musica si sviluppano sul fronte compositivo. È qui che, definiti alcuni parametri di base, il sistema è in grado di elaborare per nostro conto una composizione musicale, magari “alla maniera di” un genere o un artista a cui quei parametri fanno riferimento… e quell’artista potremmo essere noi stessi in continua clonazione. Ci sono diversi programmi che vanno in questa direzione: Amper, Ecrett Music, MuseNet, ORB Composer, A.I.Duet, Musico, Aiva ecc. Ma se ci fermiamo all’ascolto delle demo di queste applicazioni non avremo un’idea dei risultati che l’IA può raggiungere se pensata nell’ottica della collaborazione artistica tra musicisti e machine learning.
Se invece ascoltiamo l’album I AM AI di Taryn Southern (2018) e poi Proto di Holly Herndon (2019) ci faremo un’idea di come possano essere differenti i risultati. Il primo percorre la strada del manierismo pop utilizzando Watson Beat, Amper, AIVA e Google Magenta di IBM; il secondo va nella direzione dell’inusuale e dell’inascoltato, usando Spawn, un’applicazione realizzata dalla stessa autrice, cioè un machine learning “perfezionato” dall’essere umano.
Dobbiamo considerare che è molto diverso utilizzare l’IA per performance in tempo reale o darle in pasto dei parametri per la composizione di brani poi riprodotti. Nel primo caso, il sistema risponde istantaneamente (e spesso imprevedibilmente) prendendo decisioni in continua evoluzione sulla base degli input che riceve dal musicista in modo interattivo. Nel secondo caso elabora una composizione statica di una durata prestabilita, sulla quale è fondamentale l’editing successivo da parte di chi ha istruito l’IA per avvicinare il risultato finale alle sue attese.
LA NOSTRA INEGUAGLIABILE COMPLESSITÀ
Dal punto di vista etico, ci interroghiamo sul rischio che l’IA possa sostituire l’uomo in tutte le attività creative che sono proprie dell’arte. In realtà è proprio in ambito artistico che si capisce bene la differenza tra un’intelligenza artificiale usata per rispondere a domande interpretando dati e informazioni che l’essere umano non è in grado di elaborare (visione dataista) e, in senso opposto, l’uso della sensibilità umana come strumento di perfezionamento della creazione artistica che la macchina non è in grado di rendere “emozionante” (visione umanista).
Per ora possiamo affermare che la differenza tra l’uomo e la macchina sta proprio nella nostra capacità di emozionarci all’interno dell’ambiente naturale di cui siamo parte integrante. In musica, l’IA potrà cioè sostituirsi al musicista quando quest’ultimo rinuncerà alla sua capacità di emozionare gli ascoltatori nelle modalità che gli sono proprie, per esempio fare musica in un ambiente reale con corpi e strumenti che vibrano producendo onde sonore che si trasmettono nell’aria verso altri corpi umani che ne ricevono le vibrazioni. L’esperienza nel mondo reale dovrebbe tenere tutte le attività ad alto contenuto emozionale, esperienza sessuale compresa, al riparo dal rischio che si perda la centralità dell’uomo, pur senza rinunciare all’IA come strumento espansivo con cui giocare o migliorare le nostre performance di esseri umani “evoluti”.
Ma più ci allontaneremo dalla nostra essenza di esseri umani unici e complessi, immersi nel mondo (anche sonoro) che ci circonda, semplificando e uniformando ciò che siamo, e più velocemente le macchine saranno in grado di emularci rendendoci sostituibili.