Dream Hit The Social Concert - Un progetto in realtà aumentata

Si è svolto domenica 22 novembre l’evento in diretta streaming sul canale YouTube di Intesa Sanpaolo. Il ricavato dalle donazioni è andato a sostegno dei lavoratori del mondo della musica e dello spettacolo, una cifra di tutto rispetto di ben 635.000 Euro.

Dream Hit The Social Concert - Un progetto in realtà aumentata

di Giancarlo Messina

Fedez, Achille Lauro, Mahmood, Elodie, M¥SS Keta, Carl Brave, Ernia, Cara e Beba: questo il cast al completo che è salito sul palcoscenico di Dream Hit – The Social Concert, concerto totalmente gratuito ma con un accesso “premium experience” a contenuti speciali rivolto a quanti hanno voluto fare una donazione di almeno 10 € a favore del progetto Scena Unita, aperto sulla piattaforma For Funding di Intesa Sanpaolo, main partner di Dream Hit e primo donatore dell’iniziativa.

Attraverso The Social Talent e The Social Concert, il format Dream Hit racconta cosa significa fare della propria passione il proprio lavoro, e questo passa anche dal capire che questo lavoro è una forma di connessione agli altri, anche attraverso il rispetto per chi mette tutta la propria professionalità al servizio della realizzazione del sogno di un artista. 

Per capirne di più su questa forma di show non certo consueta, abbiamo intervistato Jacopo Ricci, giovane ma già esperto direttore artistico della manifestazione.

“L’evento è stato prodotto da Doom Entertainment – ci spiega Jacopo – società che vede la compartecipazione di Fedez. In realtà è una società di management, ma che si sta allargando al mondo discografico e quindi alla produzione. Hanno una serie di clienti corporate e si stanno sempre più spostando verso la produzione di eventi per queste aziende.

“Personalmente sono stato coinvolto a progetto in corsa ed ho portato il mio contributo rivoluzionando un po’ l’idea di partenza, sebbene il tempo a disposizione fosse piuttosto breve. Abbiamo un ambiente virtuale che, in linea col concerto, aveva un mood vaporwave, quindi molto anni ’80 ma futuristico. In effetti la cosiddetta vaporwave è una corrente artistica che non è mai esistita… si rifà a un ipotetico vintage anni ’80/’90, ma è un concetto creato da noi nel 21mo secolo.

“Il concerto è andato in diretta su YouTube – continua Jacopo – con la formula ‘open’, visibile a chiunque, mentre sul nostro sito, dreamhit.com, oltre alla formula del player ‘open’, come su YouTube, chi aveva fatto una donazione di almeno 10 € al fondo e chi era sorteggiato dai clienti di ISP riceveva un’email con un codice per accedere a un’area VIP, una specie di backstage con una telecamera fissa con un altro presentatore in un backstage parallelo, come se fossero insomma due canali televisivi. “In questa formula c’era la piattaforma più interattiva, con la possibilità di fare domande agli artisti, rispondere a dei sondaggi e legare maggiormente il pubblico agli artisti”. 

Gli artisti si esibivano fisicamente nello stesso posto? 

Sì, in realtà era un modo ibrido per fare la realtà virtuale, perché c’era il palco fisico, ma ampliato virtualmente con degli ambienti renderizzati in Unreal. Perciò il palco, con dei pannelli posteriori con caratteri giapponesi, è reale, mentre i circostanti cristalli sono virtuali. È stato infatti inserito in un ambiente virtuale generato in tempo reale. I segnali dalle due telecamere che riprendevano il palco passavano nel computer con Unreal e questo generava l’ambiente intorno. Gli artisti si esibivano al Fabrique di Milano, con tutti i crismi della situazione pandemica: un artista per volta, tutti stavano in albergo fino all’ultimo secondo, venivano portati dall’albergo per la performance e riportati subito in albergo… nessuno rimaneva lì, a parte il minimo staff di addetti al lavoro. 

C’era un direttore di produzione? 

È un po’ complesso. In realtà, Doom non ha dei direttori di produzione canonici, che fanno live, teatro o televisione. Aveva due project manager che facevano un po’ da produttori esecutivi e che tiravano i fili di tutto: avevano in mano i contratti di artisti, trasporti, tutto. Invece la produzione tecnica è stata appaltata a D-Wok. Loro si sono occupati, sotto la mia direzione, della realizzazione di tutto l’ambiente 3D virtuale, nella persona di Nicola Di Meo. Di tutte le camere e lo streaming, invece, si è occupato Alessandro Carlini, per Imagines. Come ti dicevo mi hanno chiamato a progetto già avviato, D-Wok aveva già proposto uno stage che non era piaciuto troppo, così da lì abbiamo cominciato con un re-work per creare tutto un ambiente fatto di cristalli. 

Precisamente cosa ha che fare il concerto con il contest?

Il concerto era il lancio per il Talent show. In questi giorni, due volte alla settimana, sta andando in onda un talent, condotto da Guglielmo Scilla, che è stato anche il conduttore del concerto. Il talent, come novità, sta andando in onda solo sui social network, quindi il tentativo è di portare un prodotto televisivo completamente su piattaforme moderne, in particolare Instagram e Twitch. Il piano è di cominciare lentamente a portare i format televisivi su piattaforme con interazione con il pubblico, quindi chat in tempo reale e commenti… Il talent ha diverse puntate, con la finale il 13 dicembre, con un live da un locale a Milano – sempre senza pubblico, ovviamente (per la cronaca, è risultato vincitore il giovane Paulo – ndr). La struttura del talent è molto semplice, il fattore che la distingue è la piattaforma social. Ha ovviamente dinamiche discografiche, ma chi vince è premiato con un contratto di management e non discografico, in teoria di maggior garanzia per la carriera dell’artista.

Chi sono stati i tuoi principali collaboratori?

Il progetto delle luci e del LEDwall è di Made (Marco De Nardi – ndr). Anche lui era già coinvolto da D-Wok. Come dicevo, ho poi sviluppato tutto l’ambiente virtuale insieme a Nicola. Trattandosi di una diretta di un’ora e quarantacinque minuti, il concerto a mio avviso doveva essere arricchito maggiormente, perché il concept vaporwave ovviamente rischia di diventare un po’ monotono se usato per tutto questo tempo. Con più budget e più tempo avremmo potuto creare un mondo virtuale per ogni artista, diciamo che questa rimane la prossima sfida per la prossima occasione. L’idea era di avvicinarsi il più possibile a un concerto normale, ovviamente con delle dinamiche “televisive”. 

La fornitura audio/luci è stata fatta dal service For Sound, credo scelto da Fabrique, con integrazioni da AMG. In realtà, a parte le linee guida, non sono intervenuto sulle luci che sono state compito di Made.

Che media server avete usato?

Il media server non era commerciale, era una macchina custom, un PC normalissimo, che acquisiva il segnale video e i dati del tracking delle telecamere. Una delle camere era su un braccio e l’altra era remotata fissa. Il trucco di questo sistema è che si traccia il movimento della camera, spostando il punto di vista all’interno della scena virtuale. Non avevamo mai una camera in controcampo, perché il mondo virtuale sarebbe finito e si sarebbe visto il mondo reale di fronte il palco. 

Per lo zoom, la telecamera manda un segnale di dati al server, mentre il tracking viene fatto da un sensore ad infrarossi sulla camera che segue dei punti di tracking sul pavimento in tempo reale. Questo sistema in particolare si chiama Stype. Il sistema è potentissimo, esiste anche una versione che non usa dei punti per terra, grazie a un sistema di triangolazione tipo BlackTrax

Le grafiche?

Le grafiche, le sigle e gli stacchetti li realizzati io. Sulla presentazione dell’artista Beba, ad esempio, ho usato un laser montato sopra l’artista che, insieme all’otturatore della telecamera, crea un effetto particolare, è un effetto reale luminoso, non un effetto applicato. L’avevo usato all’estero ed ho trovato l’opportunità di impiegarlo anche qui. 

Che luci reali avete usato?

Sul palco reale, come punti luce, avevamo Robe Pointe, MegaPointe e ProLights iPix. C’erano anche dei pannelli LED ma non ricordo la marca.

Puoi spiegare meglio l’uso di Unreal?

Unreal era il sistema che metteva tutto insieme: riceveva i dati da Stype, che diceva come erano posizionate ed impostate le telecamere, faceva i calcoli e generava le diverse visuali delle due camere in tempo reale. Avevamo il multiview in 3D in regia, con tutte le riflessioni del caso. Per esempio la superficie semi-riflettente del palco integrava riflessi della realtà virtuale, e tutti i cristalli erano controllati via Art-Net, così potevamo colorarli, spostarli ecc. È un sistema scalabile; la parte che incide più sul budget è il sistema di tracking, infatti le telecamere ad infrarossi sulle camere sono molto costose. Un’altra telecamera su binari faceva solo le riprese degli artisti sul palco e non era seguita dal sistema di tracking. In totale, le camere erano sette, di cui due trackate con l’ambiente virtuale. Sei di queste avevano l’operatore e una era remotata. Quelle con operatori erano tutte Ursa Broadcast di Blackmagic, fornite da Imagines che facevano anche la messa in onda, una linea upload di streaming, sia quello del palco sia quello backstage.

Conclusioni alla fine di questa esperienza?

Personalmente questa esperienza mi ha portato molti contatti con artisti e management. Come riscontro, sembra che sia stato il video live più visto nella storia di YouTube in Italia. Abbiamo fatto circa mezzo milione di visualizzazioni il primo giorno, numero che continua a crescere perché è ancora disponibile. Soprattutto, cosa più importante, sono stati raccolti moltissimi soldi per il fondo, oltre 635.000 € in poco più di due settimane. E il traguardo è un milione di Euro, perché la raccolta continua, essendo legata al contest.

Il talent contest è un progetto di Intesa SanPaolo per promuovere la musica giovanile. Il concetto è un primo approccio al talent, un format meno pettinato di Amici o X-Factor. La banca ha anche donato al fondo 300.000 €, mentre gli altri soldi vengono dalle donazioni del pubblico.

Secondo te, a prescindere dal covid, queste situazioni di concerti su YouTube, questi talent sui social… hanno un senso in sé, o dopo la pandemia sono destinati a sparire?

Io personalmente non credo ai concerti in streaming, almeno come alternativa al concerto live. Secondo me questa idea sparirà con la pandemia. Potrebbe però essere interessante come ausilio a una forma di intrattenimento classico, per fare il lancio di un album, come hanno fatto i Negramaro, ma la presenza fisica di un concerto non si sostituisce.Come realtà parallela, invece, potrebbe funzionare. Per esempio, nel caso di un mega-sold-out, si potrebbe proporre una diretta rivolta a quelli che non sono riusciti ad avere biglietti, magari con contributi speciali, interviste, backstage e così via. Per non darsi la zappa sui piedi, i promoter potrebbero annunciarlo solo dopo che il concerto è già sold-out. Non può essere un sostituto al concerto, insomma, ma nulla vieta che le due cose possano coesistere. 


Clicca qui per accedere alla galleria fotografica
(10 Foto)