/

November 22, 2025

AWS, Londra e il rumore del silenzio

Shares

C’è un dettaglio che ho sempre trovato curioso dell’Inghilterra del sud:
quando a Londra piove – e piove spesso – a Guildford quasi sempre spunta il sole.

È come se la città, incastonata tra le colline del Surrey, vivesse in un microclima tutto suo.
A Waterloo salivi sul treno con il cielo grigio piombo, gli ombrelli gocciolanti e l’odore di pioggia nell’aria… e quaranta minuti dopo scendevi a Guildford con la luce che filtrava tra le nuvole, come un piccolo miracolo quotidiano.

Era un posto che ti accoglieva così: luminoso, quasi allegro, nonostante l’Inghilterra.
E per me rimase sempre un luogo-ponte tra due mondi:

  • quello tecnologico e frenetico di Londra,
  • e quello tranquillo, quasi contemplativo, del Surrey.

 Negli anni della GSMA e dei progetti con Consultng Hyperion, Logica e altri partner, Guildford era la fuga meteorologica dalla capitale.
Il posto dove potevi parlare di innovazione guardando un paesaggio che sembrava dire:
“qui le cose si capiscono meglio”.

E forse è proprio per questo che quei ricordi mi tornarono alla mente anche durante il periodo di Sky e del Covid, quando tutto era remoto e di viaggi non se ne facevano più: perché Guildford rappresentava l’Inghilterra che sogna, mentre Londra è l’Inghilterra che corre.

Il Covid aveva congelato il mondo, ma non il cloud.
E mentre Londra sembrava respirare lentamente, come dopo una lunga corsa, noi stavamo riprogettando la più grande migrazione contenuti che Sky avesse mai affrontato.

Non c’era più il treno per Guildford, né le corse da Waterloo ai tempi della GSMA. Lì i ricordi erano altri: Hyperion, Logica, le prime soluzioni contactless, l’aria di Surrey che odorava sempre di qualcosa di nuovo. In sottofondo, nei miei auricolari, spesso c’era Massive Attack – “Teardrop” o Portishead – “Roads”, perfette per quei paesaggi inglesi dove innovazione e campagna si toccavano davvero.

Ma ora stavo vivendo un altro tipo di viaggio.
Tutto digitale.
Tutto remoto.
E incredibilmente, tutto urgente.

La parte tecnica che pochi hanno visto davvero

Il progetto Sky era ambizioso, enorme, e diventò ancora più critico quando la gente chiusa in casa iniziò a consumare streaming come non mai.
Tutto doveva funzionare.
Sempre.

L’obiettivo: portare l’intera filiera europea di gestione contenuti su AWS.

Parliamo di una catena lunga e complessa, che fino ad allora viveva su sistemi misti, on-prem, ibridi, talvolta addirittura “storici”.

Ingest dei contenuti

Arrivavano da:

  • studi di produzione
  • broadcaster partner
  • distributori europei e internazionali

Ed entravano nei nuovi bucket Amazon S3, strutturati per:

  • versioning
  • lifecycle policies
  • automazione dei flussi QC

Molte country usavano ancora ingest locali: adesso tutto veniva centralizzato, normalizzato, orchestrato.

Transcoding su AWS

Il cuore pulsante era:

  • AWS Elemental MediaConvert per il transcoding multi-bitrate
  • preset custom (film, serie, news, kids)
  • job queues differenziate per priorità (critical, standard, overnight)

La vera sfida era allineare le specifiche tecniche tra Italia, Germania e UK: aspect ratio, loudness, bitrate, HDR, audio multitraccia.

Quality Check automatizzato

Per garantire scalabilità:

  • Vantage (dove era ancora in uso) venne integrato con step cloud
  • Interra Baton fu esteso con pipeline serverless
  • trigger su AWS Lambda per analizzare ogni asset appena ingestato

Ogni errore — timecode, black frames, audio drop, cadence — generava ticket automatici e retry.

Sottotitolazione e Dubbing

Una parte critica del progetto era uniformare sottotitoli e doppiaggi:

  • ingest e parsing STL, SRT, TTML
  • normalizzazione tramite AWS Glue
  • allineamento timecode con tool interni
  • metadatazione via DynamoDB per accelerare lookup e matching

E alla fine, tutto veniva inviato alle CDN delle single country già completo, privo di eccezioni locali.

Distribuzione finale sulle CDN

A quel punto, i contenuti scendevano verso:

  • Akamai
  • Amazon CloudFront
  • CDN interne di Sky

Ogni country manteneva la propria struttura di distribuzione, ma il contenuto era finalmente unico, coerente, sincronizzato.

Una rivoluzione silenziosa.
Proprio mentre tutto il resto del mondo era… silenzioso.

Fu strano assistere a quella trasformazione restando chiusi in casa.
Guardavo fuori dalla finestra e la città sembrava trattenere il respiro.

E lì, proprio in quel silenzio, tornavano altre canzoni, più crude, più vere.

  • The Verve – “Bitter Sweet Symphony”: perfetta per quelle giornate interminabili, fatte di call e pipeline.

  • Arctic Monkeys – “Do I Wanna Know?”: per i meeting serali con i tedeschi, tutti seri e metodici anche con il gatto che passava dietro la webcam.

  • Gorillaz – “On Melancholy Hill”: perché il mood del lockdown era quello.

  • Radiohead – “Everything in Its Right Place”: che forse era la vera colonna sonora di un mondo che cercava di riorganizzarsi.

Non c’erano voli, non c’erano corridoi aziendali, non c’erano porte antincendio da spingere.
Ma c’erano pipeline, trigger, transcode queue, cloudwatch alarms.

Era un lavoro immenso, certo.
Ma era anche il contributo più diretto che potessimo dare: portare nelle case contenuti, storie, compagnia.
In un periodo in cui tutto il resto era distanza.

Il risultato finale

Quando vedemmo la prima distribuzione fully cloud-based andare in produzione, con i contenuti che scorrevano da AWS verso le CDN europee come un fiume finalmente uniforme, capimmo una cosa:

Il mondo si era fermato.
Ma noi no.
E quella nuova infrastruttura, nata nel momento più fragile, sarebbe rimasta solida per anni.

 


 

Quello che stavamo facendo non era solo “spostare dei workflow su AWS”. Per chi vive nel broadcasting da anni, quel progetto rappresentò un vero spartiacque.

Prima del cloud: un mondo frammentato

Per decenni, il broadcasting aveva una caratteristica quasi religiosa:
ogni country aveva il proprio sistema, le proprie macchine, il proprio workflow.

  • Regie locali
  • Sistemi di ingest dedicati
  • Transcoder on-prem
  • Local QC standalone
  • Sottotitoli gestiti con strumenti diversi da paese a paese
  • Cataloghi spesso duplicati o incompatibili

L’Europa era un mosaico, non un ecosistema.

Era bello da un punto di vista culturale, ma un incubo tecnologico.

La pandemia mise tutto alla prova

Prima del Covid, molte aziende pensavano al cloud.
Durante il Covid, fu evidente che chi non era già cloud-ready rischiava di rimanere al buio — letteralmente.

Le persone non potevano andare in sede.
I sistemi on-prem non potevano essere presidiati.
Le sale MCR erano vuote.

Se non si migrava, si rischiava il black-out dei contenuti.

Quello che stavamo facendo era proteggere il broadcasting europeo in condizioni estreme.

La migrazione su AWS fu un atto di resilienza

Centralizzare ingest, QC, transcoding e delivery significava dare ai broadcaster:

  • Ridondanza geografica europea
  • Scalabilità immediata (soprattutto quando l’uso streaming aumentò del 70–90% nei prime mesi)
  • Governance unificata del contenuto
  • Riduzione dei tempi di messa in onda
  • Semplificazione dei workflow cross-country
  • Niente dipendenza da sale macchine locali

Per la prima volta, un contenuto creato a Roma poteva:

  • essere ingestato in cloud
  • processato in Germania
  • controllato dalla UK
  • distribuito su CDN europee
    senza muovere un solo hard disk.

Era una rivoluzione.

Supporto al settore: non solo tecnologia

Il mondo del broadcasting, durante il Covid, era sotto pressione come mai nella sua storia recente.
Noi stavamo fornendo una rete di sicurezza:

  • per chi lavorava da casa
  • per le country che non avevano più personale on site
  • per garantire news, informazione, intrattenimento
  • per i team editoriali che dovevano continuare a pubblicare
  • per i doppiatori che improvvisamente lavoravano da home-studio
  • per i sottotitlisti che dovevano deliverare file perfetti, sempre

Il cloud permise al settore di non fermarsi.

Diciamola semplice:
se l’Europa non è rimasta al buio nei contenuti, è perché progetti come il nostro hanno tenuto accese le luci.

Per questo fu un pezzo di storia

Il broadcasting non è mai stato un settore che cambia rapidamente.
È prudente, ingegneristico, lento, basato su standard rigidi.

Eppure, in pochi mesi:

  • workflow industriali vennero ripensati
  • intere country si sincronizzarono
  • sistemi proprietari lasciarono spazio a pipeline elastiche
  • l’idea di “località” venne sostituita da “cloud region”
  • il concetto di file venne superato dal concetto di asset orchestrato

Senza clamore, senza conferenze, senza riflettori.

Lo chiamano “digital transformation”, ma in realtà era molto di più.
Era garantire continuità culturale, sociale, informativa.

Era un pezzo di storia del broadcasting europeo.
Fatto in silenzio, nei mesi più silenziosi del nuovo millennio.

A distanza di tempo, guardando indietro a quei mesi, si capisce molto bene una cosa:
il cloud non ha semplicemente supportato il broadcasting.
Lo ha trasformato.
E lo ha fatto grazie ai contenuti e agli operatori che, come noi, hanno creduto nella svolta.

AWS negli anni precedenti aveva già una forte presenza nei servizi IT tradizionali, ma il salto di qualità — quello vero — arrivò quando il mondo dei media e broadcasting decise di spostare intere filiere nel cloud.

I contenuti come motore della crescita

Prima erano:

  • server on-prem
  • macchine di transcoding fisiche
  • workflow frammentati
  • dependance totale dalla presenza fisica del personale

Con la migrazione dei contenuti:

  • ingestion massiva su S3
  • transcoding con AWS Elemental
  • QC serverless
  • archiviazione elastica
  • CDN globali con CloudFront
  • automazioni di metadati con Glue e DynamoDB

AWS divenne molto più di un’infrastruttura:
divenne la piattaforma operativa del broadcasting moderno.

Ogni film, ogni serie, ogni diretta sportiva migrata verso il cloud non era solo un job tecnico: era un investimento che spingeva AWS a crescere, migliorare, innovare.

Gli operatori che hanno fatto la differenza

A spingere questa rivoluzione non furono solo le big tech.
Furono gli operatori europei, che avevano urgenze reali:

  • Sky
  • DAZN
  • Discovery
  • RTL
  • ProSiebenSat.1
  • Canal+
  • ITV
  • BBC
  • Mediaset e Rai su parti dei loro workflow
  • Eurosport
  • Disney per le pipe europee

Ognuno di loro portò su AWS una parte della propria “anima tecnica”.
Infrastrutture, know-how, pain points, esigenze editoriali, volumi enormi di asset.

Ogni operatore spinse Amazon in una direzione nuova:

  • chi chiese potenza di transcode mai vista
  • chi necessitava di archivi a crescita infinita
  • chi aveva bisogno di automazioni QC granulari
  • chi voleva sottotitoli multi-country e multilingua
  • chi doveva ridurre i costi di contribution e playout
  • chi preparava il passaggio al FAST o all’on-demand puro

AWS rispose.
E migliorò.
E crebbe ancora.

Il cloud fu costretto a diventare “broadcast-grade”, robusto come una MCR ma flessibile come un servizio digitale.

L’effetto domino: il cloud come standard dell’industria

Quando i primi operatori migrarono i contenuti, avvenne qualcosa di irreversibile:

  • la produzione diventò nativamente cloud
  • la distribuzione divenne elastica
  • il playout ibrido iniziò a sostituire i sistemi legacy
  • le pipeline furono standardizzate

Chi era ancora radicato al modello on-prem fu costretto a ripensarsi.
Non per moda: per sopravvivenza.

Oggi la maggior parte dei contenuti che girano in Europa — file, serie, sport, news — in un modo o nell’altro tocca AWS:

  • ingest
  • transcode
  • QC
  • archiviazione
  • delivery
  • analisi dei consumi
  • produzione remota

Il cloud è diventato la dorsale invisibile del media europeo.

E tutto questo nacque da progetti come il nostro

Il lavoro di quei mesi, durante il Covid, fu parte di una spinta enorme che accelerò il settore di 10 anni in 10 mesi.
Era come se la storia avesse premuto il fast forward.

Noi non stavamo solo costruendo un workflow.
Stavamo contribuendo a definire lo standard tecnologico del broadcasting del futuro.

E oggi, quando i contenuti scorrono fluidi sulle piattaforme, senza più intoppi, con pipeline robuste, multilingua, multi-country, distribuite in tutta Europa, è impossibile non pensare a quei giorni:

  • alle dashboard su cui controllavamo i job
  • agli allarmi notturni
  • ai workflow che si incastravano come un puzzle
  • a quel silenzio di Londra che faceva da eco alle chiamate dei team sparsi tra Milano, Berlino e Osterley

Fu in quel silenzio – paradossalmente – che AWS imparò a parlare davvero la lingua del broadcasting.

Una lingua fatta di:

  • frame
  • bitrate
  • tracce audio
  • sottotitoli
  • metadata
  • uptime
  • e qualità assoluta.

E oggi quella lingua è diventata lo standard globale.

Una rivoluzione nata non nelle conferenze, ma nelle nostre call quotidiane, nelle case trasformate in regie, nelle pipeline che non potevano fermarsi.

 

From the same category