Ultimo Aggiornamento:
24 aprile 2024
Iscriviti al nostro Feed RSS

(Inter) Net Neutrality: nessuno contro, non tutti a favore

Patrizia Fariselli * - 30.12.2014
Internet Neutrality
Riprendiamo il filo del precedente articolo (mente politica n.100) sulla neutralità della rete delle reti, per ribadire che la Net Neutrality (NN) è determinata dall’architettura tecnologica originaria di Internet, che non ammette pratiche di tipo discriminatorio (di accesso alla rete e al flusso dei dati che vi circolano) da parte degli operatori dell’infrastruttura di rete, i cosiddetti ISP, coerentemente con la sua concezione di rete pubblica. Il passaggio alla privatizzazione dell’infrastruttura di rete e lo sviluppo rapido ed estensivo dell’economia digitale hanno inevitabilmente aperto una divergenza di interessi tra la natura pubblica della rete e la natura privata dei soggetti che vi operano come fornitori di servizi, un conflitto tra chi vuole introdurre la logica del mercato anche nella gestione della rete e chi non vuole invece che essa sia subordinata al gioco della domanda e dell’offerta di servizi differenziati per qualità e velocità. 
Un ulteriore argomento che viene invocato sia dai favorevoli che dai contrari alla NN è il suo impatto sull’innovazione e sulla concorrenza. I primi sostengono che l’assenza di barriere stimola la creatività e il lancio di servizi innovativi da parte di imprese nuove, piccole, informali che altrimenti sarebbero escluse dalla competizione; i secondi sostengono che un ritorno inadeguato degli investimenti in reti veloci deprime l’innovazione dei grandi operatori di rete, ne scoraggia gli investimenti e  distorce la concorrenza a causa delle esternalità positive godute da chi opera in rete senza sopportarne i costi.
E’ chiaro che  il tema della NN non è esclusivamente tecnico, ma incrocia una serie di diritti e di libertà che però fanno riferimento a soggetti diversi o ai diversi ruoli che essi giocano di volta in volta. In assenza di precise specificazioni relative a quali diritti di chi, nessuno si dichiara contrario alla NN. Del resto, il termine  “neutralità” comunica un significato positivo,  almeno rispetto al termine “discriminazione”, quindi il confronto non è esplicito, ma è agganciato al diritto dei consumatori che acquistano servizi speciali ad alto consumo di banda di riceverli con uno standard qualitativo corrispondente al prezzo pagato, o al diritto degli ISP di trarre una rendita dall’offerta di accesso agli operatori che vendono servizi speciali remunerativi. In questa prospettiva, la deroga alla NN mediante tecnologie di selezione degli accessi e dei dati viene legittimata dalla necessità di mantenere Internet una rete aperta, in cui convivono cioè regimi di trasmissione diversi.  Aperta, dunque, non coincide con neutrale. Dall’altra parte, la difesa della NN si aggancia al diritto di accesso a Internet come diritto fondamentale della persona, riconosciuto ad esempio dal Consiglio d’Europa nella “Guida dei diritti umani per gli utenti di Internet”, che attribuisce a Internet la natura di servizio pubblico. In questo caso, la neutralità della rete è il fondamento della sua apertura, e l’apertura coincide con l’assenza di discriminazioni. Ciascuna posizione ha un modello tecnologico di riferimento valido e coerente, poiché quello che ancora una volta emerge è che è la tecnologia ad essere neutrale, nel senso che può essere modificata o sostituita a seconda degli obiettivi che deve servire. 
Il problema sorge quando si stabilisce una contraddizione tra scopi e modelli.
Questa noiosa premessa serve a dimostrare che il dibattito politico in merito alla NN è spesso ambiguo, specialmente quando fa ricorso alla necessità di salvaguardare la “open” Internet. In pratica, la sostenibilità della NN dipende dalla capacità (banda) e dalla diffusione dell’infrastruttura di rete. Maggiore la banda, minore la necessità di stratificarne l’uso, maggiore l’accesso (tendenzialmente universale), maggiore la concorrenza tra fornitori di servizi diversi, minori i costi di accesso.  Pertanto, oltre alle dichiarazioni di principio a sostegno di un’astratta NN ma a favore o a sfavore della sua concreta salvaguardia, che costituiscono materia di negoziazione politica nei governi, nelle authority, nei parlamenti sia nazionali che sovranazionali, è interessante osservare come si traduce questo dibattito in termini di policy di infrastrutturazione di rete  negli Stati Uniti, nell’Unione Europea e in Italia.
 
Negli USA la diffusione della banda larga non è capillare come ci si aspetterebbe, ma raggiunge il 73% degli americani, una percentuale inferiore a quella di Olanda (95%), Gran Bretagna e Germania (88%) e la sua diffusione è limitata non solo nelle zone remote ma anche in grandi centri urbani, a causa del suo costo relativamente alto, il doppio della Gran Bretagna, il triplo della Corea del Sud. Inoltre, l’offerta è concentrata in pochi grandi ISP (AT&T, Verizon, Comcast) che dominano il mercato e fanno pressione per applicare un regime di corsie preferenziali al traffico su Internet. Nel 2002 la Federal Communications Commission (FCC) ha classificato la banda larga come “servizio informativo” che come tale non è sottoposto alla regolazione che sarebbe invece compatibile con il “servizio di telecomunicazione”. Il presidente Obama si è fatto portavoce della necessità di riclassificarla invece come servizio pubblico e questo è visto come il fumo negli occhi da parte degli ISP.  Pertanto, il dibattito è diventato incandescente anche negli USA, dove fino a poco tempo fa i commentatori sostenevano con sarcasmo che la NN era un problema tipicamente europeo, cioè non era un problema. In questa situazione interlocutoria i grandi operatori di servizi si sono messi alla finestra e alcuni,  come Google e Facebook, stanno testando l’ipotesi di diventare essi stessi ISP, quindi oscillano tra una tradizionale adesione alla NN e la sua opposizione. In questa situazione sospesa si stanno verificando anche interessanti riposizionamenti. Ad esempio, Verizon, che nel 2010 aveva impugnato e vinto un ricorso contro la FCC che aveva cercato di imporre i principi della NN alla banda larga senza riclassificarla, in questi giorni ha dichiarato che in caso di irrigidimento della regolamentazione sulla NN non modificherà i suoi piani di investimento, come ha invece minacciato di fare AT&T, annunciando la sospensione del piano di cablaggio in fibra ottica in 100 città americane. La FCC, a cui spetta la decisione in merito alla NN, è attualmente tra questi due fuochi e in questo contesto polarizzato non sono in vista facili soluzioni di compromesso. 
 
Nell’Unione Europea la situazione è sospesa e anche ingarbugliata, se non altro perché ci sono simultaneamente un Parlamento europeo (favorevole alla NN, ha emanato una risoluzione nello scorso aprile), una Commissione (ma con due Commissari sulla Digital Agenda – Oettinger e Ansip - invece che uno, diversamente s/favorevoli alla NN), 28 governi, altrettante autorità di regolazione delle comunicazioni (riunite in un organismo comune, il Berec), una concorrenza sul mercato molto più pronunciata che negli USA, e una diffusione a macchia di leopardo della banda larga il cui superamento, sia verticale che orizzontale, era uno dei tanti obiettivi della Commissione Barroso, divenuto adesso prioritario per Junker. L’obiettivo 2014-2020 è 30 Megabit/sec per tutti e 100 Megabit/sec per il 50% della popolazione UE. In Europa la NN non è mai stata apertamente messa in discussione dai policy maker, ma recentemente se ne sta  incrinando il  tabù.  Pochi giorni fa Angela Merkel ha preso chiaramente posizione per una Internet a due velocità sulla stessa infrastruttura di rete, facendo apparire alla luce del sole la convergenza con il Commissario tedesco Oettinger, che nella coppia con Ansip gioca al poliziotto cattivo, per quanto invochi un approccio equilibrato in nome di una Internet “aperta” (ma non neutrale). Per stimolare gli investimenti degli ISP nelle reti in  fibra ottica, e quindi avvicinarsi all’obiettivo di innalzare e distribuire l’infrastruttura a banda larga nell’UE, qualcuno cerca di scaricare la zavorra della NN. Dal punto di vista istituzionale, però, questo deve passare attraverso la definizione del Mercato Unico delle Telecomunicazioni (TLC), quindi la Commissione sta proponendo, il Consiglio deve prendere una posizione e infine ci sarà di nuovo un ruolo per il Parlamento. Il Commissario Ansip ha ribadito le priorità del pacchetto TLC: abolizione del roaming, definizione condivisa di NN, armonizzazione dell’uso dello spettro radio e investimenti in banda larga. Attualmente i governi stanno trattando, e l’industria TLC anche. La Presidenza italiana, incaricata di preparare il documento di lavoro per il Consiglio TLC del 27 novembre scorso, ha proposto un testo che modificava radicalmente la NN mettendo nero su bianco una serie di deroghe che sembravano scritte dalla lobby degli ISP, che ha suscitato immediate e numerose reazioni ed è stato quindi frettolosamente ritirato. Il sottosegretario Giacomelli, convinto difensore della rete come servizio pubblico alla persona, è dovuto intervenire per rassicurare sulla neutralità del ruolo di mediatore della Presidenza italiana! Nella bozza successiva, tuttavia, la mediazione è consistita nel togliere del tutto il riferimento esplicito alla NN, eliminando il nodo gordiano della definizione condivisa, invece che scioglierlo. In conclusione, è tutto fermo.
 
In Italia non si parla molto di NN, ma c’è fibrillazione sui progetti di espansione della rete superveloce (a partire da 30 Mbs) imposta dall’Agenda digitale europea. L’Italia è molto indietro in questo campo: nel 2013 era all’ultimo posto contro una media europea del 54% di penetrazione e a metà 2014 solo il 21% della popolazione era connesso ad almeno 30 Mbs, e appena un 10% a 100 Mbs. A causa di questo ritardo il piano governativo “Banda ultra larga” propone di saltare qualche tappa e arrivare al 2020 con l’85% della popolazione a 100 Mbs e il 100% ad almeno 30 Mbs. Per arrivarci il piano prevede che servano 12 miliardi metà pubblici e metà privati, che però sono incerti. Attualmente gli investimenti in ultrabanda in corso da parte di operatori privati ammontano a circa 2 miliardi tra il 2014-16 e mirano a offrire i 30 Mbs al 50% della popolazione. Un punto controverso è dato dal fatto che l’ultrabanda si basa sulla fibra ottica e il cablaggio può avvenire in due modalità: FTTH (fino all’abitazione) o FTTC (fino alla cabina). Nel secondo caso l’allacciamento dalla cabina all’abitazione avviene tramite la rete in rame, quella della telefonia fissa tradizionale, poi adattata alle trasmissioni digitali (DSL) a velocità relativamente bassa, ma che standard recentemente adottati da ITU (VDSL2, G.fast) rendono interoperabili con una rete ultraveloce su una breve distanza di qualche centinaio di metri. Il piano governativo prevede un cablaggio uniforme FTTH e Telecom si oppone, per sfruttare il vantaggio della sua doppia rete già installata: in fibra fino alla cabina e in rame fino a casa. La controversia ha una ricaduta in termini di NN, perché il modello proposto da Telecom prefigura la coesistenza di due reti parallele a diversa velocità, assegnabili sulla base della domanda e quindi della disponibilità a pagare. La tendenza al patchwork viene rafforzata dal fatto che in Italia, rispetto alla media europea, la penetrazione di dispositivi mobili (smartphone, tablet) è straordinariamente alta (158% della popolazione: una persona su due ha due sim), mentre è bassa quella dei personal computer (63% delle famiglie) e la principale modalità di connessione a Internet avviene perciò “on the air”, con tecnologie di trasmissione wireless che sono meno costose della fibra ma molto lente. Del resto, per controllare il meteo o l’oroscopo non è necessaria l’ultrabanda, ma anche in un paese di santi, poeti e navigatori è necessario innalzare il livello generale della connessione per contrastare il digital divide tra chi ha accesso a poco per pochi soldi e chi ha accesso a molto a caro prezzo.
 
 
 
 
* Patrizia Fariselli è docente di Economia dell'innovazione presso l'Università di Bologna