Ultimo Aggiornamento:
27 marzo 2024
Iscriviti al nostro Feed RSS

Internet aperta e neutrale, o più aperta che neutrale?

Patrizia Fariselli * - 13.12.2014
Internet World Stats 2014

Secondo le stime di Internet World Stats a metà 2014 gli utenti di Internet hanno superato i 3 miliardi di persone (il 42,3% della popolazione mondiale), e non è irragionevole pensare che per il genere umano connettersi a Internet stia diventando l’attività più eseguita dopo quella di respirare. E’ curioso osservare come nella grande maggioranza delle lingue del mondo, e perfino in francese, si usi la stessa parola (internet) o una parola con lo stesso suono.

Internet c’è, è pervasiva, ma è invisibile.

Probabilmente un “nativo digitale” pensa che nel settimo giorno della genesi, invece di riposarsi, Deus fiat internet, per quanto sia incline a ritenere che in quel momento Dio ragionasse in inglese. Ma noi sappiamo che non è così. La storia di Internet è fatta di finanziamenti pubblici alla ricerca, di tecnologie di rete fisiche e virtuali (infrastrutture, protocolli, standard), di creazione e comunicazione di contenuti digitali e di modelli di business, che la rendono un caso esemplare di innovazione in un contesto sociale evolutivo. Non è nata né si è sviluppata nel vuoto.  

Internet viene concepita negli anni della guerra fredda come progetto (ARPAnet) della Difesa degli Stati Uniti con l’obiettivo di realizzare una rete di telecomunicazioni connection-less tra computer sicura e a prova di attacchi, anche nucleari. Il progetto, a cui contribuiscono ricercatori americani che lo sperimentano entro la comunità accademica, fa perno su un modello innovativo di rete distribuita decentralizzata e sulla tecnologia della commutazione di pacchetto con un’architettura di tipo end-to-end. I dati trasmessi vengono disaggregati in piccole unità, smistate casualmente da elaboratori che le inoltrano in direzioni diverse con l’unico criterio di evitare nodi congestionati, e vengono riaggregati solo alla destinazione finale.

La separazione tra l’elaborazione dei dati, che avviene alle estremità del processo, e la loro trasmissione, che è gestita selezionando il percorso più efficiente sulla base del principio del best effort, viene gestita da reti diverse, autonome, che non sono in alcun rapporto gerarchico tra loro. Questo modello, che ai tempi di ARPAnet rispondeva alla necessità di massimizzare le risorse elaborative (scarse) dei computer mainframe, liberandoli delle funzioni di gestione del traffico di rete, è stato mantenuto nel tempo e caratterizza l’attuale Internet.  Infatti, con i protocolli TCP/IP elaborati nei primi anni Settanta, la stessa architettura che all’inizio collegava un numero limitato di reti separate divenne funzionale a connettere un numero illimitato di reti disomogenee, dando vita così alla “rete delle reti”. Alla fine degli anni Ottanta la creazione del World Wide Web e del protocollo HTTP ha fornito gli strumenti di gestione dell’informazione necessari e coerenti con il modello di una rete aperta, virtuale, multimediale. La conseguenza formidabile di queste innovazioni, associate a una continua riduzione dei costi di elaborazione dei dati, alla crescente velocità dei processi e alla miniaturizzazione dei dispositivi, è che né gli operatori di rete (ISP), né gli utilizzatori di Internet devono modificare il loro apparato tecnologico, riconfigurare le reti esistenti o le loro preferenze per potersi connettere. Il basso investimento fisso necessario per accedere a Internet, la diffusione capillare dei personal computer e poi della telefonia mobile hanno aggiunto nuove reti (telefoniche, mobili, wireless) alle reti dedicate iniziali, contribuendo ad espandere in modo pervasivo l’accesso ad un servizio che ha acquisito lo status di servizio pubblico e come tale sottoposto al principio di universalità.

Pertanto, lo sviluppo del disegno originario, che rispondeva allo scopo di nascondere dati per proteggerli dai rischi della libera circolazione, ha provocato una trasformazione radicale dello scopo stesso, che è divenuto quello di espandere la circolazione, l’accesso, la creazione di dati  digitali.

Tra le caratteristiche salienti di Internet che discendono dalla sua architettura ci sono quelle di essere una rete libera e neutrale. Libera perché chi fornisce gli accessi (ISP) non possiede la rete, neutrale perché la trasmissione end-to-end esclude il controllo selettivo degli ISP durante il percorso dei dati. Queste caratteristiche esaltano la natura di Internet come bene pubblico, valorizzata dal modello originale di rete non-profit gestita prima dalla Difesa e poi dalla National Science Foundation a rappresentanza degli interessi della comunità scientifica che ne  era diventata la principale utilizzatrice. Con la privatizzazione della rete NSFnet, decisa da Clinton-Gore nel 1991, l’astronave Internet plana sul mercato, la rete pubblica viene affidata in gestione ad ISP privati e diventa la piattaforma di servizi, business, organizzazioni, imprese che traggono vantaggio dall’apertura della rete delle reti ma non necessariamente dalla sua neutralità. Perché? All’aumento esponenziale dei contenuti digitali multimediali che fluiscono in rete non corrisponde un parallelo incremento della capacità di trasmissione dell’infrastruttura di rete, o non è uniformemente distribuito. Le applicazioni video, ad esempio, consumano molta “banda” e quando circolano in competizione con contenuti più leggeri su una rete mediamente veloce (es. DSL) la qualità generale del servizio (QoS) viene compromessa. L’ampia diffusione di servizi e contenuti offerti gratis in rete ma che consumano molta “banda” (es. skype, youtube) alle stesse condizioni di quelli a pagamento (es. streaming on demand) viene indicata come un danno arrecato ai consumatori e pertanto alcuni operatori di rete ritengono necessario derogare alla Net Neutrality (NN) applicando una gerarchia al flusso di trasmissione o una discriminazione degli accessi. Sia i consumatori che i fornitori di contenuti hanno come interlocutori di rete gli ISP, i quali, se vogliono, hanno diversi modi di interferire con il flusso di dati in rete: dal vero e proprio blocco (attualmente ammesso solo in presenza di contenuti illegali), al rallentamento della velocità di accesso, a varie forme di prioritarizzazione (dei contenuti, della banda, dell’accesso). Per quanto nessuno contesti apertamente il principio della neutralità, che suonerebbe politicamente scorretto, il cosiddetto traffic management è giustificato sulla base della giusta soddisfazione del cliente e ci sono buone ragioni di ritenere che venga applicato dagli ISP anche senza essere pubblicamente dichiarato. Ma non tutti gli ISP sono sfavorevoli alla NN. I più piccoli, che acquistano accesso da quelli più grandi, temono di essere esclusi dalla banda più veloce che non si potrebbero permettere di pagare. Sul lato dell’offerta di servizi sulla rete, gli operatori – grandi e piccoli – sono generalmente favorevoli alla NN, sia perché incoraggia l’innovazione e quindi l’immissione sul mercato di “servizi speciali” (i piccoli), sia perché (i grandi) non sono disposti a vedere ridotti i loro profitti a causa degli incrementi dei costi di accesso alla rete richiesti dagli ISP in cambio della priorità ai loro servizi. Ma nel processo di integrazione orizzontale intrapreso dagli operatori di rete “over the top” (OTT), come ad es. Google, si assiste alla tendenza ad entrare anche nel business degli ISP con reti concorrenti ad alta velocità, per internalizzare la rendita della fornitura di accesso invece di cederla. L’esistenza di diverse reti a diversa velocità e con diverse clientele entro la rete delle reti sarebbe coerente con il principio dell’apertura di Internet, ma a scapito di quello della sua neutralità. Dunque, il panorama è complesso e dinamico, ma in definitiva la NN dipende dalla disponibilità di banda larga, o meglio dalla sua scarsità. Qualcuno sostiene che, per dare spazio al remunerativo business basato sulla QoS, la scarsità di banda larga è stata alimentata dai grandi ISP invece che contrastata. Allo stato attuale, insistere su un’infrastruttura sottodimensionata rispetto al flusso di dati danneggia tutti, ma la segmentazione della stessa rete per favorire i consumatori disposti a pagare i servizi “speciali” penalizza tutti gli altri e contraddice il principio di universalità che spetta al servizio pubblico Internet.

 

I temi della gestione del traffico su Internet e della diffusione della "banda larga" sono al centro di un vivace dibattito politico negli Stati Uniti e nell'Unione Europea, che coinvolge governi, lobby e movimenti posizionati su linee diverse ma con ampie zone sfumate che ne oscurano
spesso l'interpretazione. Torneremo a occuparcene prossimamente.

 

 

 

* Patrizia Fariselli è docente di Economia dell'innovazione presso l'Università di Bologna