Come sanno gli amici i primi anni ’60, allora studente, ho frequentato assiduamente Altiero Spinelli quando veniva a Bologna per insegnare alla Hopkins e partecipare alla costituzione dell’Associazione il Mulino e alla redazione della rivista rinnovata. È stato il mio maestro politico e, giovane federalista, sono diventato suo amico. Nei primi anni ’70 quando era commissario europeo, in occasione delle mie visite a Bruxelles, andavo a trovarlo alla Commissione. Una volta mi raccontò che dalla Commissione era stato mandato a Mosca per proporre un riconoscimento reciproco tra CEE e Comecon, la comunità degli stati socialisti europei. La missione non ebbe successo perché i dirigenti sovietici opposero il contrasto tra una CEE aperta dove tutti gli stati membri commerciavano tra loro con chi volevano e il riequilibrio era multilaterale, mentre nel Comecon vigeva il principio del monopolio del commercio estero dell’URSS e un riconoscimento tra CEE e Comecon avrebbe obbligato ad introdurre anche in questa comunità del socialismo reale il multilateralismo e estendere all’URSS quelle forme di minore centralismo che si era dovuto concedere alle democrazie popolari. Perché farlo quando, certamente il sistema pianificato era necessariamente semplificato e quindi rozzo, perché le potenze di calcolo allora disponibili obbligavano a contenere le dimensioni dei sistemi di pianificazione, ma rapidamente la potenza dei calcolatori sarebbe aumentata di tanto da consentire sistemi più complessi di elaborazione e quindi di aumentare la centralizzazione a Mosca, riducendo i difetti. Questo dimostra che già allora i quadri dirigenti russi pensavano ad un uso dell’informatica per aumentare il controllo politico-economico su cittadini, produttori e paesi collegati. Questa politica, nelle mutate condizioni tecniche e politiche continua ancora oggi, anche nei confronti con i paesi terzi anche con intromissioni informatiche.
Il racconto di Spinelli ci induce a concludere: certamente la potenza dei calcolatori e delle reti è aumentata rapidamente e moltissimo, ma da trent’anni è crollato il Comecon e subito dopo l’URSS, a seguito della centralizzazione non sono mancati i bit, ma i neuroni (intelligenza naturale pienamente utilizzabile), perché l’intelligenza diffusa è necessaria sia all’economia, sia alla democrazia. Gli oligopoli informatici tendono a farci commettere lo stesso errore, si concentrano in pochi la possibilità di fare calcoli significativi e sviluppare algoritmi d’intelligenza artificiale. Per questo l’appello è “Libertà di algoritmo!” e “Open big data!” Speriamo che chi può operare ascolti il suggerimento di un’informatica aperta, molti protocolli e standard sono linguaggi indispensabili alla comunicazione e per avere successo i linguaggi devono essere ad uso libero e gratuito e selezionabili. Se non si vuole tornare alla maledizione di Babele. Così come i dati devono essere in modo paritario accessibili per evitare l’asimmetria informativa dannosa per la concorrenza e quindi al mercato unico e ad una globalizzazione che porti alla convergenza e allontani forme di neocolonialismo.
50 anni di Internet, per una rete nata libera, libertà d’algoritmo!
Il successo iniziale di Internet (la rete delle reti) non fu dovuto tanto alle sue scelte tecnologiche rispetto ad altri progetti coetanei come ad es. quello ISO-OSI, ma al fatto che fosse aperta nei protocolli e nella possibilità di tutti gli sviluppatori di utilizzare sia i protocolli suggeriti sia moduli base già realizzati. Inizialmente i grandi produttori: sia classici come IBM sia emergenti come Microsoft e Apple cercarono di imporre soluzioni alternative proprietarie, ma poi rapidamente dovettero divenire utenti massivi d’internet e del suo protocollo TCP/IP, il cui pieno successo è stato anche determinato dalla realizzazione presso il CERN a cura di Tim Berners Lee del protocollo world wide web e dalla realizzazione del primo server liberamente disponibile e di quelli successivamente sviluppati dal consorzio W3C (www.w3c.org), che sono restati aperti, dopo il rifiuto del CERN di continuare nel lavoro per non stravolgere i propri obiettivi di ricerca, e il rifiuto della Commissione di finanziare ricerche non riservati alle industrie europee, il consorzio che ne ha continuato lo sviluppo ha trovato ospitalità al MIT (Cambridge, Massachusetts).
Il mercato del web è stato invaso da innumerevoli applicazioni ma le maggiori sono quelle sviluppate dalle imprese della Silicon Valley rapidamente divenute colossi mondiali con applicazioni proprietarie che hanno ruoli oligopolistici sul mercato mondiale, con un mercato apparentemente gratuito, ma fortemente basato sulla pubblicità e sugli utilizzi delle informazioni personali raccolte sfruttate per “profilazioni” degli utenti. Dati i costi marginali tendenti a 0 si sono avuti effetti notevoli sulle concentrazioni dei mercati, dei redditi e dei profitti soggetti a tassazioni. Le dimensioni raggiunte sono tali da creare notevoli barriere all’ingresso di concorrenti e questo ha emarginato l’Europa, anche per l’imperfetta integrazione comunitaria raggiunta, da questo settore. Per ristabilire la concorrenza sembra utile prevedere con disciplina comunitaria l’articolazione legale delle applicazioni in tre parti. Un software di base con interfaccia standard per gli algoritmi che vengono utilizzati che possono così essere sostituiti da altri predisposti da terzi, in particolare da università e centri di ricerca anche europei, in modo che l’utente possa conoscere le alternative disponibili e scegliere quale algoritmo utilizzare sulla base delle informazioni documentabili fornite dai produttori (incluse le applicazioni d’intelligenza artificiale). Terzo strato: l’insieme dei dati ottenuti dalla rete, resi anonimi per tutela della privacy che devono essere di pubblico accesso per i diversi utilizzatori e gli eventuali i costi da sostenere per l’accesso fissati con tariffe non discriminatorie, secondo le regole che si seguono per le fonti statistiche pubbliche. Da parte europea solo l’UE può adottare per l’Europa le regole necessarie e farne oggetto di accordi internazionali. Tecnicamente Tim Berners-Lee potrebbe utilmente essere coinvolto nel progetto, date le sue critiche alla concentrazione attuale.
Nel momento che si lavora molto sull’intelligenza artificiale è essenziale raggiungere le modalità che consentano di scegliere le modalità che consentano la libertà di scelta dei singoli algoritmi e quindi d’impegnare tutti i centri di ricerca europei a contribuire senza dover costruire ex novo applicativi proprietari diversi, ma avere a disposizione strumenti aperti in modo tale da non violare i diritti derivanti dalla proprietà intellettuale. Questo conterrebbe i diritti d’utilizzo che saranno richiesti dagli attuali proprietari, la realizzazione di moduli standard liberi sarebbe uno strumento per calmierare il mercato con la concorrenza, come è stato richiesto da Verhotstadt nel PE. La nascita e lo sviluppo di nuove imprese informatiche e la crescita delle esistenti nell’UE. È quanto avvenuto quando TCP-IP si è affermato e le applicazioni base aperte hanno sostituito le reti ed applicazioni proprietarie (tipo mail, emulazioni di terminali e file transfer). I capitali di rischio per lanciare ricerche e iniziative consortili potrebbero essere forniti dall’uso dei capitali individuati da Next Generation UE Sarebbe un progetto capace di superare gli oligopoli attuali con vantaggio per le industrie evolute dei diversi paesi ed in particolare dell’UE e pertanto il progetto dovrebbe essere esaminato e deciso a livello comunitario anche se alcuni degli investimenti potrebbero essere delegati a livello nazionale per garantire una distribuzione tra gli stati delle ricerche e della nuova industrializzazione.