I tre pilastri dell’Open Culture: Open Source, Open Content, Open Access Analisi e riflessioni sull'evoluzione del percorso virtuoso verso sistemi aperti di condivisione della conoscenza in Italia, in Europa e nel mondo

I tre pilastri dell'Open Culture: Open Source, Open Content, Open Access

Chiunque abbia un minimo di dimestichezza con l’informatica avrà certamente avuto modo di incontrare più volte il termine open source, con tutta probabilità riferito a un software (come ad esempio Mozilla Firefox) o a un sistema operativo (come una delle tante distribuzioni di Linux) “alternativo” rispetto agli standard imposti dai leader di mercato come Apple e Microsoft. Si tratta di un approccio basato su un modello di distribuzione del software nel quale i detentori dei diritti favoriscono la modifica, lo studio, l’utilizzo e la redistribuzione a partire dal codice sorgente: questa “libertà di accesso” è esplicitamente garantita da una licenza d’uso che prevede la pubblicazione del codice sorgente.

Come si può facilmente immaginare, l’approccio open source alla realizzazione e distribuzione di software non va analizzato come un fenomeno a sé stante, ma costituisce parte integrante di una filosofia sottostante di più ampio respiro: un vero e proprio movimento di pensiero che, come vedremo tra poco, trae le sue radici da precise istanze economiche, sociali e culturali.

A questo movimento, nato negli Stati Uniti nella prima metà degli anni ’80, si sono ispirate altre realtà di matrice più recente:

  • La Open Content Project initiative, nata nel 1997 a seguito della pubblicazione dell’articolo Applying Copyleft to Non-Software Information a cura di Michael Stutz per il GNU Project, nella quale prende corpo l’ipotesi di applicare le licenze open source a qualsiasi tipo di contenuto.
  • L’Open Access Movement,  nato negli ambienti accademici europei nel corso degli anni ’90 e i cui principi fondativi sono stati ratificati nei primi anni 2000 da tre importanti dichiarazioni pubbliche: la Budapest Open Access Initiative (febbraio 2002), il Bethesda Statement on Open Access (giugno 2003), e la Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities (ottobre 2003).

Sulla base di queste fondamentali premesse, proviamo a tracciare le tappe principali che hanno portato alla genesi di questi tre approcci filosofici alla condivisione delle informazioni.

Open Source

La nascita del movimento open source viene convenzionalmente fatta risalire al 1985, anno in cui Richard Stallman – all’epoca programmatore presso il MIT – fondò la Free Software Foundation (FSF), un’organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero: al tempo stesso, per comprendere al meglio l’impatto dirompente che l’open source ha avuto nel mondo dell’informatica, è necessario fare qualche ulteriore passo indietro, così da poter inquadrare il clima economico e culturale che si respirava in quegli anni in alcuni ambiti IT e ripercorrere gli eventi che portarono alla fondazione della FSF: nello specifico andremo a ripercorrere gli eventi che portarono alla nascita del software proprietario, dalle cui ombre trae origine la filosofia open source.

La nascita del software proprietario

La storia inizia negli anni ’70, in conseguenza della diffusione dei primi sistemi operativi Unix prodotti dalla AT&T, che la celebre impresa di comunicazioni si trovò inizialmente impossibilitata a poter vendere per via di una sentenza antitrust che le impedì di entrare nel settore dell’informatica. Questo impedimento consentì a numerose distribuzioni Unix di diffondersi a un prezzo simbolico presso molte istituzioni universitarie, dove presero vita diversi fork (uno dei quali, realizzato presso l’università di Berkeley, avrebbe successivamente dato i natali a BSD Linux).

Si venne così a creare un paradosso: le università americane potevano disporre di una piattaforma di lavoro comune, a cui però mancava un supporto commerciale vero e proprio per via della “assenza forzata” sul mercato imposta al produttore. Questo “problema” fu risolto dall’AT&T creando un gran numero di società partecipate (le cosiddette Baby Bell), stratagemma con cui l’azienda riuscì a eludere le limitazioni imposte dall’antitrust e a commercializzare il proprio sistema operativo Unix. In conseguenza di questa “liberalizzazione” il sistema venne protetto da una licenza d’uso (con costi notevolmente superiori) che, tra le altre cose, vietava la ridistribuzione illegale e impediva di effettuare modifiche al codice sorgente: era dunque nato il primo esempio di software proprietario.

MIT fights back

In conseguenza della commercializzazione di Unix da parte della AT&T i dipartimenti informatici di molti atenei universitari, fino ad allora liberi di sperimentare, si trovarono impossibilitati ad accedere al codice sorgente: questa spiacevole novità fu notata anche all’interno del Massachuttes Institute of Technology (MIT), dove la sostituzione dei vecchi computer con nuovi device equipaggiati con il nuovo sistema operativo rese impossibile accedere al codice sorgente dei driver di una Xerox per aggiungere una funzionalità che era stata realizzata con successo in passato. Questo singolare evento assume oggi un’importante valenza simbolica, in quanto riassume alla perfezione una delle principali problematiche del closed source, ovvero la mancanza assoluta di personalizzazione – se non attraverso le modalità previste dal produttore.

Le pratiche commerciali dell’AT&T furono ben presto seguite da molte altre aziende, che cominciarono a distribuire programmi secondo licenze d’uso del tutto analoghe: gli sviluppatori a cui venivano affidati questi progetti venivano assunti soltanto a condizione di firmare precisi accordi di non divulgazione (oggi note come Non-Disclosure Agreement o NDA), aventi valore vincolante e non di rado provvisti di penali. Ironicamente, molti di questi sviluppatori furono presi proprio dal MIT.

In questo contesto, molti programmatori e ricercatori – tra cui Richard Stallman – opposero un fermo rifiuto, dichiarando di non voler lavorare per società private che intendevano produrre software in modo chiuso: da questa protesta ebbe origine il movimento di pensiero che portò, nel 1985, alla fondazione della Free Software Foundation (FSF), una organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero. Il primo traguardo che si pose la FSF fu la realizzazione di un sistema operativo completo, compatibile con UNIX ma distribuito con una licenza libera e aperta, estesa anche a tutti i driver, gli applicativi e gli strumenti necessari per poterlo utilizzare: al “nuovo” sistema operativo fu dato il nome di GNU (GNU is Not Unix): un acronimo ricorsivo che simboleggiava la volontà degli autori di collegarsi e insieme distinguersi da UNIX.

L’obiettivo principale di GNU era essere software libero. Anche se GNU non avesse avuto alcun vantaggio tecnico su UNIX, avrebbe avuto sia un vantaggio sociale, permettendo agli utenti di cooperare, sia un vantaggio etico, rispettando la loro libertà.

 

Richard Stallman

In conseguenza della diffusione del nuovo sistema operativo si pose il problema di come coprire i costi di riproduzione dei supporti e di supporto utente da parte degli sviluppatori: questa esigenza portò alla nascita della GNU General Public License (GPL), che conferiva all’end-user piena libertà di modifica del codice sorgente e ridistribuzione del software, con l’unico “obbligo” di menzionare gli sviluppatori originali.

La prima frase del manifesto con cui venne presentata la licenza GPL è emblematica, in quanto riassume la filosofia di base dell’open source:

Le licenze per la maggioranza dei programmi hanno lo scopo di togliere all’utente la libertà di condividerlo e di modificarlo: al contrario, la GPL è intesa a garantire la libertà di condividere e modificare il free software, al fine di assicurare che i programmi siano “liberi” per tutti i loro utenti.

Gli anni ’90: Microsoft, Internet, Intel e Linux

La storia dell’open source è notevolmente influenzata da tre eventi epocali che investirono il mondo dell’informatica tra la fine degli anni ’80 e l’inizio degli anni ’90: il predominio commerciale di Microsoft, l’avvento dei PC basati su processori Intel e la diffusione di Internet. Benché ciascuno di questi fenomeni vide in realtà la luce diversi anni prima, fu in quegli anni che la loro esistenza congiunta cominciò ad avere un impatto determinante per la vita di milioni di persone.

Per un approfondimento sulla storia della Intel e dei suoi microprocessori, dalla fondazione ai giorni nostri, consigliamo la lettura di questo articolo.

In quegli anni la Free Software Foundation non aveva ancora raggiunto una notorietà apprezzabile a livello globale: il suo prodotto principale GNU non era inoltre ancora completo, in quanto mancante del kernel (GNU Hurd): per sopperire a tale mancanza si pensò di effettuare un porting “provvisorio” di UNIX BSD su piattaforma Intel 386, progetto che però subì a sua volta dei rallentamenti per via di varie problematiche di natura legale.

A salvare la situazione arrivò Linus Torvalds, un giovane studente dell’Università di Helsinki, che nel 1991 realizzò un proprio sistema operativo imitando le funzionalità di Unix su un PC dotato di processore Intel 386. Il risultato del suo lavoro è oggi ricordato come la prima versione del kernel Linux. Il nuovo sistema venne distribuito con licenza libera tramite Internet e potè così beneficiare delle enormi potenzialità di diffusione offerte da una rete mondiale ormai pienamente matura, raggiungendo in breve tempo una enorme popolarità.

Le potenzialità insite in questo modello innovativo di diffusione e distribuzione del software non tardarono a manifestarsi in modo evidente: gli sviluppatori che scaricavano il codice sorgente potevano immediatamente modificarlo correggendo errori, apportando nuove funzionalità e/o aggiungendo utility e applicativi; questi ultimi venivano a loro volta distribuiti nello stesso modo, potendo così beneficiare del medesimo processo evolutivo. Nacque così un vero e proprio ecosistema, caratterizzato da un circolo virtuoso di miglioramento continuo. Per tutti questi motivi, Linux è oggi considerato come il primo vero progetto open source, ovvero il primo esempio di software basato sulla libera collaborazione di una community di sviluppatori distribuita su tutto il pianeta.

Open Source vs Free Software

Per il momento riteniamo utile fermarci qui, rimandando le evoluzioni ulteriori del termine (dalla seconda metà degli anni ’90 ai giorni nostri) a un articolo di prossima pubblicazione: si tratta infatti di un periodo particolarmente complesso, soprattutto per via delle diatribe di lungo corso che si svilupparono tra il “Free Software” di Richard Stallman e il tentativo “liberale” portato avanti da Eric S. Raymond (autore tra l’altro del termine “Open Source”) con l’obiettivo di creare licenze “open” meno restrittive per le aziende senza tradire la filosofia originale alla base di GNU e GPL; tematiche indubbiamente molto interessanti, ma che ci porterebbero lontano dagli argomenti trattati in questa sede.

Prima di concludere, ci limiteremo ad aggiungere una piccola precisazione sulla sottile ma sostanziale differenza tra Open Source e Free Software, che poi costituisce il tema principale alla base delle discussioni di cui abbiamo appena accennato. I due termini, sebbene siano sovente utilizzati come sinonimi, hanno infatti un significato differente che è bene chiarire:

  • Open Source, secondo la definizione dell’Open Source Initiative, descrive soprattutto libertà sul codice sorgente di un’opera: si tratta dunque di una definizione funzionale, ovvero incentrata su un principio di utilità.
  • Free Software, secondo il significato attribuitogli dalla Free Sofware Foundation, definisce più generalmente le libertà applicate al software nel suo complesso, abbracciando quindi una connotazione più generale e filosofica, che pone l’accento anche sulle questioni morali che stanno alla base di questo tipo di licenze.

Come si può facilmente notare, i due termini sono tutt’altro che intercambiabili: il sorgente aperto è oggi generalmente considerato (a ragione) uno dei prerequisiti essenziali del software libero, ma non l’unico: non è invece vero il contrario, cosa che rende l’approccio open source certamente meno efficace (e potenzialmente “meno etico”) nell’ottica della libera condivisione delle informazioni, ma certamente più pratico per la sua diffusione in ambito commerciale e aziendale.

Open Content

Alla filosofia del movimento open source si ispira il movimento di contenuto aperto: la sua nascita è convenzionalmente fatta risalire al 1997, anno in cui sul sito del GNU project compare l’articolo Applying Copyleft To Non-Software Information a firma di Michael Stulz, nella quale si teorizza per la prima volta l’ipotesi di applicare le licenze open source a qualsiasi tipo di contenuto.

In quello stesso anno viene fondata la Open Content Project initiative, che coordina la redazione delle prime due licenze libere e con permesso d’autore (copyleft) per opere dell’ingegno diverse dal software: la Design Science License e la Open Content License (1998), entrambe fortemente basate sui principi della GNU General Public License, la licenza simbolo della Free Software Foundation di Richard Stallman. Fu proprio Stallman, che di lì a poco avrebbe scritto la GNU Free Documentation License (1999), a fornire un contributo determinante per la stesura della Open Content License, confrontandosi a più riprese con l’autore David A. Wiley.

Nel caso dell’Open Content ad essere liberamente disponibile non è il codice sorgente di un software, ma contenuti editoriali quali testi, immagini, video e musica; siti web come Wikipedia costituiscono un chiaro esempio dei frutti di questo movimento.

Il ciclone Creative Commons

La Open Content Project Initiative subì una brusca battuta d’arresto nel 2003, quando David A. Wiley entrò a far parte della neonata organizzazione Creative Commons con il ruolo di Director of Educational Licenses, dichiarando nel contempo la chiusura del progetto OCP.

Le licenze prodotte dall’organizzazione,  note come Creative Commons Licenses (CC), hanno avuto un grande successo in tutto il mondo, superando rapidamente, per popolarità e diffusione, tutte le licenze precedenti. Questo è stato possibile principalmente per i seguenti ordini di motivi:

  • Un fortissimo supporto comunicativo e pubblicitario, grazie a un sito web dedicato ed estremamente chiaro e accessibile, licenze scritte in moltissime lingue e presentate in molteplici varianti con clausole diverse al fine di consentire varie modalità di tutela, utilizzo e diffusione dell’opera.
  • L’adesione al progetto da parte di molti paesi, grazie all’attività “promozionale” di numerose istituzioni partner (principalmente atenei universitari di alto profilo): questo ha garantito un appoggio istituzionale, che a sua volta ha determinato un riconoscimento legale delle licenze e, di conseguenza, la vittoria di molte cause nelle aule di tribunale.
  • La capacità di coinvolgere una pluralità di soggetti diversi, che licenze come la GNU GPL  non erano mai riuscita a fare: dal mondo dell’associazionismo alla piccola editoria, dall’attivismo territoriale al giornalismo freelance ai nascenti fenomeni di self-publishing tramite internet (blog, siti di fotografia amatoriale, etc).

La maggior parte di questi traguardi fu merito delle capacità del fondatore del progetto Creative Commons: il poliedrico Lawrence Lessig, di cui parleremo più diffusamente tra poco, che riuscì a sfruttare al meglio la popolarità che gli avevano portato alcune importantissime conferenze tenute contro i “problemi” del diritto d’autore.

L’importanza della clausola Share-Alike

Prima di concludere la nostra panoramica sulle licenze Creative Commons è opportuno chiarire l’importanza fondamentale che riveste l’attributo Share Alike (SA), presente nelle licenze  CC BY-SA e CC BY-NC-SA, rispettivamente dedicate per le opere modificabili e ridistribuibili anche a scopi commerciali e quelle per cui sono invece richiesti scopi non commerciali.

Ogni titolare di una copia di un’opera protetta da licenza Creative Commons può:

  • utilizzare la propria copia senza limiti;
  • redistribuirla in quante copie desidera (con alcuni obblighi a cui ottemperare a seconda del tipo di licenza CC, che per ragioni di spazio non andremo ad approfondire);
  • modificarla in ogni modo giudicato conveniente (con alcuni obblighi a cui ottemperare a seconda del tipo di licenza –  vedi sopra).

Per quanto riguarda gli aspetti legati alla filosofia del contenuto libero ben quattro delle licenze Creative Commons si fermano qui, al netto di differenze che riguardano altri aspetti come l’obbligo di non commercializzazione (NC) o l’impossibilità di distribuire le opere derivate (ND). Come si può facilmente vedere, per queste licenze viene dunque a mancare un principio che, nella filosofia del contenuto libero di Richard Stallman, è considerato fondamentale: quello che prescrive che l’opera derivata sia posta anch’essa sotto copyleft. La mancanza di questo punto interrompe la catena della libera utilizzazione ed elaborazione dell’opera, fornendo di fatto all’autore di un’opera derivata la possibilità acquisire nuovamente il pieno diritto d’autore. Si tratta di un vero e proprio “anello mancante”, la cui assenza rischierebbe di pregiudicare gran parte degli aspetti “etici” alla base della filosofia del contenuto libero.

Per risolvere questa situazione è stata introdotta la clausola Share-Alike (SA), che – nelle due licenze in cui è presente – permette che altri distribuiscano lavori derivati dall’opera solo con una licenza identica o compatibile (ovvero “non maggiormente restrittiva”) con quella concessa con l’opera originale, ripristinando in tal modo la “catena del copyleft”. Appare evidente come, in mancanza di questa clausola, le licenze Creative Commons avrebbero avuto l’effetto di una “restaurazione” rispetto alle precedenti alternative basate su GNU GPL.

Open Access

La “prima pietra” di quello che sarebbe poi stato definito con il termine Open Access (OA) fu probabilmente posta da Paul Ginsparg, il fisico statunitense noto per aver sviluppato, nel 1991, l’archivio elettronico ArXiv presso il Los Alamos National Laboratory (LAN-L) al fine di rendere i preprint liberamente accessibili: si tratta infatti del primo progetto noto di condivisione di un archivio di contenuti accademici con una policy di accesso completamente aperta.

Tra gli altri principali protagonisti e co-fondatori del Movimento Open Access, per i loro inestimabili contributi teorici e pratici sul tema, si possono inoltre annoverare Peter Suber, direttore dell’Harvard Office for Scholarly Communication e docente del Berkman Center for Internet & Society, e Stevan Harnad, uno scienziato cognitivo fondatore del blog Open Access Archivangelism.

Lo scopo principale dell’Open Access è quello di migliorare l’offerta di letteratura accademica superando le limitazioni imposte dai modelli precedenti, tutti caratterizzati da un accesso chiuso alla letteratura accademica e alle informazioni in essa contenute: in quegli anni, infatti, l’unico modo per poter accedere a quel tipo di letteratura era acquistando riviste specializzate o facendosi accreditare presso le biblioteche accademiche, cosa che però limitava l’accesso di quei contenuti ai soli studiosi e scienziati dotati dei soldi (o del supporto delle istituzioni) necessari per coprire i costi.

La creazione di archivi e riviste Open Access è stata facilitata in quegli anni dall’avvento congiunto di due fattori importanti:

  • La diffusione di internet, che divenne presto lo strumento di pubblicazione OA per eccellenza;
  • Lo sviluppo del software open source necessario per creare archivi OA: EPrints, DSpace, Open Journal Systems (OJS), Open Monograph Press (OMS), e una serie di software successivi, fino ai moderni strumenti come Wikipedia e WordPress.
Per un approfondimento sulle modalità di pubblicazione open access (gold road e green road), nonché sui molteplici vantaggi che tale approccio garantisce agli autori, agli editori e alla collettività, consigliamo a consultare l’articolo Open Access: modalità di pubblicazione e vantaggi.

Abbiamo già parlato nell’introduzione a questo approfondimento della Budapest Open Access Initiative (BOAI), nata da un incontro convocato a Budapest dall’Open Society Institute (OSI) nel dicembre 2001. Il BOAI è un’iniziativa congiunta di numerosi studiosi e scienziati nazionali e internazionali delle scienze e delle discipline umanistiche. Redatta nel 2002, la dichiarazione BOAI si pone l’obiettivo di garantire l’accesso online gratuito e illimitato alla letteratura accademica su riviste in tutti i campi accademici ed è ben rappresentata dalla seguente frase contenuta nella sua parte iniziale:

“La letteratura che dovrebbe essere liberamente accessibile online è quella che gli studiosi danno al mondo senza aspettarsi di essere pagati”.

Di importanza (e valenza) quasi analoga è il Bethesda Statement on Open Access Publishing, pubblicato nel giugno 2003. Questo statement si concentra principalmente sulle scienze biomediche e sottolinea l’importanza di divulgare i risultati della ricerca scientifica nel modo più rapido ed efficiente possibile; sottolinea inoltre l’opportunità (e l’obbligo) di condividere liberamente i risultati della ricerca, le idee e le scoperte con la comunità scientifica e il pubblico.

Ultima, ma non certo per importanza, la Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities, nata nel quadro di una conferenza ospitata dalla Max Planck Society alla fine dell’ottobre 2003 alla presenza di un gran numero di principali finanziatori e università della ricerca europea e americana. I firmatari della dichiarazione si impegnano a sostenere l’idea di Open Access in molteplici aspetti della ricerca scientifica. Secondo la dichiarazione, l’Open Access non va inteso solo come possibilità di accedere gratuitamente alle opere scientifiche e accademiche, ma anche come possibilità, da parte degli utenti, di copiare, utilizzare, distribuire, trasmettere e visualizzare l’opera pubblicamente e creare e distribuire opere derivate, in qualsiasi mezzo digitale per qualsiasi scopo responsabile, soggetta alla corretta attribuzione della paternità”, riprendendo in tal modo gli stessi concetti chiave dell’Open Content; estende inoltre sia la gamma di supporti digitali per i quali si richiede Open Access che il raggio d’azione, abbracciando – oltre ai testi accademici – anche i “risultati di ricerca scientifica originali, dati grezzi e metadati, materiali di origine, rappresentazioni digitali di materiali pittorici e grafici e materiale multimediale”.

Questo approccio “universale”, che estende la portata dell’Open Access ben oltre quanto previsto dai precedenti contributi, rende la dichiarazione di Berlino – i cui principi sono oggi adottati da quasi tutte le organizzazioni scientifiche internazionali – il più importante manifesto dell’Open Access a livello mondiale.

Open Data e Open Government: apertura e trasparenza

Negli ultimi anni, parallelamente al concetto di Open Access, si è fatto strada quello di Open Data, termine che solitamente si riferisce a una particolare tipologia di dato messo a disposizione in modalità aperta da amministrazioni o aziende di pubblico servizio. Un tipico esempio di Open Data è quello dato dai numerosi servizi, offerti da tutte le principali aziende di mobilità urbana, che sfruttano le moderne tecnologie (GPS, geolocalizzazione, etc.) per esporre i dati relativi alle posizioni e/o agli orari di veicoli come autobus, treni e taxi: questi dati, nel momento in cui vengono resi accessibili, possono essere utilizzati per varie finalità: attività di ricerca da parte dei Data Analyst (Data Science), training di modelli di auto-apprendimento (Machine Learning), sviluppo di app di utilità (come ad esempio le app che forniscono l’orario di arrivo degli autobus), e così via.

Le caratteristiche di apertura e trasparenza su cui si basano gli open data rimandano alla più ampia disciplina dell’open government (“governo aperto”): una modalità di esercizio del potere, a livello sia centrale che locale, basato su modelli, strumenti e tecnologie che consentono alle amministrazioni di essere “aperte” ai cittadini, tanto in termini di trasparenza quanto di partecipazione diretta al processo decisionale, anche attraverso il ricorso alle nuove tecnologie dell’informazione e della comunicazione. Inutile dire che il concetto di open government  ha alla base un’etica estremamente simile agli altri movimenti e comunità di sviluppo “open” di cui abbiamo parlato in questo articolo, attigendo a piene mani dalla filosofia open source e, di conseguenza, open content.

Per un approfondimento sui concetti di Open Data e Open Government e sulla diffusione di tale approccio all’interno delle istituzioni italiane e internazionali suggeriamo di consultare l’articolo Open Data e Open Government in Italia e nel mondo.
.

Un approccio “interdisciplinare”: la Open Culture

Open Source, Open Content e Open Access rappresentano oggi i tre pilastri su cui si fonda l’odierno concetto di Open Culture, introdotto per la prima volta nel saggio Cultura Libera del già citato Lawrence Lessig (2004), poi ripreso da Paul G. Mezey nello stesso anno e ulteriormente sintetizzato nel 2005 da Anna Maria Tammaro dell’Università di Parma nel suo articolo Open Source, Open Access ed Open Content: verso sistemi aperti di condivisione della conoscenza.

Il testo di Lessig, che in alcuni passaggi ha l’aspetto di una dichiarazione programmatica, è considerato il manifesto e principale motore di ispirazione del Movimento per la Cultura Libera (Free Culture Movement). Il contributo di Tammaro, di matrice più divulgativa, ripercorre brevemente le tappe principali che hanno portato all’affermazione dei tre principi “open” negli ultimi 40 anni e auspica un modello di condivisione della conoscenza basato su un approccio culturale innovativo caratterizzato dalla loro fusione sinergica, raggiungendo dunque le stesse conclusioni del già citato Mezey; questo traguardo, però, necessita di un assetto organizzativo che faciliti e supporti l’interazione e la comunicazione, superando gli ostacoli connessi alle leggi che tutelano il diritto d’autore e la proprietà intellettuale.

Oltre il diritto d’autore

La connessione tra Lawrence Lessing e il concetto di Free Culture ha inizio nel 1998, sei anni prima della pubblicazione del suo saggio Cultura Libera. In quell’anno il Congresso degli Stati Uniti d’America votò l’approvazione del Sonny Bono Copyright Term Extension Act (in italiano, la legge “Sonny Bono” per l’estensione della durata del Copyright), poi promulgata dal presidente Clinton. L’intento della norma era quello di modificare la durata dal diritto d’autore da 50 a 70 anni dopo la morte del creatore dell’opera, andando quindi a procastinare di ulteriori venti anni i diritti di sfruttamento della proprietà individuale da parte dei detentori di Copyright. La legge, inutile sottolinearlo, era stata pesantemente voluta e sponsorizzata dalle indutrie che operavano nel settore del cinema, della musica e dello spettacolo, in particolar modo la Disney – al punto che la legge venne soprannominata Mickey Mouse Protection Act.

Lawrence Lessing, che in quegli anni era stato già protagonista di alcuni casi sul tema del copyright (tra cui un public hearing contro Microsoft nel febbraio 1998) decise di schierarsi apertamente contro quella legge: mentre il Congresso ne dibatteva l’approvazione, Lessig viaggiò per gli Stati Uniti tenendo un gran numero di discorsi pubblici nei campus universitari su questi temi: furono proprio quei dibattiti a gettare i semi di quello che sarebbe in seguito diventato il Free Culture Movement, il cui inizio è convenzionalmente individuato con la data della fondazione della prima sezione dello Students for Free Culture all’interno dello Swarthmore College.

Nel 1999 Lessig presentò davanti alla Corte Suprema USA un ricorso per incostituzionalità nei riguardi della legge Sonny Bono, contestando le modalità con cui il Congresso, estensione dopo estensione, aveva di fatto generato un diritto d’autore senza limiti temporali, in aperto contrasto con quanto sancito dalla costituzione USA (Articolo 1, Sezione 8, Clausola 8: “[…] to promote the Progress of Science and useful Arts, by securing for limited times to Authors and Inventors the exclusive Right to their respective Writings and Discoveries“). Sfortunatamente le sue aspettative furono deluse: il ricorso di Lessig ottenne infatti solo due voti favorevoli, finendo quindi per non essere accolto.

Lessig non si diede per vinto e, non potendo sconfiggere i “padroni del copyright” in udienza, decise di portare lo scontro sul piano dei contenuti: nel 2001, come abbiamo già detto, diede vita al progetto Creative Commons, coniando lo slogan alcuni diritti riservati in contrapposizione con il tutti i diritti riservati tipico delle opere protette da copyright: il payoff del Creative Commons, della cui portata dirompente abbiamo già parlato, sottolinea la riduzione volontaria da parte degli autori dei propri diritti d’autore, considerato eccessivo.

Conclusioni

Per il momento ci sembra opportuno fermarci qui: ci auguriamo che questa lunga panoramica sull’Open Culture e sui tre pilastri su cui si basa (open source, open content, open access) sia stata utile e di piacevole lettura. Al prossimo approfondimento!

Riferimenti bibliografici

 

 

About Ryan

IT Project Manager, Web Interface Architect e Lead Developer di numerosi siti e servizi web ad alto traffico in Italia e in Europa. Dal 2010 si occupa anche della progettazione di App e giochi per dispositivi Android, iOS e Mobile Phone per conto di numerose società italiane. Microsoft MVP for Development Technologies dal 2018.

View all posts by Ryan

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.