Apriti Standard!/Capitolo terzo

Da Wikisource.
Jump to navigation Jump to search
Gli standard in ambito informatico e il concetto di standard aperto

../Capitolo secondo ../Appendice IncludiIntestazione 29 agosto 2019 25% Da definire

Gli standard in ambito informatico e il concetto di standard aperto
Capitolo secondo Appendice

[p. 53 modifica]

Capitolo terzo[modifica]

Gli standard in ambito informatico e il concetto di standard aperto[modifica]

1. Gli standard nel settore ICT: fra standard de facto ed effetti di rete

1. Gli standard nel settore ICT: fra standard de facto ed effetti di rete

Come già si è accennato nel primo capitolo, nel settore ICT il tema dell’interoperabilità e della ricerca di standard condivisi fa sentire inesorabilmente il suo peso; e a maggior ragione in tempi come quelli attuali di crescente convergenza tecnologica.

Come ci fa notare efficacemente Massimiliano Granieri, «la proliferazione di diritti e la molteplicità dei soggetti coinvolti nella definizione di specifiche di un determinato prodotto è tanto maggiore all’interno dell’industria dell’informazione e delle comunicazioni, caratterizzata dalla presenza di beni complessi e di beni sistema, rispetto ai quali l’interoperabilità è condizione di esistenza del mercato.» 1 Se poi colleghiamo questo dato con quanto accennato in merito alla forte presenza di effetti di rete, ci rendiamo conto di quanto il settore ICT si presti più di altri all’affermazione di standard de facto e di dinamiche di mercato



[p. 54 modifica]non sempre virtuose, in cui non vince il migliore ma solo il più forte e determinato. 2

Come abbiamo già accennato nel capitolo precedente, ci sono stati alcuni casi storici di standard de facto, cioè di modelli di riferimento che hanno saputo imporsi e stabilizzarsi grazie a scaltre strategie di mercato e non grazie ad un reale esame delle loro caratteristiche: empiricamente non sempre questi casi hanno visto prevalere lo standard più affidabile e innovativo.

Il caso più emblematico che viene spesso riportato è proprio inerente al mondo delle tecnologie (nello specifico, nel settore dei supporti per la videoregistrazione) ed è quello che ha visto l’affermazione del VHS proposto nel 1976 dalla JVC a scapito del suo concorrente diretto: il Betamax proposto nel 1975 dalla Sony. La ricostruzione di questa vicenda ci aiuta a capire le dinamiche di mercato che stanno dietro questi processi; la riportiamo nella versione che si trova su Wikipedia alla voce "VHS":

«A differenza di Sony, JVC cercò altri alleati, sia tra i produttori, sia tra le case cinematografiche, e questo contribuì a mantenere i prezzi dei prodotti VHS più bassi rispetto al concorrente. Dato che a quei tempi i negozi di videonoleggio noleggiavano anche i lettori, questi si orientarono verso lo standard di JVC che consentiva di acquistare interi stock di prodotti a un prezzo ridotto, aumentandone i margini di profitto, e questo ha innescato una spirale: i negozianti acquistavano i lettori VHS, di conseguenza richiedevano film in VHS e le case cinematografiche "sfornavano" film in VHS. Chi doveva comprarsi un videoregistratore era quindi spinto all’acquisto della seconda tecnologia, che, seppur inferiore, garantiva una maggiore compatibilità con i prodotti in commercio.» 3

Questi meccanismi di affermazione strategica di uno standard de facto sul mercato vengono studiate dalla teoria economica proprio nell’ambito delle cosiddette economie di rete su cui abbiamo già avuto modo di argomentare.



[p. 55 modifica]

2. Gli standard aperti[modifica]

Sulla base di queste riflessioni negli ultimi anni in seno al mondo dell’informatica (aziende produttrici, comunità degli utenti, teorici e osservatori) si è aperto un fervente dibattito sull’esigenza di dotarsi di standard che garantissero di per sé la massima trasparenza nel processo di adozione e che consentissero un libero accesso alla relativa documentazione, così da poter massimizzare l’obbiettivo dell’interoperabilità. Si viene così a delineare il concetto di standard aperto.

Per descrivere il fenomeno faremo riferimento ad alcune definizioni fornite da autorevoli fonti.

2.1. La definizione di Bruce Perens[modifica]

Uno dei teorici più conosciuti a fornire una definizione chiara ed esauriente è stato Bruce Perens, informatico fra i massimi esponenti della comunità FLOSS e autore di diversi saggi divulgativi in materia.

Perens, all’apposita pagina del suo sito personale 4, fissa sei requisiti fondamentali per l’individuazione di uno standard aperto:

  • disponibilità (availability);
  • massimizzazione della possibilità di scelta dell’utente finale

(maximize end-user choice);

  • nessuna royalty da versare per l’implementazione dello standard (no royalty);
  • nessuna discriminazione verso gli operatori impegnati ad implementare lo standard (no discrimnation);
  • estensibilità o scomponibilità in sottoinsiemi (extension or subset);
  • assenza di pratiche predatorie (predatory practices).

Questa definizione è ripresa in varie altre fonti, fra cui una ricerca condotta nel 2007 dall’UNDP (United Nations Development Programme), dedicata al tema dell’interoperabilità in fatto di e-government ed intitolata "New Guidelines on e-Government Interoperability Developed by Governments for Governments". In uno dei documenti frutto della ricerca viene tuttavia segnalato come non ci sia un consenso unanime su tutti i requisiti proposti da Perens, ritenuti da alcuni un po’ troppo rigidi. Ci si riferisce più che altro al requisito del "no royalty" e alla considerazione per cui risulti eccessivo imporre un modello completamente royalt-free (cioè privo di diritti di sfruttamento economico), dato che - secondo alcuni - un modello in cui vengano imposte royalty, benché a condizioni ragionevoli e non discriminatorie, possa essere un incentivo maggiore allo sviluppo e al mantenimento di uno standard.



[p. 56 modifica]

2.2. La definizione fornita dall’ITU-T[modifica]

È questa ad esempio la posizione dell’ITU-T che propone una diversa descrizione del concetto di Open Standard, dapprima fornendo una definizione di tipo enciclopedico e poi fissando una serie di requisiti.

La definizione che si trova sul sito dell’ITU all’apposita pagina dedicata agli standard aperti è la seguente:

«Open Standards are standards made available to the general public and are developed (or approved) and maintained via a collaborative and consensus driven process. Open Standards facilitate interoperability and data exchange among different products or services and are intended for widespread adoption.» 5

Alla stessa pagina viene riportato l’elenco dei requisiti proposti da ITU, con la precisazione che si tratta non di un numerus clausus ma di una lista a titolo più che altro indicativo ed esemplificativo:

  • il processo per l’adozione dello standard deve essere collaborativo e ragionevolmente aperto a tutti i soggetti interessati (collaborative process);
  • il processo non deve essere orientato da interessi particolari

(reasonably balanced);

  • il processo deve basarsi su procedure chiare e trasparenti e deve

garantire il coinvolgimento delle parti interessate (due process);

  • l’applicazione di diritti di tutela industriale deve avere uno spirito non discriminatorio e deve essere o a titolo libero/gratuito o quantomeno a condizioni economiche ragionevoli (intellectual property rights);
  • la documentazione con le specifiche dello standard deve avere una

qualità e un livello di dettaglio sufficienti a consentirne la piena implementazione (quality and level of detail);

  • la documentazione relativa allo standard deve essere disponibile

pubblicamente (publicly available);

  • lo standard deve essere manutenuto e supportato costantemente e

per un lungo periodo (on-going support).

2.3. La definizione di IDABC[modifica]

Arriviamo infine ad una definizione pur meno articolata ma sicuramente breve, chiara, e che attualmente risulta la definizione più accreditata nelle sedi istituzionali. Ci si riferisce alla definizione contenuta nel già citato European Interoperability Framework (EIF) e ripresa da vari enti di standardizzazione (come per esempio da UNI per l’Italia) nonché da varie



[p. 57 modifica]istituzioni pubbliche, specialmente nelle loro normative, direttive e raccomandazioni in materia di e-government.

Secondo tale definizione6, uno standard si considera "aperto" quando:

  • è adottato e mantenuto da un’organizzazione non-profit ed il cui sviluppo avviene sulle basi di un processo decisionale aperto e a disposizione di tutti gli interlocutori interessati e le cui decisioni vengono prese per consenso o a maggioranza;
  • il documento di specifiche è disponibile liberamente oppure ad un costo nominale. Deve essere possibile farne copie, riusarle e distribuirle liberamente senza alcun costo aggiuntivo;
  • eventuali diritti di copyright, brevetti o marchi registrati sono irrevocabilmente concessi sotto forma di royalty-free;
  • non è presente alcun vincolo al riuso, alla modifica e all’estensione dello standard.

3. Criteri di classificazione degli standard aperti[modifica]

Con l’affermazione della nuova categoria degli standard aperti, si amplia e si articola il quadro delle categorie degli standard rispetto alle due macrocategorie di cui abbiamo parlato poco sopra. Come fonte di riferimento di questa nuova compagine del concetto di standard e della derivante classificazione utilizzeremo ciò che è stato proposto in più occasioni da Alfonso Fuggetta, docente e teorico in materie legate all’informatica e all’innovazione.7

Secondo Fuggetta è possibile dedurre una classificazione secondo i livelli di apertura degli standard. Tale classificazione prevede cinque livelli8:

  • livello 0: chiuso/proprietario. Ci si riferisce al fatto che le specifiche dello standard non siano state rese pubbliche e che lo standard sia detenuto da un ente che ne vanta e ne esercita i diritti di privativa industriale;
  • livello 1: divulgato. Ci si riferisce al fatto che le specifiche dello standard siano state rese pubbliche (e questo al di là del fatto che


[p. 58 modifica]siano presenti dei diritti di privativa industriale sullo standard);
  • livello 2: concertato. Ci si riferisce al fatto che le specifiche dello standard siano state definite attraverso un processo consultivo e collaborativo;
  • livello 3: concertato aperto. Ci si riferisce al fatto che le specifiche dello standard siano state definite attraverso un processo consultivo e collaborativo, aperto e guidato da organismi super partes;
  • livello 4: aperto de jure. Ci si riferisce al fatto che le specifiche dello standard siano state definite da organismi internazionali di standardizzazione seguendo i requisiti della definizione di open standard.

Alla luce di questa classificazione, si possono dunque delineare le seguenti quattro tipologie di standard:

  • standard proprietari, che sono a loro volta distinti in:
  • standard proprietari non divulgati;
  • standard proprietari divulgati;
  • standard concertati;
  • standard concertati aperti;
  • standard aperti de jure.

Giustamente, Fuggetta tiene a precisare che solo le ultime due categorie possono essere considerate legittimamente "open standard" e che, nonostante non ci sia consenso unanime sull’interpretazione di tale requisito, un vero standard aperto dovrebbe essere anche royalty-free.

4. Il web come tecnologia interoperabile e il ruolo del W3C[modifica]

Si provi a immaginare che cosa sarebbe il web senza un intrinseco spirito di interoperabilità. Probabilmente non esisterebbe, o quantomeno non sarebbe al grado di evoluzione attuale. Infatti, nonostante standard de jure per il web siano stati raggiunti in tempi relativamente recenti (con l’affermazione e diffusione degli standard W3C), Internet si è sempre comunque basata su protocolli e standard largamente condivisi. Questo ha permesso che la sua diffusione e la sua evoluzione fossero esponenziali e più celeri di ogni altro modello di tecnologia.

L’esempio di Internet e più specificamente del web come tecnologia interoperabile è proposto in varie opere di indubbia rilevanza, di cui in questa sede non è possibile rendere conto in maniera esaustiva; tuttavia si può riportare a titolo di esempio quanto emerge dal documento "The [p. 59 modifica]Internet Standards Process" redatto da Scott 0. Bradner dell’Università di Harvard:

«The Internet, a loosely-organized international collaboration of autonomous, interconnected networks, supports host-to-host communication through voluntary adherence to open protocols and procedures defined by Internet Standards. There are also many isolated interconnected networks, which are not connected to the global Internet but use the Internet Standards». 9

Per rimanere invece su fonti italiane e più recenti si legga il "Manuale per la qualità dei siti web pubblici culturali" curato dal Progetto MINERVA del MiBAC:

«L’Interoperabilità è uno dei principi informatori del Web: le
specifiche dei linguaggi e dei protocolli del Web devono essere
compatibili tra loro, e consentire a qualunque hardware e software
di interoperare. Il Web deve essere in grado di accogliere il
progresso delle nuove tecnologie evolvendosi in modo semplice
quando è necessario, al fine di incorporare nuove funzioni e
adeguarsi a nuove esigenze. In altre parole, deve garantire
scalabilità e questo può essere realizzato mediante principi di
progettazione quali la semplicità, la modularità e l’estensibilità». 10

Oppure si legga ciò che scrive Sciabarrà nel suo "Il software Open Source e gli standard aperti":

«Ciò che distingue la rete Internet da altri sistemi di rete, come per
esempio le reti Novell o Microsoft, è che è interamente descritta da
standard, pubblici e aperti a tutti. Per la precisione, chiunque,
purché dotato della competenza necessaria, può proporre nuovi
standard e partecipare alla loro definizione». 11



[p. 60 modifica]

4.1. Dall’HTML all’XML: una storia di interoperabilità e standard aperti[modifica]

La storia dei linguaggi del web è uno degli esempi più emblematici di come interoperabilità e apertura possano innescare circoli virtuosi di creatività e sviluppo tecnologico. E non è un caso che il fenomeno più rivoluzionario e innovativo del nuovo millennio (cioè Internet e il web) porti nel suo DNA proprio quei due valori essenziali.

Entrare nel dettaglio dell’evoluzione che ha portato agli attuali standard utilizzati nel web ci risulta molto utile per la comprensione delle dinamiche economiche e tecnologiche che stanno dietro all’affermazione di uno standard rispetto ad un altro. Si è scelto qui di ripercorrere la dinamica storica dell’HTML e dell’XML riportando quasi integralmente le rispettive voci tratte dal libro-dizionario "Revolution OS. Voci dal codice libero", curato da Alberto Mari e Salvatore Romagnolo.


a) HTML

«Verso l’inizio del 1990 al Conseil Européen pour la Recherche Nucléaire (CERN) di Ginevra un team di ricercatori capitanati dal matematico inglese Tim Berners-Lee inseguiva un’utopia. Quel gruppo cercava un sistema che rendesse disponibili a tutti e indistintamente le informazioni nel modo più semplice possibile. Non solo. Desiderava che queste informazioni fossero collegate in modo "ipertestuale": ogni concetto, ogni pagina doveva essere interrelata con i concetti e con le pagine affini, in modo decentrato e analogico, come se si trattasse di elaborazioni del cervello umano.

La rete Internet, un suo primo nucleo fatto di mail, newsgroup e qualcos’altro, era diffusa negli ambienti accademici degli Stati Uniti, molto meno in Europa. Tim Berners-Lee capì che quel network poteva esse l’infrastruttura di trasporto delle sue informazioni. Servivano un paio di cose. Un protocollo di comunicazione che rendesse disponibili le informazioni sulla rete Internet, un sistema uniforme di scrittura di indirizzi, un software che permettesse di leggere e scrivere quelle pagine e per finire una lingua franca per pubblicare le informazioni.

Il linguaggio era lo strumento meno difficile da progettare e realizzare. Doveva essere un linguaggio semplice da imparare e da utilizzare, doveva essere facilmente accessibile da tutti, non doveva avere la complessità di un linguaggio di programmazione. [...] Il 13 novembre 1990 quel linguaggio prese forma nella prima pagina scritta con Hypertext Markup Language, l’HTML appunto. [...] Stava nascendo il World Wide Web.

Da quel momento fu una crescita continua; iniziava l’era della comunicazione di massa democratica, il World Wide Web permetteva a tutti di pubblicare le informazioni in modo paritario ed era destinato a sconvolgere la galassia dei media e dell’accesso all’informazione, l’economia [p. 61 modifica]e la comunicazione, l’industria e i governi. Nel 1994 fu fondato il Consorzio World Wide Web (W3C), l’ente no-profit che si occupa di produrre e divulgare raccomandazioni per i linguaggi del Web, e Tim Berners-Lee qualche anno dopo sarebbe stato dichiarato dalla rivista Time una delle 100 persone che hanno influenzato lo sviluppo del XX secolo. [...]

Nel crearlo Tim Berners-Lee aveva come modello lo Standard Generalized Markup Language (SGML), ossia un metalinguaggio utilizzato per creare altri linguaggi di marcatura. Questo tipo di linguaggi venivano utilizzati definendo un set di tag ("marcatori") attorno al testo che ne definissero la tipologia, la funzione o lo stile. [...] Dal primo nucleo molto ridotto di tag, il linguaggio HTML nel corso del tempo si arricchì di nuove funzioni derivate sia dalle necessità degli sviluppatori sia dall’uso che fecero del linguaggio i vari programmi dediti alla visualizzazione di pagine Web, i browser.

Nell’aprile del 1994 nacque la Netscape Communications fondata da alcuni ricercatori provenienti dalla NCSA, prima azienda ad aver sviluppato un browser con velleità commerciali chiamato Mosaic. Nello stesso mese Bill Gates annunciò che il Windows 95 prossimo venturo avrebbe incorporato proprie funzionalità di accesso al Web e un proprio navigatore, il futuro Internet Explorer. Da quell’anno il destino dell’HTML si legò al destino dell’industria dei software per il Web.

Iniziò la cosiddetta "guerra dei browser": per arricchire di funzionalità i propri navigatori sia Netscape che Microsoft piegarono ai propri interessi il linguaggio HTML aggiungendo tag non previsti dall’iniziale progetto. Allora non esisteva uno standard riconosciuto, arrivò a fine 1995, e chi controllava la tecnologia di lettura (il browser) poteva aggiungere a piacimento tag proprietari. In alcuni casi, come per il tag <img> introdotto da Netscape, ciò poteva risolversi in un bene, ma in altri casi questa rincorsa alle funzioni servì solo a creare confusione e non pochi problemi a chi si occupava di scrivere pagine Web.

Dalla guerra dei browser uscì un nuovo linguaggio che si perfezionò via via grazie agli aiuti di Netscape, Microsoft e del W3C. [...] Stiracchiato da una parte e dall’altra, nato per visualizzare e scrivere testo e finito per coinvolgere anche elementi di design e di visualizzazione di una pagina Web, il codice HTML subì nell’ultima revisione del 1999 (la 4.01) profondi cambiamenti: via tutto ciò che riguardava la "presentazione" di una pagina Web e restringimento del raggio di azione alla solo scrittura del contenuto. [...]

L’ultimo cambiamento della documentazione ufficiale arriverà nel 2000 quando l’HTML verrà riformulato in XHTML, ossia in un HTML riscritto alla luce del linguaggio XML. Da quel momento in poi l’HTML uscirà di scena dai [p. 62 modifica]documenti del W3C per lasciare spazio a XHTML e a tutte le sue successive definizioni.» 12


b) XML

«Acronimo di eXtensible Markup Language, si tratta di un linguaggio di markup configurabile e personalizzabile per la gestione delle informazioni. Il linguaggio XML discende dal SGML (Standard Generalized Markup Language), inventato da Charles Goldfarb, Ed Mosher e Ray Lorie per l’IBM negli anni Settanta e adottato come standard ISO 8879 nel 1986. [...] Nonostante la versatilità e la potenza del linguaggio SGML, questo rimaneva uno strumento utilizzato solo in ambiti ristretti. Il motivo era da ricercarsi soprattutto nell’estrema complessità del linguaggio e delle sue specifiche. Per questa ragione nel 1996 Jon Bosak, Tim Bray, C. M. Sperberg-McQueen, James Clark e molti altri iniziarono a lavorare su una versione leggera di SGML, che riuscisse a mantenere una potenza paragonabile al linguaggio originale eliminando al contempo elementi inutili e ridondanti. Il risultato, pubblicato nel febbraio 1998, fu il linguaggio XML 1.0.

L’idea di base di XML è quella di una struttura gerarchica delle informazioni, una sorta di database gerarchico, in contrasto ai database relazionali a cui siamo maggiormente abituati. Ogni documento XML è un albero, i cui rami sono gli elementi di primo livello, ulteriormente suddivisi in sottolivelli e così via, fino ad arrivare alla più piccola unità di informazione gestita dalla struttura (foglie dell’albero). [...] Lo scopo di XML è quello di strutturare le informazioni in modo da consentirne una rapida ricerca, consultazione e utilizzo (esattamente come avviene nei database), quindi andrà scelta con cura l’unità minima di informazione per bilanciare efficienza e prestazioni.» 13

Il linguaggio XML è stato formalizzato come standard da parte del W3C nel 1998 (nella versione 1.0) e il suo documento di specifica è disponibile al sito www.w3.org/XML. Attualmente l’importanza di XML va ben oltre la sua applicazione nella semplice costruzione di pagine web. 14 Nello spirito del



[p. 63 modifica]"tutto in rete" tipico dell’idea ormai affermata del cosiddetto web 2.0 (o addirittura di un venturo "web semantico") non esiste sistema operativo e software applicativo che non sia predisposto per "ragionare" secondo i criteri dell’XML e che non consenta di formattare i file in XML o di esportare in XML file contenenti metainformazioni. 15

c) HTML 5

HTML 5 è l’ultima frontiera dei linguaggi di markup per il web e al momento della redazione di questo libro è ancora in una fase di definizione presso il W3C. Tuttavia si ritiene di darne fin da subito notizia vista la sicura importanza che questo standard assumerà nei prossimi anni.

«HTML 5 si propone come evoluzione dell’attuale HTML 4.01 ed è concepito per coesistere in modo complementare con XHTML 2.

Le novità introdotte da HTML 5 rispetto a HTML 4 sono finalizzate soprattutto a migliorare il disaccoppiamento tra struttura, definita dal markup, caratteristiche di resa (tipo di carattere, colori, eccetera), definite dalle direttive di stile, e contenuti di una pagina web, definiti dal testo vero e proprio. Inoltre HTML 5 prevede il supporto per la memorizzazione locale di grosse quantità di dati scaricate dal browser, per consentire l’utilizzo di applicazioni basate su web (come per esempio le caselle di posta di Google o altri servizi analoghi) anche in assenza di collegamento a Internet.» 16

4.2. L’attività di standardizzazione e monitoraggio del W3C[modifica]

Il World Wide Web Consortium è un consorzio di entità operanti nel settore ICT e ha come sua mission quella di sviluppare tecnologie che garantiscano l’interoperabilità per «guidare il World Wide Web fino al massimo del suo potenziale, agendo da forum di informazioni, comunicazioni e attività comuni.» 17

Fu fondato nel 1994 dallo stesso Tim Berners-Lee che ne è tuttora presidente e comprende ad oggi più di 350 membri fra cui aziende del settore informatico e del settore telecomunicazioni, organizzazioni non-profit ed istituzioni di ricerca sia pubbliche che private.



[p. 64 modifica]Il sito ufficiale evidenzia in sette punti 18 gli obiettivi e i principi strategici del W3C:
  • accesso universale alle risorse del web; 19
  • ricerca e sviluppo per la realizzazione del cosiddetto web semantico;
  • promozione di un web of trust, ovvero di un web basato sulla collaborazione, sulla fiducia, sulla riservatezza e sulla responsabilità;
  • promozione dell’interoperabilità e degli standard aperti; 20
  • capacità evolutiva dell’attività dell’ente parallelamente ai continui sviluppi della tecnologia; 21
  • decentralizzazione nell’architettura e nell’organizzazione del web; 22
  • un web più vicino alle esigenze dell’utente e quindi più accattivante anche per usi prettamente di intrattenimento.

5. L’approccio di OASIS all’attività di standardizzazione[modifica]

Dal 1993 è attiva un’organizzazione che si occupa anche e soprattutto di promuovere la ricerca e la formalizzazione di standard di tipo aperto nel settore ICT. Si tratta del consorzio non-profit chiamato "Organization for the Advancement of Structured Information Standards" e più conosciuto con l’efficace acronimo OASIS, la cui mission - come emerge dal sito ufficiale - è guidare lo sviluppo, la convergenza e l’adozione di standard aperti per la società dell’informazione. 23



[p. 65 modifica]L’ente nacque sotto il nome "SGML Open" e fu in un primo momento una comunità di operatori e utenti dedicata al monitoraggio di soluzioni e prodotti basati appunto sullo standard SGML. Tuttavia, nel 1998, vista la sempre maggiore attenzione del settore ICT verso lo standard XML, fu deciso il cambio di nome in "OASIS Open", così da allargare il campo di interesse a tutte le tecnologie XML e agli standard aperti in senso più ampio.

Ad OASIS afferiscono oggi più di 5000 partecipanti provenienti da circa un centinaio di paesi (e dalle varie organizzazioni nazionali); il consorzio ha la sede principale negli Stati Uniti ma ha sedi operative di rilievo anche in Europa e in Asia.

Un aspetto interessante dell’organizzazione e della struttura dell’ente è quello espressamente sottolineato nella pagina di presentazione e dal quale si può dedurre la filosofia di fondo degli equilibri di potere interni, nonché delle prassi e delle procedure decisionali adottate: una filosofia particolarmente orientata alla trasparenza, alla democraticità e all’apertura.

All’indirizzo web www.oasis-open.org/who si legge infatti:

«OASIS is distinguished by its transparent governance and operating procedures. Members themselves set the OASIS technical agenda, using a lightweight process expressly designed to promote industry consensus and unite disparate efforts. Completed work is ratified by open ballot. Governance is accountable and unrestricted. Officers of both the OASIS Board of Directors and Technical Advisory Board are chosen by democratic election to serve two-year terms. Consortium leadership is based on individuai merit and is not tied to financial contribution, corporate standing, or special appointment.»

Altro aspetto significativo del modus operandi di questo consorzio è quello della politica di gestione dei diritti di privativa industriale, aspetto trattato con particolare sensibilità e spirito innovativo. Si legga a questo proposito quanto riportato in una apposita domanda delle FAQ presenti sul sito:

«Most OASIS specifications are provided to the public on a royalty-Free basis. The OASIS IPR Policy states that contributors of externally developed technical work must identify ali IP claims (patents, trademarks, etc.) associated with that work, and must agree to grant use of this technology under reasonable and nondiscriminatory (RAND) or royalty-free (RF) terms for purposes of implementing the OASIS specification.» 24



[p. 66 modifica]Dunque un approccio sicuramente pionieristico alla standardizzazione che può attivare una serie di meccanismi virtuosi e positivamente propagativi. Non è infatti un caso che uno dei più noti standard considerati a tutti gli effetti un open standard, cioè il formato documentale ODF (di cui avremo modo di parlare approfonditamente nel prossimo capitolo], sia stato oggetto di standardizzazione proprio da parte di OASIS. [p. 67 modifica]

Capitolo quarto[modifica]

Standard aperti e formati di file[modifica]

1. I formati di file come standard

Cerchiamo innanzitutto di circoscrivere al meglio il fenomeno partendo da una definizione enciclopedica; a tal fine ci può essere di grande aiuto quanto si trova scritto su Wikipedia e specificamente nella voce "Formato di file":

«In informatica, un formato di file è la convenzione che viene usata
per leggere, scrivere e interpretare i contenuti di un file. Poiché i file non sono altro che insiemi ordinati di byte, cioè semplici numeri, per poter associare al loro contenuto cose diverse si usano
convenzioni che legano i bytes ad un significato.» 25

Dunque il formato di un file rappresenta la sua struttura informatica e definisce il modo con cui questo è memorizzato e mostrato all’utente. Come a dire che, se per il computer un file altro non è che un agglomerato di bit in formato binario, la differenza fra un formato e l’altro sta unicamente nella modalità con cui il software ordina ed interpreta questi bit, ovvero nella convenzione di volta in volta scelta per codificare e decodificare quelle informazioni. Dietro a queste operazioni di codifica e decodifica ci sono



[p. 68 modifica]semplici procedimenti matematici: algoritmi che il computer applica per interpretare ed elaborare le informazioni contenute nel file, nonché per renderle leggibili e comprensibili all’occhio umano (human readable).

Fin da queste premesse si può rilevare un’analogia di fondo con la definizione di standard: cioè il richiamo dell’idea di "convenzione".

1.1. Formati "nativi" ed effetti di rete[modifica]

Se diamo per acquisito che un formato sia frutto di una mera convenzione, possiamo genericamente affermare che la scelta di un formato rispetto ad un altro dipende dal modello che si sceglie di applicare per far corrispondere i bit in versione binaria al file in versione human readable. Tuttavia non sempre la scelta dell’utente sul formato da utilizzare è una scelta pienamente libera e consapevole.

Tendenzialmente, ogni software applicativo, pur potendo utilizzare svariati formati nella gestione e nel salvataggio dei file, è impostato dalla sua casa produttrice per utilizzare prioritariamente un formato che possiamo chiamare "nativo-prioritario". Si crea così uno stretto legame fra il formato del file e il software utilizzato per leggere il file: un legame spesso indissolubile. Alcuni sostengono che si possa parlare di situazioni in cui il formato è in sostanza identificabile con il relativo software di origine.

Sulla base di equivoci come questo e in virtù dei principi in fatto di economie di rete, non è difficile capire quanto la diffusione di un formato possa fungere da traino per la diffusione del software corrispondente: un’implicazione con ripercussioni enormi nell’economia contemporanea nella quale le aziende più potenti del pianeta sono proprio quelle che realizzano e vendono software (e non formati).

Come tra l’altro sostiene efficacemente Michele Sciabarrà, «uno dei problemi più gravi del software proprietario è la sua tendenza a creare documenti in un formato proprietario, difficilmente accessibile a terzi. I motivi sono commerciali: fidelizzare l’utente perché usi il prodotto e le sue versioni successive, fare in modo che colleghi e collaboratori usino lo stesso prodotto per semplificare lo scambio dei file».26 In definitiva, riuscire ad inoculare la convinzione che formato e software siano due rovesci della stessa medaglia (e quindi siano due realtà inscindibili) porta con sé una serie vastissima di esternalità di rete, da cui è poi difficile emanciparsi.



[p. 69 modifica]

1.2. L’affermazione di standard in materia di formati[modifica]

Questo discorso si ricollega necessariamente a quanto scritto da molti autori in merito all’affermazione di standard de facto in ambito informatico: quello dei formati è infatti uno degli esempi più classici di questo fenomeno.

Molte aziende del settore ICT, proprio attraverso la strategia di puntare sull’effetto traino formato-software sono riuscite a modellare il mercato a proprio vantaggio, inducendo gli utenti di servizi informatici a credere che il proprio formato nativo fosse quello più congeniale per la diffusione e lo scambio di file; hanno poi potuto avvantaggiarsi di una posizione di preminenza nel mercato del software con la vendita del relativo programma. In questo modo, alcuni formati proprietari sono riusciti a raggiungere un livello di diffusione tale per cui - a volte erroneamente - sono considerati come standard de facto, ai quali gli utenti o i nuovi soggetti attivi del mercato devono in qualche modo uniformarsi.

Simili distorsioni del sistema possono essere corrette proprio attraverso l’adozione di standard de jure (quindi di standard acquisiti attraverso un processo di standardizzazione e non di semplici standard de facto).

L’utilizzo di standard chiari e condivisi nella formattazione dei file permette - come si è detto - un beneficio per tutti gli utenti di servizi informatici, nonché per gli operatori del settore. Ancora maggiore risulta il beneficio se vengono adottati standard aperti nel senso più pieno del termine. 27

2. Formati proprietari vs formati aperti[modifica]

2.1. Le specifiche del formato e il concetto di formato proprietario[modifica]

Le specifiche di un formato costituiscono una serie di informazioni tecniche che descrivono esattamente come i dati devono essere codificati e che possono essere usate per stabilire se uno specifico programma tratti correttamente un determinato formato.

Dunque, la mancanza di tali informazioni non consente una vera trasparenza del formato, non permette cioè di sapere realmente come viene



[p. 70 modifica]strutturato e codificato un file in quel formato; e di conseguenza non consente di sviluppare programmi che possano codificare e decodificare file in quel formato 28 con una certa affidabilità e precisione, se non attraverso un lavoro di reverse engineering che comunque non offre sempre garanzie di successo.

Tuttavia, a causa dell’uso del segreto come strumento di tutela industriale, in molti casi queste specifiche volutamente non vengono rese disponibili dalle aziende che hanno sviluppato quel formato; e in altrettanti casi chi ha sviluppato il sistema di codifica del formato, non scrive un documento di specifica separato, ma definisce il formato solo implicitamente, attraverso il programma che lo gestisce.

Arriviamo così a comprendere il concetto di formato proprietario, del quale forniamo la definizione disponibile al sito del progetto Openformats (un progetto collaborativo di documentazione sui formati e gli standard aperti e sugli aspetti tecnici, politici ed economici legati al loro uso):

«Diremo che un formato è proprietario se il modo di rappresentazione dei suoi dati è opaco e la sua specifica non è pubblica. Si tratta in genere di un formato sviluppato da un’azienda di software per codificare i dati di una specifica applicazione che essa produce: solo i prodotti di questa azienda potranno leggere correttamente e completamente i dati contenuti in un file a formato proprietario. I formati proprietari possono inoltre essere protetti da un brevetto e possono imporre il versamento di royalty a chi ne fa uso.»29

2.2. Il concetto di formato aperto[modifica]

In contrapposizione con l’idea di formato proprietario, nell’ultimo decennio è andata delineandosi quella di formato aperto. Iniziamo col riportare la definizione, tratta dalla medesima fonte:

«Diremo che un formato è aperto se il modo di rappresentazione dei suoi dati è trasparente e/o la sua specifica è di pubblico dominio. Si
tratta generalmente (ma non esclusivamente) di standard fissati da autorità pubbliche e/o istituzioni internazionali il cui scopo è quello di fissare norme che assicurino l’interoperabilità tra software. Non mancano tuttavia casi di formati aperti promossi da aziende, che



[p. 71 modifica]

hanno deciso di rendere pubblica la specifica dei propri formati.»30

Emerge lampante il richiamo a due grandi tematiche che permeano tutta la teoria giuridico-economica relativa allo sviluppo tecnologico: quella dell’interoperabilità e quella direttamente connessa dell’utilizzo di standard condivisi a livello internazionale. Dunque l’uso e la diffusione di formati standard aperti diventa a tutti gli effetti uno degli obbiettivi principali di tutti i movimenti culturali attivi nell’ambito dell’informatica libera.

Evitando la tentazione di lasciarsi ingabbiare in posizioni meramente ideologiche, i teorici dell’informatica libera puntano i riflettori su un semplice calcolo di vantaggi e svantaggi nella scelta fra formati proprietari e formati aperti. Il progetto Openformats ha impostato un efficace confronto fra i due modelli, elaborando otto argomentazioni di fondo per mettere a fuoco la preferibilità dell’adozione dei formati aperti.

Da un lato sono state puntualizzate quattro ragioni per evitare di scambiare file in formati proprietari; la prima di natura pratica, la seconda e la terza di natura tecnico-informatica, la quarta di natura socio-economica:

  • correre il rischio che il destinatario non possa leggere il file;
  • correre il rischio di diffondere informazioni confidenziali;
  • contribuire alla diffusione di virus ed esporsi al rischio di contaminazione;
  • rinforzare i monopoli di fatto nel campo dell’informatica.

Successivamente sono state puntualizzate quattro ragioni che invece incentivano l’adozione di formati aperti come scelta prioritaria:

  • assicurare l’accessibilità e la perennità dei dati;
  • garantire una trasparenza perfetta al livello del contenuto dei dati scambiati;
  • limitare la diffusione dei virus;
  • promuovere la diversità e l’interoperabilità nel campo dell’informatica.

Anche l’indagine conoscitiva sull’open source compiuta dalla Commissione Meo nel 2003 (uno dei documenti più importanti in Italia su



[p. 72 modifica]questa materia)31 ha voluto fornire una definizione di formato aperto (per altro intersecandola con la comune definizione di standard):

«Un formato è uno standard aperto quando soddisfa il requisito di pubblicità e di normazione (p.e. XML e HTML sono standard aperti perché le loro specifiche sono pubblicamente
documentate, definite e mantenute da un ente di standardizzazione, il W3C).»

Di seguito lo stesso documento si preoccupa di precisare alcuni principi essenziali che si pongono come fondamento dell’adozione dei formati aperti nel settore pubblico:

«L’utilizzo dei formati aperti assicura alcuni importanti benefici:

Indipendenza. La documentazione pubblica e completa del formato consente l’indipendenza da uno specifico prodotto e fornitore; tutti possono sviluppare applicazioni che gestiscono un formato aperto.

Interoperabilità. Usando formati aperti (e a fortiori formati aperti standard) sistemi eterogenei sono in grado di condividere gli stessi dati.

Neutralità. I formati aperti non obbligano ad usare uno specifico prodotto, lasciando libero l’utente di scegliere sulla base del rapporto qualità/prezzo.

Inoltre, i formati testo aperti standard [...] comportano l’ulteriore beneficio della persistenza, caratteristica importante per la tutela del patrimonio informativo nel tempo a fronte del mutamento tecnologico. Infatti, il formato testo è il formato più indipendente dall’evoluzione tecnologica; pertanto le informazioni rappresentate con questo formato sono recuperabili anche molto tempo dopo la generazione, senza necessità di pesanti riconversioni.»32



[p. 73 modifica]

3. Alcuni formati documentali e le relative standardizzazioni[modifica]

Focalizziamo la nostra attenzione innanzitutto sui formati documentali, che più interessano il mondo della pubblica amministrazione e per i quali come vedremo diffusamente - possiamo registrare alcuni utili casi di studio relativi a processi di standardizzazione.

3.1. ASCII[modifica]

L’ASCII rappresenta il formato testuale più essenziale in assoluto; si basa infatti su un numerus clausus di caratteri (127 in tutto) ed è per questo leggibile da parte di tutti i tipi di calcolatori indipendentemente dalla piattaforma utilizzata. È stato proposto nel 1961 dall’ingegnere Bob Bemer di IBM, e il suo nome deriva dall’acronimo di "American Standard Code for Information Interchange" (ovvero Codice Standard Americano per lo Scambio di Informazioni).

L’ASCII nella sua versione originaria a 7 bit (chiamata anche ASCII ristretto, o US-ASCII) è stato riconosciuto come standard dall’ISO con il codice ISO 646: 1972.33 Esiste tuttavia una seconda più recente versione, la quale, essendo ad 8 bit, consente una gamma più ampia di caratteri (256 in totale) e quindi può meglio adattarsi alle esigenze di lingue in cui gli alfabeti



[p. 74 modifica]sono particolarmente vasti34: questa seconda versione è chiamata ASCII esteso e si è affermata dapprima come standard de facto (nel corso degli anni 80) e successivamente come standard ISO/IEC 8859.35

Infine esiste una terza versione enormemente più estesa (attualmente si parla di oltre un milione di caratteri possibili)36, chiamata Unicode e sviluppata nel 1991 «per poter codificare più caratteri in modo standard e permettere di utilizzare più set di caratteri estesi (es. greco e cirillico) in un unico documento [...]. I primi 256 code points ricalcano esattamente quelli dell’ISO 8859-1. La maggior parte dei codici sono usati per codificare lingue come il cinese, il giapponese ed il coreano.»37

In realtà l’ASCII non è un vero e proprio formato, ma più precisamente un sistema di codifica dei caratteri. Infatti la sua caratteristica è proprio quella di non contenere informazioni diverse dal puro testo, come sono invece quelle relative alla formattazione (cioè ad esempio: tipo di font utilizzata, margini della pagina, dimensione del carattere, interlinea, etc).38 I file contenenti puro testo sono identificati attraverso l’estensione ".txt".



[p. 75 modifica]

3.2. Rich text format[modifica]

Il Rich Text Format (con estensione ".rtf") è un formato per documenti multi-piattaforma, sviluppato da Microsoft nel 1987. La maggior parte degli editor di testo e dei word processor disponibili per Microsoft Windows, Mac OS e GNU/Linux sono in grado di leggere e scrivere documenti RTF.

Un documento RTF è un file ASCII con stringhe di comandi speciali in grado di controllare le informazioni riguardanti la formattazione del testo: il tipo di carattere e il colore, i margini, i bordi del documento, etc.

Attualmente, il Rich Text Format non è stato sottoposto a processi di standardizzazione, ma viene spesso indicato come soluzione alternativa a formati completamente chiusi e proprietari come il ".doc".

3.3. PostScript[modifica]

Anche il PostScript (sviluppato da Adobe Systems e corrispondente all’estensione ".ps") non è un formato in senso tecnico, bensì un linguaggio di descrizione di pagina interpretato, particolarmente adatto alla descrizione di pagine ed immagini e che genera file contenenti in sostanza solo testo. Il PostScript «permette di descrivere una pagina come il risultato di un’esecuzione di un programma, che contiene istruzioni su come e dove disegnare linee, punti, lettere dell’alfabeto e altri elementi grafici. In questo modo, ogni apparecchio capace di eseguire il programma (ossia, che abbia un interprete Postscript), sarà in grado di riprodurre tale immagine al meglio delle sue capacità.» 39 [p. 76 modifica]

3.4. PDF[modifica]

Il Portable Document Format (estensione ".pdf") è anch’esso un ritrovato tecnologico di Adobe, risalente al 1993; rappresenta l’evoluzione diretta del PostScript e costituisce più propriamente un formato di file.

La funzione principale di questo formato è - come dice il nome stesso la portabilità dei file documentali e in generale dei file bidimensionali (quindi testi, ma anche grafici e immagini): i file PDF sono infatti visualizzabili in modo indipendente dall’hardware e dal software utilizzati per generarli o per aprirli. Questa sua caratteristica ha fatto sì che in breve tempo esso si diffondesse e diventasse a tutti gli effetti uno standard de facto. Dopo alcuni anni dalla sua diffusione, nel gennaio 2007, Adobe ha preso l’iniziativa di avviare un processo di standardizzazione del formato PDF; processo conclusosi nel dicembre dello stesso anno con l’approvazione dello standard ISO 32000.

Il PDF viene considerato da sempre uno standard divulgato e ben documentato dato che le sue specifiche sono state presto rese pubbliche da Adobe40; e un formato aperto poiché Adobe ne ha concesso liberamente l’implementazione senza imporre royalty (nonostante Adobe mantenga la titolarità di alcuni brevetti su di esso).41

3.5. Microsoft DOC[modifica]

L’estensione "doc" individua il formato nativo di Microsoft Word (il programma della suite Office dedicato all’elaborazione di documenti testuali) e in questo caso non corrisponde ad un acronimo ma alla semplice abbreviazione di document. In realtà tale estensione in origine indicava file contenenti testo non formattato, gestibili da diverse piattaforme e sistemi operativi; solo successivamente Microsoft iniziò ad associarla all’applicativo Word, per sfruttare l’effetto traino formato-software di cui si è parlato nei paragrafi precedenti.42



[p. 77 modifica]Attualmente infatti il formato documentale di MS Word è uno dei formati più criticati dalla teoria informatica43, ma nello stesso tempo molto diffuso, tanto da essere spesso trattato al pari di uno standard de facto; il che è abbastanza discutibile, poiché le caratteristiche piuttosto farraginose con cui il formato è strutturato spesso creano problemi nello scambio di file anche fra versioni diverse dello stesso programma (ad esempio da Word 97 a Word 2003). Secondo alcuni non vi è nulla di più lontano dal concetto di standard (come da noi descritto nei capitoli precedenti); e soprattutto non vi è nulla di più lontano dal concetto di formato aperto, dato che delle sue specifiche non è disponibile sufficiente documentazione e che altri applicativi diversi da MS Word possono gestire i file ".doc" non sempre agevolmente.44

4. Due formati documentali a confronto: ODF vs OOXML[modifica]

4.1. Il software OpenOffice.org e il formato ODF[modifica]

OpenOffice.org è una suite da ufficio nata come alternativa completa alla più anziana suite Office di Microsoft. Prodotto da Sun Microsystems, è un software a tutti gli effetti open source che adotta la licenza Lesser General Public License (LGPL) e al suo interno prevede sei applicativi:

  • Writer: word processor ed editor HTML;
  • Calc: foglio di calcolo;
  • Draw: gestore di grafica vettoriale;
  • Impress: programma per creare e mostrare presentazioni;
  • Math: editor di formule matematiche;
  • Base: gestore di database.

OpenOffice.org deriva da un altro precedente prodotto: StarOffice, una suite da ufficio sviluppata dall’azienda tedesca StarDivision. Nel 1999 questa azienda viene acquisita dalla più potente Sun (azienda della Silicon Valley, famosa per aver realizzato il linguaggio di programmazione Java), la quale con la precisa strategia di creare un prodotto alternativo al diffusissimo Microsoft Office, decide di puntare sulla promozione di StarOffice su scala mondiale. [p. 78 modifica]L’anno successivo Sun compie la lungimirante scelta di rendere disponibili i sorgenti di StarOffice e di avviare così un progetto open source chiamato appunto "OpenOffice.org". Grazie a questa scelta, Sun è riuscita a garantirsi un certo seguito da parte della comunità degli sviluppatori indipendenti e anche di altre aziende interessate a sviluppare plug-in e integrazioni del prodotto.

In stretta connessione con il progetto OpenOffice.org è nato l’Open Document Format (ODF), cioè lo standard a cui fanno capo tutti i tipi di file creati dall’applicativo. In realtà il nome completo del formato in esame è OASIS Open Document Format for Office Applications (cioè Formato OASIS Open Document per Applicazioni da Ufficio): questo formato, basato (non casualmente) su una versione di XML creata originariamente da OpenOffice.org, è stato infatti sviluppato e rilasciato dal consorzio OASIS il 1° maggio del 2005 nella sua prima versione (1.0), alla fine di un processo iniziato già nel dicembre 2002. Nel novembre del 2005 OASIS ha deciso di sottoporre le specifiche dello standard al Joint Technical Committee 1 (JTC1) di ISO e IEC; dopo un periodo di discussione e revisione di sei mesi, il 3 maggio 2006 l’ODF è stato approvato come standard internazionale con il codice ISO/IEC 26300:2006. Dopo un’ulteriore fase di raccolta e confronto dei commenti da parte dei soggetti interessati (altri sei mesi), lo standard è giunto alla pubblicazione definitiva il 30 novembre 2006.

Per quanto riguarda invece l’Italia, lo stesso standard è stato adottato dall’UNI il 25 gennaio 2007 con il codice identificativo "UNI CEI ISO/IEC 26300". Davvero significativo il comunicato stampa diffuso da UNI il giorno successivo, di cui si riporta la parte iniziale:

«La norma tecnica UNI CEI ISO/IEC 26300, pubblicata in questi giorni come adozione nazionale della norma ISO/IEC 26300, rappresenta il capitolo finale di un lungo percorso che ha portato per la prima volta alla definizione, in ambito normativo, di uno standard universale per i documenti elettronici, svincolandoli dalla applicazione che li ha generati [...]. Ad oggi la gran parte dei documenti che siamo soliti gestire con il computer sono generati da software commerciali, ognuno dei quali possiede un proprio formato proprietario. Ciò comporta che, per poter leggere o modificare tali file, l’utente debba avere a disposizione lo stesso programma (ed in alcuni casi anche la stessa versione) utilizzato dall’estensore del documento oppure un programma che faccia da filtro per la visualizzazione.

Il formato OpenDocument, basato sul linguaggio XML, permette di superare questi vincoli. Esso è infatti ciò che viene definito uno "standard aperto", libero pertanto da restrizioni tecniche e da diritti

[p. 79 modifica]d’autore del produttore.»45

4.2. Il dibattito sulla standardizzazione del formato OOXML[modifica]

Il più grande colosso mondiale dell’informatica, che detiene le principali quote di mercato anche e soprattutto nel settore degli applicativi da ufficio, ovvero Microsoft, dal canto suo si è attivata per scongiurare il rischio di vedere la sua suite Office surclassata da altri prodotti basati su formati XML aperti (come appunto è l’ODF). D’altronde da diverse parti (fra cui principalmente l’Unione Europea nel 2004 attraverso le indicazioni di IDABC46 ) erano pervenute richieste esplicite, rivolte a tutti gli operatori sul mercato, di seguire costantemente la via di formati e protocolli standard e il più possibile aperti ed interoperabili.

Due erano dunque le ipotesi che si ponevano ai vertici di Microsoft: sposare la causa del formato aperto già disponibile e già in via di standardizzazione da parte di OASIS, cioè l’ODF, facendo sì che Office potesse utilizzarlo pienamente e addirittura come formato nativo; oppure puntare sui propri formati storici, sviluppandone una versione aperta ed interoperabile. Forte di un netto vantaggio dato dalla posizione dominante sul mercato e dal livello di diffusione dei formati nativi di Office, l’azienda di Redmond non ha esitato nella scelta di questa seconda ipotesi, avviando - con l’appoggio e la concreta collaborazione di altre grandi aziende ad essa collegate - un processo di standardizzazione internazionale per il nuovo standard per formati di file: l’Office Open XML, anche noto nella sua abbreviazione OOXML.

Si tratta di un formato documentale anch’esso basato come per l’ODF sul linguaggio XML, con la differenza - non irrilevante - di non essere "figlio" di un progetto open source ma di una prassi aziendale proprietaria; ed infatti deriva da una precedente versione, con simili caratteristiche tecniche ma non aperta, utilizzata dagli applicativi Microsoft dal 2003 e chiamata Office XML.

L’anno successivo, alla luce dei nuovi sviluppi, Microsoft decide di sottoporre la versione evoluta dell’Office 2003 XML all’ECMA per una sua approvazione come standard de jure. Il comitato tecnico chiamato a valutare la questione era presieduto da Microsoft e formato da rappresentanti di altre grandi aziende che nutrivano non pochi interessi economici verso la sua approvazione: fra di esse nomi come Apple, Canon, Intel, NextPage, Novell, Pioneer, Toshiba. L’esito abbastanza prevedibile di questo processo di standardizzazione fu l’approvazione dello standard come ECMA-376 ufficializzata il 7 dicembre 2006.47

Il passo successivo da parte di ECMA restava quello della proposta di approvazione di questo nuovo standard come standard ISO, cosa che gli



[p. 80 modifica]avrebbe dato dignità di standard internazionale a tutti gli effetti, al pari del concorrente ODF.

4.3. La mobilitazione anti-OOXML[modifica]

Tale notizia ha scosso la comunità di coloro che negli stessi mesi avevano gioito per l’approvazione di ODF come standard internazionale, poiché l’approvazione di un nuovo e sovrapposto standard avrebbe creato alcuni problemi di natura tecnologica, ma anche e soprattutto di natura economica e strategica.

Le associazioni e le aziende interessate ad evitare questa sovrapposizione si sono organizzate nella ODF Alliance, un consorzio costituito nel marzo del 2006 da trentasei entità fondatrici, con lo scopo di fare attività di informazione e divulgazione sui vantaggi derivanti dall’uso del formato OpenDocument.48 Nel giro di pochi mesi i soci sono aumentati vistosamente per arrivare ad un numero che supera i duecento; fra loro i nomi di maggior spicco sono IBM, Oracle, Google, RedHat, Sun Microsystems.

Nel gennaio 2007 è stata avviata da parte dell’attivista Benjamin Henrion una vera e propria campagna di sensibilizzazione volta a creare consenso nella direzione di contrastare l’approvazione dell’OOXML come standard ISO: la campagna è stata laconicamente denominata No-OOXML ed è stata collegata ad un sito web (www.noooxml.org) dal quale è stata lanciata una petizione per chiedere all’ISO di non accettare il nuovo standard.

Le principali critiche addotte dai detrattori del nuovo standard sono efficacemente riassunte proprio nel preambolo della petizione proposta online dal sito del movimento No-OOXML e constano in otto punti essenziali:

«1. Esiste già lo standard ISO 26300 - Open Document Format (ODF): un doppio standard aggiungerebbe costi, incertezza e confusione per industrie, governi e cittadini;49

2. Non esistono implementazioni della specifica OOXML: Microsoft Office 2007 produce una versione particolare di OOXML, differente da quella descritta nella specifica OOXML;

3. Mancano delle informazioni nel documento di specifica, ad



[p. 81 modifica]esempio su come utilizzare "autoSpaceLikeWord95" o "useWorc!97Line BreakRules";

4. Più del 10% degli esempi menzionati all’interno della proposta di standard non sono conformi alle specifiche XML;

5. Non c’è alcuna garanzia che si possa scrivere software che implementi completamente o in parte la specifica OOXML senza essere perseguibili per infrazione di brevetto o senza dover pagare licenze di brevetto alla Microsoft;

6. Questa proposta di standard va in conflitto con altri standard ISO, come lo standard ISO 8601 (Rappresentazione di date e orari), lo standard ISO 693 (Codici per la rappresentazione di nomi e lingue) e lo standard ISO/IEC 10118-3 (Hash crittografici);

7. È presente un bug nel formato del foglio di calcolo che impedisce l’uso di date antecedenti il 1900: tale bug è presente nella specifica OOXML quanto in Microsoft Excel nelle versioni 2000, XP, 2003 e 2007;

8. Questa proposta di standard non è stata creata tenendo conto delle esigenze e delle esperienze di tutte le parti interessate, ovvero i produttori, i venditori, gli acquirenti, gli utenti ed i regolatori, ma soltanto ed esclusivamente della Microsoft.»

Come è possibile notare dalla lettura di questo documento, abbiamo a che fare con quattro critiche di natura tecnico-informatica (le numero 2, 3, 4 e 7) e altrettante critiche di natura giuridico-economica (le numero 1, 5, 6 e 8).

4.4. L’acquisizione del formato OOXML come standard ISO[modifica]

In risposta a queste critiche e soprattutto ai dubbi relativi ai diritti di privativa industriale, Microsoft ha pensato di pubblicare una dichiarazione pubblica, con la quale rendere nota la sua politica in questa materia: la Open Specification Promise (OSP); in sostanza, un impegno unilaterale (pubblicato su un’apposita pagina del sito di Microsoft50) a non intraprendere azioni legali basate sulla proprietà intellettuale contro chi implementerà quello standard.

Da più parti è stato fatto rilevare quanto un documento di questo tipo sia una garanzia troppo labile, una mera dichiarazione d’intenti, per di più proveniente dalla realtà commerciale più potente del pianeta in ambito informatico; azienda che, spinta da interessi particolari, potrebbe sempre unilateralmente decidere di modificare il testo della OSP o comunque farne un’interpretazione discriminatoria.51 [p. 82 modifica]Nonostante tutta la mobilitazione antagonista, ECMA decide di presentare al comitato tecnico di ISO/IEC la richiesta di apertura di un procedimento di standardizzazione "fast track", una particolare modalità che consente una più veloce risoluzione del processo. Dunque nel gennaio 2007 ISO risponde positivamente alla richiesta di fast track e inizia formalmente il processo di standardizzazione del nuovo DIS 29500.52

Ad una prima votazione, conclusasi nel settembre successivo, il DIS 29500 non raggiunge il numero di voti necessari per l’approvazione; tuttavia il processo non si arresta, ma entra in un’altra fase detta "ballot resolution" volta a cercare di emendare il documento di standard e a verificare nuovamente i consensi. Superata questa fase e apportate numerose modifiche allo standard, esso è giunto all’approvazione finale il 29 marzo 2008. Attualmente, dopo un ulteriore (e inefficace) ricorso da parte di Brasile, India, Venezuela e Sud Africa (paesi afferenti alla commissione di valutazione, contrari al giudizio positivo espresso durante il final ballot resolution meeting di Ginevra), il formato OOXML può essere considerato a tutti gli effetti uno standard internazionale, corrispondente alla denominazione completa "ISO/IEC 29500:2008, Information technology Document description and processing languages - Office Open XML file formats".

4.5. Le ultime prospettive[modifica]

Ad oggi dunque abbiamo due standard internazionali che in sostanza sono preposti allo stesso scopo e possiedono caratteristiche tecniche e funzionali molto simili. Tale sovrapposizione sembra in effetti allontanare l’auspicabile esito di una convergenza tecnologica in materia di gestione dei documenti informatici.

Se accreditiamo la teoria per cui la standardizzazione sia la principale strada per ottenere una convergenza tecnologica largamente condivisa e conformata a criteri di interoperabilità, dovremo probabilmente attendere un terzo ulteriore standard nel quale le due tecnologie possano confluire. Prospettiva di certo non così facile da attuare se gli equilibri e i meccanismi di mercato, come li abbiamo qui brevemente illustrati, non dovessero cambiare ed evolversi virtuosamente. Tra l’altro la situazione pare complicarsi invece che semplificarsi: è infatti del marzo 2010 la notizia secondo cui Microsoft nei primi due anni [p. 83 modifica]dall’approvazione dello standard presso l’ISO non abbia mantenuto quanto promesso riguardo alla effettiva implementazione delle stesso, e secondo cui il nuovo pacchetto Office 2010 appunto non implementi realmente quello standard bensì una sua variante. Se così fosse, il rischio sarebbe che questa variante non pienamente fedele allo standard ISO si imponga come un ulteriore standard de facto (reso tale dalla grande diffusione del software di Microsoft), vanificando così gli sforzi effettuati per la standardizzazione e la convergenza tecnologica.53

5. I formati aperti per altri tipi di file[modifica]

Il dibattito scientifico in materia di formati si è generalmente concentrato sull’ambito dei formati documentali poiché si tratta sicuramente del settore in cui la scelta di uno specifico formato ha maggiori ripercussioni sulla vita del singolo utente. Si pensi in generale all’uso delle applicazioni da ufficio in seno alle pubbliche amministrazioni e all’impatto che ciò può avere nei rapporti fra pubbliche amministrazioni e soprattutto fra cittadino e pubbliche amministrazioni. E in generale si consideri il fatto che all’interno di file di tipo documentale si trovano informazioni di varia natura (dati e scritti ad uso personale, ma anche vere e proprie opere letterarie, cartelle cliniche, atti giudiziari, banche dati ad uso pubblico) che assumono - a seconda della loro destinazione e del loro utilizzo - un elevato valore culturale, sociale, giuridico ed economico. D’altro canto è in questo ambito che ci si trova a dover fare i conti con questioni inerenti alla compatibilità e soprattutto all’interoperabilità dei vari formati con cui i nostri dati e contenuti sono stati "confezionati" e organizzati.

Ciò non toglie che le stesse problematiche valgano per altri tipi di file.

Passeremo in rassegna i casi più importanti.

5.1. I formati aperti per immagini e grafica[modifica]

* JPEG

«JPEG è l’acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standard internazionale di compressione per immagini a tono continuo, sia a livelli di grigio che a colori. È un formato aperto e ad implementazione gratuita.

Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni più comuni per questo formato



[p. 84 modifica]sono .jpeg, .jpg, .jfif, JPG, JPE, anche se il più comune in tutte le piattaforme .jpg.

JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questo può essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File Interchange Format), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione su computer di uno stream JPEG. Nell’uso comune, quando qualcuno parla di "file JPEG" generalmente intende un file JFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempio JNG.»54

* PNG

«Il Portable Network Graphics (abbreviato PNG) è un formato di file per memorizzare immagini. Il PNG è stato creato nel 1995 da un gruppo di autori indipendenti e approvato il l 2 ottobre 1996 dal World Wide Web Consortium (W3C), terminando il suo iter nel gennaio 1997 come oggetto del Request for Comments (RFC) 2083. L’ideazione del PNG avvenne in seguito all’introduzione del pagamento di royalty dell’allora popolarissimo e usatissimo formato GIF.55 Infatti nel 1994 i detentori del brevetto decisero improvvisamente di chiedere un pagamento per ogni programma che utilizzasse il loro formato. La prima reazione della comunità informatica a tale improvviso cambiamento fu la sorpresa, a cui seguì la scelta di indirizzarsi verso lo sviluppo di un’alternativa. Essendo stato sviluppato molto tempo dopo, non ha molte delle limitazioni tecniche del formato GIF: può memorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per la trasparenza (canale alfa). Esiste inoltre un formato derivato, Multiple-image Network Graphics o MNG, che è simile al GIF animato. [...]

L’utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere o leggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG, che trovò così più largo utilizzo. Il brevetto originale sul formato GIF è ormai scaduto (nel giugno 2003 negli USA, durante il 2004 nel resto del mondo). Nonostante questo, nulla lascia sospettare che l’utilizzo del PNG diminuirà come conseguenza.» 56 [p. 85 modifica]• SVG

«Scalable Vector Graphics abbreviato in SVG, indica una tecnologia in grado di visualizzare oggetti di grafica vettoriale e, pertanto, di gestire immagini scalabili dimensionalmente. Più specificamente si tratta di un linguaggio derivato dall’XML [...] che si pone l’obiettivo di descrivere figure bidimensionali statiche e animate.

SVG è diventato una raccomandazione (standard) del World Wide Web Consortium nel settembre 2001 dopo un iter piuttosto contrastato. Al W3C Macromedia e Microsoft avevano introdotto il linguaggio VML (Vector Markup Language), mentre Adobe e Sun Microsystems proponevano un formato concorrente chiamato PGML: per arrivare alla raccomandazione è stato necessario un certo lavoro di compromesso.»57


5.2. I formati aperti per file audio e video[modifica]

• OGG

«OGG è un contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo streaming che l’archiviazione in maniera efficiente.

Il nome OGG si riferisce al formato di file, che include un numero di codec indipendenti per il video, l’audio ed il testo (ad esempio, per i sottotitoli). I file con l’estensione ".ogg" possono contenere uno qualsiasi dei formati supportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in molti riproduttori multimediali, sia proprietari, sia liberi.

Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato in un file ogg con l’algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanti codec sviluppati per il contenitore ogg sono Theora per la compressione video, e Speex, un algoritmo ottimizzato per la compressione del parlato. [...]

Le specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciate sotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General Public License (GPL). [...]

Sebbene Xiph.org avesse previsto originariamente l’estensione.ogg per il contenitore a prescindere dall’effettivo codec contenuto, l’organizzazione è [p. 86 modifica]ritornata sui suoi passi nel 2007, raccomandando di impiegare le seguenti estensioni per i file Ogg:

•.ogg per Ogg contenente solo audio in formato Vorbis
•.spx per Ogg contenente solo audio in formato Speex
•.oga per Ogg contenente solo audio in FLAC o OggPCM
•.ogv per Ogg contenente almeno un flusso video

A queste si aggiunge l’estensione .flac utilizzata per identificare un flusso FLAC privo del container Ogg. Il formato FLAC era infatti già esistente e funzionante indipendentemente dal contenitore Ogg, e solo in seguito donato a Xiph.org.»58

5.3. I formati aperti per archiviazione[modifica]

• ZIP

«Lo ZIP è un formato di compressione dei dati molto diffuso nei computer IBM-PC con sistemi operativi Microsoft e supportato di default nei computer Apple con sistema operativo Mac OS X. Supporta vari algoritmi di compressione, uno dei quali è basato su una variante dell’algoritmo LZW. Ogni file viene compresso separatamente, il che permette di estrarre rapidamente i singoli file (talvolta anche da file parzialmente danneggiati) a discapito della compressione complessiva. Un file Zip si riconosce grazie all’header ’PK’ (codifica ascii). [...]

Essendo un formato senza perdita di informazioni (lossless), viene spesso utilizzato per inviare programmi o file che non possono essere modificati dal processo di compressione. Nato in ambiente DOS, ha trovato con il passare del tempo validi concorrenti in altri formati, come ARJ, RAR, ACE o 7z che offrono un rapporto di compressione maggiore (a volte a discapito della velocità); la sua grande diffusione gli permette tuttavia di essere considerato uno standard de facto per tali sistemi.»59

• 7Z

Si tratta di un formato relativamente nuovo, implementato in origine dall’applicativo open source 7-Zip60 e basato sull’algoritmo di compressione LZMA. Consente di ottenere un rapporto di compressione molto alto,



[p. 87 modifica]comparabile con quello di altri efficienti formati proprietari come ad esempio RAR.

5.4. Altri tipi di formati aperti[modifica]

• LaTeX

LaTeX non è propriamente un formato di file bensì «un linguaggio di markup usato per la preparazione di testi basato sul programma di composizione tipografica Tex. [...] Fornisce funzioni di desktop publishing programmabili e mezzi per l’automazione della maggior parte della composizione tipografica, inclusa la numerazione, i riferimenti incrociati, tabelle e figure, organizzazione delle pagine, bibliografie e molto altro.

LaTeX ha trovato un’ampia diffusione nel mondo accademico, grazie all’ottima gestione dell’impaginazione delle formule matematiche [...] ed alla gestione dei riferimenti bibliografici resa possibile dal progetto gemello BibTeX. [...]

Il file prodotto da LaTeX era, in passato, esclusivamente in formato DVI (DeVice Indipendent).61 Grazie al contributo degli sviluppatori della comunità open source ora LaTeX è in grado di produrre un file nel più comune e diffuso standard PDF (Portable Document Format] ed anche in HTML (le eventuali formule matematiche in esso presenti verranno incluse in formato grafico come se fossero immagini, se non in MathML). È anche possibile, partendo da un file prodotto da LaTeX, ottenere un qualsiasi altro formato, anche .doc di Microsoft Word oppure un .odt di OpenOffice.org o altro.»62

• EPUB

«Epub (abbreviazione di electronic publication, pubblicazione elettronica) è uno standard aperto specifico per la pubblicazione di libri digitali (e-book) e basato su xml. A partire da settembre 2007 è lo standard ufficiale dell’International Digital Publishing Forum (IDPF) - un organismo internazionale no-profit al quale collaborano università, centri di ricerca e società che lavorano in ambito sia informatico che editoriale.



[p. 88 modifica]Lo standard ePub sostituisce, aggiornandolo, l’Open eBook (OeB), elaborato dall’Open E-book Forum. Il formato ePub, benché ancora giovane, si sta affermando come standard più apprezzato e diffuso nei moderni lettori di eBook e nel mondo dell’editoria digitale.

Lo standard, che ha file con estensione .epub, consente di ottimizzare il flusso di testo in base al dispositivo di visualizzazione ed è costituito a sua volta da altre tre specifiche:

• l’Open Publication Structure (OPS) 2.0, descrive la formattazione dei contenuti;
• l’Open Packaging Format (OPF) 2.0, descrive in xml la struttura del file.epub;
• l’OEBPS Container Format (OCF) 1.0, un archivio compresso zip che raccoglie tutti i file.

In sostanza, l’ePub utilizza internamente codice XHTML o DTBook (una variante dello standard XML creata dal consorzio DAISY Digital Talking Book) per le pagine di testo, e il CSS per il layout e la formattazione.»63

• OVF «Open Virtualization Format (OVF) è uno standard aperto per la creazione e la distribuzione di applicazioni virtuali o più comunemente di software che possa essere eseguito su macchine virtuali.

Lo standard descrive un "formato aperto, sicuro, portabile, efficiente ed estensibile per la pacchettizzazione e distribuzione di software che possa essere fatto eseguire su macchine virtuali". Lo standard OVF non è legato a nessun particolare hypervisor, né all’architettura del processore. L’unità di pacchettizzazione e distribuzione è il così chiamato OVF Package (Pacchetto OVF) che può contenere uno o più sistemi virtuali, ognuno dei quali può essere eseguito su di una macchina virtuale.

Una proposta per l’OVF, poi chiamato "Open Virtual Machine Format", fu presentata al DMTF 64 nel Settembre del 2007 da Dell, HP, IBM, Microsoft, VMware e XenSource.

Il DMTF ha rilasciato nel Settembre 2008, come standard preliminare, la versione 1.0.0 delle specifiche dell’OVF. Questa è la versione più recente disponibile pubblicamente. Il procedimento ordinario del DMTF per il completamento degli standard include dei "working feedback" dalle



[p. 89 modifica]implementazioni iniziali della versione preliminare dello standard fino alla sua versione finale.»65

[p. 90 modifica]
  1. Calderini M., Giannaccari M., Granieri A., Standard, proprietà intellettuale e logica antitrust nell’industria dell’informazione, Il Mulino, 2005 (p. 34).
  2. «La soluzione dello standard de facto è quella che fa ricorso al mercato e che si affida al potere di autodisciplina e al consenso degli operatori. La legge del più forte, nel caso di una standardizzazione de facto (come è emerso in relazione al sistema operativo di Microsoft) - che non necessariamente significa il migliore -, ovvero una standardizzazione ad opera esclusivamente [o prevalentemente] degli attori coinvolti sono le modalità che presiedono alla selezione dello standard.» ibidem (pp. 45-46).
  3. http://it.wikipedia.org/wiki/VHS
  4. http://perens.com/OpenStandards/Definition.html.
  5. www.itu.int/ITU-T/othergroups/ipr-adhoc/openstandards.html.
  6. La definizione dell’EIF è qui riportata nella versione italiana presente sul sito dell’UNl alla pagina www.uni.com/uni/controller/it/comunicare/articoli/2007_l/odf_26300.htm
  7. La fonte di questo quadro riassuntivo è un articolo uscito nel maggio 2006 sul numero 27 di Nova24, inserto de IlSole240re; gli stessi concetti sono ripresi in una pagina del blog personale di Fuggetta (www.alfonsofuggetta.org/?p=539) e sono ampliati nel già citato paper monografico Open standard, Open Formats, and Open Source (di cui è coautore Davide Cerri e che è accessibile all’indirizzo web www.davidecerri.org/sites/default/files/art-openness-jss07.pdf).
  8. In realtà Fuggetta considera solo i quattro livelli di apertura, senza il livello 0 che è stato invece qui aggiunto a scopo di completezza e chiarezza.
  9. Bradner S.O., The Internet Standards Process (par. 1.1), documento disponibile al sito www.ietf.org/rfc/rfc2026.txt; lo stesso documento è citato nel paragrafo "La rete e gli standard" in Sartor G., Corso d’informatica giuridica (Vol. 1), Giappichelli, 2008.
  10. Filippi F. (a cura di), Manuale per la qualità dei siti web pubblici culturali, Ministero per i beni e le attività culturali (Progetto MINERVA), 2005, 2° ed. italiana, (cap. 1, par. 1.3.6); disponibile al sito ww.minervaeurope.org/publications/qualitycriteria-i.htm.
  11. Sciabarrà M., Il software Open Source e gli standard aperti, McGraw-Hill, 2004, (p. 217). E infine si legga anche ciò che si trova al capitolo 10.3 di Aa.Vv., Finalmente libero! Software libero e standard aperti per le pubbliche amministrazioni, McGrawHill, 2008: «Questo approccio non strutturato agli Standard Aperti ha dato frutti molto importanti. Si pensi ad esempio ad Internet, che si basa su standard "de facto" ma aperti, funzionanti e condivisi, anche perché la rapidità del suo sviluppo non era compatibile coi tempi di emissione e stabilizzazione di uno standard da parte degli organismi "ufficiali"».
  12. Questo paragrafo è tratto dalla voce "HTML" in Mari A. e Romagnolo S. (a cura di], Revolution OS. Voci dal codice libero, Apogeo, Milano, 2003 [pp. 51-55) ed è rilasciato nei termini della Licenza per Documentazione libera GNU (GNU FDL] il cui testo integrale è disponibile al sito www.gnu.org/copyleft/fdl.html.
  13. Questo paragrafo è tratto dalla voce "XML" in Mari A. e Romagnolo S. (a cura di), Revolution OS. Voci dal codice libero, Apogeo, Milano, 2003 (pp. 137-138] ed è rilasciato nei termini della Licenza per Documentazione libera GNU (GNU FDL] il cui testo integrale è disponibile al sito www.gnu.org/copyleft/fdl.html.
  14. «Ben presto ci si accorse che XML non era solo limitato al contesto web, ma era qualcosa di più: uno strumento che permetteva di essere utilizzato nei più diversi contesti, dalla definizione della struttura di documenti, allo scambio delle informazioni tra sistemi diversi, dalla rappresentazione di immagini alla definizione di formati di dati.» http://it.wikipedia.org/wiki/XML.
  15. A tal proposito si legga ciò che scrive Fabio Brivio: «abbiamo detto che le informazioni organizzate in documenti XML sono facilmente condivisibili. Questa possibilità è garantita da due fattori. Per prima cosa, XML è ormai uno standard nel mondo della comunicazione digitale e pertanto non esiste sistema operativo che non sia in grado di lavorare con file XML e DTD. [...] In secondo luogo, i file XML e DTD non sono altro che file di testo composti semplicemente da informazione a cui è associata una marcatura.» Brivio E, L’umanista informatico, Apogeo, Milano, 2009 (pp. 58-59).
  16. http://it.wikipedia.org/wiki/HTML_5. Per maggiori dettagli si legga l’interessante ebook Dive into html5 di Mark Pilgrim, disponibile al pagina web http://diveintohtml5.org/.
  17. http://www.w3c.it/.
  18. www.w3c.it/w3cin7punti.html.
  19. «Uno degli scopi principali del W3C è quello di rendere queste opportunità fruibili a tutti, indipendentemente da eventuali limitazioni determinate da hardware, software, supporto di rete a disposizione, lingua madre, cultura, collocazione geografica, capacità fisiche e mentali.» ibidem
  20. «Il W3C è un’organizzazione neutrale, che incoraggia l’interoperabilità attraverso la progettazione e la promozione di linguaggi informatici e protocolli aperti (non proprietari) che evitino la frammentazione del mercato caratteristica del passato. Tutto questo è realizzato ottenendo il consenso dell’industria e incoraggiando un forum aperto per la discussione.» ibidem
  21. «Il Consorzio si adopera per costruire un Web che possa facilmente evolvere in un Web ancora migliore, senza per questo dover distruggere quello che già funziona. I principi di semplicità, modularità, compatibilità ed estensibilità guidano tutti i progetti del Consorzio.» ibidem
  22. «Il progetto del Consorzio è quello di limitare il numero delle risorse Web centralizzate, al fine di ridurre la vulnerabilità del Web nel suo complesso. La flessibilità è l’indispensabile compagna dei sistemi distribuiti, è la vita e l’anima di Internet, non solo del Web.» ibidem
  23. Alla pagina di presentazione www.oasis-open.org/who si legge: «OASIS is a not-for-profit consortium that drives the development, convergence and adoption of open standards for the global information society. The consortium produces more Web services standards than any other organization along with standards for security, e-business, and standardization efforts in the public sector and for application-specific markets.»
  24. Tratto dalla sezione Frequently Asked Questions all’indirizzo www.oasisopen.org/who/faqs.php. Per un approfondimento del tema delle IPR policies di OASIS si
  25. http://it. wikipedia.org/wiki /Formato_di_file.
  26. Sciabarrà M., Il software Open Source e gli standard aperti, Mc Graw Hill, Milano, 2004 (p.110).
  27. «A dispetto di molte delle prassi correnti, le quali tendono a confondere interoperabilità con adozione (concordata o, di fatto, imposta) di formati di dati sulla base della loro intelligibilità esclusiva in certi ambienti operativi, il fatto liberatorio è che buoni formati di scambio standard già esistono e possono essere efficacemente impiegati in una gamma sterminata di situazioni.» Comitato Tecnico di esperti per l’E-Society, Relazione finale della Task Force Interoperabilità e Open Source, Provincia Autonoma di Trento, 2005 (par. 2); documento disponibile on-line al sito www.giunta.provincia.tn.it/binary/pat_giunta_09/XIII_legislatura/ relazione_finale_task_force_interoperabilita_os.H34128198.pdf.
  28. Con il termine informatico CoDec si indica proprio un software (o una parte di un software) necessario per codificare e/o decodificare informazioni.
  29. www.openformats.org/itl
  30. www.openformats.org/itl
  31. Indagine conoscitiva sul software a codice sorgente aperto nella Pubblica Amministrazione, documento prodotto nel maggio 2003 dalla Commissione per il software a codice sorgente aperto nella Pubblica Amministrazione (anche detta Commissione Meo" dal nome del suo presidente) costituitasi in seno al Ministero per l’Innovazione e le Tecnologie. Maggiori dettagli in appendice a questo libro.
  32. ibidem.
  33. Si veda a tal proposito la voce http://it.wikipedia.org/wiki/ASCII.
  34. Per maggiori informazioni su questa seconda versione dell’ASCII si veda la voce http://it.wikipedia.org/wiki/ASCH_esteso. La lista completa dei caratteri dell’ASCII esteso è disponibile qui: http://cloford.com/resources/charcodes/symbols.htm.
  35. Si veda a tal proposito la voce http://en.wikipedia.org/wiki/ISO_8859.
  36. Inizialmente prevedeva 65.536 caratteri [code points) ed è stato in seguito esteso a 1.114.112 (= 220 + 216) e finora ne sono stati assegnati circa 101.000
  37. http://it.wikipedia.Org/wiki/ASCII_esteso#Unicode.
  38. «Ovviamente lo scopo per cui sono nati i file di testo, e tutt’ora un utilizzo molto frequente, è la lettura/scrittura diretta da parte degli utenti. La mancanza di formattazione li rende poveri dal punto di vista estetico, ma in compenso grazie a questa semplicità non occorrono particolari programmi per leggerli, e spesso possono essere trasferiti direttamente da un sistema operativo all’altro. [...] Anche il codice sorgente dei programmi di solito è scritto in puro testo. Se un sorgente fosse scritto ad esempio in formato.doc [con Microsoft Word o OpenOffice.org), il file prodotto conterrebbe anche informazioni binarie di formato che metterebbero in crisi i compilatori.» http://it.wikipedia.Org/wiki/File_di_testo#Utilizzo.
  39. http://it.wikipedia.Org/wiki/Portable_Document_Format#PostScript.
  40. Le specifiche del formato PDF sono disponibili liberamente alla pagina del sito ufficiale Adobe www.adobe.com/devnet/pdf/pdf_reference.html.
  41. «È un formato aperto, nel senso che chiunque può creare applicazioni che leggono e scrivono file PDF senza pagare i diritti (royalty) alla Adobe Systems. Adobe ha un numero elevato di brevetti relativamente al formato PDF ma le licenze associate non includono il pagamento di diritti per la creazione di programmi associati.» http://it.wikipedia.org/wiki/Portable_Document_Format.
  42. La storia dell’estensione ".doc" è piuttosto complessa: «Nel 1980 si iniziò ad utilizzare questa estensione per indicare i file nel formato proprietario del software WordPerfect. Vista l’ampia diffusione che ebbe WordPerfect l’estensione .doc originariamente usata per testo non formattato iniziò ad essere associata sempre più al testo dotato di formattazione. Questa associazione divenne ancora più forte nel 1990 quando Microsoft si appropriò dell’estensione .doc associandola ai file in formato proprietario prodotti da Microsoft
  43. Le principali critiche a questo formato sono efficacemente riassunte alla pagina web www.openformats.org/it50, dove tra l’altro si legge: «Il formato di documento MS Word è un formato proprietario semi-trasparente sviluppato dalla Microsoft. Ciò significa che una parte delle informazioni che esso codifica sono accessibili mentre altre non lo sono.»
  44. A tal proposito si veda http://it.wikipedia.0rg/wiki/.d0c#Aspetti_negativi.
  45. www.uni.com/uni/controller/it/comunicare/articoli/2007_l/odf_26300.htm.
  46. Si veda a tal proposito http://europa.eu.int/idabc/en/document/2592/5588.
  47. http://en.wikipedia.org/wiki/Standardization_of_Office_Open_XML.
  48. Sul sito ufficiale dell’ente si può leggere la sua mission: www.odfalliance.org/mission.php.
  49. A tal proposito si riporta quanto sostenuto da Carlo Piana nel suo articolo "Ne resterà solo uno!": «il fatto stesso di cercare di imporre OOXML come Standard Internazionale alternativo rispetto a uno già esistente, esattamente per lo stesso campo di applicazione come è ODF - vuol dire causare problemi di concorrenza. Non devono esistere due Standard Internazionali per lo stesso identico campo di applicazione, perché ciò è antieconomico per coloro che implementano lo standard, o restando non interoperabili con uno dei due, oppure dovendo supportare contemporaneamente due differenti standard incompatibili; in questo caso lo standard vincente non sarà verosimilmente quello più interoperabile, più libero e in generale migliore, ma quello sostenuto dall’applicazione dominante.» www.piana.eu/?q=it/due_standard_male.
  50. Si veda www.microsoft.com/interop/osp/default.mspx.
  51. 1
  52. L’acronimo DIS sta per Draft International Standard, ad indicare che si tratta ancora di una bozza provvisoria dello standard.
  53. A tal proposito risulta molto dettagliata e precisa la ricostruzione compiuta da Alex Brown in cui si legge: «If Microsoft ship Office 2010 to handle only the Transitional variant of ISO/IEC 29500 they should expect to be roundly condemned for breaking faith with the International Standards community. This is not the format "approved by ISO/IEC", it is the format that was rejected.» Brown A., Microsoft Fails the Standards Test, 31 marzo 2010; disponibile on-line al sito www.adjb.net/post/Microsoft-Fails-the-Standards-Test.aspx.
  54. Testo tratto da http://it.wikipedia.org/wiki/Jpeg. Il sito ufficiale del formato JPEG è invece www.jpeg.org.
  55. II formato GIF poneva grossi problemi a causa di alcuni brevetti ad esso applicati. Già negli anni novanta, infatti, sul sito del progetto GNU si segnalava che non erano state usate immagini in formato GIF a causa di questioni brevettuali ("no gifs due to patent problems"). Si legga a tal proposito l’articolo "Why There Are No GIF files on GNU Web Pages" disponibile al sito www.gnu.org/philosophy/gif.html
  56. 2
  57. Testo tratto da http://it.wikipedia.org/wiki/Scalable_Vector_Graphics. La pagina ufficiale del formato SVG (all’interno del sito del W3C) è invece www.w3.org/Graphics/SVG/.
  58. Testo tratto da http://it.wikipedia.org/wiki/Ogg. Il sito ufficiale del formato OGG è invece www.xiph.org/ogg/.
  59. Testo tratto da http://it.wikipedia.org/wiki/ZIP_(formato_di_file).
  60. Si tratta di un applicativo per la gestione di archivi compressi nato per ambienti Windows e distribuito con licenza GNU GPL. Maggiori informazioni sul progetto al sito ufficiale www.7-zip.org, dove è possibile trovare anche maggiori ettagli sulle specifiche del formato (www.7-zip.org/7z.html).
  61. «DVI ("DeVice Independent" cioè "Indipendente dal dispositivo") è il formato di output del linguaggio di impaginazione TEX, progettato da Donald Knuth nel 1979. Diversamente dai file TEX, i file DVI non sono fatti per essere leggibili dall’uomo; consistono di dati binari, contenenti una descrizione della pagina indipendente dal dispositivo di uscita. Il DVI è progettato per dare la migliore qualità visiva sia che sia visualizzato su un monitor sia che sia stampato con una costosa stampante laser a colori. [...] Utilizzando un driver opportuno un file DVI può essere stampato, convertito in formato grafico come il TIFF, JPEG, ecc oppure convertito in un altro formato di descrizione di pagine come il PDF o il PostScript.» http://it.wikipedia.org/wiki/DVI_(TeX)
  62. Testo tratto da http://it.wikipedia.org/wiki/Latex. Il sito ufficiale del progetto LaTeX è invece www.latex-project.org.
  63. Testo tratto da http://it.wikipedia.org/wiki/EPUB. Per un interessante confronto tecnico con gli altri formati per ebook (non aperti) si veda invece la voce http://en.wikipedia.org/wiki/Comparison_of_e-book_formats.
  64. «Founded in 1992, the Distributed Management Task Force, Inc. [DMTF] is the industry organization leading the development of management standards and integration technology for enterprise and Internet environments.» www.dmtf.org/about/faq/general_faq.
  65. Testo tratto da
    http://it.wikipedia.org/wiki/Open_Virtualization_Format.