Il crowdsourcing tra necessità di coordinamento e perdita di controllo/Capitolo 1 – Il Crowdsourcing

Da Wikisource.
Capitolo 1 – Il Crowdsourcing

../Introduzione ../Capitolo 2 – Marketing applicato IncludiIntestazione 19 luglio 2011 75% Da definire

Introduzione Capitolo 2 – Marketing applicato

[p. 10 modifica]

Capitolo 1 – Il Crowdsourcing[modifica]

1.1. Introduzione[modifica]

In questo primo capitolo si riportano le teorie relative al crowdsourcing dei principali esperti in materia. Si descrive in cosa consiste il crowdsourcing; la società, il mercato e le tecnologie che rendono possibile intraprendere azioni di crowdsourcing; come si svolgono le pratiche di collaborazione di massa e quali sono i benefici che apportano; in cosa consistono gli User Generated Content; come funzionano le small-world networks e le comunità di pratica; quali sono le motivazioni che spingono gli individui a partecipare alla realizzazione di prodotti crowdsourced. Inoltre si descrive la necessità del controllo organizzativo e le modalità di base relative a come impostarlo. Si indaga, poi, il ruolo delle istituzioni nel mutato panorama socio economico. Si conclude il capitolo con una descrizione di Wikipedia.

1.2. Definizione, ambiti di applicazione e limiti[modifica]

Il termine crowdsourcing è comparso nel 2006, quando Jeff Howe lo ha utilizzato in un articolo su Wired. Fare crowdsourcing significa appaltare un compito (il tradizionale outsourcing1) a un vasto ed indefinito gruppo di persone (crowd, la folla), tramite una open-call, ovvero una chiamata aperta a cui chiunque può rispondere.
Il crowdsourcing ha avuto la sua genesi nel movimento dei software open source (Linux), ma ormai è utilizzato in diversi ambiti, dal marketing commerciale (Zooppa2) al marketing research, dal settore amministrativo (Co-Create London3) al settore creativo/culturale (Wikipedia). Conseguentemente cambiano i promotori, che possono essere aziende, PA o associazioni no-profit.

Howe categorizza 4 modalità primarie di utilizzare il crowdsourcing: [p. 11 modifica]

a. L’intelligenza collettiva4 o saggezza della folla: consiste nel mettere a frutto la conoscenza dei gruppi, in quanto superiore alla conoscenza dei singoli;
b. Crowd-creation: utilizza non solo la conoscenza, ma anche l’energia creativa della folla per lo svolgimento di attività;
c. Crowd-voting: adopera le scelte e i giudizi della folla per organizzare le informazioni (l’esempio più noto è Google);
d. Crowd-funding: permette ai gruppi di raccogliere auto-finanziamenti.

L’autore sottolinea che spesso i progetti più fortunati sono una combinazione di questi approcci.

Anche Henry Jenkins definisce diverse modalità di cultura partecipativa:

a. Affiliation: creazione di comunità, formali e informali, accentrate intorno a diverse forme di media (per esempio Facebook);
b. Expression: produzione collettiva di contenuti e nuove forme creative;
c. Collaborative problem-solving: lavoro di gruppo allo scopo di portare a termine

obiettivi e sviluppare la conoscenza (per esempio Wikipedia);

d. Circulation: dare valore al flusso dei media, come nel caso dei blog.



In realtà nelle definizioni degli autori non è chiaro quali siano i limiti di ciò che è definibile come crowdsourcing. Alcuni considerano crowdsourcing anche tutte quelle azioni che semplicemente producono diffusione di progetti altrui. Un like su Facebook o Friendfeed, o un retweet su Twitter creano un output di visibilità. La visibilità permette condivisione della creatività e concorre alla creazione di un’agenda sociale del sapere. La folla, diffondendo prodotti che reputa meritevoli, crea un ulteriore valore aggiunto per quei prodotti.
Lo stesso Google è considerato da Howe un prodotto creato dalla saggezza della folla, in quanto i risultati di ricerca sono selezionati e ordinati anche in base al numero di visite ricevute da un sito. Yochai Benkler, in riferimento a Google, sottolinea come la “somma degli effetti delle azioni individuali, anche quando non consapevolmente [p. 12 modifica]cooperative, [ha permesso] di produrre un nuovo e più ricco ambiente informazionale” (Benkler, 2007, 5).
Esistono prodotti crowdsourced emergenti in maniera totalmente spontanea e auto organizzata. Tuttavia, come afferma Clay Shirky (2008), specialmente per le azioni più complesse si necessita di un certo livello di controllo/coordinamento. A tal fine, il crowdsourcing implica un nuovo approccio nel fare cose: è necessario creare l’ambiente e le condizioni che permettano alla folla di esprimere le proprie competenze. Le aziende che utilizzano il crowdsourcing come free-rider, che vedono la folla solo come risorsa di lavoro a basso costo, sono destinate a fallire: come afferma Howe, la comunità quando è sfruttata se ne rende conto e priva l’azienda di credibilità e fiducia, che sono i pilastri fondamentali per intraprendere qualsiasi azione di collaborazione tra pari.

1.3. Una nuova forma di organizzazione sociale[modifica]

Per indagare quali sono le novità introdotte da un approccio crowdsourced alla produzione è necessario fare un passo indietro e capire quali sono le trasformazioni sociali ed economiche che lo rendono possibile.
Secondo la teoria dei costi di transazione dell’economista statunitense Oliver Eaton Williamson e successivamente arricchita e appoggiata da altri autori (come Benkler e Shirky) esistono tradizionalmente due modalità di organizzazione della società e del lavoro di gruppo: il mercato e la gerarchia.
I costi di transazione sono quei costi necessari per accedere a uno scambio economico, valutarne l’equità e portarlo a termine. Essi nascono quando nasce l’ipotesi di uno scambio, ed indicano sia lo sforzo dei contraenti per arrivare ad un accordo, sia una volta che l’accordo sia stato raggiunto i costi che insorgono per fare rispettare quanto stabilito5. Entrambe le tradizionali forme di organizzazione comportano dei costi di transazione.
In un mercato completamente aperto, i lavoratori stipulano scambi direttamente gli uni con gli altri, in un rapporto che si determina in base al prezzo. Questo comporta però alcuni costi di transazione. Analizzando infatti il mercato come un gruppo in cui i singoli devono comunicare per portare a termine uno scambio, il mercato subisce quello che Shirky definisce il paradosso del compleanno: “a parità di fattori, coordinare [p. 13 modifica]qualsiasi attività in un gruppo di quattro persone è sei volte più difficile che in un gruppo di due” (Shirky, 2008, 22) (in quanto, in un gruppo di quattro persone i rapporti diretti sono sei, mentre in un gruppo di due il rapporto diretto è uno unico). E gli effetti peggiorano in maniera esponenziale rispetto alla crescita del gruppo, fino a rendere concretamente impossibile l’avere rapporti diretti tutti tra tutti.
Le organizzazioni gerarchiche vengono create proprio per semplificare la comunicazione organizzativa, suddividendola in livelli. Esse però, spiega Shirky, vivono quello che viene definito dilemma istituzionale, derivante comunque dai costi di management: l’istituzione esiste per avvantaggiarsi del lavoro di gruppo, ma deve impiegare una parte delle sue risorse per organizzare tale lavoro. Questo implica che “alcune attività, pur essendo valide, non vengono avviate perché non convenienti” (Shirky, 2008, 26). In entrambi i casi, quindi, sia le aziende che le organizzazioni non sono in grado di considerare tutte le attività possibili, creando uno spreco delle risorse potenziali presenti nella società.
Ora però l’innovazione tecnologica digitale ha fornito nuovi strumenti di comunicazione e produzione che offrono la possibilità di organizzarsi e agire collettivamente su larga scala a costi molto bassi. Tali tecnologie, che Franco Carlini nell’introduzione a Benkler, definisce abilitanti, permettono alle persone di fare da sole, soprattutto nell’economia dell’informazione e della conoscenza, che è la base della libertà e dello sviluppo umano (Benkler, 2007, 1). Ciò ha fatto emergere una terza modalità di organizzazione del lavoro di gruppo, quella dei “lavori complessi intrapresi senza alcuna direzione dall’alto” (Shirky, 2008, 37). Questa terza modalità viene chiamata da Alberto Cottica collaborazione di massa. Tali dinamiche di collaborazione di massa hanno origine da diversi livelli di cooperazione.
Riassumendo, Benkler afferma che “i cambiamenti avvenuti nelle tecnologie, nell’organizzazione economica e nelle pratiche sociali di produzione hanno creato nuove opportunità per la creazione e lo scambio di informazione, conoscenza e cultura. Questi scambi hanno accresciuto il ruolo della produzione non-commerciale e non proprietaria, sia per gli individui sia per gli sforzi cooperativi che agiscono all’interno di un ampio spettro di legami più o meno stretti di collaborazione” (Benkler, 2007, 2). [p. 14 modifica]

1.4. Il mercato dell’abbondanza[modifica]

Le possibilità aperte grazie ai nuovi strumenti rivoluzionano la società e il mercato in cui tale società opera, che è passato dall’essere caratterizzato dalla scarsità all’essere caratterizzato dall’abbondanza (Benkler, 2007). Chris Anderson, nel suo libro “La coda lunga” traccia un quadro dell’economia attuale.
Il mercato tradizionalmente inteso è un mercato caratterizzato da limiti fisici ed economici, e i venditori trattano solo i prodotti che sono in grado di generare profitto. Il mercato attuale, però, grazie alla distribuzione e alla vendita on-line, è caratterizzato dall’abbondanza. Gli strumenti tecnologici attuali permettono all’offerta bassi costi di produzione/distribuzione dei contenuti, alla domanda bassi costi di accesso a questi contenuti. L’offerta può essere illimitata, e qualsiasi offerta può avere una sua domanda: in questo modo il mercato si diversifica e frammenta in infinite nicchie. Il panorama culturale diventa così un continuum tra prodotti di massa e prodotti di nicchia. In realtà, specifica l’autore, il mercato delle nicchie è sempre esistito, ma ora che i costi per offrire/ottenere questi prodotti sono crollati, le nicchie stanno diventando una forza trainante del mercato. Internet per esempio può portare un milione di prodotti ad ogni persona (diametralmente il contrario di ciò che fanno i mass media, che possono portare un prodotto a un milione di persone).
Questa differenziazione del consumo crea una curva di distribuzione che è definita “a coda lunga”: alla testa della coda ci sono le hit, che producono le vendite maggiori, poi la domanda decresce, ma non arriva mai a zero.
Il concetto di coda lunga è apparso per la prima volta su “Wired” nell’ottobre 2004, e deriva da tre osservazioni principali: la coda della varietà disponibile è molto più lunga di quanto pensiamo; è facilmente accessibile da un punto di vista economico; tutte le nicchie se aggregate costituiscono un mercato significativo e in grado di rivaleggiare con il mercato degli hit.
Tradizionalmente il mercato era dominato dalla regola dell’80/20, risalente alle teorizzazioni di Vilfredo Pareto del 1897 (e successivamente applicata da altri studiosi a molti ambiti, fino ad estenderla all’intera società). Secondo tale regola, esiste un rapporto algebrico costante tra ricchezza e popolazione, ricorrente nel tempo e nello spazio: il 20% dei prodotti genera l’80% delle vendite. [p. 15 modifica]La regola è spesso fraintesa per diversi motivi. Per esempio 80 e 20 sono percentuali di cose diverse e quindi non devono necessariamente dare 100. Tuttavia, sostiene Anderson, la coda lunga determina la fine della regola dell’80/20, in quanto annulla le tradizionali limitazioni economiche: anche se il 20% dei prodotti produce l’80% dei ricavi non c’è motivo per non trattare anche il restante 80% dei prodotti.
Nell’era del digitale, che, trascendendo la tangibilità delle merci, rende superflui molti tradizionali costi di vendita (come quelli di magazzino/inventario o di packaging) e conseguentemente di acquisto, permettendo l’accesso pressoché istantaneo ai prodotti, i consumatori possono guardare ogni bene disponibile. La nuova efficienza nella produzione e distribuzione modifica la definizione di ciò che è commercialmente valido: esiste una coda lunga praticamente per tutto, ed ogni coda è costituita, a sua volta, da micro-code.
Tale cambiamento è reso possibile dal web e dallo scambio tra pari. Non solo perché lo scambio diretto di file tra utenti è gratuito, ma anche perché facilita l’accesso ad una scelta di prodotti senza precedenti. I costi economici sono anche i costi di ricerca, di accesso alle cose che si desidera consumare. Le tecnologie facilitano la ricerca, e incoraggiano le persone a non fermarsi a ciò che è conosciuto, a sperimentare. Inoltre le persone possono facilmente comunicare: si scambiano consigli e diventano l’un l’altro tastemakers. I consumatori sono cambiati e cercano non omologazione, bensì differenziazione tramite il consumo. Questo è principalmente evidente in due direzioni: nel mercato dell’intrattenimento (per esempio nel mercato dei libri sono nati progetti come Amazon, lulu.com, Alibris, mentre nel settore musicale troviamo il fenomeno iTunes) e nel mercato dell’informazione (nel campo del giornalismo, i blogger stanno sempre più diventando una fonte di informazione autorevole, sono sempre più frequenti i casi di citizen journalism e si stanno realizzando progetti come spot.us e, in Italia, il recente youcapital.it).
Il modello one-size-fits-all è rimpiazzato da un mercato di moltitudini: la maggior parte dei prodotti non diventa best-seller, ma non per questo non ha un proprio pubblico. Uno degli errori più frequenti di sottovalutazione del fenomeno coda lunga consiste nel ritenere che sia piena di prodotti di scarsa qualità. Secondo Anderson, chi la pensa così ragiona secondo il modello per cui se un prodotto è buono allora diventerebbe una hit, ma il mercato attuale funziona diversamente. Al di là del fatto che i gusti sono sempre [p. 16 modifica]più differenziati e personali (e ciò che per qualcuno è scadente, può essere rilevante per qualcun altro), le nicchie operano secondo una logica diversa dal mercato mainstream. Questo non significa che nella coda lunga non ci siano prodotti di bassa qualità: prodotti buoni e scadenti convivono, ma esistono dei filtri, che indirizzano la domanda lungo la curva. Tali filtri possono essere strumenti del web, come per esempio Google e YouTube, o il tradizionale passaparola. Anderson afferma che, grazie a Internet e alla facilità di comunicazione che porta, “le formiche hanno i megafoni” (Anderson, 2006, 93): la comunicazione pubblicitaria e dall’alto sta perdendo potere a vantaggio del passaparola dal basso. Il passaparola amplificato di facilitatori e filtri (che consistono nelle opinioni delle persone, diversificate tra professionisti, micro celebrità e intelligenza distribuita) è il motore dell’incontro tra domanda e offerta.
Riassumendo, a parere di Anderson, la riduzione dei costi che è oggi possibile grazie alle tecnologie produce le tre forze della coda lunga:

  • Democratizzazione degli strumenti produttivi, possibile grazie ai personal computer e alla tecnologia digitale (premessa a ciò che Shirky definisce amatorializzazione di massa);
  • Democratizzazione della distribuzione grazie a internet;
  • Collegamento tra offerta e domanda, che indirizza i consumatori verso le nicchie.

È in questo mercato che è possibile produrre e diffondere i prodotti creati tramite la collaborazione di massa.

1.5. Il ruolo enabling delle tecnologie e il social drifting[modifica]

“L’invenzione di uno strumento non crea il cambiamento; lo strumento deve essere in giro per un tempo sufficiente da permettere alla maggior parte della società di utilizzarlo” (Shirky, 2008, 80). Il portatore di cambiamento, specifica Howe, non è la tecnologia in sé, ma come la tecnologia influisce sul comportamento umano. L’autore porta l’esempio di Wikipedia, che, tramite la modalità wiki, ha permesso di dividere un complesso compito come scrivere un’enciclopedia in piccoli parziali contributi. Come afferma anche Shirky, “i semplici strumenti non sono abbastanza, sono puramente un modo per incanalare motivazioni pre esistenti” (Shirky, 2008, 16). Egli descrive l’esempio di Flickr e della Mermaid Parade di New York del 2005: lo strumento ha reso [p. 17 modifica]possibile la raccolta di immagini dell’evento grazie all’utilizzo di uno stesso tag di collegamento, ma non ha organizzato né coordinato tale azione sociale. Sarebbe impossibile per un’organizzazione realizzare un’azione condivisa del genere, in quanto il divario tra spese e ricavi non sarebbe sostenibile. Eppure la conoscenza delle potenzialità di questa tecnologia ha permesso alle persone di sfruttarla e di auto organizzarsi. Analogamente, Flickr è stato anche uno strumento utile in situazioni molto più critiche e delicate (l’attentato di Londra del 2005, lo tsunami nell’Oceano Indiano del 2004, il colpo di stato del 2006 in Thailandia) rendendo possibile l’auto sincronizzazione tra gruppi altrimenti latenti, che sono stati in grado, in questo modo, di creare un valore aggiunto informativo per l’intera società.
Nel linguaggio di programmazione, “peggio è meglio” (Richard Gabriel, 1991, in Shirky, 2008, 91), ovvero la semplicità si diffonde più facilmente. Solo quando una tecnologia diventa normale, quindi onnipresente, i cambiamenti più profondi hanno luogo.
In alcuni casi gli strumenti vengono creati con uno scopo, ma poi gli utenti lo dominano e adattano ad uno scopo diverso. Questo fenomeno, noto come social drifting, è quello che è successo per esempio al social network Friendfeed. Quando si verifica il fenomeno dell’appropriazione sociale, le intenzioni di chi sviluppa lasciano il passo agli utilizzi reali. “Se si propone uno strumento inadatto alle esigenze delle persone coinvolte, queste lo piegheranno alle loro esigenze: se quel che vogliono è una chat e voi gli date un forum, loro chatteranno sul forum, forumizzeranno un blog e così via” (DeBaggis, 2010, 151).
Danah Boyd, Social Media Researcher di Microsoft, afferma: “progettiamo i social media con in mente un pubblico di riferimento ma non siamo mai preparati agli effetti di rete e ai differenti casi d’uso che emergono” (Boyd, 2009). Per effetti di rete l’autrice intende tutte quelle dinamiche socio culturali che vanno a influenzare la diffusione e l’utilizzo effettivo di una tecnologia o piattaforma digitale. La soluzione, continua l’autrice, consiste nell’“evolvere i […] prodotti mentre le persone iniziano ad utilizzarli” (Boyd, 2009); la lezione è che la gran parte dei software sono fatti meglio se creati nell’ambito di un dialogo tra creatore e utente.
Mafe DeBaggis, a tale proposito, prendendo in prestito uno dei principi dello User Experience Design, afferma che nel progettare una strategia di social media marketing [p. 18 modifica]sia necessario rispettare il principio del good enough, secondo il quale è consigliabile progettare strumenti semplici e veloci che possono essere facilmente adattati alle necessità emergenti.

1.6. Collaborazione collettiva: il caso Linux come good practice[modifica]

Howard Rheingold definisce smart mob quelle reti sociali in cui gli individui sono in grado di agire in maniera coordinata anche se non si conoscono. Il primo prodotto interamente realizzato tramite la nuova modalità di organizzazione del lavoro di gruppo è Linux. La storia di Linux inizia nel 1991, quando il giovane programmatore finlandese Linus Torvalds posta una nota su un gruppo di discussione dedicato ai sistemi operativi: “sto progettando un sistema operativo libero (è solo un passatempo, nulla della portata di GNU), e vorrei sapere quali caratteristiche sono più importanti per la gente. Qualunque suggerimento è benvenuto, ma non prometto di realizzarli”. La sua richiesta viene accolta e ottiene collaborazioni da tutto il mondo. In pochi mesi il nuovo sistema operativo ha una prima versione funzionante. Torvalds decide di pubblicare il codice con licenza GPL (General Public License): grazie a ciò, chiunque può usare gratuitamente il sistema e modificarlo, a condizione che renda disponibili a tutti gli altri utenti i cambiamenti fatti.
Il successo di Linux risiede nell’aver formulato ciò che Eric Raymond chiama premessa plausibile (Shirky, 2008, 179): Torvalds non ha annunciato un obiettivo complesso, non ha promesso grandi cose. Egli ha annunciato un obiettivo piccolo (solo un passatempo), e onesto (non prometto di realizzarli). Inoltre Torvalds ha aperto il progetto alla libera partecipazione degli volontari tramite un’organizzazione di collaborazione tra pari, permettendo l’apporto anche di chi non avrebbe avviato un progetto del genere in prima persona. Gli individui disposti a dare vita ad un progetto, infatti, sono molti meno di quelli che possono poi essere disposti a prendere parte a tale progetto, fornendo il proprio contributo personale.
Il caso Linux ha rivelato come il lavoro possa essere organizzato più efficacemente in un contesto di comunità che in un contesto aziendale, e come le persone più adatte a portare a termine un progetto siano quelle che si auto selezionano in quanto interessate e competenti. [p. 19 modifica]“Non importa chi voi siate, la maggior parte delle persone più intelligenti lavora per qualcun altro” (Shirky, 2008, 189): sia Howe che Shirky citano la frase di Bill Joy per sottolineare come il crowdsourcing permetta l’espressione del potenziale latente degli individui, altrimenti limitato ad un solo ambito lavorativo. Il crowdsourcing permette dunque di esplorare l’espressione creativa delle persone e di utilizzare la totalità delle potenzialità sociali.

1.7. Il fallimento gratuito come possibilità di innovazione

Secondo gli autori, uno dei vantaggi derivanti dai prodotti realizzati tramite il crowdsourcing è la possibilità di fallimento gratuito. Shirky porta l’esempio di Meetup, social network che ha lo scopo di facilitare l’incontro di gruppi di persone. “Meetup non ha successo nonostante i gruppi che falliscono, ma grazie ai gruppi che falliscono” (Shirky, 2008, 177). Il fallimento permette la selezione della qualità migliore, e solo i gruppi interessanti resistono.
Lo stesso vale per tutti i prodotti open-source: dal momento che la produzione open-source è basata sul lavoro tra pari, tale lavoro è più sperimentale ma “ha un costo considerevolmente inferiore a quello che una grande azienda potrà mai permettersi” (Shirky, 2008, 184). Dal momento che l’effetto globale del fallimento dipende dai suoi costi per le probabilità che si verifichi, le aziende sono portate a non rischiare in direzioni sconosciute e insicure. Secondo il concetto di fitness landscape, nel mercato c’è tanto spazio da esplorare con poco valore da scoprire. Di conseguenza, è più probabile dare vita a progetti fallimentari che non il contrario. L’innovazione, in questo scenario, è molto costosa: l’azienda è portata a mantenere un buon modello di funzionamento già noto e a compiere scelte sicure, impedendo la possibilità di creare innovazione. Cosa che invece può fare un’organizzazione open-source visto che, non avendo impiegati da pagare né fatto investimenti, un suo fallimento è, a tutti gli effetti, gratuito: non si riducono le probabilità di fallimento, ma i costi legati al fallimento.
Siccome i costi nelle organizzazioni open source sono solo costi di organizzazione, per assurdo in questi contesti sperimentali è spesso più economico sperimentare, che cercare una decisione condivisa sulle possibilità di sperimentazione.
Il fallimento gratuito consente anche un aggiustamento a livello micro durante lo svolgimento del progetto. Il prodotto derivante da tale processo di trial and error [p. 20 modifica]fornisce sia un costo più basso che un valore più alto rispetto al prodotto di un’azienda. Cottica cita il concetto di distruzione creatrice (Cottica, 2010, 207) dell’economista austriaco Joseph Schumpeter, il quale per primo ha asserito che l’innovazione è spesso distruttiva e che l’avanzamento dei mercati passa per il loro fallimento.
L’open-source permette l’esplorazione di possibilità multiple e crea un valore irraggiungibile da un’azienda. Le aziende non possono permettersi di assumere lavoratori che apportino un unico, magari piccolo, contributo (per quanto importante), cosa che invece possono fare le organizzazioni tra pari. Linux, per esempio, è stato creato sfruttando la buona idea di chiunque e in questo modo modifica l’ambiente concorrenziale, non dimenticando quel 20% di possibilità di paretiana memoria.

1.8. Amatorializzazione di massa e User Generated Content[modifica]

Secondo Anderson ci troviamo nell’era Pro-Am, l’epoca in cui professionisti e amatori collaborano fianco a fianco. Grazie alla rivoluzione tecnologica, infatti, è cambiata la tradizionale divisione tra professione e lavoro (Shirky, 2008, 45). Oggi non è più necessario essere un professionista per dedicarsi a determinati ambiti o argomenti. Grazie alla democratizzazione dei mezzi di produzione e distribuzione, chiunque è in grado di produrre e diffondere potenzialmente al mondo intero le proprie creazioni.
Una professione nasce quando esiste una risorsa scarsa che richiede un certo grado di specializzazione per essere gestita. Consideriamo per esempio il mercato dell’informazione. I mezzi di informazione tradizionali, che si basavano sulla carta stampata o sulle frequenze di trasmissione, operavano in un mercato di scarsità. Tale industria dell’informazione aveva bisogno di editori, proprietari dei mezzi di produzione e distribuzione dell’informazione, e di giornalisti in grado di accedervi. Ma internet ha rivoluzionato il sistema dell’informazione e ora la pubblicazione delle informazioni non è più monopolio dei giornali: internet rende possibile l’amatorializzazione di massa della pubblicazione.
Conseguentemente cambia anche ciò che era tradizionalmente inteso come notizia. Prima la notizia consisteva in quello che veniva stabilito potesse essere di pubblico interesse e che quindi meritava di essere trattato dai mezzi di comunicazione. Questa definizione poteva essere adatta quando la possibilità di diffondere informazione era ancora appannaggio dei gruppi editoriali e di conseguenza i costi e lo spazio di [p. 21 modifica]pubblicazione erano risorse limitate. Ma ora non è più così, e il legame tra valore della notizia e pubblicazione è venuto meno. Ora le notizie possono raggiungere l’opinione pubblica prima di giungere alla stampa (come dimostra, per esempio, il caso WikiLeaks).
Secondo Benkler, è emersa una nuova economia dell’informazione in Rete (networked information economy) che sta sostituendo quella dell’informazione industriale. Ora le “azioni individuali decentrate – cioè le nuove e rilevanti condotte cooperative, coordinate per mezzo di meccanismi non commerciali […] che non dipendono da strategie proprietarie – giocano un ruolo molto più grande di quanto non […] avrebbe mai potuto essere nell’economia dell’informazione industriale” (Benkler, 2007, 4). Questo modello economico comporta nuove potenzialità sulla libertà e sulla politica: le reti di informazioni mettono a disposizione più conoscenza e più libertà di parola. Conseguentemente assistiamo ad un deperimento dei media broadcasting e ad un arricchimento delle sfera pubblica. Ciò permette alle persone di analizzare e infrangere il muro (prevalentemente linguistico/informativo) che divide politica e cittadini (Carlini, introduzione a Benkler, 2007).
Questa autonomia di pubblicazione comporta però corrispondentemente dei problemi, tutt’ora di difficile soluzione: come definire chi è giornalista/fotografo/ecc.? In base a quale limite stabilire chi dovrebbe godere dei diritti riservati alla categoria professionale? Si pone la necessità sempre più urgente di adattare giuridicamente alla nuova situazione i privilegi della categoria.
Inoltre la collaborazione in Rete pone problemi di diritti di proprietà intellettuale: “la nuova conoscenza si costruisce a partire da quella che c’è, copiando, incollando, migliorando” (Carlini, introduzione a Benkler, 2007). Come afferma Anderson, nella nuova cultura della cooperazione in Rete, copiare non è un reato, se si attribuisce correttamente la paternità dei contenuti/progetti. Questo è possibile, per esempio, tramite i Creative Commons6, licenze grazie alle quali un produttore decide esplicitamente di rinunciare ad alcuni dei diritti che ha su un proprio prodotto pur che esso sia utile ad altri. Tutto ciò mette in crisi il tradizionale sistema dei diritti di proprietà intellettuale, basato su copyright e brevetti.
I contenuti creati dagli utenti sono definiti user generated content, UGC. [p. 22 modifica]L’OECD (Organisation for Economic Co operation and Development) ha definito tre caratteristiche centrali per gli UGC7:

  1. Requisiti di pubblicazione: un UGC è tale se viene pubblicato in Rete, che sia su un sito, un blog o una pagina di un social network ristretto a un gruppo selezionato di persone. Questo è un modo utile per escludere conversazioni personali come l’e-mail, chat e simili.
  2. Sforzo creativo: un UGC è tale se è impiegata una certa quantità di sforzo creativo nella costruzione del materiale (o nell’adattamento di qualcosa di pre-esistente) per creare qualcosa di nuovo. Gli utenti, agendo singolarmente o ingruppo, devono cioè aggiungere un proprio valore al lavoro. Pubblicare del materiale copiato da altri non può essere considerato UGC. Al contrario, laddove un utente carichi le sue fotografie, oppure esprima i suoi pensieri in un blog, i contenuti possono essere considerati UGC. Tuttavia è difficile stabilire quale sia il livello minimo di sforzo creativo ammissibile: la valutazione dipende infatti anche dal contesto.
  3. Creazione al di fuori delle routine professionali: l’UGC deve essere normalmente creato a titolo personale e non nello svolgimento di una pratica lavorativa.

Secondo Boyd, un UGC è un contenuto alla cui produzione contribuiscono i fruitori/partecipanti e non i soli autori (Boyd, 2009). Essi rappresentano una forma di cultura popolare che assume la forma di arte pratica o di consumo basato su combinazioni e modi d’uso (Mazali, 2009).
L’esplosione degli user-generated content produce molto buon materiale ma anche molto materiale di qualità trascurabile. Non tutti i contenuti che si possono trovare in Rete hanno lo stesso valore: è necessaria una selezione. Tale selezione è inoltre necessaria anche perché non tutti i tradizionali limiti della comunicazione sono scomparsi: sono venuti meno i limiti tecnologici ed economici, ma non quelli cognitivi e sociali. Il tempo e l’attenzione sono limitati, ed è quindi necessario fare delle scelte su chi ascoltare e chi ignorare. [p. 23 modifica]Prima la selezione era fatta a monte da chi deteneva la proprietà dei mezzi di comunicazione; ora, non essendo controllabile il processo di pubblicazione, la soluzione è selezionare i contenuti a posteriori, secondo il modello “prima pubblica poi filtra” (Shirky, 2008, 63). Le modalità di filtraggio sono quelli suddetti, specificati da Anderson (gli strumenti tecnologici e il passaparola).
Tale soluzione può sembrare fonte di disordine, ma, come afferma David Weinberger in “Everything is Miscellaneous”, “la soluzione alla sovrabbondanza di informazione è più informazione” (Weinberger, 2007, 13) in modo che sia possibile capire cosa è degno di attenzione e cosa non lo è. Egli sostiene che normalmente il disordine non solo appare inefficiente ma ci fa anche sentire a disagio; per questo tendiamo ad assegnare categorie. Viviamo secondo la regola “ogni cosa ha un suo posto”. Tuttavia, egli continua, il mondo digitale permette di trascendere tale regola di riordino del mondo analogico: nel mondo digitale ad ogni cosa possono essere assegnati più posti simultaneamente (Weinberger, 2007, 14). Questa possibilità apre nuove possibilità di conoscenza: Weinberger porta l’esempio di iTunes che, rendendo la musica miscellanea, permette al negozio virtuale di adattarsi alle necessità del cliente.
Uno dei metodi per mettere ordine è l’assegnazione di etichette agli UGC. Il web è basato sulla folksonomy, la categorizzazione delle informazioni e dei contenuti generata dagli utenti mediante l’utilizzo di tag scelte liberamente. Esse sono apparse per la prima volta verso la fine del 2003 nel sito di social bookmarking del.icio.us. Il termine, la cui origine è attribuita a Thomas Vander Wal, è formato dall’unione di due parole, folk e tassonomia; una folksonomia è, pertanto, una tassonomia creata da chi la usa, in base a criteri individuali8. La folksonomy attualmente non è ancora perfetta, ma è un primo passo verso il web semantico.

1.9. Le small-world network[modifica]

Assistiamo attualmente ad un cambio delle modalità di comunicazione: dai mezzi di comunicazione di massa “da uno a molti” oppure “da uno a uno” (rispettivamente appartenenti alla comunicazione pubblica e alla comunicazione privata, ben definite e distinguibili) si è passati alla comunicazione “da molti a molti”. Basti pensare a ciò che rendono possibile le e-mail, che offrono una comunicazione “da molti a molti” [p. 24 modifica]istantanea, a costo pressoché nullo, ed asincrona tra mittente e destinatario. Con la comunicazione di gruppo “da molti a molti”, i confini tra pubblico e privato si perdono. Il risultato è una parcellizzazione dell’audience da audience di massa a piccole comunità ad alta densità sociale. Per gran parte della storia di internet i gruppi on line erano più piccoli delle audience tradizionali, ma ora, grazie alla facilità di connessione, sono in grado di crescere e ogni gruppo diventa una meganicchia. Gianluca Diegoli, a tale proposito, nel corso di un conferenza ha affermato: “Quando si comunica sui Social Media, il mondo è in CC9.
L’idea di Rete come spazio separato, alternativo a quello reale (il cosiddetto cyberspazio) non è più attuale, e non rispecchia le dinamiche che si realizzano in Rete. Oggi i due mondi sono sovrapposti e la Rete è il luogo in cui le persone si coordinano per portare a termine concreti progetti comuni. Il crowdsourcing usa la tecnologia per raggiungere livelli di collaborazione/azione senza precedenti, tra persone di ogni background e luogo geografico.
Secondo Howe, le comunità on line sono il cuore del crowdsourcing, il contesto e la struttura all’interno della quale il lavoro ha luogo. La collaborazione può avvenire all’interno di piccoli o di grandi gruppi. I piccoli gruppi, che sono più coesi e connessi, creano un migliore ambiente di conversazione. Un problema delle reti basate su piccoli mondi però consiste nel fatto che agiscono sì come amplificatori, ma anche come filtri dell’informazione. Se è vero che più gli amici sono attenti a un certo tipo di informazione più è probabile che ogni individuo ne venga a conoscenza, si verifica anche il contrario: le informazioni che non interessano ad amici (e amici di amici) saranno difficilmente reperibili.
Tuttavia, i piccoli gruppi sono utili in quanto permettono la cooperazione tra grandi gruppi: i grandi gruppi sono basati su reti di piccoli gruppi. E i grandi gruppi godono della saggezza della folla. Inoltre le small-world network aumentano la possibilità di agire e aumentano il capitale sociale. Il capitale sociale è quell’insieme di comportamenti e norme di un gruppo sociale, che permette ai membri di aiutarsi a vicenda.
Il sociologo Robert Putnam definisce il capitale sociale come un bene allo stesso privato e pubblico, l’esito di un processo di creazione di valore da parte di gruppi sociali basato [p. 25 modifica]su un sistema di obbligazioni reciproche (specifiche o generalizzate). Il capitale sociale si manifesta in diverse dimensioni a seconda che il gruppo sociale sia influenzato da forze di bonding (tendente a capitale sociale esclusivo) o di bridging (tendente a capitale sociale inclusivo). Nel primo caso il capitale sociale contribuisce al rafforzamento dell’identità e della solidarietà interna al gruppo; nel secondo caso il capitale sociale favorisce la circolazione di informazioni e crea unioni tra gruppi sociali differenti (Maistrello, 2007, 97).

1.10. Le comunità di pratica[modifica]

Grazie alla democratizzazione dei mezzi di produzione e diffusione dei contenuti, le persone diventano quello che Dan Gillmor ha definito ex-pubblico o ex-audience, ovvero “persone che partecipano riuscendo spesso a cambiare lo svolgersi di un evento” (Shirky, 2008, 8).
È in atto un passaggio sociale a ciò che Anderson definisce produttivismo partecipativo. Secondo Jeff Howe, il crowdsourcing sarebbe solo una delle manifestazioni di un grande movimento di democratizzazione del commercio, dove le persone più che essere consumatori passivi preferiscono partecipare in maniera significativa allo sviluppo e alla creazione di prodotti che considerano di valore. Le persone si trasformano da semplici consumatori a prosumers, neologismo creato dall’unione tra la parola producers e la parola consumers. Un prosumer è un utente che da passivo diventa attivo. Il termine prosumers è stato coniato nel 1980 da Alvin Toffler quando, nel suo libro “The third wave”, pronosticò che in un mercato saturo di prodotti di massa standardizzati, i consumatori avrebbero voluto cominciare a esercitare un controllo maggiore sulla creazione dei prodotti da loro consumati.
Grazie a quella che Tim O’Reilly definisce architettura della partecipazione (Shirky, 2008, 15) (la possibilità diffusa di accedere a risorse prima riservate a specifiche classi professionali) permette alle persone di organizzarsi in comunità di pratica. Il sociologo Etienne Wenger definisce una comunità di pratica come “un gruppo di persone che conversano su un particolare lavoro al fine di migliorarne lo svolgimento” (Shirky, 2008, 76).

[p. 26 modifica]Una comunità di pratica esiste se gli individui che la compongono esperiscono un senso di appartenenza. I fattori da cui dipende il senso di appartenenza, secondo la definizione di Wenger, sono tre:

  1. mutuo coinvolgimento: attenzione costante e reciproca di ogni partecipante nei confronti degli altri;
  2. responsabilità rispetto agli obiettivi comuni (enterprise): impegno personale per la negoziazione e il perseguimento dell’obiettivo comune;
  3. repertorio condiviso: interiorizzazione del set di strumenti e linguaggi della pratica comune, in modo da accrescere il proprio livello di partecipazione.

Il primo fattore è il coinvolgimento. La pratica non esiste in sé, in astratto, bensì è creata tramite le azioni degli attori sociali suoi protagonisti, azioni i cui significati dipendono da un mutuo coinvolgimento. La stessa appartenenza ad una comunità è dipendente dal grado di coinvolgimento di ogni attore. Conseguentemente, l’elemento decisivo per una comunità fondata sulle pratiche è il lavoro di mantenimento della comunità, quel lavoro cioè che consente al corpo collettivo di mantenere la propria solidità e inerzia nel tempo. Se il lavoro di mantenimento delle comunità si realizza positivamente, nasce un circolo virtuoso, grazie al quale gli attori sono portati a investire ulteriore tempo ed energie nella pratica: “il coinvolgimento induce appartenenza e popolarità; appartenenza e popolarità inducono coinvolgimento” (Arata, 2000).
Il secondo fattore è la negoziazione di obiettivi e comportamenti comuni (enterprise comune). La negoziazione di un obiettivo comune non corrisponde necessariamente ad un accordo condiviso su tutte le questioni. “La missione è comune non perché tutti pensino la stessa cosa o concordino sui medesimi punti, ma perché, a fronte delle diverse esigenze e punti di vista dei partecipanti, esiste uno sforzo condiviso” (Ibidem). Attraverso la negoziazione, ognuno degli attori coinvolti comprende di essere chiamato ad assumere uno o più compiti, di natura esplicita o tacita. Questo regime di mutua responsabilità gioca un ruolo centrale nella vita della comunità di pratica. Da esso dipende, infatti, la definizione delle circostanze in cui sentirsi coinvolti (od estranei) rispetto agli obiettivi.
Il terzo fattore è lo sviluppo di un repertorio condiviso. “Nel corso del tempo lo sforzo congiunto per la realizzazione della missione crea supporti per la negoziazione del significato” (Ibidem). Gli elementi di un repertorio possono essere tra loro molto [p. 27 modifica]diversi, e la loro coerenza dipende non dal loro intrinseco status di processi standardizzati, ma piuttosto dal fatto che essi appartengano alla pratica di una specifica comunità che persegue una missione data.
Le comunità di pratica si configurano, secondo la definizione di Wenger, come strutture sociali emergenti. Una comunità di pratica esiste non in ragione di una quantità minima di tempo investita, ma in virtù di un mutuo sostegno al coinvolgimento da parte degli attori coinvolti. L’apprendimento della pratica è un “processo incessante in cui ciò che i soggetti imparano è la dinamica stessa del sentirsi coinvolti, partecipare e sviluppare la comunità” (Arata, 2000); “l’apprendimento è il motore della pratica, e la pratica si configura a sua volta come la storia di quell’apprendimento” (Ibidem). L’apprendimento è importante anche in relazione all’accoglimento di nuovi membri all’interno del gruppo. Secondo Wenger l’esistenza di una comunità di pratica non dipende da una membership prefissata, ed anzi uno degli aspetti più essenziali nella vita della struttura è costituito dall’arrivo di nuove generazioni di membri. “L’autore americano illustra […] il fatto che la pratica può essere condivisa e trasmessa intergenerazionalmente proprio perché essa costituisce di per sé un processo collettivo di apprendimento” (Ibidem). Dal momento che la comunità ha interesse al mantenimento della pratica, deve porre in atto un processo ufficiale di selezione e socializzazione per assicurarsi che i nuovi venuti siano in grado di rapportarsi alle situazioni emergenti. Tuttavia il reale inserimento dei nuovi venuti dipende solo limitatamente dall’apprendimento formalizzato. Secondo Wenger, infatti, altrettanto importante della didattica tradizionale è la creazione di routines che, attraverso l’azione e privilegiando il learning by doing, favoriscano l’inserimento dei nuovi arrivati nelle dinamiche di attività collettiva.

Riprendendo il discorso, attualmente i bassi costi di coordinamento facilitano l’emersione di una comunità di pratica latente. Non tutte le pratiche creano lo stesso grado di coinvolgimento degli attori. Shirky differenzia tre gradi di attivazione dei prosumers:

  • Condivisione: è la semplice accumulazione di contenuti simili grazie all’aggregazione dei partecipanti.
  • Collaborazione: è la produzione di contenuti collettivi. Richiede sincronizzazione tra obiettivi di gruppo e obiettivi individuali, necessità di [p. 28 modifica]
negoziazione e identità di gruppo. Uno degli esempi più famosi di collaborazione è Wikipedia.
  • Azione collettiva: è la realizzazione di un concreto progetto comune. Richiede l’esistenza di un impegno personale per un fine comune, del quale le responsabilità sono condivise. Lega l’identità di un membro al gruppo intero: le decisioni del gruppo sono vincolanti rispetto a quelle individuali.

1.11. Le motivazioni del comportamento individuale[modifica]

Secondo Howe, il crowdsourcing ha rivelato che, al contrario dell’opinione convenzionale, le persone non agiscono sempre e solo in situazioni di auto interesse.
Benkler afferma: “gli esseri umani sono e saranno sempre mossi dalle motivazioni più diverse. Agiamo in maniera strumentale, ma anche per motivi non strumentali. Agiamo spinti dalla prospettiva di guadagno materiale, ma anche per trarre benessere e gratificazione psicologica, e maggior senso di appartenenza sociale” (Benkler, 2007, 7).
Le persone che tipicamente contribuiscono a progetti crowdsourced lavorano bene nonostante l’assenza di retribuzione materiale. Questo comportamento sembra illogico se visto con gli occhi dell’economia tradizionale, ma la retribuzione non è per forza misurabile in termini monetari: la ricompensa alla collaborazione è, in questo contesto, la creazione di un valore di cui può beneficiare l’intera comunità, l’utilizzo del proprio talento e la voglia di condividerlo con gli altri. Ne sono un esempio i numerosi casi di citizen journalism, o la diffusione dei Creative Commons.
Shirky sottolinea che l’uomo è un animale sociale, la sua forza risiede nell’azione del gruppo, ipotizzando questa come la spiegazione del fatto che gli uomini agiscano senza necessità di retribuzione. Come afferma Cottica “diventiamo molto più inclini all’altruismo se abbiamo la sensazione di muoverci all’interno di un gruppo di cui ci riconosciamo parte” (Cottica, 2010, 83).
Pekka Himanen, nel suo libro “L’etica hacker e lo spirito dell’età dell’informazione”, sostiene che gli hacker (nell’accezione originale del termine10) sono persone che lavorano con entusiasmo e che ritengono positiva la condivisione delle informazioni: lo [p. 29 modifica]scambio delle competenze diventa un vero e proprio dovere etico. L’autore divide tale etica hacker in tre direzioni, che sfidano la tradizionale mentalità di weberiana memoria:

  1. etica del lavoro: gli hacker hanno un rapporto entusiastico nei confronti del lavoro;
  2. etica del denaro: l’attività è motivata non dal denaro ma dal desiderio di creare qualcosa che la comunità dei pari possa ritenere di valore;
  3. etica del network (o netica): condivisione dei prodotti che crea facilitazione dell’accesso alle informazioni.

Anche Torvalds, nel prologo al libro di Himanen, afferma che la ragione per cui gli hacker di Linux collaborano gratuitamente al progetto risieda nel fatto che trovano stimolante il lavoro che fanno.
Secondo Sergio Maistrello, l’economia della parte abitata della Rete è basata sul dono, su scambi e condivisioni gratuite; il guadagno consiste nella creazione di capitale sociale, cui si è precedentemente accennato.
Giuseppe Granieri, (in Maistrello, 2007, 57), osservando in modo specifico l’insieme dei blog, lo descrive come un sistema ricco: “per sua stessa natura un blog è un atto di generosità: essendo un nodo in un sistema di lettura, sposta l’attenzione (e il lettore) su altri blog invece di cercare di trattenerlo sulle sue pagine. Se un blogger legge un post interessante in un altro blog, lo cita linkando la fonte e indirizzando il visitatore verso nuovi lidi. Questa scelta, che in un sistema competitivo sarebbe un suicidio, nel sistema Weblog è prassi. In questo modo ci guadagnano tutti: l’autore del post perché riceve nuova attenzione, l’autore della citazione perché ha fornito un input qualitativo al suo lettore e il lettore stesso perché vede incrementare le probabilità di incontrare contenuti interessanti”.

Anderson, invece, in una recente intervista per “WiredTV” si pone controcorrente, e afferma provocatoriamente che l’assioma che vede internet come guidato dall’altruismo è errato. “Piuttosto, internet è guidato dall’egoismo. Le persone non si danno da fare perché sono buone e generose, lo fanno perché hanno motivi per farlo. Sono guidati dalla volontà di ottenere qualcosa per se stessi e se il sistema permette di avere qualcosa per se stessi e contemporaneamente per gli altri, allora lo fanno. Le persone hanno bisogno di far parte di qualcosa di eccitante, vogliono essere accettati, vogliono avere impatto sulla realtà” 11. Anche precedentemente l’autore aveva affermato che nella [p. 30 modifica]cultura del web essere notati, la costruzione di un proprio personal branding (la reputazione), è tutto.
Il punto di vista di Anderson è riconducibile alla convinzione di Adam Smith secondo la quale, spiega Rifkin, “ciascun individuo [è predisposto] a perseguire il proprio interesse particolare nel mercato contro l’interesse altrui” (Rifkin, in DeBaggis, 2010, 57). “Smith offriva la dubbia consolazione che, nonostante il singolo individuo perseguisse esclusivamente il proprio interesse particolare, nel farlo contribuiva in qualche misura al bene comune. Il modello distribuito parte da un’ipotesi opposta sulla natura umana, cioè che quando gli si dà la possibilità di farlo, l’uomo è per natura disposto a collaborare con gli altri, spesso gratuitamente, per pura gioia di contribuire a un bene comune. Inoltre contribuendo al benessere del gruppo, l’individuo si mette nella migliore condizione per promuovere il proprio interesse particolare” (Ibidem).
Senza entrare nel merito della disputa, rimane il fatto che attualmente gli ostacoli che impedivano la diffusione della condivisione sociale su scala globale sono venuti meno. Assistiamo da un lato alla diffusione capillare del capitale fisico (PC e Internet), dall’altro ad un crollo dei costi degli strumenti di coordinamento. I costi intesi in senso economico indicano qualsiasi risorsa che può essere consumata: soldi, ma anche tempo, attenzione, lavoro. Come spiega Shirky, dal punto di vista economico gli uomini rispondono a degli incentivi, e se l’incentivo è maggiore, come semplificare l’attuazione di qualcosa, gli uomini saranno più invogliati ad attivarsi. Il naturale desiderio umano di condivisione, continua l’autore, è inibito dalla complessità dell’azione collettiva, ma grazie ai nuovi strumenti assistiamo ad una riduzione delle complessità offrendo un nuovo modo per organizzare il lavoro di gruppo (Shirky, 2008, 36).

1.12. Controllo organizzativo: promessa, strumento, patto[modifica]

Il fatto che le nuove tecnologie facilitino l’azione di gruppo presuppone che qualcuno dia il via a tale azione di gruppo, quanto meno come idea iniziale. Nella maggior parte dei progetti di collaborazione di massa c’è infatti qualcuno (una singola persona o un piccolo gruppo) che ha un’idea e la espone tramite una open-call. Dalla open-call si autoselezionerà poi la comunità di pratica interessata. Ma il nucleo organizzativo di origine, pur essendo paritario nel lavoro, mantiene un ruolo di guida durante lo svolgimento del progetto. È quello che è successo per la realizzazione di Linux. [p. 31 modifica]A un certo livello di complessità, è necessario che esista qualcuno che stabilisca la base delle regole del gioco e che risponda alle domande e ai dubbi che possono sorgere all’interno della comunità di pratica.
Shirky, a questo riguardo, specifica che più i gruppi sono densi, e gli individui che lo compongono devono interagire tra loro, maggiori devono essere le norme che regolano tali rapporti: i patti per la condivisione sono abbastanza semplici mentre quelli per collaborazione e azione collettiva sono necessariamente più complessi. La soglia minima del controllo dall’alto è emergente dal contesto e deve essere negoziata, ma deve esistere. Anche Wikipedia, per esempio, ha una lista di regole minime di collaborazione, la wikiquette12.
“Nessuno sforzo nel creare valore di gruppo può avere successo senza qualche forma di governo” (Shirky, 2008, 211). I limiti possono anche essere minimi, ma devono esserci. Spesso inoltre, quando si parla di collaborazione di massa, vengono portati esempi riconducili a ciò che Garnett Hardin definisce la tragedia dei commons (Shirky, 2008, 41): in assenza di limiti e controlli sanzionatori, le persone sono incentivate a danneggiare il bene comune. La spinta all’individualismo creerebbe difficoltà a rimanere entro i limiti sociali. Perché ciò non avvenga è necessario che all’interno del gruppo ci sia una “mutua coercizione di mutuo accordo”, che esista cioè un’idea condivisa che impedisca agli individui di agire esclusivamente a vantaggio personale più che nell’interesse di gruppo. Tale mutuo accordo, come si è detto, è la base di qualsiasi comunità di pratica.
Infine, nonostante, una volta formati, i gruppi tendano ad essere “omeostatici” (Shirky, 2008, 211), resistenti alle minacce esterne, qualsiasi progetto avrà qualcuno che ne desidera il fallimento e solo le organizzazioni che hanno difese possono resistere. Shirky sottolinea nuovamente che un minimo di controllo dall’alto è necessario, almeno come auto-tutela del progetto.
Ma come si organizza una pratica di collaborazione collettiva? “Ogni progetto si basa sulla combinazione riuscita di una promessa che si può mantenere, uno strumento efficiente e un patto accettabile con gli utenti” (Shirky, 2008, 195). La promessa è il perché, lo strumento è il come, il patto stabilisce le regole di collaborazione.

[p. 32 modifica]La promessa è il requisito fondamentale in quanto crea il desiderio di partecipazione. Deve trasformare un utente potenziale in utente effettivo e, per essere convincente, deve colpire il punto di equilibrio tra il troppo generico e il troppo radicale/specifico. Inoltre, più è alto il numero di utenti richiesto più è difficile che il gruppo riesca a nascere dal momento che gli utenti potenziali saranno più scettici sul fatto che un numero sufficiente di utenti riesca a unirsi. Questo problema può essere affrontato rendendo più semplice l’ingresso nel gruppo.
Per far sì che un progetto entri nell’agenda di qualcuno deve offrire valore personale per ogni utente. Shirky e Cottica fanno riferimento alla nascita di Flickr e alla dichiarazione di una delle co fondatrici, Chaterine Fake: “ho imparato che devi salutare personalmente i primi diecimila utenti”. Infatti, dal momento che le Rete è fatta di persone, offrire valore personale significa avere un rapporto diretto con chi collabora al progetto, almeno fin dove è possibile.
Shirky riporta inoltre la mail iniziale in cui Larry Sanger chiedeva contributi al neo-nato progetto Wikipedia: “fatemi un piacere, andate sul sito e aggiungete un articolo, ci vorranno al massimo cinque o dieci minuti”. Egli presentò il progetto come un favore e come un esperimento, ponendo l’enfasi sulla semplicità dello strumento. La mission attuale di Wikipedia dichiara: “immagina un mondo in cui ognuno possa avere libero accesso a tutto il patrimonio della conoscenza umana”: la dimensione della promessa è cresciuta insieme alla qualità del progetto. La promessa implicita però non cambia, e consiste nel contribuire al miglioramento del progetto.
Lo strumento deve essere coerente con promessa e patto. Non esiste uno strumento adatto in generale ma esso deve potersi adattare al lavoro richiesto, deve aiutare le persone che lo usano a svolgere il lavoro da fare. Uno strumento deve anche potersi adattare ai metodi di interazione che deve sostenere.
Il patto è l’aspetto più complesso in quanto è il meno esplicito e non può essere totalmente predeterminato: gli utenti ne devono avere il controllo. Il patto richiede negoziazione con la community e quindi richiede dei costi di transazione. È costruito in base alle aspettative che i membri del gruppo hanno gli uni degli altri, e sfocia in un modo di comportamento conosciuto e condiviso da tutti. Il patto su cui si basa Linux, per esempio, è la licenza pubblica GPL, che lo rende un progetto aperto, senza diritti riservati. Tale scelta è la prova dell’impegno di Torvalds nel voler impedire di [p. 33 modifica]brevettare o vendere Linux. Analogamente Wikipedia, per evitare di essere accusata di voler passare ad un modello commerciale, ha spostato il sito da wikipedia.com a wikipedia.org.
Come sottolinea Shirky, riuscire a mettere insieme queste tre premesse e costruirne il giusto equilibrio non è semplice, e per questo molti progetti risultano fallimentari.

1.13. Il ruolo delle istituzioni[modifica]

Questo diffuso processo di auto-organizzazione delle comunità non implica che la società possa fare a meno delle istituzioni, trovandosi in una sorta di “paradiso post gerarchico” (Shirky, 2008, 20). Il ruolo delle istituzioni non scompare, ma cambia. Lo stesso Shirky afferma che stiamo assistendo ad una situazione in cui gruppi poco coesi sono in grado di portare a termine un compito con maggiore efficacia di un’istituzione, ma non approfondisce come ciò sia possibile.
Roberto Zarro indaga i rapporti tra società civile e istituzioni, rapporti che, egli asserisce, stanno vivendo una fase di crisi (constatazione derivante dai risultati di una ricerca Eurispes di inizio 2008): tale crisi deriverebbe da una mancanza di fiducia e da un conseguente minor coinvolgimento dei cittadini nelle politiche pubbliche. Tuttavia, non è corretto affermare che le persone dedichino minor attenzione alle diverse forme di impegno collettivo: “la partecipazione”, continua Zarro, “resta una pratica molto diffusa nelle nostre società, ma sta cambiando, e nel farlo tra le altre cose si sposta anche sulle reti digitali”, disertando “i luoghi tradizionalmente presidiati dagli interlocutori istituzionali” (Zarro, 2008, 73).
Si tratta di quella crisi della democrazia rappresentativa, a favore dell’incremento di varie forme di associazionismo civico, descritta da Anthony Giddens. L’autore sostiene la necessità di democratizzare la democrazia (Giddens, 2000, in Grandi e Miani, 2007), accogliendo all’interno dei processi decisionali anche la società civile. Si arriva così ad una democrazia partecipativa (definita anche inclusiva o deliberativa), grazie alla quale tutti gli stakeholders possono inscriversi nelle pratiche decisionali e negoziarne interessi, strategie e finalità.
Le nuove tecnologie possono facilitare questo nuovo tipo di democrazia. Ed in effetti, negli ultimi decenni le PA hanno investito molto sulle tecnologie digitali e di Rete. Perché dunque persiste questa situazione di crisi? Come ricorda Alessandro Rovinetti, [p. 34 modifica]“le nuove tecnologie sono, per loro natura, tali che le organizzazioni che le adottano non possono utilizzarle appieno senza assumerle anche nel loro carattere di innovativo, cioè riorganizzativo di procedure, prassi e comportamenti” (Rovinetti, 2006, 174).
Il problema infatti, sostiene Zarro, non è tanto tecnologico, quanto culturale organizzativo: le istituzioni non sono state in grado di sfruttare del tutto le potenzialità del digitale. “Pur non mancando una presa di coscienza sull’intrinseca bidirezionalità delle reti […] la rivoluzione dell’e-government è stata però sostanzialmente caratterizzata da un approccio tecnico-ingegneristico, più interessato all’efficacia e all’efficienza dell’agire amministrativo, che ai profondi cambiamenti culturali e sociali derivanti dall’esplosione della comunicazione in Rete” (Zarro, 2008, 74). Le istituzioni, e soprattutto i suoi vertici, non avrebbero abbracciato a tutti gli effetti “quei principi di interattività, apertura e condivisione che restano il principale valore aggiunto delle reti” (Zarro, 2008, 75). Questa mancanza sarebbe la causa del fallimento degli obiettivi, almeno a livello di partecipazione13, delle pratiche di e-government: “se all’idea di sportello fossero associate anche quella di piazza e/o del laboratorio, la rivoluzione e-gov avrebbe potuto avere esiti diversi” (Zarro, 2008, 74).
Alle pratiche di e-government vanno dunque affiancate politiche di e-democracy14.
Un esempio di come dovrebbe cambiare il ruolo delle istituzioni lo presenta Alberto Cottica nel suo libro “Wikicrazia”. Egli sottolinea una “crisi di attenzione” delle politiche pubbliche: spesso, per motivi di priorità, l’attenzione delle PA rimane limitata alle cose più importanti, che sono le decisioni di programmazione, e non riesce ad essere presente nell’attuazione delle decisioni minori e locali. Di quelle si occupano burocrazie specifiche e, afferma l’autore, è con quelle che è necessario dialogare nel processo decisionale. Tutti dovrebbero poter contribuire al ramo esecutivo dell’amministrazione: deve esistere un flusso informativo che passi fuori dalla burocrazia e si apra all’ascolto. La burocrazia è necessaria, ma deve essere solo l’ultimo passo di un processo di co-creazione delle politiche pubbliche.

[p. 35 modifica]Il cittadino, cogliendo l’opportunità di partecipazione alle politiche wiki, può diventare opinion maker: “è il massimo della politica, il massimo della gestione della cosa pubblica” (Magrini, 2008, 81). Il web, infatti, può essere una piattaforma ad uso bivoco: da un lato offerta di servizi, dall’altro coinvolgimento degli utenti, come Tim O’Reilly per primo ha affermato (Miani). Esistono già alcune good-practice in proposito: Cottica parla del progetto inglese Fixmystreet15, un sito che permette ai cittadini di segnalare problemi locali, segnalazioni che vengono poi inoltrate all’autorità responsabile. Tuttavia anche in Italia stanno prendendo piede esperienze di questo genere: per esempio, il Comune di Spinea ha attuato un progetto simile16.
Cottica porta inoltre come good-practice Theyworkforyou17, sito di monitoraggio dell’attività parlamentare britannica, integrato con WritetoyourMP18, che permette di segnalare al Parlamento il proprio appoggio o dissenso.

Le politiche wiki si pongono dunque in un contesto di apertura dei procedimenti amministrativi, al fine di creare decisioni inclusive e partecipate, processo iniziato negli anni 90, ma che presenta alcune criticità generali. Uno dei problemi è la difficoltà del coinvolgimento di tutti gli stakeholders a una decisione pubblica. Un altro è l’abitudine delle amministrazioni ad aprirsi a una partecipazione che si limita ad essere solo consultiva (Cottica, 2010). Infine esiste un problema di linguaggio: la comunicazione istituzionale è tradizionalmente unidirezionale e a stile formale, non compatibile con il linguaggio del web 2.0 (Zarro, 2008).
Ora grazie alla Rete è possibile aggirare queste criticità. Cottica sostiene che la Rete sia il candidato naturale alle modalità di collaborazione in quanto ubiqua, aperta, economica e asincrona. Non è più necessario selezionare a priori gli stakeholders da includere nella decisione: quando si apre un processo decisionale basterà segnalarlo e saranno le persone ad auto selezionarsi in base a interesse e tempo da investire. L’apertura e l’inclusività resa possibile dalle politiche wiki comporta anche il vantaggio di essere protetta dalle critiche a posteriori, in quanto chiunque avesse voluto [p. 36 modifica]contribuire alla negoziazione decisionale avrebbe potuto farlo. L’altro vantaggio delle politiche wiki risiede nel linguaggio, che deve essere necessariamente chiaro, sintetico, concreto e trasparente: la Rete tende a isolare chi utilizza un burocratico politichese. Inoltre il linguaggio scritto è più facilmente accessibile, consente analisi approfondita e revisione a posteriori.
Infine, le politiche wiki permettono il lavoro simultaneo su più ramificazioni di un medesimo processo decisionale, velocizzandone i tempi.

Gli strumenti attuali offrono l’opportunità di un cambiamento radicale della gestione della cosa pubblica. Ma l’utilizzo della tecnologia, come già detto, è solo uno dei requisiti: è necessaria una disposizione mentale delle amministrazioni. “La tecnologia è importante, ma non è il punto di arrivo: nel caso dei processi partecipativi […], l’introduzione della tecnologia non è un fine ma un mezzo, che deve inserirsi in un percorso mentale e strategico per l’amministrazione” (Forghieri, in Magrini, 2008, 86).
Cottica propone un esalogo che le istituzioni dovrebbero seguire per poter attuare, e trarre vantaggio, da azioni crowdsourced:

  1. Accettare il cambiamento, perché tanto il cambiamento c’è. Per ottenere la collaborazione di soggetti esterni è necessario cedere pezzi di controllo e permettere loro di entrare alla pari nel processo decisionale. Il potere che mantengono le autorità è potere di veto, di decisione finale, ma nella società attuale le amministrazioni non possono fare tutto da sole e devono delegare. “L’efficacia di una politica pubblica è inversamente proporzionale al grado di controllo che l’autorità titolare se ne attribuisce” (Cottica, 2010, 81). Le politiche wiki possono convogliare attenzione a tutte quelle decisioni che altrimenti rientrerebbero in quella crisi di attenzione intrinseca all’attuale PA: permettono di soddisfare la coda lunga delle politiche pubbliche.
  2. Adottare il principio di community. Nella definizione di Cottica, una community è un gruppo di persone che non hanno legami sociali forti, ma che si riconoscono in un obiettivo comune e che condividono un ambito di interazione. Applicare questo principio alle politiche pubbliche significa “considerare la discussione razionale allargata come luogo di verità e saggezza” (Cottica, 2008, 84): significa fidarsi delle persone che fanno parte della community. Nonostante [p. 37 modifica]le community abbiano una genesi spontanea, la PA può progettare e coordinare una community intorno ad una politica pubblica: essa può far convergere le discussioni dei cittadini che hanno voglia di collaborare. Cottica suggerisce quattro direzioni nella quali una PA si deve attivare al fine di costruire una community: (a) individuare un primo gruppo motivato che sia di esempio per gli altri individui che si uniranno; (b) rendere semplice e multicanale la comunicazione “da molti a molti”; (c) condividere alcuni valori che serviranno da ancoramento durante il processo di negoziazione; (d) costruire un clima accogliente che favorisca il rinnovo del sentimento di community. Al fine di far emergere e mantenere attiva una community esistono alcune strategie pratiche, descritte da DeBaggis, di cui si parlerà più approfonditamente nel secondo capitolo.
  3. Adottare il principio di trasparenza. La trasparenza, permettendo l’accesso ai dati, permette ai cittadini di fare cose. Cottica mette a confronto il progetto inglese Theyworkforyou (di cui si è precedentemente parlato) e l’applicazione del principio di trasparenza applicato agli atti parlamentari italiani, in formato pdf e indicizzati solo tramite la data, evidenziandone la differenza di accessibilità e trasparenza (Cottica, 2010, 103). La fiducia dei cittadini nelle istituzioni è distrutta dall’opacità (e questo è ancora più vero in Italia, dove le autorità pubbliche non godono a monte di fiducia da parte della popolazione). Cottica suggerisce quindi tre direzioni in cui una PA dovrebbe muoversi per allargare il proprio grado di trasparenza: (a) usare una licenza Creative Commons per le pubblicazioni; (b) creare un sistema di aggiornamento automatico (come l’RSS -Really Simple Syndication-); (c) utilizzare interfacce che facilitino l’utilizzo delle banche dati.
  4. Avere rispetto per la comunità. Significa semplicemente non deludere le aspettative. Cottica porta l’esempio del blog di Prodi, che ha costruito repentinamente un enorme capitale di fiducia, e altrettanto repentinamente lo ha perso, in quanto non ha mantenuto lo stile iniziale, sul quale si basava il patto con la community. Significa, inoltre, ascoltare e aprirsi al dialogo. Significa lasciare spazi di autonomia. “Il contributo di una pubblica amministrazione a una politica wiki non può consistere unicamente nel mettere a disposizione una [p. 38 modifica]tecnologia” (Cottica, 2010, 122). Cottica sostiene che la metafora che vede Internet semplicemente come un attrezzo (tool), “un’estensione del corpo umano” (Cottica, 2010, 200) sia fuorviante. Internet non solo permette di fare meglio ciò che si farebbe con il corpo, ma permette l’esplorazione di nuove opportunità: la metafora che suggerisce l’autore è quella del viaggio, nel quale il viaggiatore è pronto a cogliere le deviazioni che gli si presentano lungo la strada. I segnali di rispetto di una politica wiki realmente inclusiva sono premessa credibile e partecipazione diretta (Cottica, 2010, 123). DeBaggis probabilmente aggiungerebbe che un altro segnale di rispetto consiste nell’adottare un’ottica di relazione tra pari, e negoziare con la community le regole base, lasciando poi ampio margine di autonomia. Miani porta l’esempio di Digg, sito web di social bookmarking: i responsabili di Digg nel maggio 2007 decisero di rimuovere un link (considerato di contenuto illegale in quanto contenente chiavi di accesso all’HD DVD) dal sito, provocando la protesta e la ribellione unanime della community a questo atto di censura dall’alto; l’unica risposta possibile del fondatore fu la promessa di non rimuovere più articoli dal sito. “Digg ha salvato se stesso restituendo il controllo alla comunità. Del resto una volta che decidi di lasciare un sito in mano alla comunità non si può facilmente cambiare idea, ogni mossa in contraddizione con questo principio avrà serie implicazioni. Non si può avere un sito il cui contenuto è generato dagli utenti e allo stesso tempo riservarsi il diritto di decidere cosa pubblicare e cosa no” (Miani, 2008, 66).
  5. Parlare con voce umana. L’autore afferma che, dal momento che i cittadini sono intelligenti e dotati di mezzi di diffusione del pensiero, la pubblicità è inutile (se non controproducente). È necessario instaurare una conversazione, e in un dialogo si parla con voce umana. Cottica fa riferimento al ClueTrain Manifesto19, elenco di 95 tesi create nel 1999 da un gruppo di intellettuali, che è “considerato il punto di origine dei nuovi metodi di comunicazione aziendale attraverso i media sociali” (Cottica, 2010, 138). In particolare le prime 4 tesi sostengono che i mercati sono fatti di conversazioni e di esseri umani; che le conversazioni tra umani si portano avanti con voci umane, caratterizzate da voce aperta e naturale. A questo scopo un semplice sito di news non commentabile è [p. 39 modifica]ben lontano dall’essere lo strumento adatto. È vero altresì che un’azienda e, ancor più, un’amministrazione sono impersonali per definizione. Cottica suggerisce quindi due modi tramite i quali è possibile per esse creare conversazione: (a) aprire un’interfaccia, di identità meticcia tra dentro e fuori l’amministrazione, che assuma un ruolo di traduttore; (b) creare una voce facendo partecipare dei funzionari interni alla conversazione in Rete: Cottica cita la Banca Mondiale che ha creato un blog istituzionale su cui però scrivono dipendenti a titolo personale (pur nel rispetto di determinate regole di condotta) (Cottica, 2010, 144).
  6. Costruire un sistema di merito. Nelle politiche in Rete è necessario che il sistema di accesso sia ugualitario, che siano forniti omogeneamente gli strumenti tecnologici ed educativi di partecipazione. È altrettanto necessario però che il sistema di creazione sia meritocratico: l’autoselezione di partecipanti e output è la fonte dell’efficacia delle collaborazioni wiki. Inoltre il riconoscimento del lavoro svolto è l’unico incentivo che possa ripagare l’impegno di chi partecipa, ed è quindi fondamentale sottolineare i meriti. È opportuno dare valore e rendere visibile il contributo di ogni partecipante.

Esiste attualmente però una discussione sui limiti delle politiche wikicratiche, limiti derivanti da caratteristiche intrinseche all’amministrazione.
In parte questo dipende dal naturale processo di istituzionalizzazione, ovvero il “processo di cristallizzazione e codificazione di flussi di senso presenti nella vita culturale di una società, i quali diventando istituzione perdono in larga parte il loro carattere di dinamicità acquisendo una forma stabile e generalmente riconosciuta”20. Tale processo comporterebbe poca flessibilità ed apertura verso nuove modalità di azione. L’istituzione subisce una perdita di attenzione rispetto all’obiettivo iniziale, a favore di finalità di auto-perpetrazione.
Lo stesso Cottica afferma come la possibile evoluzione dell’amministrazione sia rallentata dal fatto che le sue procedure operative sono scritte nella legge (e quindi eventuali modifiche necessariamente sottostanno a progetti di legge che devono essere approvati). [p. 40 modifica]Inoltre esistono problemi di circoscrizione delle competenze, oltre che di possibili divergenze di obiettivi tra i settori.

Come afferma Gigi Cogo, “per introdurre le dinamiche 2.0 nella Pubblica Amministrazione è necessario migrare da un’organizzazione per funzioni a una rete di relazioni tra persone” (Cogo, in Magrini, 2008, 87). Cottica, sulla stessa linea di pensiero, sostiene che le politiche in Rete, essendo fatte di link, permettano l’abbandono delle tradizionali classificazioni burocratiche a favore di una classificazione per obiettivi, community e interfacce. Gli obiettivi sono gli indicatori che orientano le politiche e devono essere riferite a problemi specifici (il contrario delle responsabilità burocratiche verticali). Le community sono il motore delle politiche, sono auto selezionate e auto gestite. Le interfacce sono le modalità tramite le quali i fondatori di una politica cercano di direzionare il lavoro della community.

Un altro problema è quello relativo al controllo: Cottica afferma che da un lato le politiche wiki sono emergenti da dinamiche sociali spontanee, quindi presentano un movimento dal basso verso l’alto; dall’altro esse sottostanno ad un lavoro di progettazione e gestione della community (che l’autore ritiene non trascurabile e non riducibile), quindi presentano un movimento dall’alto verso il basso. In realtà queste due caratteristiche non sono in contrasto, bensì complementari. “Nella mia esperienza, comando dall’alto e consenso dal basso si sostengono a vicenda” (Cottica, 2010, 172): l’autore porta l’esempio di Kublai, una community di creativi a fine progettuale, ideata nel 2007 da lui in collaborazione con il Ministero dello Sviluppo Economico. All’interno della community è stata incoraggiata la formazione di un gruppo nucleo (comando) costituito dai membri più competenti, attivi e stimati, il club dei progettisti, che serve per fornire esempio e consiglio agli altri membri. Questo consente maggiori occasioni di interazione tra progetti e maggior autogoverno della community (consenso).

Infine uno dei grossi limiti alle politiche wiki è il digital divide, tecnologico ma soprattutto cognitivo (che consiste non solo nell’apprendere ma anche nell’aggiornare continuamente le abilità necessarie per usare la Rete). Questa disomogeneità all’accesso ha creato un dibattito sulla presunta antidemocraticità delle politiche wiki. Nonostante il digital divide renda le politiche wiki un fenomeno ancora circoscritto e minoritario, esse sono pratiche di valore in quanto, afferma Cottica, non vanno a sostituire le forme [p. 41 modifica]tradizionali di partecipazione democratica, bensì ne creano un canale aggiuntivo (Cottica, 2010, 188).
Se le politiche wiki dovessero diffondersi e affermarsi come modalità di gestione della cosa pubblica, l’economia ne sarebbe profondamente influenzata, e si sbilancerebbe verso la produzione di beni pubblici (non escludibili e non rivali) come è Wikipedia (Cottica, 2010, 203).

1.14. La rivoluzione wiki: Wikipedia[modifica]

Un wiki (parola hawaiana che significa veloce), è un sito modificabile dagli utenti. Una pagina wiki è la somma di tutte le modifiche apportate a quella pagina. Grazie a questa tecnologia, si annulla la differenza tra lettore e autore.
Il primo wiki è stato creato nel 1995 da Ward Cunningham, ingegnere del software, al fine di creare un archivio di conoscenze utile ai programmatori. Questa tecnologia è stata utilizzata per creare uno degli esempi più famosi di collaborazione distribuita, Wikipedia, l’enciclopedia libera. Wikipedia viene fondata nel 2001 da Jimmy Wales e Larry Sanger come evoluzione di un’idea precedente, dall’approccio più codificato e selettivo: Nupedia, un’enciclopedia gratuita scritta da esperti che avrebbero prestato al progetto la propria conoscenza volontariamente e gratuitamente.
Wikipedia, al contrario, è un sistema sociale aperto: riduce i costi manageriali e i disincentivi alla partecipazione. Anderson la definisce come “open-source nella forma più pura” (Anderson, 2006, 59).
Wikipedia cresce in media del 7% al mese e si mantiene con le sottoscrizioni volontarie (Maistrello, 2007). Wikipedia funziona tramite una divisione spontanea del lavoro, senza bisogno di ricorrere a sistemi di dirigenza. La comunità si auto organizza e, dove necessario, auto corregge. Sanger attribuisce il motivo dell’attendibilità e quindi del successo di Wikipedia proprio alla revisione di gruppo. Come sottolinea anche Cottica, “il motore dell’intelligenza collettiva non sta nella parola intelligenza, ma nella parola collettiva” (Cottica, 2010, 47).
Shirky descrive il processo di creazione di una voce, che è normalmente il seguente: qualcuno si rende conto che dovrebbe esistere una voce, e la crea, senza però essere necessariamente un esperto dell’argomento. La voce pur essendo solo una bozza di bassa qualità, che viene comunemente definita dai wikipediani stub, comincia ad attirare [p. 42 modifica]lettori, alcuni dei quali si auto selezionano per migliorarla, e la voce, grazie ai contenuti cumulativi, diventa a tutti gli effetti informativa. Tale processo è però provvisorio per definizione: una voce Wikipedia è un processo, non un prodotto, e in quanto tale non è mai definitiva e conclusa.
Non tutte le modifiche sono miglioramenti, anche se l’esperienza dimostra che complessivamente gli errori introdotti sono minori di quelli corretti, e quindi “le pagine di Wikipedia migliorano con il passare del tempo” (Shirky, 2008, 89).
Wikipedia permette alle persone di lavorare su quello che vuole quando vuole, e la partecipazione è imprevedibile. La maggioranza delle persone che contribuisce a Wikipedia lo fa sporadicamente, anche una sola volta. Questi autori occasionali, che prestano il loro contributo per lo più in forma anonima, costituiscono i nove decimi del totale degli autori (e sono quelli che Cottica definisce buoni samaritani). La maggior parte dei contributi arrivano da un gruppo ristretto di partecipanti molto attivi. Tuttavia dal momento che nessuno viene pagato i partecipanti occasionali e quelli abituali possono convivere nello stesso progetto e questo rende possibile la partecipazione di tutti. Questa è la differenza tra Nupedia e Wikipedia. La prima infatti prevedeva la partecipazione esclusiva degli esperti, quindi non solo una voce non esisteva finché non erano gli esperti a crearla, ma la conoscenza dei collaboratori occasionali andava perduta.
Dalla libertà di accesso che nasce dall’amatorializzazione di massa non consegue omogeneità nella partecipazione: vi è una distribuzione ricorrente nei progetti che vede i tre quarti dei partecipanti come attivi in maniera inferiore alla media. Addirittura la regola del 90 9 1 sostiene che, su cento utenti di una piattaforma di collaborazione on line, novanta si limiteranno a leggere i contenuti, nove scriveranno commenti, e solo uno creerà effettivamente il contenuto (Cottica, 2010, 124). Wikipedia quindi non è una community nel senso generale del termine: esiste una comunità nucleo composta dagli utenti più attivi, ma la community non coincide con l’insieme completo dei collaboratori.
Questo squilibrio non danneggia il progetto, anzi lo arricchisce di tanti contributi differenti. Anche perché la non conoscenza professionale di una voce non ne impedisce la modifica: i contributi apportati a Wikipedia non si basano solo sulla saggezza [p. 43 modifica]personale, ma anche sulle capacità personali in generale (per esempio la dote di organizzazione del discorso, o di sintesi, o l’attenzione per i particolari).

L’auto-selezione, inoltre, permette da un lato un’organizzazione di meritocrazia all’interno della comunità, e dall’altro è lo stimolo che permette al progetto di svilupparsi, pur senza concreti vantaggi personali: secondo Howe l’incentivo è il piacere di aiutarsi l’uno l’altro e creare qualcosa di bello da cui tutti trarranno beneficio.

Perché le persone contribuiscono a Wikipedia? Shirky risponde in maniera personale e dice di averlo fatto per tre buone ragioni: tenere la mente in esercizio, vanità nel voler lasciare un segno, desiderio di fare qualcosa di buono. Tali motivazioni non legate al denaro sono considerate un ragionamento economicamente irrazionale. Eppure, come già detto precedentemente, gli uomini sono animali sociali e non sempre agiscono in base all’auto interesse. Sono sempre più numerosi i casi di produzione di pari basata sul bene comune, in assenza di retribuzione. Oggi non sono più solo le motivazioni commerciali a essere considerate incentivi. Per un motivo simile, Wikipedia resiste al vandalismo o alle discussioni. Questo non significa che tutte le esperienze di wiki siano positive e intrinsecamente resistenti alle minacce esterne, come dimostra l’esperienza di Wikitorial (Shirky, 2008, 103).

Wikipedia, infatti, entro un certo limite ha degli strumenti di tutela da queste possibilità. Per esempio le modifiche apportate ad una pagina vengono controllate, e se sono peggiorative o pubblicitarie viene ripristinata la versione precedente. Infatti, grazie al sistema wiki, danneggiare una pagina impiega più tempo che ripristinare la versione precedente. Wikipedia inoltre può decidere di bloccare una pagina in caso di discussione, ma normalmente rimane bloccato meno dello 0,5% delle pagine (Shirky, 2008, 103).

Eppure, al di là di questi meccanismi di difesa, Wikipedia esiste perché “un certo numero di persone amano quello che rappresenta” (Shirky, 2008, 105): ciò non significa che le persone che contribuiscono alla sua costruzione siano sempre d’accordo, ma permane come principio fondante la motivazione condivisa al miglioramento e alla difesa di un progetto comune.

I principali vantaggi di un’enciclopedia come Wikipedia consistono nel suo essere un prodotto mai finito, fossilizzato: è un prodotto fluido e correggibile. Più che un prodotto, un processo appunto. Inoltre è gratuito e aperto. Ogni voce ha la casella [p. 44 modifica]modifica su cui chiunque può cliccare, e non c’è nessuna cultura così settoriale da non valere un proprio posto all’interno dell’enciclopedia.
Dalla nascita di Wikipedia si è aperto un dibattito sull’affidabilità delle voci che contiene, dibattito tutt’ora in corso. Anderson si pone in questo dibattito: Wikipedia, egli sostiene, non è autorevole nel senso tradizionale del termine, ma nessuna enciclopedia lo è in assoluto (Anderson, 2006, 62). La maggior parte delle enciclopedie tradizionali non sono totalmente autorevoli soprattutto a causa di problemi di omissione o aggiornamento, mentre Wikipedia, essendo libera da vincoli economici, temporali e spaziali, non è costretta a sottostare a questi problemi. Il risultato è un tipo di enciclopedia totalmente diverso. “Nell’insieme Wikipedia è probabilmente la miglior enciclopedia al mondo” (Anderson, 2006, 63) ma a livello delle singole voci la qualità è variabile. Tuttavia, continua Anderson, se in una enciclopedia tradizionale la qualità delle voci varia da 5 a 9 (la cui media è 7) mentre Wikipedia varia da 0 a 10 (la cui media è 5) è anche vero che Wikipedia offre molte più voci per cui, probabilisticamente, è più facile trovare qualcosa di sensato sull’argomento che si cerca (Anderson, 2006, 64). Inoltre Wikipedia offre, oltre al costante aggiornamento, lunghezza potenzialmente illimitata delle voci, contenuti visivi, link esterni ed interni. Proprio grazie a questa possibilità di collegare una voce ad altri contenuti permette a Weinberger di descrivere Wikipedia come “la naturale tipologia del miscellaneo” (Weinberger, 2007, 207).
In occasione del decimo anniversario (15 gennaio 2011) dell’enciclopedia, l’istituto Pew ha dedicato un’indagine all’utilizzo di Wikipedia negli Stati Uniti, rilevando che “the percentage of all American adults who use Wikipedia to look for information has increased from 25% in February 2007 to 42% in May 2010. This translates to 53% of adult internet users”21.


Note

  1. Il sourcing consiste nell’“acquisizione di informazioni da fonti dirette e spesso non identificate” (Jenkins, 2006, 31).
  2. http://zooppa.com/
  3. http://www.cocreatelondon.com/
  4. L’intelligenza collettiva, termine coniato da Pierre Lèvy, è la capacità delle comunità virtuali di utilizzare la competenza combinata dei loro membri; l’organizzazione dei pubblici in quelle che Lèvy chiama comunità di sapere consente loro di esercitare un potere aggregato maggiore (Jenkins, 2006, 3).
  5. http://it.wikipedia.org/wiki/Costi_di_transazione
  6. http://www.creativecommons.it/
  7. http://it.wikipedia.org/wiki/User generated_content
  8. http://it.wikipedia.org/wiki/Folksonomia
  9. http://www.fabiolalli.com/2010/07/18/la conferenza dei sindaci di foursquare vista da fuori/
  10. Il termine hacker viene spesso associato ai criminali informatici, la cui definizione corretta è, invece, cracker (http://it.wikipedia.org/wiki/Hacker).
  11. http://tv.wired.it/guru/chris anderson non e la generosita a guidare internet interviste oblique.html
  12. http://it.wikipedia.org/wiki/Wikipedia:Wikiquette
  13. “A fine 2007, nei Paesi dell’Unione Europea, a fronte della disponibilità on line di oltre la metà dei servizi prioritari rivolti ai cittadini e alle imprese, il loro utilizzo è inferiore al 10%” (Zarro, 2008, 74).
  14. E-government ed e-democracy non sono sinonimi. L’e-government rappresenta l’applicazione delle nuove tecnologie alle transazioni tra cittadini e pubbliche amministrazioni, al fine di renderle più rapide ed efficienti. L’e-democracy ha come obiettivo l’utilizzo delle nuove tecnologie al fine di creare nuovi istituti di partecipazione, ed approdare ad una forma di democrazia diretta (Grandi, 2007).
  15. http://www.fixmystreet.com/
  16. http://www.comune.spinea.ve.it/ (in Zarro, 2008, 77)
  17. http://www.theyworkforyou.com/
  18. http://www.writetothem.com/
  19. http://www.cluetrain.com/
  20. http://it.wikipedia.org/wiki/Istituzionalizzazione
  21. http://www.pewinternet.org/Reports/2011/Wikipedia.aspx