IL CANDIDATO È UN SITO

Stati Uniti.

Nella campagna presidenziale e elettorale del 1992, la posta elettronica era considerata uno strumento sperimentale e di avanguardia: pochi candidati ne fecero uso per comunicare con gli elettori, nessuno pensò che potesse avere una qualche importanza.

Infatti, non ne ebbe.

Nel 1996, i candidati alla Presidenza e molti candidati al Congresso lanciarono delle proprie pagine web, offrendo quasi esclusivamente quella che viene denominata brochureware, cioè quel tipo di pubblicità elettorale che viene comunemente usata in forma cartacea nelle campagne elettorali.

Nessuna interattività, nessuna analisi dei messaggi ricevuti; solo inviti ad esprimere opinioni, finalizzati però a costruire mailing-list per la campagna da utilizzare al di fuori del web (una eccezione era costituita dal sito di Bob Dole, come rileva Sara Bentivegna nel suo libro La politica in rete, Meltemi 1999, unica opera in italiano che offre dati e considerazioni sull’esperienza delle elezioni americane del 1996).

In conclusione, la campagna elettorale online nelle elezioni del 1996 era considerata – e probabilmente è stata – assolutamente inutile per raccogliere voti, ma assai economica, e inevitabile, visto che anche i competitori ne facevano uso.

Sono passati quattro anni.

Siamo vicini alle elezioni del 2000.

Volete sapere chi sono India, Cowboy e Ernie?

Semplice, cliccate su <www.georgewbush.com> e scoprirete che sono i tre gatti di George Bush: su quel sito vedrete anche le foto delle sue figlie, del cane Spot e di George da giovane (prima di fumare erba, e prima anche di evitare la guerra del Vietnam).

Volete sapere come fare per organizzare una serata per raccogliere fondi per la campagna di Bill Bradley?

Altrettanto semplice, cliccate su <www.billbradley.com> , poi entrate in Dinner Party Kit, e avrete tutte le informazioni necessarie (Bradley ha raccolto in questo modo oltre un milione di dollari già nelle prime settimane della sua campagna).

Se poi siete davvero stati in Vietnam, cliccate <www.mccainpatriots.com>, collegato con il sito principale di McCain, <www.mccain2000.com> , e vi troverete insieme a tutti i veterani che sostengono la sua campagna.

Non solo i candidati al posto più importante (quello di Presidente), ma tutti coloro che cercano di conquistare uno qualsiasi delle centinaia e centinaia di posti da assegnare nelle prossime elezioni sono muniti di un sito con il quale presentano sé stessi e i loro progetti, dialogano con i possibili elettori, ricevono finanziamenti per la loro campagna.

Numerosi siti web offrono poi informazioni di carattere generale sulla campagna elettorale, sui candidati e i loro programmi, sugli orientamenti di voto degli elettori, sui finanziamenti che ciascuno ha ricevuto, e su come i soldi sono stati spesi (provate a consultare, tanto per avere un esempio, <www.politics.com>  oppure <www.vote.com> fondata qualche anno fa da due avvocati impegnati nelle lotte giudiziarie contro i produttori di sigarette).

Questi sono i siti “ufficiali”: una piccola parte della politica online attuale negli Stati Uniti. Intorno ad essi gravita infatti una nebulosa di siti di fiancheggiatori, oppure di oppositori dei candidati: sono i cosiddetti hangers-on.

I primi sono costituiti e mantenuti da volontari, i quali svolgono attività di sostegno del loro candidato, organizzano meeting, raccolgono fondi.

Tutti questi si avvalgono di una particolare disposizione della legislazione elettorale, che esonera dalle rigide regole riguardanti la raccolta di fondi e di finanziamenti coloro che non sono inseriti nella organizzazione costituita dal candidato per la sua campagna.

Naturalmente, sono attentamente sorvegliati dalla Commissione incaricata di vigilare sull’andamento della campagna elettorale, che controlla che siano effettivamente volontari veri e propri.

Ci sono infine anche i siti ostili. Il più famoso è  <www.gwbush.com>: il suo creatore, Zack Exley, pedina da mesi con scrupolosa assiduità George Bush e ne smentisce o ridicolizza tutte le dichiarazioni o gli impegni che assume (“Bush non è solo il miglior candidato, è il miglior candidato che potete comprare con i vostri soldi” è uno degli slogan più noti del sito).

Exley offre anche una completa rasssegna di links ragionati a tutti i siti ostili a Bush (attualmente, circa una diecina) ed a quelli ostili ad altri candidati.

Da lì, si può quindi navigare verso <www.run-hillary.com>, dedicato a Hillary Clinton (ma da qualche tempo non consultabile) e verso <www.AlBore.com>  (bore significa noia), sito ombra di Al Gore, attualmente in vendita per 5000 dollari: il creatore garantisce migliaia di accessi quotidiani.

Non c’è da stupirsi: si calcola che dei 70 milioni di americani che utilizzano oggi la Rete, almeno un paio su dieci consultino abitualmente i siti della politica online.

Un mutamento inimmaginabile e vertiginoso dal 1996, per non parlare del 1970, appena trenta anni fa, quando la televisione, e l’offerta al pubblico dei tre famosi confronti diretti tra Kennedy e Nixon sembravano aver cambiato per sempre i modi di condurre una campagna elettorale.

Questa è l’America.

Che succede qui in Italia, ai margini dell’impero delle telecomunicazioni e della libertà sulla Rete?

Anche qui, le cose sono cambiate.

Nessuno più (con qualche eccezione, per rispetto delle tradizioni) affida la sua campagna elettorale ai comizi sulla piazza del paese (magari arrampicandosi, se di bassa statura, su cassette della verdura, come faceva Fanfani).

Sono in netto calo anche tutte le propagande cartacee che infestavano sino a pochi anni fa la nostra casella della posta e il nostro tergicristalli.

Siamo nell’epoca del trionfo della televisioni e degli spot.

Certo, anche i candidati si sono accorti che esiste Internet, e molti si sono muniti di un sito Web.

Ma andate a vederli: siamo ancora all’offerta del volantino di propaganda visualizzato, e, se presentabile, alla presentazione di un sintetico curriculum (che sarebbe comunque insufficiente per farsi assumere da qualsiasi organizzazione internazionale: chissà perché è ritenuto sufficiente per farsi votare come Presidente di una Regione italiana.).

Ci sono i siti dei vari partiti, alcuni anche ben congegnati: ma questo non è un segno di comprensione del nuovo, ma di inconscia riproduzione del vecchio, di mantenimento di una gara politica in cui non contano la persona, il candidato, i suoi programmi e le sue capacità: conta, più di tutto ciò, e più delle idee del candidato,  la sua appartenenza e le idee del partito in cui è inserito.

La campagna politica sulla Rete offre, tra gli altri, alcuni vantaggi.

L’interattività prima di tutto: ciascun candidato può comunicare direttamente e personalmente con il suo possibile elettore, confrontarsi con le sue domande e dare delle risposte.

Poi, la disintermediazione: ciascun candidato può stabilire un contatto diretto con l’elettore, senza passare attraverso mediatori quali il presentatore o il programma televisivo.

Infine, la pubblicità: ogni dichiarazione o affermazione del candidato è sottoposta immediatamente ad una verifica globale e pubblica, e può essere confermata (o smentita) altrettanto pubblicamente.

Sembra però che questi, nella campagna elettorale italiana, non siano vantaggi, ma pericoli.

A quanto sembra, nessuno è disposto a fissare sulla Rete idee, programmi e dati sui quali basa la sua campagna elettorale. Nessuno è disposto a un confronto, sulla Rete, rispetto a ciò che dice o a ciò che afferma.

Ma soprattutto, nessun candidato sembra disposto a dichiarare da dove trae i finanziamenti per la sua campagna e quali siano i suoi effettivi sostenitori.

TUTTI I CRIMINI DEL BUON LEOPOLDO

Negli ultimi anni, le ragioni umanitarie e, più in generale la tutela dei diritti umani sembrano aver fatto irruzione sulla scena mondiale.

La politica nazionale e internazionale e la diplomazia hanno fatto un intenso uso delle ragioni umanitarie come meccanismo di giustificazione di interventi bellici o di invasioni militari in paesi sovrani.

D’altro canto, il principio della perseguibilità delle violazioni dei diritti umani, da chiunque commesse, è stato alla base delle storiche decisioni adottate dalle Corti giudiziarie inglesi nel caso Pinochet.

Molti ritengono che questi casi siano espressione di una evoluzione del diritto e delle relazioni internazionali determinata dal progressivo corrodersi dello Stato nazione e delle barriere offerte dal principio di sovranità.

In effetti, la sovranità è oggi qualcosa di intrinsecamente diverso da ciò che era solo pochi decenni orsono.

Certamente i governi sono meno liberi di fare quel che vogliono, sia del loro territorio e del loro ambiente, sia dei popoli che governano: molti concordano sul punto che la sovranità, e cioè il potere di una nazione di impedire ad altri di interferire nei suoi affari interni, si va rapidamente erodendo.

Questa valutazione coglie il segno per ciò che riguarda il caso del generale Pinochet, che solo pochi anni orsono avrebbe potuto circolare liberamente per tutta Europa, seguito al più da qualche manifestazione di protesta.

Pinochet è quindi effettivamente una vittima – se così si può definire – della disgregazione del principio di sovranità.

È però errato ricondurre alla disgregazione della sovranità o all’evoluzione del diritto internazionale le varie invasioni e aggressione per ragioni umanitarie verificatesi a partire dall’operazione Restore Hope in Somalia.

Le attuali invasioni belliche per scopi umanitari, infatti, non sono l’effetto di una disgregazione della sovranità, ma al contrario, di una sua potente riaffermazione: una riaffermazione, perché questo istituto sorge molto tempo fa, per legittimare l’occupazione del Nuovo Mondo da parte prima della Spagna e poi delle altre potenze occidentali.

Ed infatti, una delle caratteristiche fondamentali delle aggressioni militari per ragioni umanitarie attuali – non diversamente da quelle attuate nel XVI e XVII secolo – è quella che lo spirito umanitario anima invariabilmente Stati militarmente e economicamente potenti, mentre destinatari dell’intervento umanitario sono sempre Stati o comunità militarmente e economicamente deboli.

Questo può significare che la mancanza di umanità è propria solo degli Stati poveri e che, viceversa, solo gli Stati ricchi che molto investono in armi e in apparati bellici sono non solo genuinamente umanitari, ma per di più animati da un incontenibile spirito solidaristico, che porta ad affrontare spese enormi in nome di principi di fratellanza.

Oppure può significare che gli Stati ricchi e potenti usano il pretesto delle ragioni umanitarie per fare guerre non consentite dal diritto internazionale, quasi sempre vietate dalle normative costituzionali dei singoli Stati, e comunque non giustificabili di fronte all’opinione pubblica interna.

Ma, a prescindere da ciò, la pratica dell’invasione e dell’aggressione militare giustificata dallo spirito umanitario degli invasori, sorta e teorizzata in Europa, come detto, alcuni secoli orsono, ha avuto varie più recenti applicazioni.

Nella sua versione contemporanea, è stata messa a punto ufficialmente negli anni Trenta, dopo che nel 1929 il patto Briand-Kellogg – sottoscritto da ben 65 Stati sui circa 100 allora esistenti – aveva solennemente abolito il ricorso alla guerra come strumento per dirimere conflitti internazionali, segnando così non la fine delle aggressioni militari, ma la necessità di giustificarle con ragioni umanitarie (ritenute compatibili con gli scopi del patto).

Così, è per tutelare i diritti umani degli abitanti Manchù, violati dai Cinesi che il Giappone interviene militarmente in Manciuria nel 1931, rendendosi responsabile di estensivi massacri della popolazione civile.

È per tutelare un popolo ridotto in schiavitù dai suoi governanti che l’Italia interviene in Etiopia nel 1935, con ampio uso di armi chimiche e di gas.

È infine per tutelare i diritti umani del popolo tedesco conculcati dal governo cecoslovacco che la Germania nazista occupa la Cecoslovacchia nel marzo del 1939.

L’invenzione del meccanismo delle ragioni umanitarie per giustificare una aggressione militare è però ancora precedente.

Ne è artefice uno dei più astuti ed efferati criminali della recente storia europea: Leopoldo II re dei Belgi, padrone assoluto del Congo.

Affermando di voler assistere materialmente e spiritualmente le popolazioni  locali, di volerle proteggere dalle incursioni dei briganti arabi alla ricerca di schiavi per il mercato di Zanzibar e di volerle immettere come liberi soggetti nella comunità internazionale, Leopoldo II riesce in un’impresa davvero eccezionale: alla Conferenza di Berlino del 1885, ove viene avviata la spartizione dell’Africa tra le potenze europee, fa assegnare non al Belgio, ma ad una associazione privata, la International African Association, l’immenso territorio del Congo.

In poco tempo, ottenuta l’assegnazione, l’associazione di dissolve, lasciando al suo posto Leopoldo II.

È l’unico caso di una colonia che costituisce, con tutti i suoi abitanti, la proprietà di una singola persona.

C’è un libro straordinario e avvincente che descrive la storia di Leopoldo II, del Libero Stato del Congo, e dei vari personaggi che vi hanno preso parte (Adam Hochschild, King Leopold’s Ghost. A Story of Greed, Terrror, and Heroism in Colonial Africa, Houghton Mifflin Company, New York 1998), purtroppo tuttora non tradotto in italiano.

Il libro offre una impressionante documentazione delle condizioni di schiavitù con le quali in Congo le popolazioni erano costrette a lavorare per raccogliere prima l’avorio, poi la gomma, preziose merci destinate ai mercati e ai consumatori europei.

Coloro che si rifiutavano di prestare la loro attività lavorativa erano deportati, seviziati o uccisi insieme ai membri delle loro famiglie, o, assai spesso, al fine di risparmiare munizioni, erano puniti con il taglio delle mani, che venivano pubblicamente esposte come monito dalle truppe di re Leopoldo (è in Congo che Conrad ha visto e sperimentato ciò che poi racconterà in uno dei suoi più celebri racconti, Cuore di tenebra).

Nel frattempo, Leopoldo II era descritto dai suoi sostenitori come “uno dei più nobili sovrani del mondo, un imperatore la cui unica ambizione è quella di servire la causa della civilizzazione cristiana e di promuovere il benessere dei suoi sudditi, governando con saggezza, tolleranza e giustizia” Quel dominio che la capillare propaganda di Leopoldo  giustificava come finalizzato alla diffusione della civilizzazione cristiana (con il sostegno, naturalmente, delle gerarchie ecclesiastiche) celava in realtà un metodico e ferocissimo genocidio di popolazioni inermi (intere aree del Congo vennero spopolate da deportazioni e massacri), determinato non da ragioni ideologiche, ma da grette finalità commerciali e di accumulazione di immense ricchezze.

Pochi coraggiosi (e tra questi non c’erano né Conrad né i numerosi preti cattolici presenti in Congo: fino all’ultimo il Vaticano ha difeso il cattolico Re dei Belgi), dopo aver visto ciò che accadeva in Congo, si dedicarono alla denuncia del regime di terrore ivi instaurato.

Ma per anni e anni, neppure le foto delle mani mozzate diffuse sui giornali europei riuscirono a smuovere l’opinione pubblica europea.

Solo dopo molto tempo, e dopo aver ammassato incalcolabili ricchezze, Leopoldo si vide costretto  a vendere al Belgio il suo Congo, e a rinunciare alla sua impresa umanitaria.

“Il Belgio avrà il mio Congo, ma non ha diritto di sapere ciò che io ho fatto lì” si racconta che abbia detto, dando incarico di distruggere tutti i documenti e gli archivi relativi al suo Libero Stato del Congo.

Come si vede, non c’è assolutamente nulla di nuovo nelle aggressioni belliche condotte per dichiarate finalità umanitarie: c’è, anzi, puzza di merce stantia e riciclata, contando sulla scarsa memoria degli ascoltatori.

Del resto, se Leopoldo con i pochi mezzi di persuasione all’epoca a sua disposizione è riuscito per quasi vent’anni a massacrare intere popolazioni per un po’ di gomma, convincendo gli europei che stava conducendo una faticosa missione umanitaria, è facile immaginare che i Governi europei attuali, con le tecnologie di comunicazione oggi a disposizione, possano ottenere consensi ben più estesi.

Possano anche persuadere l’opinione pubblica che c’è qualcosa di nuovo.

LA TERRA DEGLI SCHIAVI

Dov’è il Benin?

Pochi lo sanno, molti ne ignorano l’esistenza. Solo ai più anziani il nome Dahomey – l’antica denominazione del Benin – evoca incerti ricordi.

Eppure il Benin, uno Stato grande un po’ meno del Portogallo che si affaccia sul Golfo di Guinea, stretto tra il Togo e la Nigeria, colonia francese fino agli anni sessanta del secolo scorso, è stato il teatro di una tragedia di incomparabili proporzioni, i cui strascichi segnano tuttora la vita civile di molte nazioni.
Complessivamente, le vittime della tratta di schiavi sono state stimate in circa 15 milioni.

Da questa costa Portoghesi, Inglesi, Francesi e Olandesi hanno deportato, tra la metà del quindicesimo e la metà del diciannovesimo secolo, circa 10 milioni di esseri umani: più precisamente 9.391.100 schiavi, secondo i conti fatti da Philip Curtin nel 1969, con una indagine che tuttora rimane il riferimento dei successivi studi in materia (P.D.Curtin, The Atlantic Slave Trade: A Census, University of Wisconsin Press).

Attenzione però: in questo numero sono compresi solo gli schiavi effettivamente giunti a destinazione nei mercati di oltreoceano. Devono quindi aggiungersi tutti coloro che morivano durante il trasporto per mare – mediamente il 20% del carico – e tutti coloro che morivano, prima ancora, nel trasporto dal luogo di cattura al luogo di imbarco.

Il che significa, nei periodi di maggiore domanda di schiavi, alcune migliaia di deportati al mese.

Ben più elevato è il numero delle vittime indirette: intere economie in precedenza floride sono state distrutte, vasti territori in precedenza popolati sono stati abbandonati.

Recenti studi hanno dimostrato che nelle regioni che si affacciano sul Golfo di Guinea la scomparsa della foresta vergine non è avvenuta a quella velocità che finora era stata stimata, semplicemente perché la deforestazione non ha affatto riguardato una foresta vergine, ma una foresta sorta a seguito dello spopolamento di territori prima coltivati o utilizzati a pascolo, provocato dalla tratta degli schiavi.

Soprattutto, si è accumulata in Africa e in tutti i paesi che hanno partecipato alle varie fasi dell’economia schiavistica una pesante e irrisolta eredità di discriminazione, odio, paura, razzismo (si veda sull’argomento il libro appena uscito di Giorgio Pietrostefani, La tratta atlantica. Genocidio e sortilegio, Jaca Book). Sulla costa del Benin, proprio di fronte al mare, vicino a Ouidah (è obbligatorio l’invito alla lettura di un libro prezioso: Il Viceré di Ouidah di Chatwin), l’Unesco ha ricordato questa tragedia, erigendo un arco, l’Arco del Non-Ritorno, per commemorare i milioni di esseri umani che l’avidità e la smodata predilezione sviluppata dagli europei per zucchero e caffè e per i vestiti di cotone hanno di lì trascinato verso un destino di sofferenza e di morte.

Poche centinaia di visitatori all’anno arrivano ai piedi di quell’Arco, e guardano verso il mare: al di là c’è l’America, terra di libertà e di ricchezza per molti, terra di terrore per quelli che da quelle zone vi erano trascinati.

Invece dovrebbe essere previsto, magari con il contributo dell’Unione europea (che tanto ha a cuore i diritti dell’uomo) l’obbligo di compiere un pellegrinaggio a Ouidah per ciascun alunno delle scuole europee: un viaggio di formazione e di riflessione sul passato, sulle origini del proprio benessere..

Cotonou, capitale del Benin. Si affaccia sul mare con un porto effervescente e in grande sviluppo.

È come tante città africane: il prodotto di una crescita disordinata e di uno sviluppo incontrollato (non bisogna dimenticare che tra il 1991 e il 1997 gli investimenti stranieri in Africa hanno reso mediamente di più che in ogni altro continente).

Come tante città africane, si addensano e si accavallano, nello spazio di pochi metri, l’Antico e il Moderno: il canto del gallo e il sibilo del condizionatore d’aria, odori di frutta decomposta e di gas di scarico, uffici in vetroresina e capanne di paglia.

Nelle città africane i modi e gli stili di vita e le nuove tecnologie non sostituiscono quelle precedenti: il vecchio e il nuovo convivono e si sovrappongono, creando cortocircuiti spaziotemporali.

I veri protagonisti di Cotonou sono i ciclomotori giapponesi, nuovo simbolo dello sviluppo nella dimensione globale di sottosviluppo africano: migliaia e migliaia di Yamaha e Suzuki di piccola cilindrata si addensano ad ogni incrocio, stridendo e strombazzando, trasportando gruppi multicolori di persone, mai meno di due, spesso tre o quattro (ricordate la famiglia in Vespa nell’Italia pre-boom economico degli Anni Cinquanta?).

Sono mototaxi, guidati da giovani in divisa, con tanto di numero di licenza esibito sulla giacchetta, che portano a destinazione per poche lire persone e non, come da noi, pacchetti. La scarsità di mezzi ha determinato spontaneamente una soluzione che nelle città italiane si tenta di avviare per far fronte al congestionamento del traffico urbano prodotto dall’eccesso di benessere.

Man mano che si procede verso Nord, calano sempre più i segni della civiltà occidentale, i simboli del benessere occidentale: si fanno più rade le motociclette, scompaiono l’asfalto dalle strade, le costruzioni in muratura dalle città, le penne Bic dalle cartelle dei ragazzi.

Ci si muove nello spazio, ma è come fare un viaggio a ritroso nel tempo. Nell’estremo Nord del paese si entra nel territorio dei Somba, popolazione rimasta fortunatamente indenne dalla maggior parte degli effetti della colonizzazione.

Procedendo verso Nord, aumentano chiese, missioni, luoghi di incontro religiosi gestiti da organizzazioni gestite da preti, finti preti, ex-seminaristi, profeti e visionari.

Su cartelli corrosi dalle piogge, impiantati alla bell’e meglio agli angoli delle strade, ai bordi della boscaglia, si succedono combinazioni fantasiose di Santi, cuori di Maria, soldati apostolici di Cristo, minacciose profezie di apocalissi e comandamenti più o meno assurdi.

Dovunque sono reclamizzate organizzazioni per le quali la povertà costituisce non una situazione di necessità ma la risorsa da sfruttare, secondo il principio per cui l’aumento del bisogno materiale provoca la ricerca di compensazioni nell’Aldilà e quindi fertile terreno per chiunque venda prodotti immateriali e spirituali.

Tutta l’Africa è spolpata da migliaia di emuli di Credeonia Mwerinde.

Questa, dopo aver condotto una vita di miseria nell’Uganda travolta dalla guerra civile – due volte vedova, molti figli, molti lavoretti (venditrice ambulante di banane, prostituta, piccolo contrabbando) – vede nel 1988 la Madonna in una grotta ed avvia la sua carriera di profetessa.

La prima mossa è il reclutamento come aiutante profeta, consigliere e socio di Joseph Kibwetere, dotato di vasta esperienza nel settore per aver svolto funzioni di ispettore dell’insegnamento cattolico.

Sorge così il “Movimento per la restaurazione dei dieci comandamenti di Dio”: in pochi anni raccoglie migliaia di fedeli cui è promessa la salvezza eterna alla data ormai prossima dell’Apocalisse, a condizione che i loro beni terreni – un fazzoletto di terra, qualche risparmio – vengano lasciati al Movimento. La fede degli aderenti è ben ripagata: l’Apocalisse per loro arriva davvero, e tutti muoiono, avvelenati e felici, mentre Credeonia se la batte con il bottino.

IL GATTO UCCISO A CALCI E UN CASO STATUNITENSE

Tivoli, Italia (da Il Corriere della Sera, domenica 25\6\2000, Fabrizio Roncone “Giocano a calcio con un gatto fino a ucciderlo” pag.14).

I tre ragazzi erano annoiati e hanno deciso di passare il tempo giocando a calcio.

Come palla hanno usato un gatto nero. Il gatto trasformato in palla è morto.

I tre rischiano una multa per maltrattamento di animali, fino a 10 milioni.

La padrona del gatto, quando ha visto il gatto immobile sul marciapiede, ha cercato prima di fargli la respirazione bocca a bocca, poi un massaggio cardiaco.

Tutto inutile.

Il gatto era già morto.

Le due figlie della padrona del gatto hanno pianto per tutto il giorno.

Poi, lo hanno sepolto nel giardino di casa.

Leggendo questa notizia, il lettore può scegliere almeno due piste di valutazione:

a) inorridire per la crudeltà e il cinismo dei giovani d’oggi

b) stupirsi per il fatto che il Corriere ha dedicato un proprio inviato speciale e quattro colonne delle proprie pagine all’uccisione di un gatto;

c) considerare fa più notizia un gatto preso a calci che un rumeno bruciato dal padrone o a un giovane ecuadoregno giustiziato sulla strada da un praticante avvocato giustiziere.

Ma ecco che cosa accade negli Stati Uniti.

San Francisco, USA (da San Francisco Chronicle venerdì 2\6\2000, Jaxon Van Derbeken, S.F. Dog Killer Avoids 3-Strikes Sentence).

Joey Trimm, di anni 29, accortosi che il suo cane Guinness stava mangiando il cibo preparato per il gatto, colto da un impeto d’ira, lo ammazza di botte, lo mette in un sacchetto di plastica e lo butta nella spazzatura.

Ma la sua fidanzata, accortasi della mancanza del cane, lo denuncia.

Trimm viene arrestato Tutto ciò accade nel maggio del 1997, oltre tre anni orsono.

Trimm attende in carcere per tre anni il processo.

Il Procuratore distrettuale, avendo l’imputato già subito nel 1990 due condanne per molestie a due minorenni, chiede una condanna a 25 anni, in applicazione della legge dei “tre colpi”: alla terza condanna, per qualsiasi motivo, in California si ricevono non meno di venti anni di carcere.

Si giunge al processo.

Il Procuratore distrettuale sceglie una linea morbida.

Non per l’uccisione del gatto, ma per le molestie ai minorenni. A fronte di una ammissione di colpevolezza di Trimm, acconsente a considerare le due condanne precedenti per molestie come un solo episodio ai fini dei tre colpi, e chiede per l’uccisione del cane solo sette anni.

Il giudice ritiene eccessiva la richiesta e infligge una condanna a quattro anni.

Di fatto, Trimm uscirà dal carcere nel novembre di quest’anno, dopo tre anni e mezzo.

“Sono stupefatto per questo gesto di clemenza!” dichiara il portavoce di Voices for the Pets, una associazione per la protezione degli animali domestici “ma almeno tre anni li ha scontati”.

A CHI SERVONO I PRODOTTI GENETICAMENTE MODIFICATI?

Attentato all’integrità della natura o espressione dell’ingegno umano?

Strumento di distruzione o di incremento della biodiversità?

Mezzo per sottoporre l’agricoltura mondiale al controllo di poche multinazionali, o panacea per eliminare il problema della fame?

Queste le alternative che si contrappongono nelle discussioni in merito alle ricombinazioni genetiche applicate all’agricoltura e dei relativi prodotti agricoli.

Fin dall’inizio degli anni Settanta, quindi ben prima della loro immissione sul mercato, i prodotti agricoli geneticamente modificati con la tecnica del Dna ricombinante, che chiameremo d’ora innanzi Pagm, sono stati al centro di uno scontro che ha riguardato non solo e non tanto le regole più appropriate da applicare per utilizzare questi prodotti garantendo la sicurezza dell’ambiente e la salute dei consumatori, ma l’ammissibilità da un punto di vista etico e ambientale della loro produzione e del loro uso: un vero e proprio scontro ideale tra opposte visioni del mondo.

Attualmente, i Pagm sono divenuti, con una crescita costante, una componente importante della produzione agricola mondiale (anche se le aree agricole interessate sono concentrate per il 99% in soli tre Paesi: Stati Uniti, Argentina e Canada): complessivamente erano coltivati con Pagm nel 1996 1,7 milioni di ettari, divenuti 11 milioni nel 1997, 27,8 milioni nel 1998, e 39,9 milioni nel 1999.

Lo scontro tra sostenitori e oppositori dei Pagm non è però diminuito di intensità: neppure i disastri di Three Miles Island e di Cernobyl hanno determinato nell’opinione pubblica una ostilità nei confronti dell’energia nucleare analoga a quella esistente nei confronti degli Ogm.

Il confronto si è però spostato dalla ammissibilità teorica dell’uso dei Pagm ai problemi connessi con il loro uso concreto.

Così, i temi di carattere scientifico, giuridico, agricolo, ambientali, economico hanno sostituito gli aspetti etici e politici, anche se questi ultimi non sono affatto scomparsi.

Anzi, nella maggior parte dei casi le prese di posizione sono ancora determinate non dall’acquisizione di dati scientifici e da valutazioni razionali, ma da scelte di campo operate pregiudizialmente e fideisticamente in base a quei postulati etici o politici formalmente scomparsi.

Si è anche verificata una radicalizzazione geografica, ed è penetrata nelle relazioni internazionali, materializzandosi nella contrapposizione tra Stati Uniti e Unione Europea in merito alla coltivazione e alla commercializzazione di Pagm.

Quest’ultima mantiene infatti una posizione di sostanziale blocco dell’utilizzazione di Pagm.

Infine ha acquisito una decisiva importanza nel dibattito la valutazione degli effetti della utilizzazione di Pagm per affrontare il problema della sottonutrizione e della fame nei Paesi in via di sviluppo (d’ora in poi Pvs ) e più in generale sull’aumento della popolazione mondiale.

Ed è su quest’ultimo punto che intendo soffermarmi.

INCROCI TRADIZIONALI E PAGM

Tutte le attuali coltivazioni sono il risultato di lente e continue selezioni operate attraverso i secoli, finalizzate a migliorare la produttività, i valori nutrizionali, la resistenza alle malattie, il gusto, ed anche l’odore e il colore.

Ciò significa che oggi tutti i prodotti dell’agricoltura sono diversi dalle specie originarie, dal loro “prototipo” naturale.

La maggior parte di essi – in Europa oltre il 90% – deriva da specie che hanno avuto origine in luoghi diversi da quelli in cui esse sono attualmente coltivate, e sono quindi state importate nei luoghi ove sono attualmente coltivate modificando in modo sostanziale e irreversibile le condizioni naturali originarie.

Inoltre, molte delle specie da cui hanno tratto origine quelle oggi coltivate sono estinte: sopravvivono ormai solo gli incroci.

In Europa, più del 90% dei prodotti alimentari appartiene a questa categoria.

Gli incroci e le clonazioni effettuati con tecniche tradizionali hanno lo stesso obiettivo degli organismi prodotti con l’ingegneria genetica, cioè con tecniche consistenti nell’estrarre (con varie modalità (1) il Dna corrispondente a uno o più geni specifici da un organismo “donatore” e nell’inserirlo nella cellula di un organismo ricevente.

L’obiettivo è quello di ottenere varietà che offrono una resa quantitativamente o qualitativamente migliore, incrementando la resistenza alle condizioni ambientali in cui viene coltivata (per esempio aridità del terreno, temperature più basse o più elevate di quelle necessarie per la coltivazione della varietà non modificata), oppure incrementando la resistenza a parassiti o malattie proprie della specie su cui si interviene, o infine incrementando la resistenza a prodotti pesticidi o antiparassitari che debbono essere utilizzati.

L’obiettivo può anche essere quello di ottenere varietà vegetali più pregiate perché gustose, più gradevoli e attraenti (è per questo che la carota, da viola, è stata resa arancione).

Sia gli incroci tradizionali che i Pagm sono basati sulla modificazione del patrimonio genetico della specie oggetto dell’intervento.

Per i primi ciò si realizza con il trasferimento casuale, incontrollato e potenzialmente rischioso, di migliaia o diecine di migliaia di geni; per i secondi con l’inserimento mirato di uno o più geni predeterminati.

Proprio per la casualità del risultato, l’incrocio di specie effettuato secondo metodi tradizionali ha in vari casi prodotto nuove specie tossiche per l’uomo, o specie più resistenti a determinati parassiti e in taluni casi le specie incrociate hanno determinato l’estinzione delle specie originarie.

In effetti, non vi è prodotto alimentare, comunque ottenuto, che sia esente da rischi: ogni varietà vegetale può produrre effetti indesiderati e talvolta dannosi.

Sotto questo profilo non c’è differenza tra pratiche tradizionali e nuove tecnologie.

Questo significa che è privo di senso imputare questo pericolo solo agli incroci ottenuti con tecniche di ricombinazione genetica, dopo che per centinaia di anni, in considerazione dei benefici, si sono sopportati i rischi degli effetti dannosi degli incroci tradizionali.

Vi è però una differenza tra varietà vegetali ottenute con incroci tradizionali e Pagm.

Le pratiche tradizionali sono vincolate al rispetto dei limiti di compatibilità delle specie: solo specie che si assomigliano possono essere incrociate al fine di ottenere varietà nuove e diverse, mentre specie non compatibili, come pure specie appartenenti a generi (vegetale ed animale) diversi, non posso essere incrociate.

Al contrario, le tecnologie che utilizzano il Dna ricombinante possono essere utilizzate per ottenere modificazioni genetiche che non sarebbe possibile ottenere avvalendosi di pratiche tradizionali, inserendo in specie o varietà vegetali geni estratti da batteri o altri organismi animali, e realizzare così i c. d. organismi transgenici.

Naturalmente, il fatto che con le tecniche di ingegneria genetica si riescano ad ottenere incroci che non si possono ottenere con le tecniche tradizionali non significa che solo i primi incroci siano “innaturali”.

Se natura è la realtà non toccata o non trasformata dall’uomo, non c’è alcuna differenza tra tecniche tradizionali e tecniche di ingegneria genetica: entrambe creano prodotti innaturali: in entrambi i casi l’uomo si è sostituito alla natura o a Dio (utilizzando le tecniche di volta in volta messe a disposizione dal progresso scientifico e tecnologico).

La differenza – e quindi l’eventuale diverso trattamento giuridico – è quindi tra prodotti alimentari parimenti innaturali, ma gli uni ottenuti artificialmente con tecnologie utilizzate da migliaia d’anni, gli altri ottenuti artificialmente, ma con tecnologie che solo da pochi decenni sono a disposizione.

È solo in questa differenza e nei loro specifici effetti – se esistono – che dovrebbero essere individuate le ragioni che determinano l’accettabilità degli incroci tradizionali e l’inaccettabilità dei Pagm, e quindi divieti o limitazioni alla coltivazione o alla commercializzazione di questi ultimi, sotto il profilo del pericolo per l’ambiente, o per la salute.

POPOLAZIONE E AGRICOLTURA MONDIALE

Sulla terra vivono più di 6 miliardi di esseri umani; erano 3 miliardi e mezzo solo nel 1968.

L’aumento della popolazione è dovuto al generalizzato aumento dell’aspettativa di vita per effetto delle migliori condizioni di igiene, di assistenza sanitaria, alla maggiore disponibilità di acqua, al ridursi dell’inquinamento.

Il tasso di aumento della popolazione mondiale è oggi 1,3-1,4% (era 2,1% nel 1968).

Al tasso di crescita attuale, la popolazione mondiale è destinata a raddoppiare in cinquant’anni: questo significherebbe 12 miliardi di persone nel 2050, ma è probabile che il tasso decresca nel prossimo futuro (con il migliorare delle condizioni di vita, soprattutto delle donne) e quindi l’aumento della popolazione sia più contenuto.

Secondo previsioni delle Nazioni Unite si dovrebbe giungere a una popolazione di circa 8 miliardi nel 2025 e di 9 o 10 miliardi nel 2050 (quando 9 persone su 10 vivranno nei Pvs ), con una stabilizzazione finale a 11 miliardi verso il 2200 (2).

Prima del XX secolo, l’aumento della produzione agricola era determinato quasi esclusivamente dall’aumento delle aree coltivate.

A partire dagli anni Trenta, con l’avviarsi dell’utilizzazione pratica di nuove tecniche di ibridazione e con la creazione di nuove varietà delle specie più coltivate più resistenti o più prolifiche, comincia ad aumentare la produttività, prima negli Stati Uniti, poi, più tardi, in Europa e in Giappone.

Utilizzando queste tecniche, tra il 1935 e il 1975 la produzione di granturco aumenta negli Stati Uniti del 60%.

A partire dalla fine degli anni Sessanta, proprio la progettazione e l’utilizzazione di nuove varietà più produttive o più resistenti (che rendono possibile il passaggio da uno a due raccolti all’anno), insieme all’uso dell’azoto come fertilizzante e insieme a consistenti investimenti in opere di irrigazione sono le componenti della c. d. Rivoluzione verde che dapprima coinvolge l’Asia e l’America Latina e comincia a far sentire i suoi effetti in Africa negli anni Novanta.

Tre colture – frumento, granturco e riso – sono state l’oggetto principale della Rivoluzione verde; essenzialmente per l’aumento della loro produzione nel corso dei trent’anni è stata evitata quella crisi da mancanza di cibo nei Pvs che Ehrlich aveva previsto come inevitabile.

Queste colture oggi coprono circa la metà di tutte le terre coltivate (circa il 35% della superficie terrestre, escluse le ragioni polari); esse inoltre costituiscono le principali fonti di nutrizione della popolazione mondiale e compongono la maggior parte delle calorie presenti nella dieta umana (3).

A partire dal 1967, la produzione di queste colture è aumentata tra il 79% e il 97% solo per effetto della maggior resa ottenuta utilizzando le nuove varietà, i fertilizzanti chimici azotati e moderne tecniche di irrigazione, e solo per una minima parte per l’aumento delle aree coltivate (in mancanza di aumento della produttività, per raggiungere lo stesso risultato si sarebbe dovuta destinare ad uso agricolo un’area pari all’intera Amazzonia (4), e questo dimostra gli incalcolabili benefici di carattere ambientali provocati dalle tecnologie impiegate nella Rivoluzione verde).

Nel periodo di circa quarant’anni la popolazione è effettivamente raddoppiata, ma è più che raddoppiata la disponibilità di cibo, sia pure in modo diseguale tra Paesi sviluppati e Pvs.

Il risultato è che nei Paesi sviluppati il problema è non la carenza, ma l’eccesso di cibo: infatti i prezzi dei prodotti alimentari, proprio per l’abbondanza dell’offerta rispetto alla domanda, sono diminuiti in media di circa due terzi rispetto al prezzo del 1957 (la rallentata crescita della produzione di cibo nella seconda metà degli anni Novanta non dipende – come molti ritengono – dall’esaurirsi degli effetti della Rivoluzione verde, ma da deliberate scelte di politica agricola dei Paesi ricchi, che hanno così cercato di limitare il surplus) (5).

Inoltre, proprio per effetto dell’aumento della quantità di cibo disponibile e della diminuzione dei prezzi si è ridotto, come abbiamo visto, il numero di persone cronicamente sottonutrite nel mondo: erano – secondo stime delle Nazioni Unite che però molti esperti hanno giudicato non attendibili – oltre 900 milioni all’inizio degli anni Settanta, sono nel 1997 circa 800 milioni di persone (6).

Naturalmente, la Rivoluzione verde non è stata priva di effetti di carattere ambientale, economico e politico.

Essendo determinata da tecnologie ad alto uso di energia e di know-how, ha rimpiazzato le tecniche agricole semplici e spesso a conduzione famigliare; favorendo monoculture intensive, ha ridotto l’autonomia agricola locale e regionale, creando nuove forme di dipendenza e immettendo gli agricoltori in un sistema di banche di sementi, fertilizzanti, macchine agricole, finanziamenti, organizzazioni politiche; ha creato vincitori e vinti su scala mondiale, privilegiando coloro che sono riusciti a tenere il passo con i Paesi ricchi e danneggiando chi non ci è riuscito: nel 1950 l’agricoltura dei Paesi ricchi era sette volte più efficiente di quella dei Paesi poveri; nel 1985, trentasei volte (7).

LA PRODUZIONE DEL CIBO

Le previsioni concernenti la quantità di cibo disponibile nel futuro sono di estrema importanza per valutare se i Pagm siano utili o indispensabili per affrontare il problema della nutrizione dell’accrescersi della popolazione mondiale o quantomeno per evitare un incremento delle persone sottonutrite e affamate nel mondo.

Sono previsioni ardue, sia per la molteplicità di fattori da considerare (oltre a quello strettamente agroalimentare, si deve tener conto degli aspetti climatici, economici, politici e di relazioni internazionali), sia per i diversi e spesso non dichiarati interessi degli esperti e degli scienziati proprio con riferimento all’impiego di tecniche genetiche (in quanto i sostenitori di queste ultime tendono ad accentuare la probabilità di un futuro peggiore dell’attuale, mentre gli oppositori favoriscono ipotesi ottimistiche).

Così, è prima di tutto assai incerto uno dei dati di partenza di qualsiasi previsione e cioè la quantità delle persone sottonutrite nel futuro.

Secondo il Rapporto Transgenic plants and world agriculture, predisposto dalla Royal Society del Regno Unito (nettamente favorevole all’utilizzazione dei Pagm) l’attuale cifra di 800 milioni di persone sottonutrite è destinata a raddoppiarsi nel 2050, se non interverranno consistenti modificazioni sulle cause che generano la sottonutrizione.

Secondo altre stime (Fao) il numero complessivo delle persone sottonutrite dovrebbe continuare a calare, riducendosi nel 2050 a 600 milioni.

Pur essendo questa contrapposizione di tali dimensioni da rendere di per sé solo arduo qualsiasi esercizio previsionale, su un dato però vi è un sostanziale accordo tra tutti gli specialisti: futuri aumenti della produzione agricola dovranno basarsi su un aumento della produttività, e non su una estensione dei territori destinati all’agricoltura, per due ragioni.

Prima di tutto, perché le aree utilizzabili per l’agricoltura sono già scarse, e continuano a diminuire, sia per cause naturali (erosione, mancanza di acqua, desertificazione, ecc. ), sia per l’assoggettamento ad altre destinazioni.

In secondo luogo perché una estensione delle aree destinate all’agricoltura oltre i limiti attuali produrrebbe costi economici e organizzativi difficilmente sopportabili per molti Paesi e, inoltre, un aumento non sostenibile dell’inquinamento ambientale (per effetto della distruzione delle foreste, dell’habitat naturale e della biodiversità).

La questione centrale è quindi se sia possibile un aumento della resa delle coltivazioni adottando le stesse tecniche introdotte dalla Rivoluzione verde (e quindi senza utilizzare le nuove tecnologie genetiche), senza provocare danni non sostenibili all’ambiente, in modo da soddisfare il prevedibile aumento della domanda dovuto all’aumento della popolazione mondiale.

Molti studi sono stati fatti per verificare quale sia la produttività massima raggiungibile con le tecniche agricole attualmente utilizzate; tenendo conto della produttività massima raggiunta dalle varie specie nelle migliori condizioni ambientali e tecnologiche possibili, la conclusione più diffusa è che non potranno essere superati di molto i livelli raggiunti attualmente dalle colture più produttive nei Paesi più avanzati, se non introducendo nuove sofisticate tecnologie che permettano di intervenire sull’efficienza della fotosintesi e sul metabolismo delle piante.

Le previsioni però non sono per nulla pessimistiche.

Secondo la maggior parte degli esperti l’obiettivo di raggiungere una produzione sufficiente per soddisfare la domanda mondiale di circa 8 miliardi di persone nel 2025 può essere raggiunto senza aumentare il terreno coltivato e utilizzando le tecniche attualmente in uso, anche se saranno necessari imponenti opere di estensione delle infrastrutture di irrigazione, sofisticati processi di razionalizzazione nel raccolto, nella conservazione e nella distribuzione dei prodotti alimentari, e la eliminazione degli sprechi che ora caratterizzano il sistema agroalimentare mondiale.

In definitiva la situazione mondiale per ciò che riguarda la produzione globale di cibo dovrebbe continuare a migliorare (8).

MOLTO CIBO, MAL DISTRIBUITO

Il fatto che la quantità globale di cibo sarà complessivamente sufficiente a far fronte alla domanda globale della popolazione nei prossimi tre-quattro decenni non è di per sé sufficiente a concludere che sarà risolto il problema della fame nel mondo.

Infatti, la produzione di cibo non è distribuita uniformemente in rapporto alla popolazione e alle previsioni di crescita.

Anzi: si è visto che la produzione di cibo è già oggi sovrabbondante nei Paesi ricchi, dove l’aumento della popolazione sarà esiguo, mentre è deficitaria nei Paesi poveri – soprattutto in Africa e in Asia – dove è previsto il più alto tasso di crescita della popolazione.

Per queste ultime aree non sarà prevedibilmente possibile ottenere un aumento della produzione di cibo che soddisfi le necessità della aumentata popolazione.

Pertanto per soddisfare la domanda di cibo sarà necessario – se non si ipotizzano altre soluzioni – realizzare efficienti processi di trasferimento di cibo dai Paesi ricchi (ove la produzione è in eccedenza) ai Pvs.

“Non si getta via la minestra, perché la gente muore di fame”.

Questo ammonimento impartito dai genitori ai figli della mia generazione (negli anni Cinquanta del secolo scorso), dovrebbe quindi essere destinato a divenire di pressante attualità nel futuro.

Ma è difficile trasferire la minestra avanzata nelle case dei Paesi ricchi verso le capanne dei Paesi poveri.

Pertanto è proprio sulla realizzabilità del trasferimento che si concentrano le maggiori preoccupazioni.

Non è infatti assolutamente chiaro come questo trasferimento potrà essere realizzato e garantito, sotto vari punti di vista: dal punto di vista commerciale e della global governance, posto che attualmente il commercio mondiale dei prodotti alimentari è stato solo sfiorato dal vento di libertà e di libera concorrenza portato dalla globalizzazione (non casualmente, potendo essere la libera concorrenza in questo settore devastante per le economie dei Paesi ricchi); dal punto di vista organizzativo-logistico; infine, dal punto di vista meramente economico, posto che certamente gli affamati dei Pvs non sono in grado di acquistare sul mercato mondiale le derrate alimentari prodotte nei Paesi ricchi.

In definitiva, le previsioni, seppur rassicuranti e addirittura ottimistiche per ciò che riguarda la produzione di cibo, non risolvono il problema essenziale, e cioè quello di far incontrare l’abbondante offerta con l’abbondante domanda; ma nessuno indica la strada per risolvere questo problema.

Molti però ritengono che non sia questo il problema.

POLITICHE AGRICOLE PER I PVS:L’UTILITÀ DEI PAGM

L’idea che i problemi alimentari futuri debbano o possano risolversi trasferendo cibo dai Paesi ove è sovrabbondante ai Paesi ove manca è ritenuta da molti irrealizzabile e errata.

Costoro osservano che la vera causa della fame non è la mancanza di cibo: è la diseguaglianza.

È questo per esempio il pensiero di Amartya Sen secondo il quale non vi è collegamento tra mancanza di cibo e fame: la storia insegna che la gente muore di fame in presenza di sovrapproduzione di cibo al quale però non ha accesso per mancanza di mezzi (9).

La causa della fame non è quindi la mancanza di cibo, è la povertà.

Il problema non sta dalla parte dell’offerta, sta dalla parte della domanda.

Aumentare la produzione di cibo con le stesse modalità con le quali viene prodotto oggi sarà inutile in futuro, come lo è oggi: il cibo non viene trasferito da chi lo ha a chi non lo ha, perché il trasferimento costa troppo e perché chi non produce cibo non ha neppure i mezzi per comprarlo sul mercato mondiale.

La fame è determinata quindi, come oggi sostengono gli ambientalisti a differenza di qualche decennio fa, non da condizioni naturali e dalla mancanza di cibo, ma dall’inefficienza e dalla corruzione dei governi, dalle guerre, dalla mancanza di mezzi per procurarsi il cibo (10).

In questa prospettiva, ciò che risulta necessario per realizzare l’obiettivo di garantire cibo sufficiente per tutti è realizzare concretamente la possibilità di aumentare la produzione di cibo lì dove c’è il bisogno, senza ipotizzare inattuabili trasferimenti.

Questo significa che la fame nei Pvs può e deve essere affrontata nei prossimi decenni non solo aumentando la produzione agricola e non tanto organizzando complessi meccanismi redistributivi, ma anche – e soprattutto – creando tutte le condizioni economiche, materiali, politiche, di educazione, di eguaglianza e non discriminazione, di buon governo che permettono di incrementare il benessere della collettività e quindi di incrementare i mezzi economici necessari per acquisire il cibo necessario sul mercato o per coltivarlo.

La fame si combatte con la giustizia sociale.

In proposito, osserva Norman Borlaug, premio Nobel e uno dei padri della Rivoluzione verde, che i raccolti possono essere aumentati del 50% o addirittura del 100% in India, America latina e nelle aree della ex Unione Sovietica, e fino al 200% nell’Africa sub-sahariana, a condizione che sia mantenuta la stabilità politica e sia favorita l’iniziativa privata nel settore agricolo (11).

Eppure, anche questa conclusione non lascia soddisfatti.

L’aspetto che lascia perplessi è proprio quello sul quale, in definitiva, dovrebbe ruotare l’intero meccanismo cui è rimesso la nutrizione futuro della popolazione sottonutrita a livello mondiale.

Se le previsioni sull’aumento della produzione di cibo tramite aumento della produttività utilizzando le tecnologie proprie della Rivoluzione verde non offrono una rassicurante soluzione al problema del necessario trasferimento di cibo dai Paesi ricchi ai Paesi poveri, la soluzione basata sull’aumento di giustizia sociale in questi ultimi nei prossimi tre-quattro decenni sembra altrettanto irrealizzabile, quantomeno per la maggior parte dei Paesi interessati, tenuto conto della situazione attuale caratterizzata da pesanti disuguaglianze, guerre civili, corruzione, inefficienza amministrativa e sprechi.

In proposito, è stato osservato che è certamente vero che centinaia di milioni di persone sono affamate non perché non ci sia il cibo, ma perché sono povere e non hanno i mezzi per acquistarlo o per coltivarlo; ma il problema per la grande massa degli affamati non è ottenere mezzi economici per l’acquisto di cibo, ma avere la possibilità di coltivare i prodotti agricoli necessari per la loro sussistenza.

Pertanto, se è vero che chi ha fame non ha cibo perché è povero, è altrettanto vero che è povero perché non ha cibo, perché i raccolti sono insufficienti, la resa delle varie specie agricole disponibili è assai bassa, il terreno è arido, l’acqua per irrigare manca, e così via.

È questo lo scenario che caratterizza una grande numero di Pvs ove oggi quasi un miliardo di persone muore di fame perché vive al di fuori del mercato: non solo del mercato globale, ma anche dei mercati locali.

E non è assolutamente credibile ipotizzare una radicale trasformazione di questo scenario con l’improbabile rapida adozione di politiche di giustizia sociale.

Ecco che allora si profila l’utilità dei Pagm proprio qui, per uno specifico settore di mercato, quello dell’agricoltura dei Pvs: non come alternativa all’incremento di produttività da realizzarsi con le tecnologie offerte dalla Rivoluzione verde, né come alternativa all’adozione nei Pvs di politiche sociali e agricole che a loro volta incrementino le possibilità di accesso al cibo per coloro che oggi sono esclusi, ma come strumento specifico di intervento finalizzato a soddisfare la domanda di del coltivatore-consumatore di chi sta nei Pvs, e non ha accesso né al mercato: alcune centinaia di milioni di persone per le quali la sopravvivenza è legata soltanto alla possibilità di coltivare i prodotti di cui hanno bisogno.

In queste economie quindi la tecnologia genetica può esplicare tutte le sue potenzialità, creando Pagm resistenti ai parassiti, alla mancanza di acqua, e in generale alle difficili condizioni ambientali.

Per esempio, tutti i prodotti agricoli nei quali si è riuscito ad inserire il Bacillus Thuringiensis, che produce una tossina fortemente insetticida hanno rivelato, proprio per questa accentuata resistenza ai parassiti, un consistente aumento della produttività.

Inoltre, sono state realizzate specie di riso e di granturco transgenico che sono in grado di tollerare suoli con alta concentrazione di alluminio, un problema comune dei suoi con elevato tasso di acidità, assai diffusi nei Paesi tropicali, e sinora poco produttivi (ma analoghi prodotti sono in corso di elaborazione per ridurre, mediante la coltivazione, la concentrazione di mercurio nel terreno).

Altri scienziati all’università di Delhi hanno allo studio un riso che, a seguito dell’aggiunta di due geni, è in grado di sopravvivere in situazioni – frequenti in molti Paesi asiatici – di prolungata immersione nell’acqua.

Un altro gruppo di ricercatori ha ottenuto un riso transgenico in grado di produrre betacarotene, che nel processo digestivo può essere convertito in vitamina A (di cui sono carenti in Asia 180 milioni di bambini).

È anche in corso di progettazione un riso con un contenuto di ferro triplo rispetto a quello naturale, utile per evitare anemie che dipendono dall’assenza di questo minerale.

In Kenya è stata realizzata una patata dolce transgenica che è resistente ad un distruttivo virus (12).

Si sta rivelando di enorme importanza inoltre la possibilità di utilizzare i Pagm a fini di assistenza sanitaria: sono assai avanzati gli studi per l’inserimento di vaccini all’interno di prodotti commestibili, come le banana, ottenendo con ciò il risultato di immunizzare con il cibo i bambini dei Pvs ai quali la somministrazione di vaccini è preclusa da difficoltà organizzative, logistiche o finanziarie.

L’elenco potrebbe continuare a lungo.

Ma già questi esempi impongono di riflettere sul fatto che, se il reale problema è quello di creare fonti di nutrizione lì dove ci sono le persone che ne hanno bisogno, l’uso dei Pagm può costituire la soluzione più ragionevolmente realizzabile nel periodo di tre-quattro decenni in considerazione, senza affidarsi a irrealizzabili trasferimenti di cibo su scala globale, e neppure all’adozione di improbabili riforme istituzionali nei Pvs, ma soltanto nella disponibilità delle sementi necessarie: cioè di beni il cui costo è irrisorio ed alla portata di tutti.

LO SCONTRO SUI PAGM

Se si tiene conto di questi dati, la moltitudine di attori che popola il confuso scenario dello scontro sui Pagm comincia a sgranarsi nelle sue componenti.

Partiamo dagli oppositori dei Pagm.

Ci sono prima di tutto i gruppi ambientalisti.

Questi tengono essenzialmente conto della situazione di benessere economico e ambientale dei Paesi ricchi, cioè dei Paesi in cui si trovano i loro aderenti, i loro finanziatori, i consumatori e le loro associazioni, e dove si forma l’opinione pubblica che a loro fa riferimento.

Per tutti costoro, che vivono in una situazione in cui i problemi sono l’obesità e l’eccesso di cibo e non la fame, il rifiuto dei Pagm non comporta alcun sacrificio sul tenore di vita e sul benessere alimentare.

Viceversa, l’introduzione dei Pagm non porta alcun beneficio apparente: non aggiunge nulla a ciò che già c’è, sicché ogni rischio, per quanto minimo e trascurabile, risulta ingiustificato e eccessivo.

I gruppi ambientalisti soprattutto in Europa sono tutt’altro che soli.

Hanno il sostegno – assai importante da un punto di vista ideologico-culturale – di movimenti fondamentalisti (di derivazione religiosa o puramente conservazionista), per i quali la lotta ai Pagm costituisce un ottimo strumento per impostare battaglie a difesa della vita, della creazione o della natura (con tutti i limiti e le contraddizioni che abbiamo indicato nei precedenti capitoli); hanno inoltre il sostegno del frastagliato movimento noglobal, per il quali la lotta ai Pagm assume il significato di lotta contro l’estendersi a livello mondiale del potere economico e tecnologico delle multinazionali americane.

Ma soprattutto c’è, come potente alleato nell’arena dei rapporti di forza economico-politici dei Paesi ricchi europei, la filiera agroalimentare che si fonda sulle tecnologie tradizionali che hanno costituito le premesse della Rivoluzione verde: i fertilizzanti e i pesticidi chimici, le macchine agricole, le grandi opere irrigue: i contadini, gli agricoltori, gli allevatori e le organizzazioni politico-sindacali che li rappresentano, i vari settori produttivi della coltivazione dei prodotti agricoli (e quindi i produttori di erbicidi, pesticidi e sostanze chimiche necessarie per l’attuale modo di produzione) e delle trasformazione dei prodotti agricoli in prodotti di mercato, e poi, via via, i settori dell’Amministrazione pubblica e del potere legislativo che rappresenta i diversificati, consistenti interessi che su tale filiera convergono.

Per tutti costoro, i Pagm rappresentano una possibile catastrofe: rischiano infatti di compromettere il virtuosistico gioco di prestigio istituzionale-giuridico-economico su cui si regge il sistema agroalimentare dei Paesi ricchi, rivolto a mantenere, nell’ampia marea della globalizzazione, un precario equilibrio protezionistico tra eccesso di produzione e garanzia di profitti.

Dall’altra parte, tra i sostenitori dei Pagm e tra coloro che possono trarne benefici emergono attori che rivestono questo ruolo solo da poco tempo e cioè da quando il dibattito si è focalizzato sul tema agricolo e alimentare, e che paiono essere i veri destinatari dei Pagm: tutte le decine e decine di milioni di persone che popolano i Pvs, che non hanno mezzi per accedere al mercato dei prodotti alimentari finiti, che non partecipano a formare la pubblica opinione e non partecipano quindi al dibattito mondiale, che devono fare i conti non solo con un ambiente o un terreno ostili per trarre l’essenziale per la sussistenza, ma, assai spesso, anche con l’indifferenza e l’ostilità dei governi dei loro Paesi.

Per costoro, l’utilizzabilità di Pagm adatti alle loro necessità e ai loro bisogni significa la chance di oltrepassare la linea rossa della sottonutrizione: significa un aumento di possibilità di sopravvivenza, a partire dalla disponibilità di poche sementi (13).

Ci sono poi le potenti multinazionali della genetica applicata all’agroalimentare, cioè le imprese che sui Pagm hanno investito ingentissime risorse e hanno progettato enormi profitti.

Queste – accusate di voler sottoporre al proprio controllo e alle proprie finalità commerciali la futura produzione agricola mondiale – si trovano ora di fronte a una inaspettata e paradossale situazione.

Ed infatti i Pagm, prodotto di anni di ricerca scientifica e di sofisticata tecnologia dei Paesi ricchi, oggetto di enormi investimenti finanziari e di altrettanto enormi aspirazioni di guadagni, rischiano di rivelarsi, salvo che per alcune produzioni di nicchia, beni inutili per i Paesi ricchi, da cui i progettati profitti possono derivare: qui possono soltanto aggravare il problema della sovrapproduzione agricola, alterando il precario equilibrio di sovvenzioni, protezionismo e contenimento della produzione che tutela gli agricoltori e, indirettamente, l’intero mercato agroalimentare.

Nello stesso tempo, i Pagm si profilano dei beni preziosi e indispensabili per i Pvs, e per i più poveri tra questi: quindi per un mercato che certamente non è in grado di soddisfare con i propri mezzi le aspirazioni di profitto e di ripagare gli investimenti dei produttori dei Pagm.

Così, i principali sostenitori dell’uso dei Pagm, le multinazionali della biotecnologia, vedono profilarsi defatiganti e costose opposizioni – in apparenza in nome della sicurezza, della tutela dell’ambiente e del principio di precauzione, in realtà a difesa dell’egoista difesa dei propri privilegi – da parte dei consumatori ai quali i loro prodotti sono diretti, perché possono pagarli, e nel contempo la pressante domanda di quegli stessi prodotti da parte di una massa di possibili consumatori collocati nei Paesi poveri e non in grado di far fronte ai costi.

Gli attori però non finiscono qui.

Tra gli schieramenti si collocano, esitanti, i governi dei Paesi ricchi (soprattutto in Europa).

Questi sono stretti tra la pressione della domanda dell’opinione pubblica e dalla struttura agroalimentare chimica e meccanica tradizionale, contraria all’uso dei Pagm, e tra la necessità – determinata non da altruismo, ma dall’obiettivo di garantire margini di complessiva stabilità economica e politica nei prossimi decenni in un mondo la cui popolazione sarà sempre più squilibrata – di soddisfare le necessità alimentari del prossimo futuro dei Pvs.

Tutti questi governi si trovano di fronte alla scelta tra assumere decisioni gradite alla generazione presente, da cui dipende la loro elezione e il loro sostegno, ma tali da compromettere l’equilibrio alimentare e quindi politico fra pochi decenni, oppure decisioni sgradite agli elettori presenti ma necessarie per le generazioni future non solo dei Pvs, ma anche dei Paesi ricchi.

Ci sono anche i governi dei Pvs, che spesso si trovano in una situazione non migliore: dovrebbero optare per l’adozione di nuove tecnologie agricole, ma questo significherebbe indirizzare investimenti per avviare la costruzione di situazioni di maggior benessere per gli strati più poveri della popolazione e così alterare alle radici la struttura sociale, il tessuto di tradizioni e di consuetudini dei Paesi che governano, i meccanismi internazionali di aiuti e sovvenzioni, e in generale minare alle basi i presupposti sui quali si basa il loro potere.

CONCLUSIONI

Così la realtà dell’economia agricola mondiale e l’analisi dei bisogni e dell’offerta nel futuro focalizzano in posizioni più precise la moltitudine degli attori sulla scena dello scontro sui Pagm e delineano uno scenario per molti versi inaspettato; si scompaginano certezze acquisite e vengono allo luce pregiudizi e ideologie sulla base delle quali esse sono state costruite.

Molti sostenitori dei Pagm, bollati come ingenui amanti del progresso, oggettivamente (se non volontariamente) al servizio degli interessi economici e dell’ansia di profitto delle multinazionali della genetica, risultano schierati a difesa della necessità di garantire la sopravvivenza alimentare nei Pvs.

Viceversa, ambientalisti e altri oppositori dei Pagm, sostenuti dai movimenti di sinistra e genericamente antiglobalizzazione, si trovano ad essere schierati con i settori più conservatori delle società ricche, difensori degli interessi della filiera agro-chimica-alimentare tradizionale, egoisti difensori del benessere acquisito e indifferenti alle esigenze di chi, nei Pvs, muore di fame.

Restano, ancora, difficili problemi da risolvere: non quelli della produzione di cibo, né quelli del suo trasferimento, né quelli di una trasformazione in senso democratico dei Pvs, ma quelli connessi con la soluzione di un problema che sempre più si porrà sul tappeto delle relazioni internazionali, e cioè come sarà possibile l’incontro dell’offerta di Pagm da parte delle multinazionali che sui Pagm detengono la proprietà intellettuale, alla ovvia ricerca di profitti e di compensi per gli investimenti realizzati, con la domanda dei Pvs che, come si è detto, sicuramente non saranno in grado di soddisfarne le richieste economiche.

Ed ecco così che, alla fine, scopriamo che il problema davvero centrale dell’utilizzazione dei Pagm diventa non quello etico dal quale lo scontro sui Pagm ha preso le mosse, né quello di economia distributiva, né quello della politica agricola, e neppure quello di politica internazionale, ma la questione della global governance e degli equilibri di diritti e di accesso alle risorse nel mondo globalizzato.

MITI E REALTÀ DELL’AMBIENTE GLOBALE

1. La globalizzazione danneggia l’ambiente?

Molti nei paesi ricchi del mondo ritengono che il processo di integrazione politica, istituzionale, economica e finanziaria – cioè quel vasto e complesso fenomeno che va sotto il nome di globalizzazione – provochi danni presenti e soprattutto futuri all’ambiente, in particolare all’ambiente dei paesi in via di sviluppo.

Tre sono gli argomenti più ricorrenti a sostegno di questa opinione: la nocività dello sviluppo, la race to the bottom e gli effetti delle politiche di risanamento.

Prendiamoli in considerazione separatamente.

2. Il mito dell’Eden perduto: lo sviluppo danneggia l’ambiente.

Una delle argomentazioni più diffuse è che l’ambiente dei paesi in via di sviluppo verrà irrimediabilmente deteriorato dall’impatto con l’inquinamento prodotto dalle attività economiche e con gli effetti degradanti delle tecnologie produttive indotte dalla globalizzazione.

In sintesi, lo sviluppo economico danneggia l’ambiente.

Si tratta di una tesi che affonda le sue radici nei vari movimenti antisviluppo della fine degli anni Sessanta.

Essa non ha però riscontro nella realtà.

È anzi vero l’opposto: il grado di tutela dell’ambiente dipende direttamente dal livello di benessere economico e sociale delle collettività che si trovano sulle aree considerate.

Certo, il diverso grado di tutela dell’ambiente esistente e la diversa intensità di regolamentazione ambientale dipendono da molti fattori.

Tra questi assumono rilievo il grado di attenzione e di sensibilità ai problemi dell’ambiente e della salute delle collettività e delle autorità di governo; la storia, la cultura e l’identità di ciascun paese e delle collettività che lo compongono; le scelte politiche e di politica economica di carattere generale, collegate ad interessi pubblici in vari settori (turistico, agricolo, industriale, e così via); infine, circostanze occasionali, indirizzi politici di breve periodo, contingenze di carattere locale.

Ma il fattore di gran lunga più importante resta il benessere, generato dallo sviluppo economico.

Il livello di ricchezza raggiunto da un paese influisce infatti in modo determinante sulle condizioni dell’ambiente, sull’esistenza di norme che ne impediscono il deterioramento, sulla predisposizione di mezzi e di strutture per imporne il rispetto, sulla partecipazione della collettività a difendere i valori ambientali .

Osservava provocatoriamente il sociologo Aaron Wildawsky negli anni Settanta che ciò che occorre per vivere bene in un ambiente sano e pulito è, semplicemente, un buon reddito.

È una sintetica versione di quel circolo vizioso che ha posto in evidenza nel 1987 il rapporto della Commissione Mondiale su ambiente e sviluppo (c. d. Rapporto Brundlandt): è vero che l’ambiente deteriorato produce povertà, ma è altrettanto vero che la povertà deteriora l’ambiente .

Questo non vuol dire che il rapporto tra sviluppo economico, benessere e ambiente sia immediato e lineare.

Anzi, l’aumento dell’attività economica e produttiva, che è il generale presupposto dell’aumento del reddito, determina un aumento dell’inquinamento e quindi una fase iniziale di deterioramento dell’ambiente (tutte le società occidentali hanno attraversato, in momenti e con intensità diverse, questa fase).

Ma con l’aumentare del reddito aumenta gradualmente anche la richiesta sociale di un ambiente pulito: chi vive bene economicamente, vuole vivere in un ambiente sano .

A questo punto, le attività produttive inquinanti e i produttori sono gradualmente sottoposti a controllo da parte degli organi pubblici e dalle collettività interessate, e sono permesse solo se i costi del deterioramento ambientale vengono internalizzati, e posti, in tutto o in parte, a carico del produttore: è il noto principio chi inquina paga, che costituisce oggi uno dei cardini della politica ambientale dell’Unione europea .
Le imprese sono così spinte da strumenti legali (norme, regole, sanzioni) o da meccanismi di mercato (incentivi, benefici fiscali, vantaggi competitivi, ecc. ) ad adottare processi produttivi meno inquinanti e quindi a ridurre progressivamente la quantità di inquinamento.

Infine, con l’ulteriore aumento del benessere economico, la richiesta della collettività tende a dirigersi verso prodotti ambientalmente compatibili: si avvia allora una modificazione nei consumi e si determina una riduzione dell’utilizzazione – e quindi della produzione – di beni inquinanti.

Lo studio più ampio effettuato a conferma di questa tesi è stato condotto in Cina.

Qui l’apertura del sistema economico verso il mercato mondiale, verificatasi a partire dal 1991, ha immediatamente portato ad una specializzazione nella produzione di beni che potevano essere realizzati con le tecnologie disponibili e offrivano vantaggi competitivi.

Si trattava di produzioni ad alto potenziale inquinante che hanno determinato un sensibile degrado ambientale.

Ma, non appena il reddito ha cominciato a crescere, le emissioni inquinanti hanno cominciato a diminuire per effetto degli accresciuti controlli, dell’introduzione di nuove più restrittive regole, di richieste delle collettività locali.

Ad un certo punto, gli effetti benefici hanno superato gli iniziali effetti dannosi sull’ambiente.

Lo stesso studio ha anche effettuato una simulazione teorica, cercando di individuare quali sarebbero stati gli effetti sull’ambiente in mancanza del processo di liberalizzazione economica del 1991.

Per la maggior parte delle province cinesi sottoposte all’indagine il risultato è stato che le emissioni inquinanti in rapporto ad unità di prodotto sarebbero cresciute più rapidamente e quindi vi sarebbe stato un maggior degrado ambientale .

Il rapporto tra sviluppo, benessere e ambiente, oltre che non lineare, non è neppure automatico: non c’è un processo continuo che inevitabilmente conduce alla meta del miglioramento delle condizioni ambientali.

Vi sono molti paesi che tentano di porsi sulla strada dello sviluppo e avviano attività produttive in settori che si presentano competitivi sul mercato internazionale e poi rimangono a questo primo livello, e vi rimarranno per molto tempo ancora, prima di raggiungere il risultato finale di effetti favorevoli sull’ambiente.

Le ragioni di questo insuccesso non sono attribuibili allo sviluppo economico, ma ad altre cause: la necessità di pagare i pregressi debiti con l’estero, la presenza di classi politiche corrotte o incuranti dei bisogni della collettività, posizioni di rendita delle classi dominanti sorrette dalla mancanza di sviluppo e dal protezionismo, la mancanza di democrazia, la mancanza di uguaglianza e di certezza nei rapporti giuridici economici e sociali, le spese per armamenti e per guerre inutili e così via.

Sono proprio queste cause che, tenendo lontano lo sviluppo, mantengono le collettività interessate in condizioni di arretratezza e di povertà e favoriscono il lento deteriorarsi dell’ambiente.

Pertanto, il paradiso naturale che secondo gli ambientalisti deve essere protetto dallo sviluppo – l’ambiente dei paesi immuni dal contatto con la globalizzazione – è, in realtà, un luogo immaginario; i luoghi reali sono caratterizzati da condizioni di degrado, miseria e sopraffazione che possono essere migliorate dall’avvio di meccanismi di sviluppo e un attento controllo delle modalità e delle scelte politiche con cui esso viene attuato e gestito.

3. Il mito della fuga dall’Eden: la race to the bottom.

“Uno degli elementi che determinano la globalizzazione è che società multinazionali o transnazionali intendono piazzare attività industriali inquinanti in paesi che non hanno controlli e regole ambientali” .

Così perentoriamente afferma uno dei più noti siti Internet del cartello antiglobalizzazione.

Un’altra delle argomentazioni abituali del pensiero ambientale antiglobalizzazione è infatti che la libertà di commercio e l’integrazione economica e finanziaria producano un flusso delle attività produttive inquinanti dai paesi più ricchi verso i paesi più poveri.

Ciò dovrebbe accadere sia per l’accrescersi della quantità e della rigorosità delle regole di tutela dell’ambiente nei paesi ricchi che determina un effetto di “fuga dai paradisi ambientali” delle attività produttive inquinanti, sia per l’ “offerta di inferni ambientali” da parte dei paesi più poveri costituiti da regole di tutela ambientali meno rigide, e più blandamente applicate: è la cosiddetta race to the bottom.

La globalizzazione quindi dovrebbe condurre verso una polarizzazione ambientale e dovrebbe produrre due fenomeni concatenati: un circolo virtuoso per i paesi ricchi, che avranno paradisi ambientali sempre più tutelati, un circolo vizioso per i paesi poveri che sono destinati a ritrovarsi con inferni ambientali sempre più deteriorati.

Ma anche in questo caso mancano attendibili riscontri empirici.

In realtà, la maggior parte degli studi teorici e pratici esclude che vi sia un fenomeno apprezzabile di fuga dai paradisi ambientali delle attività produttive inquinanti o di race to the bottom dei paesi poveri.

Questi studi in genere esaminano il livello degli investimenti per vari settori di produzione industriali e verificano se gli investimenti in paesi in via di sviluppo sono maggiori per le produzioni particolarmente inquinanti rispetto ad altre produzioni.

Poiché non emerge alcuna significativa differenza nel livello di investimenti, essi escludono l’esistenza di un rapporto di causalità tra incremento della regolamentazione ambientale e fuga delle imprese soggette alla regolamentazione verso i paesi in via di sviluppo.

E la fuga non c’è perché i costi necessari per adeguare il processo produttivo a regole ambientali restrittive sono in generale contenuti (come è stato ampiamente dimostrato da recenti studi finanziati dall’Unione europea ): salvo che per talune produzioni particolarmente inquinanti, concentrate soprattutto nel settore chimico, essi non superano il 2-3% del prezzo finale.

Essi non sono quindi tali da indurre – di per sé soli – le imprese che operano in settori inquinanti a preferire la dislocazione della propria attività produttiva, rinunciando così anche a tutti gli aspetti positivi che i paesi ricchi offrono in termini di incentivi, di finanziamenti, di assistenza tecnologica e di relazioni politiche e commerciali .

Naturalmente, ben diverso è il discorso per quelle attività produttive che sono strettamente legate ad un determinata area geografica: le attività minerarie e petrolifere in primo luogo.

Ma in questo caso non vi è alcun spostamento, né alcuna fuga.

L’attrazione non è fornita dalle scarse regole ambientali dei paesi interessati, ma semplicemente dalla collocazione della risorsa da sfruttare.

Anzi: la trasformazione di ricchezze naturali in disastri ambientali e sociali per le popolazioni interessate (è il caso dello sfruttamento del petrolio nigeriano, dei giacimenti diamantiferi angolani e della Sierra Leone, e così via) è stata una caratteristica del processo di sviluppo capitalistico, fin dal XVI secolo, ed è stata protetta dalla mancanza di globalizzazione.

Essa trova oggi per la prima volta una immediata risonanza e una diffusa opposizione a livello mondiale proprio per la visibilità e la notorietà che a questi fenomeni offre quel potente strumento di globalizzazione che è l’accesso mondiale e immediato alla tecnologia delle comunicazioni.

Per converso è stato osservato che la presenza di regole ambientali rigorose può provocare vari tipi di vantaggio competitivo per le imprese sottoposte a quelle regole.

Infatti la presenza della regolamentazione ambientale spinge le imprese verso una differenziazione qualitativa dei prodotti, e permette – anche limitatamente al mercato interno – la costituzione di nicchie ad alto valore aggiunto per le imprese che intendono realizzare prodotti ambientalmente compatibili, per i quali possono essere ottenuti prezzi più elevati.

Anche sul mercato internazionale regole ambientali rigorose possono determinare effetti positivi in termini di competitività.

Infatti le imprese che intendono adeguarsi alla normativa ambientale dei paesi più ricchi sono costrette a sviluppare processi tecnologicamente innovativi e ciò permette di guadagnare una posizione privilegiata nel mercato internazionale.

Ma soprattutto la presenza di regole ambientali può costituire una efficace barriera a tutela delle imprese nazionali, in quanto impedisce l’importazione di tecnologie o prodotti non compatibili con la normativa nazionale esistente.

La fissazione di standard ambientali elevati per evitare l’inquinamento costituisce così un lecito strumento – anche in presenza di accordi di libero commercio in base ai quali siano vietate tariffe doganali o misure equivalenti – per escludere da un determinato mercato imprese concorrenti che, operando dove le regole sono meno rigorose, non possiedono il know-how tecnologico che le mette in grado di rispettare gli standard.

Si tratta del cosiddetto effetto California, così chiamato perché, in presenza di un mercato interno comune, ma assoggettato a regole ambientali differenti, quale è il mercato degli Stati Uniti, ove ciascuno stato può porre regole ambientali più restrittive, è stata proprio la California, introducendo regole più restrittive ad indurre gli altri Stati ad adeguarsi elevando i propri standard ambientali, in modo da non escludere le proprie imprese dalla possibilità di esportare verso lo stato californiano .

La regolamentazione ambientale può così costituire non la causa dell’esodo delle imprese verso i paesi in via di sviluppo, ma addirittura un polo d’attrazione per attività produttive: può quindi determinare non una race to the bottom dei paesi in via di sviluppo, ma una race to the top dei paesi ricchi.

In altri termini essa costituisce, se mai, una muraglia protettiva che – come le antiche mura medioevali – in una situazione di liberalizzazione dei mercati proteggono i paradisi ambientali e coloro che hanno la fortuna di viverci dall’accesso e dalla competizione di attività o produzioni estranee degradanti e non compatibili con le regole vigenti.

Per questo, molti considerano la attuale situazione di degrado ambientale dei paesi in via di sviluppo il frutto non della globalizzazione, ma della mancanza di globalizzazione.

In realtà, non bisogna dimenticare che i vantaggi che ciascun paese offre per attirare investimenti o attività produttive – e inversamente gli svantaggi che pone per respingerli – sono tanti e di tipo diverso: possono riguardare il funzionamento del sistema creditizio e finanziario, il funzionamento del sistema giudiziario (che richiederebbe un discorso a parte: per diverse ragioni possono fungere da elemento di attrazione sia la disfunzionalità e la corruttibilità dei giudici, sia la rapidità, l’efficienza e l’onestà del sistema giudiziario), la trasparenza del sistema amministrativo, l’organizzazione del mercato del lavoro e il costo del lavoro, il livello di sviluppo tecnologico, delle comunicazioni e dei trasporti, la generale stabilità economica e politica, ed anche (ma come si è visto in limiti assai contenuti) la regolamentazione ambientale per il controllo dell’inquinamento.

Ciascuno di questi elementi può attrarre o respingere investimenti e iniziative economiche di altri paesi (e questo vale sia per i paesi poveri che per i paesi più ricchi).

4. Il mito del risanamento ambientalmente nocivo: politiche di risanamento economico e degrado ambientale.

La terza ricorrente argomentazione ha per oggetto le riforme economiche e monetarie, di risanamento economico e di riequilibrio della bilancia dei pagamenti che molti paesi in via di sviluppo hanno dovuto adottare a partire dall’inizio degli anni Ottanta, costretti dal pesante indebitamento con l’estero e dalle condizioni poste dagli istituti finanziari internazionali (Banca Mondiale e Fondo Monetario Internazionale) per riassestare il bilancio interno, e per ottenere la concessione di nuovi finanziamenti e per attirare investimenti.

Molti sono convinti che l’adozione di queste politiche sia la conseguenza della globalizzazione (vi sono anzi alcuni che ritengono che il processo di globalizzazione è stato avviato proprio per dare una struttura di sostegno a questi centri decisionali).

In realtà, l’adozione di queste politiche è stata in gran parte la conseguenza della gestione disastrosa operata dai governi dei paesi dissestati, che hanno sperperato finanziamenti e capitali per mantenere ed arricchire le elite politiche o militari, finanziando opere inutili e guerre dissennate,.

Ma, a prescindere dalle ragioni per le quali molti paesi hanno dovuto avviare processi di risanamento, il mito del risanamento nocivo sostiene che questi processi hanno provocato gravissimi danni ambientali e distruzione di risorse.

Con specifico riferimento ai dati ambientali, molti studi sono stati condotti negli anni Novanta e i risultati ottenuti – pur offrendo un panorama assai diversificato – non confermano la fondatezza di queste opinioni.

Una rassegna compiuta nel 1995 sugli studi e le indagini effettuate a partire dagli Ottanta su questo tema osserva che le prime ricerche, tutte orientate nel senso che gli interventi di risanamento economico avevano prodotto effetti negativi sulle condizioni ambientali dei paesi interessati, sono successivamente state smentite da studi che hanno raggiunto conclusioni assai più dubitative (in questo senso, per esempio, si sono pronunciati sette case-studies finanziati dall’OCSE e pubblicati nel 1992 ).

Questi studi successivi hanno evidenziato che questi interventi hanno avuto effetti di vario tipo, positivi e negativi, sulle condizioni ambientali e che tali effetti sono dipesi da una molteplicità di fattori, tra i quali le condizioni politiche e sociali dei singoli stati in cui questi interventi vengono effettuati, le condizioni preesistenti, i sistemi giuridici e culturali che fungono da contesto all’intervento.

Ci sono in proposito alcune indagini promosse dalla Banca Mondiale.

Una prima indagine del 1989, riferita alla prima parte degli anni Ottanta, conclude che le politiche di risanamento economico bei PVS, ben lungi dall’essere state una causa di degrado ambientale, hanno favorito la protezione dell’ambiente.

Ad analoghe conclusioni, anche se formulate con maggior cautela, perviene l’aggiornamento di questa indagine per il periodo 1989-1992: “il risanamento è condizione necessaria, anche se non sufficiente, per una corretta gestione e protezione dell’ambiente” .

Entrambi questi studi hanno attirato molte critiche rivolte in particolare alla metodologia adottata.

La Banca Mondiale ha così promosso una serie di ricerche sul campo, allo scopo di dare conferma dei risultati raggiunti.

I risultati di questo secondo gruppo di studi – condotti su varie realtà ove sono stati sperimentati diversi metodi di risanamento, tra cui Indonesia e Messico – sono però più ambigui, anche se tutti escludono che le politiche di risanamento economico siano la causa diretta o principale di problemi ambientali.

Ad analoghe conclusioni portano studi promossi dal World Resource Institute( si tratta di un case-study sulle politiche di risanamento attuate nelle Filippine) e dal WWF.

Quest’ultimo, in particolare, ha finanziato tre studi in Costa d’Avorio, Messico e Tailandia, raccolti successivamente in un unico volume .

Gli studi giungono a conclusioni simili: le politiche di risanamento hanno avuto effetti sia positivi che negativi sull’ambiente e sull’uso delle risorse naturali.

In conclusione, i dati e le ricerche condotte non offrono conferma neppure della terza argomentazione esaminata, secondo la quale le politiche di risanamento o le riforme economiche e monetarie attuate nell’ambito del processo di globalizzazione abbiano prodotto o producano degrado ambientale.

5. E se la globalizzazione facesse bene all’ambiente?

Sulla base dell’esame appena compiuto, risulta che la diffusa convinzione secondo cui il processo di integrazione economica e finanziaria a livello globale attualmente in corso produce degrado ambientale non trova conferme negli studi e nelle ricerche a disposizione.

Anzi: risulta ben più fondata la tesi secondo cui la globalizzazione apre una porta ed offre le possibilità per migliorarlo o evitarne il degrado; poi, le modalità adottate per varcare la soglia e quello che si troverà, una volta entrati, dipendono in gran parte da ciascun paese interessato: dalle sue condizioni economiche, sociali e culturali, ma anche – nel breve periodo – dalle scelte e dalla volontà politica e dalle strategie in concreto poste in essere dalle classi dominanti e dai governi in carica.

Del resto, è questa la posizione assunta da tutti gli organismi internazionali che si sono occupati dell’argomento, apparsi dopo la dichiarazione contenuta in Agenda 21 adottata alla conferenza delle Nazioni Unite su “ambiente e sviluppo” tenutasi a Rio de Janeiro nel 1992: “un sistema commerciale aperto e multilaterale rende possibile una migliore allocazione e una più efficiente utilizzazione delle risorse e contribuisce in questo modo ad un aumento della produzione e del reddito, e ad attenuare la pressione sull’ambiente” .

A questo proposito, e pur mancando serie e documentate ricerche comparative, le vicende del secolo appena trascorso dimostrano che c’è una forte correlazione tra assenza di democrazia (in tutte le sue varianti) e di strutture di partecipazione, mancanza di libertà civile ed economica, mancanza di un clima normativo ed economico prevedibile e deterioramento dell’ambiente .

La protezione dei diritti umani, della posizione delle donne e della proprietà, il rispetto della legge, la lotta all’inflazione e alla corruzione, offrono non solo una via d’uscita dalla povertà e le premesse per innalzare il livello di reddito, ma anche la possibilità di frenare la distruzione dell’ambiente e di controllarne il deterioramento.

Dove governi democraticamente eletti si propongono di evitare corruzione e inflazione e la dilapidazione delle risorse pubbliche in spese inutili, dove la partecipazione della collettività dei cittadini è consentita e i diritti delle donne sono rispettati, dove il sistema giudiziario è davvero indipendente, lì ci sono le maggiori probabilità di un innalzamento delle condizioni economiche di vita, e quindi di miglior educazione e di maggiore istruzione e di sviluppo di una opinione pubblica libera e attenta anche alle esigenze della tutela dell’ambiente protetto da regole che controllano i fenomeni di inquinamento.

Proprio sulla base di queste esperienze, negli ultimi venti anni, in sintonia con il tumultuoso intensificarsi del processo di integrazione economica e commerciale a livello globale, si è assistito all’emergere di una global governance, di un ordine pubblico globale, che sfugge al dominio e al controllo degli Stati, e che cerca invece in parte di porre parte le basi giuridiche per lo sviluppo del processo di integrazione economica, e ne è quindi il sostegno; ma per altri versi è rivolto a tenere sotto controllo questo processo, ad indirizzarlo, a stabilirne le regole e i limiti, con l’obiettivo di creare un quadro di riferimento internazionale che favorisca, promuova e ove necessario imponga il rispetto dei diritti umani e dei fondamentali diritti civili.

Come osserva Sabino Cassese, “globalizzazione e global governance vanno intesi come fenomeni diversi e persino contrapposti, pur se vanno nella stessa direzione, di sottrarre una parte del diritto al suo abituale sovrano, lo Stato” .

Per ciò che riguarda l’ambiente, il crescere e l’affermarsi dell’ordine pubblico globale è stato contraddistinto da un consistente aumento di accordi internazionali: sono stati stipulati oltre duecento accordi multilaterali (cioè tra più di due paesi), e oltre un migliaio di accordi a livello regionale, bilaterale o locale.

Il processo di globalizzazione quindi ha sollecitato e in molti casi imposto una intensa attività di regolamentazione ambientale a diversi livelli .

Basti pensare che nei paesi che appartengono all’Unione Europea la grande maggioranza delle disposizioni ambientali deriva da normative poste a livello comunitario.

Questo significa che, in mancanza di un livello sopranazionale vincolante, in tutti questi paesi le condizioni dell’ambiente sarebbero oggi di gran lunga peggiori di quanto non siano.

Non solo: poiché in tutti i paesi dell’Unione il livello di disapplicazione delle normative comunitarie è ancora assai alto (o perché non vengono formalmente recepite, o perché vengono recepite in modo parziale, o perché, seppur recepite, non vengono applicate), il livello della tutela dell’ambiente e della salute dei cittadini nei vari paesi sarebbe ancora migliore, se i poteri dell’Unione fossero ancora più vincolanti e cogenti.

E un discorso parzialmente analogo può farsi per ciò che riguarda la normativa sovranazionale e internazionale in genere.

Proprio a seguito di questa attività di individuazione di cornici istituzionali a livello internazionale negli anni Novanta del secolo scorso si sono affermati concetti del tutto nuovi, come quello di “preoccupazione comune” degli stati, fino a raggiungere la formulazione definitiva di “responsabilità condivisa ma diversificata” per la conservazione e il miglioramento dell’ambiente, in considerazione del diverso impatto che i paesi sviluppati e i paesi in via di sviluppo hanno sull’attuale degrado ambientale .

Questa esplosione di regolamentazione sovranazionale in materia ambientale è avvenuta in tempi assai rapidi e in modo disorganico e confuso.

Ancora manca, anche se nella comunità e nell’organizzazione internazionale è possibile intravederne le tracce, un progetto politico ed istituzionale globale che ponga le regole e i limiti della globalizzazione, valorizzandone gli aspetti positivi ed evitandone quelli negativi.

6. Le ragioni di fondo: la strategia del disastro.

Le conclusioni che abbiamo appena raggiunto danno una risposta alla domanda dalla quale avevamo preso le mosse, ma propongono immediatamente una diversa questione: perché, se le cose stanno così, l’opinione pubblica dei paesi ricchi è così convinta che la globalizzazione danneggi l’ambiente?

Pur meritando la questione una trattazione assai più ampia, mi limito qui a prospettare una spiegazione, che rinvia all’influsso esercitato dalle organizzazioni ambientaliste che operano a livello internazionale.

Tutte queste organizzazioni – sia pure con differenti sfumature teoriche, e ancor di più con notevoli differenze tra la teoria e la pratica – hanno assunto posizioni ufficiali secondo cui la globalizzazione e la liberalizzazione economica costituiscono un grave pericolo e provocherà in un prossimo futuro enormi danni all’ambiente.

Proprio per questo esse fanno parte di quel composito schieramento anti-globalizzazione che vede marciare sotto una stessa bandiera movimenti religiosi e pacifisti, partiti e gruppi nazionalisti e xenofobi (la globalizzazione distrugge l’identità e il patrimonio culturale), organizzazioni di sinistra (la globalizzazione è solo un nuovo aspetto dell’imperialismo), movimenti sostenitori delle politiche protezioniste (assai forti tra i principali destinatari delle politiche protezionistiche occidentali, cioè gli agricoltori) .

Sono posizioni che si amalgamano con quella strategia – che altrove ho qualificato “strategia del disastro” – in base alla quale le organizzazioni ambientaliste hanno trasformato problemi globali reali o meno reali in questioni epocali, atte a catturare l’attenzione e il sostegno del pubblico e delle organizzazioni internazionali.

Questa strategia adottata dalle organizzazioni ambientaliste è stata estremamente efficace: molte organizzazioni ambientaliste sono oggi riconosciute come attori a livello internazionale alla pari degli stessi stati e godono oggi di prestigio e di credibilità a livello mondiale; sono ammesse di routine alle trattative riguardanti gli accordi internazionali sull’ambiente e la loro implementazione (dove può addirittura accadere che i rappresentanti degli stati debbano operare in qualità di intermediari allo scopo di ricomporre le prospettive conflittuali delle diverse Organizzazioni non riconosciute che partecipano alle discussioni; inoltre, hanno conseguito un notevole potere politico finanziario e oggi sono sicuramente più potenti di decine di stati presenti sulle carte geografiche del mondo.

Purtroppo la scelta di una strategia del disastro, una volta attuata, è difficile da abbandonare o da modificare.

Ed essa ha imposto la scelta di campo sulla questione dell’antiglobalizzazione, pur in presenza di opzioni non solo più ragionevoli, ma anche più corrispondenti agli stessi interessi dell’ambiente e delle organizzazioni ambientaliste.

Ed infatti, la posizione assunta dalle organizzazioni ambientaliste sul tema della globalizzazione presenta aspetti paradossali.

Essa infatti collide con la stessa ragione che ha determinato l’affermazione delle organizzazioni ambientaliste a livello internazionale, e cioè la crescente incapacità degli Stati nazionali di affrontare e risolvere la maggior parte dei problemi ambientali, o perché inadeguati per le loro dimensioni o per i ridotti mezzi economici a disposizione, o perché incapaci per i vincoli indotti dagli interessi di cui devono tenere conto: il formarsi e l’affermarsi di una dimensione globale, sia istituzionale che economica, è stato quindi sempre indicato proprio dalle organizzazioni ambientaliste come il modo migliore per ottenere una efficace tutela dell’ambiente ed efficaci risposte alle emergenze globali.

L’aspetto paradossale della posizione delle organizzazioni ambientaliste si accentua, se si tiene conto che esse – come si è detto – partecipano attivamente alla sempre più intensa attività sovranazionale in materia ambientale, sicché, contribuendo alla predisposizione e stipulazione di accordi multilaterali e internazionali, sono tra i più importanti attori di quel mondo globalizzato che per altro verso, combattono.

Bisogna dire che molte organizzazioni ambientaliste si stanno gradualmente rendendo conto della necessità di conciliare le due posizioni di nemico della globalizzazione e di attore del mondo globale, e di abbandonare un cartello popolato da alleati scomodi: Greenpeace per esempio ha scelto la strada di rivendicare il proprio ruolo e i propri successi a livello internazionale, e nel contempo di opporsi alla “attuale forma di globalizzazione che aumenta il potere delle multinazionali” conducendo “a ulteriori inequità ambientali e sociali e minacciando i diritti civili e democratici” , operando così un sostanziale ravvicinamento alle posizioni ufficiali delle principali organizzazioni internazionali.

È un passo importante verso una scelta di partecipazione all’elaborazione di un progetto di global governance che indirizzi e controlli la globalizzazione.

Questo progetto non può che essere il prodotto delle volontà politiche dei paesi poveri, dei paesi ricchi e delle varie organizzazioni internazionali – comprese le organizzazioni ambientaliste – e di tutti coloro che hanno interesse a che la porta aperta dalla liberalizzazione sia utilizzata in modo da portare benefici all’ambiente su scala locale e globale.

TUTELA DELLA SALUTE E LEGITTIMITA’ DELL’IMPOSIZIONE DI UN TRATTAMENTO SANITARIO

Giurisprudenza

n. 10 / 1990

Vaccinazione obbligatoria

TUTELA DELLA SALUTE E LEGITTIMITA’ DELL’IMPOSIZIONE DI UN TRATTAMENTO SANITARIO

Corte costituzionale 22 giugno 1990, n. 307 – Pres. Saja – Rel. Corasaniti

con commento di Stefano Nespor

E’ costituzionalmente illegittima la legge 4 febbraio 1966, n. 51 che prevede l’obbligatorietà della vaccinazione antipoliomielitica, nella parte in cui non pone a carico dello Stato un’equa indennità a favore di chi (soggetto vaccinato o terzo che lo assista o sia in contatto) subisca – al di fuori delle ipotesi di cui all’art. 2043 c.c. – un danno da contagio o da altra malattia riconducibile all’effettuata vaccinazione antipoliomielitica obbligatoria.

… Omissis…

CONSIDERATO IN DIRITTO

1 – L’ordinanza di rimessione ha messo in dubbio la legittimità costituzionale, in riferimento all’art. 32 della Costituzione, della legge 4 febbraio 1966, n. 51 (Obbligatorietà della vaccinazione antipoliomielitica) con particolare riguardo agli artt. 1, 2 e 3.

La normativa è impugnata in quanto – mentre pone l’obbligo della vaccinazione antipoliomielitica per i bambini entro il primo anno di età, considerando responsabile (anche penalmente) dell’osservanza dell’obbligo l’esercente la patria potestà (oggi la potestà genitoriale) o la tutela sul bambino (o il direttore dell’Istituto di pubblica assistenza in cui il bambino è ricoverato, o la persona cui il bambino sia stato affidato da un Istituto di pubblica assistenza), e attribuendo al Ministero della sanità il compito di provvedere a proprie spese all’acquisto e alla distribuzione del vaccino – “non prevede un sistema di indennizzo e/o di provvidenze precauzionali e/o assistenziali per gli incidenti vaccinali”.

Nel corso di un giudizio civile intentato nei confronti del Ministro della sanità in relazione ai danni riportati da una madre per avere contratto la poliomielite, con paralisi spinale persistente, in quanto a lei trasmessa per contagio dal figlio, sottoposto a vaccinazione obbligatoria antipoliomielitica, il giudice a quo , considerato che non sembravano ricorrere estremi di responsabilità ai sensi dell’art. 2043 c.c., ha prospettato il possibile contrasto della denunciata carenza di previsione di rimedi come quelli suindicati per l’evenienza di lesioni derivanti da un trattamento sanitario obbligatorio, da parte della norma che lo introduce, con il principio, espresso nell’art. 32 della Costituzione, della piena tutela dell’integrità fisica dell’individuo.

2 – La questione è fondata.

La vaccinazione antipoliomielitica per bambini entro il primo anno di vita, come regolata dalla norma denunciata, che ne fa obbligo ai genitori, ai tutori o agli affidatari, comminando agli obbligati l’ammenda per il caso di inosservanza, costituisce uno di quei trattamenti sanitari obbligatori cui fa riferimento l’art. 32 della Costituzione.

Tale precetto nel primo comma definisce la salute come “fondamentale diritto dell’individuo e interesse della collettività”; nel secondo comma, sottopone i detti trattamenti a riserva di legge e fa salvi, anche rispetto alla legge, i limiti imposti dal rispetto della persona umana.

Da ciò si desume che la legge impositiva di un trattamento sanitario non è incompatibile con l’art. 32 della Costituzione se il trattamento sia diretto non solo a migliorare o a preservare lo stato di salute di chi vi è assoggettato, ma anche a preservare lo stato di salute degli altri, giacché è proprio tale ulteriore scopo, attinente alla salute come interesse della collettività, a giustificare la compressione di quella autodeterminazione dell’uomo che inerisce al diritto di ciascuno alla salute in quanto diritto fondamentale.

Ma si desume soprattutto che un trattamento sanitario può essere imposto solo nella previsione che esso non incida negativamente sullo stato di salute di colui che vi è assoggettato, salvo che per quelle sole conseguenze, che, per la loro temporaneità e scarsa entità, appaiano normali di ogni intervento sanitario, e pertanto tollerabili.

Con riferimento, invece, all’ipotesi di ulteriore danno alla salute del soggetto sottoposto al trattamento obbligatorio – ivi compresa la malattia contratta per contagio causato da vaccinazione profilattica – il rilievo costituzionale della salute come interesse della collettività non è da solo sufficiente a giustificare la misura sanitaria. Tale rilievo esige che in nome di esso, e quindi della solidarietà verso gli altri, ciascuno possa essere obbligato, restando così legittimamente limitata la sua autodeterminazione, a un dato trattamento sanitario, anche se questo importi un rischio specifico, ma non postula il sacrificio della salute di ciascuno per la tutela della salute degli altri. Un corretto bilanciamento fra le due suindicate dimensioni del valore della salute – e lo stesso spirito di solidarietà (da ritenere ovviamente reciproca) fra individuo e collettività che sta a base dell’imposizione del trattamento sanitario – implica il riconoscimento, per il caso che il rischio si avveri, di una protezione ulteriore a favore del soggetto passivo del trattamento. In particolare finirebbe con l’essere sacrificato il contenuto minimale proprio del diritto alla salute a lui garantito, se non gli fosse comunque assicurato, a carico della collettività, e per essa dello Stato che dispone il trattamento obbligatorio, il rimedio di un equo ristoro del danno patito.

E parimenti deve ritenersi per il danno – da malattia trasmessa per contagio dalla persona sottoposta al trattamento sanitario obbligatorio o comunque a questo ricollegabile – riportato dalle persone che abbiano prestato assistenza personale diretta alla prima in ragione della sua non autosufficienza fisica (persone anche esse coinvolte nel trattamento obbligatorio che, sotto il profilo obbiettivo, va considerato unitariamente in tutte le sue fasi e in tutte le sue conseguenze immediate).

Se così è, la imposizione legislativa dell’obbligo del trattamento sanitario in discorso va dichiarata costituzionalmente illegittima in quanto non prevede un’indennità come quella suindicata.

3 – La dichiarazione di illegittimità, ovviamente, non concerne l’ipotesi che il danno ulteriore sia imputabile a comportamenti colposi attinenti alle concrete misure di attuazione della norma suindicata o addirittura alla materiale esecuzione del trattamento stesso. La norma di legge che prevede il trattamento non va incontro, cioè, a pronuncia di illegittimità costituzionale per la mancata previsione della tutela risarcitoria in riferimento al danno ulteriore che risulti iniuria datum . Soccorre in tal caso nel sistema la disciplina generale in tema di responsabilità civile di cui all’art. 2043 c.c.

La giurisprudenza di questa Corte è infatti fermissima nel ritenere che ogni menomazione della salute, definita espressamente come (contenuto di un) diritto fondamentale dell’uomo, implichi la tutela risarcitoria ex art. 2043 c.c. Ed ha chiarito come tale tutela prescinda dalla ricorrenza di un danno patrimoniale quando, come nel caso, la lesione incida sul contenuto di un diritto fondamentale (sentt. nn. 88 del 1979 e 184 del 1986).

E’ appena il caso di notare, poi, che il suindicato rimedio risarcitorio trova applicazione tutte le volte che le concrete forme di attuazione della legge impositiva di un trattamento sanitario o di esecuzione materiale del detto trattamento non siano accompagnate dalle cautele o condotte secondo le modalità che lo stato delle conoscenze scientifiche e l’arte prescrivono in relazione alla sua natura. E fra queste va ricompresa la comunicazione alla persona che vi è assoggettata, o alle persone che sono tenute a prendere decisioni per essa e/o ad assisterla, di adeguate notizie circa i rischi di lesione (o, trattandosi di trattamenti antiepidemiologici, di contagio), nonché delle particolari precauzioni, che, sempre allo stato delle conoscenze scientifiche, siano rispettivamente verificabili e adottabili.

Ma la responsabilità civile opera sul piano della tutela della salute di ciascuno contro l’illecito (da parte di chicchessia) sulla base dei titoli soggettivi di imputazione e con gli effetti risarcitori pieni previsti dal detto art. 2043 c.c.

Con la presente dichiarazione di illegittimità costituzionale, invece, si introduce un rimedio destinato a operare relativamente al danno riconducibile sotto l’aspetto oggettivo al trattamento sanitario obbligatorio e nei limiti di una liquidazione equitativa che pur tenga conto di tutte le componenti del danno stesso. Rimedio giustificato – ripetesi – dal corretto bilanciamento dei valori chiamati in causa dall’art. 32 della Costituzione in relazione alle stesse ragioni di solidarietà nei rapporti fra ciascuno e la collettività, che legittimano l’imposizione del trattamento sanitario.

… Omissis…

IL COMMENTO

di Stefano Nespor

1. Le questioni relative alla vaccinazione obbligatoria – sia quelle concernenti la legittimità dell’imposizione di un trattamento sanitario quale è la vaccinazione, sia quelle concernenti il risarcimento dei danni provocati da vaccini obbligatoriamente inoculati o assunti – hanno avuto nel nostro Paese, e più in generale nei paesi europei, scarsi riscontri in sede giudiziaria: quella in esame può dirsi, per ciò che riguarda l’Italia, la prima importante pronuncia sull’argomento. Le controversie su questa materia sono invece di vecchia data negli USA: vi è una sentenza della Corte Suprema Federale che risale al 1905.

Nessun programma di vaccinazione obbligatoria è infatti, come è noto, esente da rischi, sia per coloro che sono sottoposti alla vaccinazione, sia per il personale medico e infermieristico che le effettua, sia infine, in taluni casi, per i soggetti (per lo più i parenti stretti) che si vengono a trovare in contatto con chi viene vaccinato.

Prendiamo malattie quali la poliomielite, il morbillo e la pertosse. Si tratta di malattie di differente gravità, ciascuna delle quali, in mancanza di vaccinazione obbligatoriamente estesa a tutti gli appartenenti a una determinata collettività, colpirebbe diecine e diecine di soggetti, provocando lesioni permanenti e, in una consistente percentuale, la morte.

La vaccinazione evita, o riduce enormemente, il prodursi del rischio “naturale” consistente nella contrazione della malattia e nei suoi probabili o possibili effetti dannosi.

Ciò nonostante, essa crea un nuovo tipo di rischio “legale”, dovuto alla obbligatoria sottoposizione al vaccino. Secondo dati offerti dalle statistiche epidemiologiche, ogni milione di soggetti vaccinati contro il morbillo, uno subisce gravi e permanenti lesioni cerebrali (ma, secondo dati dell’Organizzazione Mondiale della Sanità del 1986, muoiono ogni anno nel mondo di morbillo cinque milioni di bambini non vaccinati); oltre tre casi di danni cerebrali si verificano ogni milione di vaccini erogati contro la pertosse; infine, per ogni tre, due milioni di vaccini antipolio erogati, si verificano tre casi di polio tra i soggetti vaccinati, e un caso tra soggetti adulti non vaccinati, che si siano trovati in stretto contatto con i soggetti vaccinati (è questo il caso preso in considerazione della decisione in esame).

Ovviamente, da un punto di vista di interesse pubblico generale e di politica sanitaria, non v’è alcun dubbio sulla opportunità di eliminare o ridurre il rischio naturale costituito dalla diffusione della malattia, sottoponendo la collettività al rischio legale della vaccinazione obbligatoria, quantitativamente e qualitativamente ben più modesto (ben diversa è naturalmente la posizione del singolo, il quale, adottando un punto di vista strettamente egoistico, ha tutto l’interesse a sottrarsi al rischio della vaccinazione, ma solo fintantoché essa rimanga obbligatoria per tutti e l’obbligo venga sostanzialmente rispettato dagli altri).

La Corte costituzionale, nella sentenza in esame, conferma che la legge che imponga una vaccinazione obbligatoria è pienamente compatibile con la tutela del diritto alla salute posta dall’art. 32 Cost., in quanto il trattamento è rivolto a preservare non solo la salute di chi vi è sottoposto – ma questo solo scopo, a mio avviso, non sarebbe di per sé sufficiente a legittimare l’obbligatorietà del trattamento – ma anche la salute degli altri; ed è proprio questo secondo scopo (assai più del primo), dove la salute viene profilata come interesse della collettività, a giustificare pienamente, e di per sé solo, “la compressione di quella autodeterminazione dell’uomo che inerisce al diritto di ciascuno alla salute come diritto fondamentale”.

Non diversamente, la Corte Suprema federale degli USA ha respinto nel 1905 le pretese di coloro che contestavano, in nome dei diritti individuali di libertà e del diritto del singolo alla salute, l’obbligatorietà della vaccinazione obbligatoria antivaiolosa, osservando che “i rischi erano troppo ridotti per poter essere seriamente presi in considerazione a fronte dei benefici prodotti per la collettività” (Jacobson v. Massachusetts 197 US 11, 17/18, 1905).

A questo proposito, vi è solo da aggiungere che anche per effetto di scelte di questo tipo nel 1980 l’Organizzazione mondiale della sanità ha potuto ufficialmente annunciare la scomparsa del vaiolo a seguito di una campagna di vaccinazione su scala mondiale condotta a partire dal 1967. Oggi la vaccinazione antivaiolosa non è più obbligatoria: è stato eliminato non solo il rischio naturale posto dal vaiolo, ma anche il rischio legale posto dall’obbligatorietà della vaccinazione antivaiolosa.

2. Peraltro, se non può essere posta seriamente in discussione la legittimità delle previsioni che impongano l’obbligatorietà di una vaccinazione, restano sul tappeto – e possono essere variamente risolti – i problemi relativi alla sussistenza di diritti o di garanzie per i singoli, che di tali obblighi sono destinatari o che comunque si trovano sottoposti al pericolo di subire effetti dannosi. Si tratta di diritti riconducibili a due diverse ipotesi: da un lato, il diritto ad una adeguata informazione sull’entità del rischio (per lo più, peraltro, di scarsa utilità pratica, stante l’obbligatorietà del trattamento medico) e su tutte le possibili precauzioni da adottarsi per evitare o ridurre il pericolo di danni; d’altro lato, il diritto di ottenere adeguate forme di ristoro, nel caso che i danni si verifichino.

A questo proposito, un succinto esame dell’esperienza giudiziaria statunitense e del suo sviluppo è interessante.

Nel 1968 una Corte d’appello federale si discosta per la prima volta dal principio posto dalla sentenza della Corte Suprema nel 1905 della irrilevanza del rischio cui il singolo soggetto obbligatoriamente vaccinato è sottoposto e condanna il produttore di un vaccino antipolio a versare un consistente risarcimento ad un soggetto che, assumendo il vaccino, contrae la poliomelite; il produttore viene ritenuto responsabile per non aver adeguatamente avvertito i soggetti cui il vaccino era destinato del rischio cui erano sottoposti e delle cautele da adottare per ridurne la portata (Davis v. Wyett Laboratories Inc., 399 F. 2d 121, 9th Cir., 1968).

La sentenza si inserisce in una più generale tendenza all’incremento della litigiosità in merito ai danni alla salute e all’integrità psicofisica provocati dalla produzione, dal commercio e dall’utilizzazione (inconsapevole, volontaria o coatta) di merci, prodotti e sostanze, la cui potenziale nocività è ignorata o sottovalutata dai consumatori, ed ha un effetto dirompente.

Le richieste di risarcimento nei confronti dei produttori di vaccini, infatti, si moltiplicano: in occasione di una campagna di vaccinazione obbligatoria contro un’influenza particolarmente pericolosa, sono proposte in giudizio oltre 4.000 domande di risarcimento – per un totale di circa tre miliardi di dollari – da parte di soggetti che affermano di aver subito danni temporanei o permanenti a seguito dell’assunzione del vaccino: i costi subiti dai produttori (e, per loro conto, dalle compagnie di assicurazioni) a seguito delle domande accolte, delle transazioni effettuate e delle spese legali sopportate sono enormi (U.S. Environmental Protection Agency, Background Report for the Indemnification Report to the Congress, Washington 1983).

Nel corso degli anni Settanta, si afferma poi, di fatto, un orientamento giurisprudenziale che riconosce una sorta di responsabilità oggettiva in capo al produttore per tutti i danni insorti dopo la vaccinazione.

Vengono così accolte richieste di risarcimento sia in mancanza di prova che eventuali avvertimenti o prescrizioni mediche avrebbero effettivamente potuto impedire il verificarsi dell’infermità, sia, spesso, in mancanza di prova del rapporto di causalità tra vaccinazione e infermità susseguente (per esempio, Reyes v. Wyett Laboratories Inc., 498 F.2d 1264, 1974).

La inevitabile conseguenza dell’affermarsi di questa giurisprudenza è che i programmi di vaccinazione obbligatoria previsti dalle Autorità sanitarie si scontrano contro la crescente difficoltà di reperire un numero adeguato di produttori di vaccini a costi accessibili: questi ultimi, infatti, ritengono economicamente troppo rischiosa l’attività, anche per il vertiginoso aumento dei premi richiesti dalle assicurazioni.

Così, dei quindici produttori di vaccini esistenti sul mercato all’inizio degli anni Settanta, nel 1984 ne residuano due solamente per taluni vaccini, uno per altri e addirittura nessuno per quattro vaccini, per i quali era previsto il trattamento obbligatorio (cfr. C. Boffey, Vaccine Liability Threatens Supplies, in New York Times 25 giugno 1984): la situazione viene definita, da un portavoce governativo, di emergenza sanitaria.

A questo punto, nella giurisprudenza comincia a riaffiorare un orientamento più restrittivo, che, pur non segnando un ritorno al passato, introduce criteri più rigorosi per concedere il risarcimento di danni subiti a seguito di vaccinazioni e, più in generale, a seguito della utilizzazione di prodotti medicinali: per esempio, nel 1988 la Corte Suprema di California riafferma che la responsabilità del produttore di medicinali non è oggettiva, in considerazione dell’interesse pubblico allo sviluppo, alla disponibilità e al controllo del costo dei medicinali (Brown v. Superior Court 44 Cal 3d 1049, 1988).

Nel 1984, inoltre, un apposito Comitato federale governativo raccomanda l’emanazione di una legge che preveda un indennizzo, a carico dello Stato, per le vittime dei programmi di vaccinazione obbligatoria, limitando, nel contempo, il dilagare delle controversie giudiziarie.

Si giunge così al National Childhood Vaccine Injury Act del 1986, con il quale viene previsto un indennizzo (fino ad un ammontare massimo di $ 250.000) per chiunque subisca danni fisici a seguito della sottoposizione a vaccinazione obbligatoria, previa dimostrazione del solo rapporto di causalità tra trattamento sanitario e danno. Entro un breve termine dalla data di determinazione dell’indennizzo (erogato da un Fondo costituito con i proventi di un’apposita tassa posta sul prezzo di vendita di ciascun vaccino), può essere proposta un’azione giudiziaria per ottenere un effettivo risarcimento, dimostrando la sussistenza di una responsabilità per colpa; la proposizione dell’azione comporta, peraltro, una automatica rinuncia all’indennizzo.

Rispetto a questa evoluzione manifestatasi nella giurisprudenza e nella legislazione americana la soluzione adottata dalla Corte costituzionale italiana appare senz’altro ponderata e ragionevole.

Infatti, viene dichiarata la illegittimità costituzionale della norma che prevede la vaccinazione obbligatoria antipolio, nella parte in cui non prevede un equo indennizzo per il caso in cui i danni provocati dal trattamento obbligatorio non dipendano da comportamenti posti in essere dal produttore, dal distributore o dall’erogatore del vaccino (in questo senso era già stato presentato, nella passata legislatura, dal Ministro della Sanità Degan il disegno di legge n. 3730). Il sacrificio del diritto alla salute di alcuni soggetti, imposto a tutela della salute come bene collettivo, e necessaria conseguenza di questa tutela, deve quindi trovare un equo ristoro del danno patito, a carico della collettività, il cui ammontare deve ora essere fissato dal legislatore.

Diverso è il caso in cui il danno subito dal soggetto sottoposto al trattamento, da chi lo assista e dal personale che eroga il vaccino sia imputabile ad un comportamento colposo tenuto dal produttore del vaccino o dall’ente incaricato dell’erogazione.

In questo caso deve aver ingresso l’integrale risarcimento del danno alla salute subito, secondo i generali principi posti dall’art. 2043 c.c.

E tra i comportamenti colposi che la Corte espressamente individua come idonei a fondare il diritto al risarcimento dei danni viene espressamente indicata sia la comunicazione alla persona assoggettata al trattamento di vaccinazione o al suo rappresentante di adeguate notizie circa i rischi di lesione o di contagio, sia l’avvertimento circa le specifiche precauzioni che, allo stato delle conoscenze scientifiche, debbano essere adottate dalla persona assoggettata, da chi la assiste e dai familiari.

A questo proposito, però, va detto che mentre non si può che essere d’accordo sulla necessità del secondo gruppo di comunicazioni, la comunicazione di eventuali rischi derivanti dalla vaccinazione al soggetto vaccinato è per lo più irrilevante, stante l’obbligatorietà della vaccinazione medesima e può addirittura, secondo quanto più volte segnalato dall’Organizzazione Mondiale della Sanità, rivelarsi di ostacolo al successo della campagna di vaccinazione, inducendo molti ad evitare il trattamento.

La precisazione della Corte costituzionale, forse superflua rispetto al thema decidendum , non è casuale. Il fatto oggetto della controversia dalla quale è scaturito il giudizio di legittimità costituzionale riguarda, appunto, una richiesta di risarcimento del danno promossa da un familiare rimasto contagiato dalla poliomielite per essere stato in contatto con il figlio, nei giorni in cui lo stesso era sottoposto alla vaccinazione. Ebbene, mentre sin dal 1964 era scientificamente ben noto il rischio di contagio per contatto da parte dei familiari non vaccinati, in occasione della somministrazione del vaccino ai figli o ai conviventi fino al 1978 nei foglietti illustrativi (revisionati e autorizzati dal Ministero della Sanità) di tutte le confezioni di vaccini prodotti in Italia era omesso ogni riferimento a tale pericolo e alle semplicissime precauzioni da adottare per evitare il contagio, allo scopo di evitare effetti di allarme o dissuasione dall’osservanza dell’obbligo.

Ebbene, la Corte costituzionale non ha perso l’occasione di manifestare il suo netto dissenso rispetto all’opinione del Tribunale di Milano, autore dell’ordinanza di rimessione alla Corte (pubblicata in G.U. 18 ottobre 1989, 1a serie spec., n. 42), secondo cui questo comportamento, tenuto dai produttori e avallato dal Ministero, dovrebbe ritenersi giustificato e, quindi, inidoneo a fondare un diritto al risarcimento del danno, in quanto l’adozione di misure precauzionali, di informazioni o comunicazioni diffuse per evitare rischi individuali quantitativamente minimi contrasterebbe con l’interesse della sanità pubblica.

Secondo la Corte, nessun dichiarato interesse pubblico può giustificare la deliberata sottoposizione al rischio di gravi danni al diritto fondamentale alla salute, soprattutto se provocata dall’omissione di doverose e ben note informazioni, che tale rischio avrebbero eliminato o attenuato.

La donazione di organi: lo strano caso del signor moore e il dilemma del buon samaritano

1. Che cosa sono i cadaveri?
Nei cimiteri di Londra c’era gente che andava e veniva ogni notte per trafugare cadaveri, ricorda Chateaubriand nelle sue Mémoires d’outre?tombe, raccontando le vicende del suo esilio inglese tra il 1793 e il 1800: erano i body snatchers, che nel XVIII e nei primi decenni del XIX secolo rifornivano medici e scienziati di corpi da dissezionare per lo studio dell’anatomia umana e per l’addestramento nelle pratiche chirurgiche, e, inoltre, musei e collezionisti privati di scheletri e teschi da esposizione. L’attività dei body snatchers era possibile perché, secondo la common law inglese, i corpi senza vita erano cose che non appartenevano a nessuno: erano res nullius delle quali chiunque poteva appropriarsi. La loro sottrazione dai cimiteri non era quindi sanzionata, a meno che ? come precisava Blackstone, l’autore del più importante dei commentari giuridici inglesi dell’epoca ? non fossero insieme trafugati anche i vestiti o altri oggetti del defunto (cosa che, naturalmente, accadeva assai di rado, in quanto coloro che si occupavano di questa fiorente e lucrosa attività avevano cura di spogliare i cadaveri prima di asportarli, e di riporre nuovamente nel tumulo ogni oggetto personale).
Negli altri paesi occidentali, a differenza che in Inghilterra, la vendita e l’appropriazione dei cadaveri era rigorosamente vietata: essi, seppur considerati da un punto di vista giuridico come cose, erano considerati cose extra commercium. C’erano però delle eccezioni: erano liberamente commerciabili e appropriabili i corpi, a pezzi o interi, dei santi: così erano oggetto di libero commercio e di scambio, fin dall’antichità, le reliquie e, nel caso divenuto famoso di San Spiridione, addirittura l’intero cadavere, divenuto di proprietà di una famiglia greca di Corfù che ne aveva tratto fonte di consistenti guadagni (LEGENDRE).
Non va poi dimenticato un aspetto paradossale di questo divieto: il commercio dei cadaveri era vietato anche nei paesi ? come gli Stati Uniti o la Russia ? nei quali ancora esisteva ufficialmente la schiavitù, ed era quindi ammesso il commercio e la vendita di corpi umani, purchè viventi.
Come sempre accade, però, la forza del mercato prevale sui divieti legislativi. Così ciò che in Inghilterra era consentito, in Europa era oggetto di un fiorente mercato nero. In Francia, per esempio, racconta Jean-Pierre Baud che il furto di cadaveri dai cimiteri era, all’inizio dell’Ottocento, una pratica abituale per sgombrare i cimiteri sovraffollati e per rifornire le sale anatomiche; il problema di far scomparire i residui dei corpi dissezionati veniva poi risolto riducendoli in grasso, e vendendo il prodotto così ottenuto soprattutto ai carrettieri per lubrificare gli ingranaggi delle ruote e ai fabbricanti di candele, utilizzate in grande quantità per l’illuminazione dei grandi edifici pubblici (tra cui, naturalmente, la Facoltà di medicina) (BAUD).
I cimiteri della Gran Bretagna sarebbero potuti rimanere il giacimento di materiale umano più prezioso d’Europa e i body snatchers avrebbero potuto conservare la loro posizione di incontrastati monopolisti di questo mercato, in continua espansione per il progredire della scienza medica, della chirurgia e del collezionismo se alcuni di essi, particolarmente intraprendenti, non avessero deciso di incrementare l’offerta selezionando e prenotando i cadaveri tra gli ospiti degli ospedali per i poveri o degli ospizi (forse anche cooperando pe accelerarne la disponibilità), suscitando così l’indignazione dell’opinione pubblica.
Nel corso dell’inchiesta parlamentare che seguì, risultò che un solo body snatcher aveva dissotterrato e venduto tra il 1809 e il 1813 i corpi di 1211 adulti e 179 bambini: una media di quattro al giorno.
L’ordinamento inglese venne così adeguato agli altri ordinamenti europei e il commercio e la vendita di cadaveri furono vietati, salvo specifiche autorizzazioni.
2. Qual è l’utilità dei morti per i vivi?
La drastica riduzione della disponibilità di cadaveri per lo studio dell’anatomia e per la pratica della chirurgia determinata dal divieto provocò in tutta l’Inghilterra un’impennata dei prezzi sul mercato e, conseguentemente, vivaci proteste nel mondo scientifico: da molti la nuova legislazione fu considerata un attacco oscurantista e irresponsabile al progresso della medicina. Tra questi, vi era anche Jeremy Bentham il quale, chiedendosi quale potesse essere, a questo punto, l’utilità dei morti per i vivi, si schierò a favore dell’utilizzazione dei cadaveri e delle esigenze della ricerca scientifica in campo medico, e contro leggi che limitavano quelle esigenze e che sottraevano i cadaveri alla libera disponibilità, invitando provocatoriamente i suoi amici allo spettacolo della dissezione e dell’autopsia del proprio corpo, dopo la morte (Bentham).
Certo Bentham non avrebbe mai potuto immaginare la risposta che il progresso della scienza medica e della tecnologia sanitaria si sarebbero incaricate di offrire alla sua provocatoria domanda. A distanza di poco più di un secolo, l’ignobile mestiere di procurare cadaveri o organi per i vivi ha ottenuto una completa legittimazione giuridica e sociale. Al posto dei body snatchers imbrattati di fango e di sangue ci sono oggi complesse organizzazioni societarie multinazionali e équipes di medici in camice bianco, ai cimiteri si sono sostituite asettiche sale d’ospedale, ai divieti si sono sovrapposte leggi che disciplinano e organizzano una attività, considerata ormai ovunque di primario interesse pubblico e sociale (anche se non bisogna dimenticare che, subito dopo i primi trapianti di cuore, molti avevano avanzato una richiesta di moratoria ritenendo il trapianto un business immorale e criminale).
Così oggi i cadaveri hanno, per i vivi, una utilità ben più consistente di quella di offrire un corpo da sezionare o un teschio da riporre in una bacheca: essi sono divenuti, specie se non ancora consumati dal tempo o deteriorati dalle malattie, insostituibili e inesauribili giacimenti di preziose materie prime, sfruttati ancora in modo assai primitivo.
Da un qualsiasi cadavere, intervenendo a cuore fermo, si possono ricavare due cornee, due articolazioni dell’anca, una mandibola, sei ossicini dell’orecchio, ossa lunghe e costole, legamenti vari, tendini e cartilagini, midollo osseo, arterie e vene, pelle, materiale genetico. Invece, da un corpo di una persona sana e relativamente giovane che per un qualche incidente (quasi sempre, per un incidente stradale) abbia subito la distruzione irreparabile delle funzioni del cervello, è possibile ricavare anche, intervenendo tempestivamente e prima che si fermi la circolazione: un cuore, due polmoni, due reni, un fegato e un pancreas.
C’è però una consistente differenza rispetto al passato: ciò che oggi ha assunto la qualità di una cosa, di un bene economico non è, come ai tempi in cui era ammessa (o tollerata) la schiavitù, l’uomo unitariamente considerato, in quanto insieme di persona (cioè come insieme delle qualità immateriali dell’uomo) e di corpo. E’ infatti sottratto all’utilizzazione e al commercio da parte di chiunque l’essere umano in quanto entità unitaria.
Parimenti, non sono cose, e restano quindi sottratti all’utilizzazione e al commercio da parte di chiunque, le due componenti primarie dell’essere umano, considerate nella loro dimensione unitaria: la persona, intesa come l’insieme delle qualità immateriali che formano l’identità e il corpo, inteso come insieme degli elementi fisici e come sistema biochimico.
Nessuno può quindi dirsi “proprietario” di sè stesso, del proprio corpo, o della propria persona: la proprietà è infatti un potere che si esercita su un bene economico (materiale o immateriale), e che comporta la possibilità di utilizzarlo a proprio piacimento: sia di goderne, sia di disporne, cedendolo ad altri.
Certamente, si tratta di una conquista di civiltà. Ma Jean-Pierre Baud ci avverte di non dimenticare che è una conquista raggiunta a caro prezzo: alla radice dell’esclusione di ogni rapporto di proprietà dell’uomo con il suo corpo sta non la valorizzazione dell’elemento corporeo, ma la sua cancellazione: sta l’opera di giuristi che hanno privato l’uomo del suo corpo, trasformandolo in pura volontà: così, l’uomo in quanto volontà può stipulare contratti, redigere testamenti, compiere ogni sorta di atti giuridici, ma resta del tutto irrilevante se l’uomo in quanto corpo ha fame, non ha una casa o è privo di mezzi di sussistenza (Baud).
Resta comunque il fatto che oggi, per l’essere umano, per la persona, per il corpo può parlarsi solo di libertà, non di potere: essi non sono cose, non sono beni economici, e di essi nessuno può disporre (a questo principio non fanno se non apparentemente eccezione il suicidio, l’eutanasia, e il cosiddetto diritto di morire: sono, questi, tutti casi nei quali l’uomo liberamente sceglie di porre fine a sè stesso, senza alcuna finalità di carattere economico o commerciale, e anche senza alcuna finalità di beneficio per altri).

3. Il caso del signor Moore.
Si è detto che non si può parlare di proprietà, con riferimento al corpo unitariamente inteso, neppure da parte dell’essere umano cui esso appartiene.
Ma resta vera questa affermazione anche per i componenti e i materiali nei quali il corpo può essere disaggregato? Oppure, se si abbandona il livello del corpo come entità unitaria, è concepibile attribuire all’essere umano la proprietà degli elementi dai quali il suo corpo è composto? Più in generale: gli elementi del corpo umano possono essere qualificati beni economici in senso stretto, e cioè merci cedibili e commerciabili (sia pure a condizioni e con limiti particolari, determinati dalla particolare natura del bene) da parte di colui cui essi appartengono o, più in generale, da parte di chiunque ne abbia la proprietà o il possesso?
Prima di formulare risposte affrettate a questa domanda, è bene ricordare che alcuni degli elementi che costituiscono l’altra componente primaria dell’essere umano, quella immateriale, e cioè la persona, sono oggi, nel mondo occidentale, liberamente commerciabili: così, ciascuno può disporre di componenti essenziali della propria personalità e della propria identità, quali la la voce o il nome o addirittura la propria immagine, sfruttandone l’uso direttamente, o concedendone lo sfruttamento a terzi (Breccia, 505). E si tratta di una libertà inconcepibile non solo presso molti popoli primitivi, ma anche presso molte culture attualmente esistenti, dove l’immagine è rigidamente tutelata da ogni appropriazione o riproduzione (e infatti la fotografia viene ritenuta un inammissibile e irrimediabile furto di un attributo della propria identità).
Nel mondo occidentale, quindi, le componenti della persona sono già state colpite da un processo di commercializzazione. E si è trattato di un processo accettato senza particolari reazioni o proteste dall’opinione pubblica.
Il corpo è destinato a seguire la stessa strada, o è assoggettato a regole differenti?
Il modo migliore per cominciare a rispondere a questa domanda è forse quello di esporre la vicenda del signor John Moore, il quale, nel 1976, si fece visitare dal centro medico dell’Università di California a Davis; gli venne diagnosticata una rara forma di leucemia alla milza, che fu asportata con un apposito intervento chirurgico. Tra il 1976 e il 1983 il signor Moore dovette sottoporsi a numerose visite di controllo, e, spesso, a dolorose analisi che richiedevano il prelievo di sangue, midollo osseo, pelle e sperma.
Nel 1984 il signor Moore venne casualmente a sapere che nel marzo il Centro universitario di Davis e i due medici che lo avevano assistito per lunghi anni avevano ottenuto un brevetto per una sequenza di cellule (linfociti T) denominata “cellule Mo” idonea a riprodurre la linfocina, una proteina di grande valore terapeutico per la regolazione del sistema immunitario. Forse incuriosito dalla denominazione (che, senza molta fantasia, riproduceva le prime due lettere del suo nome), il signor Moore, dopo qualche indagine, scoprì che la sequenza di cellule brevettata scaturiva proprio dalla sua milza, il cui tessuto ? a seguito della rara forma tumorale che lo aveva colpito ? aveva assunto rarissime e straordinarie proprietà: e scoprì anche che il brevetto aveva coronato anni di ricerche e sperimentazioni e manipolazioni genetiche condotte dai suoi medici curanti, rese possibili anche dai frequenti prelievi operati nel corso delle analisi e dei controlli cui era stato sottoposto.
Il valore commerciale del brevetto era stimato, entro l’anno 1990, in oltre 3 miliardi di dollari; il Centro di Davis e i suoi medici curanti avevano ottenuto da due società operanti nel settore della farmacologia genetica a cui era stata concessa la licenza per lo sfruttamento commerciale del brevetto (Genetic Institute e Sandoz) un compenso ammontante a circa 440.000 dollari a fronte dell’attività di ricerca svolta tra il 1983 e il 1986 e quote di partecipazione azionaria nelle due società (Howard).
4. La risposta dei giudici al signor Moore e al signor Daoud.
Il signor Moore allora si rivolse all’Autorità giudiziaria, affermando di essere il proprietario del materiale dal quale il prodotto brevettato era stato elaborato e richiedendo sia una partecipazione ai guadagni che sarebbero stati tratti dall’utilizzazione di parti del proprio corpo, sia un risarcimento non essendo stato preventivamente informato, nè avendo acconsentito alle sperimentazioni effettuate su di sè.
La domanda di Moore, accolta integralmente nel giudizio di primo grado con una sentenza definita da molti “rivoluzionaria”, è stata successivamente respinta dalla Corte Suprema di California, in sede di appello.
Secondo la Corte, una persona alla quale sia asportato un organo o una parte del corpo non può accampare su di essi alcun diritto di proprietà, in quanto né il corpo umano, né le sue componenti sono una cosa: essi quindi non possono essere trattati come una merce. Ma non è stata una sentenza raggiunta all’unanimità. Vi sono stati tre giudici (su nove) che hanno espresso il loro dissenso da questa conclusione. Per i dissenzienti, è ingiusto che la proprietà di tessuti umani o organi sia esclusa per il loro “proprietario”, ma venga poi riconosciuta a coloro che ne acquisiscono il possesso, lecitamente o meno: chi ruba un cuore o altri organi dal luogo in cui vengono conservati è infatti indiscutibilmente responsabile di un furto, cioè dell’appropriazione di una cosa: tessuti e organi, una volta separati dal corpo, non possono essere cose, e quindi oggetto di diritti, per tutti, salvo che per l’essere umano dal cui corpo sono stati separati.
Se abbandoniamo per un momento la storia del signor Moore, e facciamo un salto sul Vecchio Continente, scopriamo un’altra singolare vicenda giudiziaria (riferita ancora da Jean-Pierre Baud), che si è conclusa in un modo che i giudici dissenzienti della Corte Suprema della California avrebbero certamente condiviso.
Il 27 giugno del 1985 Janel Daoud, ritenendosi incarcerato ingiustamente, si taglia la falangetta dell’anulare destro e la immerge in una bottiglia di liquido conservante, con l’intenzione di inviarla al Ministro della Giustizia. Ma il direttore del carcere gli confisca dito e bottiglia, riponendolo tra gli effetti personali del carcerato, da restituire nel momento in cui cessa lo stato di detenzione.
Daoud ricorre al giudice, chiedendo la restituzione del suo dito argomentando che le dita di un corpo umano, ancorché separate dal corpo, non possono essere trattate come una qualsiasi cosa e quindi non possono essere confiscate.
Il Tribunale di Avignone ha respinto il ricorso di Daoud, ritenendo il dito separato dal corpo una cosa, come ogni altra cosa sottoponibile a confisca (Baud).
Il Tribunale francese, quindi, a differenza della Corte californiana, ha deciso che le parti del corpo umano sono cose. Ma non ha avuto bisogno di dare una risposta precisa ad una domanda altrettanto importante: Daoud era proprietario del suo dito?
Una risposta a questa domanda permetterebbe di fare un passo avanti per risolvere il ben più complesso dilemma affrontato dalla Corte della California. Ma, attenzione, si tratterebbe di un passo necessario, ma non sufficiente.
5. Sabiniani contro Proculiani.
Se si risponde che Moore e Daoud erano proprietari rispettivamente della milza e del dito, non per questo si può automaticamente dare ragione alla pretesa di Moore. Quest’ultimo infatti non richiedeva la restituzione della sua milza, della quale, anzi, aveva acconsentito a privarsi, né ne richiedeva il controvalore. Moore voleva ottenere una parte dei proventi derivanti da un prodotto ottenuto utilizzando anche, come materia prima. le cellule della sua milza.
Proprio per questo la richiesta di Moore era dirompente: cellule e tessuti umani oggi costituiscono la materia prima di una consistente parte di tutte le ricerche di ingegneria genetica applicata alla medicina e alla farmacologia, e gran parte delle società che operano nel settore dell’ingegneria genetica fanno correntemente uso di tessuti umani per lo sviluppo dei loro prodotti, i quali vengono correntemente brevettati. Una generalizzata pretesa dei pazienti di ottenere quote dei profitti derivanti dai prodotti ottenuti utilizzando o manipolando tessuti o cellule (per lo più tratti dal loro corpo a seguito di operazioni chirurgiche) avrebbe messo in seria crisi la ricerca medica e farmaceutica.
Anche per questo, secondo la maggioranza dei giudici della Corte suprema della California, la richiesta di Moore deve essere respinta: l’essere umano non può avere diritti sui prodotti ottenuti utilizzando parti del suo corpo per ragioni di etica e di politica sanitaria: la libertà e l’autonomia della ricerca medico scientifica verrebbero radicalmente compromesse, se questo diritto venisse riconosciuto, senza tener conto che ciò che è brevettato e posto in commercio, ciò che in altri termini determina il profitto, non sono la cellula o il tessuto umano originario: è un ritrovato che risulta da una attività di ricerca e sperimentazione, e da sofisticati e costosi processi di rielaborazione, trasformazione e manipolazione del materiale originario. E poco importa che questi ritrovati possono essere utilizzati non solo per scopi umanitari e di ricerca, ma anche ? come nella specie è accaduto ? a fini di profitto.
Il contrasto sulla proprietà della sostanza ottenuta a seguito della trasformazione della milza di Moore non è nuovo; anzi, Moore e l’ingegneria genetica hanno riportato inaspettatamente d’attualità, a oltre duemila anni di distanza. un dibattito che travagliò gli antichi giuristi romani, dando addirittura luogo alla nascita di due opposte scuole di pensiero: i Sabiniani e i Proculiani.
La nave, il vino, il vaso sono di chi li ha fatti, oppure del proprietario dei materiali (del legname, dell’uva, del vino)? Per i primi, il prodotto finito deve appartenere al proprietario degli elementi con i quali è stato costituito, per i secondi, a coloro che con la loro opera li hanno trasformati. Nella sentenza della Corte Suprema californiana, la tesi dei Proculiani ? che premia l’attività di ricerca e di impresa e il lavoro rispetto alla proprietà ? ha avuto la prevalenza.
Ma, proprio utilizzando questo schema che ci arriva da un lontano passato, possono farsi ulteriori riflessioni.
Secondo alcuni si dovrebbe distinguere tra gli organi, i quali sono dotati di una loro specifica autonomia funzionale e possono essere trapiantati in un altro corpo, e quei componenti che sono privi di autonomia funzionale, quali, per esempio, le cellule, i tessuti, gli ormoni, il DNA (Swain?Marusyk).
Gli organi, secondo i sostenitori di questa tesi, non subiscono alcuna attività di trasformazione: essi vengono semplicemente custoditi e conservati nel periodo che intercorre tra l’espianto e il trapianto. Passano quindi dal proprietario originario, cui appartengono finchè non gli vengono asportati, al destinatario del trapianto che ne acquista la proprietà allorchè il trapianto avviene (o, forse ancor prima, allorchè viene definitivamente designato).
I componenti sono invece materie prime prive di autonomia funzionale, di per sè inutili, ma trasformabili dall’abilità e dal lavoro dell’uomo: è solo il lavoro dell’uomo che li rende utilizzabili, e oggetto di proprietà da parte di chi lavora. Si tratta di una tesi utile, in quanto evidenzia che il rapporto di un soggetto con le parti del proprio corpo non è riconducibile ad un modello unico, ma può avere contenuti e caratteristiche diverse.
Essa è però, per riutilizzare il nostro modello classico, contemporaneamente troppo Sabiniania e troppo Proculiana.
E’, prima di tutto, troppo Sabiniana per ciò che riguarda gli organi. Per giungere ad affermare la continuità della proprietà tra chi cede l’organo e chi lo riceve, viene infatti trascurato un aspetto decisivo. Nessuno può infatti trasferire direttamente il proprio organo a un altro soggetto (consegnandogli, per esempio, il proprio rene), senza l’intervento, la partecipazione e la collaborazione di strutture sanitarie, di trasporto, di assistenza.
Si tratta di un’attività che richiede consistenti investimenti tecnici e finanziari, sia per l’addestramento del personale, sia per l’utilizzazione del sofisticato know-how proprio del settore, sia per l’organizzazione e la predisposizione dei mezzi necessari; è un’attività che parte da un tempo precedente all’espianto dell’organo (perchè quando l’organo da cedere è disponibile, tutto deve essere pronto, in poche ore) e si estende ad un tempo successivo al trapianto (perchè tutti coloro che ricevono un organo richiedono cure e assistenza medica durature). Un solo esempio: la custodia e la conservazione degli organi avviene, negli USA, al di fuori delle strutture ospedaliere, ed è gestita da apposite società con criteri imprenditoriali. La società leader del settore è Criolife Inc. che raccoglie, conserva e surgela valvole cardiache, tendini, legamenti, richiedendo un compenso non per la cessione degli organi (in modo da evitare i problemi giuridici connessi all’accertamento della proprietà degli organi conservati), ma per il servizio di custodia e congelamento: il prezzo forfettario del servizio per la custodia e il congelamento di una valvola cardiaca, era, nel 1985, di circa 2000 $ (Freifeld).
Nel contempo, la tesi è troppo Proculiana allorchè esclude qualsiasi diritto del soggetto sui componenti del proprio corpo, considerandoli come una res nullius a disposizione di chiunque voglia trasformarli in “prodotti finiti”.
Così infatti vengono premiati esclusivamente coloro che partecipano alla lunga catena dei mediatori tra “proprietario” dei componenti e destinatario del preparato finale, cioè le imprese farmaceutiche, le strutture ospedaliere e sanitarie, i centri di ricerca. All’azzeramento – per ragioni etiche e di sanità pubblica – dei diritti del soggetto sui componenti del proprio corpo non si accompagna infatti, in nome delle stesse ragioni, un generale azzeramento dei diritti proprietari su tali componenti. Invece, quelle ragioni etiche e di sanità pubblica conducono alla conclusione che delle parti separate del corpo umano tutti possono trarre vantaggi anche consistenti, con l’unica esclusione del soggetto al quale vengono asportate. E’ certamente assai discutibile che in questo modo si persegua la funzione sociale di agevolare gli utenti finali, e cioè i consumatori dei preparati elaborati con i componenti stessi, e non le strutture sanitarie, farmaceutiche e industriali che controllano il mercato delle componenti del corpo umano. I componenti del corpo umano rischiano in questo modo di divenire simili al pesce, che è offerto gratis a chi lo pesca, ma costa comunque caro al consumatore (Thorne,43).
Questa tesi rischia poi – secondo molti – di provocare effetti contrari a quelli che persegue: l’azzeramento dei diritti proprietari può produrre infatti non una illimitata disponibilità di materia prima per attività di ricerca e sperimentazione, ma una sua mancanza, unitamente a fenomeni di mercato nero. Ben difficilmente infatti coloro che, come il signor Moore, possiedono tessuti o altri elementi del loro corpo dotati di proprietà utili o rare e che, a differenza di Moore, ne divengono coscienti, li offriranno gratuitamente, consentendo per di più ad altri di trarne tutti i profitti. Si corre così il rischio di ritrovarsi con tanti casi simili a quello della donna che alcuni anni orsono negli USA aveva stipulato con una società di ricerche farmaceutiche un contratto di vendita del suo sangue, fornito di rari anticorpi, per 25000 $ una tantum, oltre 200$ alla settimana e l’uso di un’automobile (Hardiman).
La conclusione di questa breve rassegna sui problemi che sorgono allorchè si vuole rispondere alla domanda di chi è il corpo umano, è che il vero problema a cui deve essere data risposta non è tanto quello della proprietà, ma quello delle condizioni e dei limiti che debbono essere introdotti per la trasferibilità dei diritti sulle parti del corpo umano: con quali regole organi e componenti del corpo umano possono essere prelevati, trasferiti, utilizzati e trapiantati?
6. Il principio della donazione.
Il sistema attuale del trasferimento di organi, tessuti e componenti del corpo umano è ufficialmente basato, nella maggior parte dei paesi occidentali, sul principio della donazione. Secondo molti esperti, la compravendita di organi ? ripetutamente condannata dall’Organizzazione mondiale della sanità – costituisce il vero incubo della medicina in questo momento. E si tratta di un mercato fiorente e in continuo aumento: disperati e derelitti del Sud-est asiatico, dell’Africa, dell’Est europeo e del Sudamerica offrono per pochi dollari reni, cornee (perdendo ovviamente la vista da un occhio), lembi di pelle per pochi dollari.
Il principio si fonda su un doppio rifiuto. Sul rifiuto di un passato, che lambisce i nostri giorni, nel corso del quale, dalla schiavitù ai lager nazisti, il corpo umano è stato considerato come merce o come oggetto di sperimentazione; sul rifiuto di un futuro dominato dell’incontrollabilità del progresso della scienza e della tecnologia medica, lanciato verso l’obiettivo di “abolire la morte”, ma al prezzo di trasformare l’umanità in un “gigantesco mattatoio, in una Auschwitz molecolare” per il vantaggio di pochi privilegiati (Chargaff, Gorovits), a spese di milioni di “proletari del corpo” .
Il fondatore teorico di questo principio è considerato un economista e sociologo inglese, Richard Tittmuss, il quale, soffermandosi sulla trasfusione di sangue, ha sostenuto che i meccanismi fondati sulla cooperazione e l’altruismo debbono essere preferiti ai meccanismi di mercato fondati sul profitto (Tittmuss).
Essi debbono essere preferiti, secondo Tittmuss, non solo perché segnalano che l’egoismo non è l’unico sentimento significativo nella società moderna, e che non tutte le cose di valore possono essere comprate ma anche perché – come qualsiasi dono – avviano un meccanismo di scambio, indicando la fiducia del donatore nella disponibilità anche degli altri di compiere un gesto analogo in futuro, restituendo il beneficio ricevuto (Tittmuss, 239, Murray).
Secondo Tittmuss, inoltre, la donazione di sangue deve essere preferita non solo dal punto di vista dell’etica, ma anche secondo criteri puramente di efficienza e di sicurezza sanitaria: chi dona, non ha nessun interesse a trasferire organi malati o a nasconderne eventuali difetti, mentre ciò può accadere per chi vende.
In effetti, il sangue e gli organi appartengono, insieme, per esempio, agli appartamenti situati in vecchi stabili o alle automobili usate, alla categoria dei beni per i quali il ricevente non è in grado di determinare pregi e difetti del bene trasferito con la stessa precisione del cedente. E, per tutti questi beni, il rispetto non solo delle regole di mercato, ma anche di regole di buon comportamento, di regole etiche, costituisce una importante garanzia di risultati ottimali anche da un punto di vista economico.
Per questo, nella creazione di un libero mercato del sangue, Titmuss intravedeva non solo una gravissima minaccia per i valori etici e solidaristici che devono essere alimentati in ogni comunità, e un concreto pericolo di sfruttamento dei poveri, a favore delle classi abbienti, ma anche un attentato alla produttività complessiva del sistema sanitario.
Il principio di Tittmuss ha avuto una sorte curiosa: si è rapidamente esteso ad ogni trasferimento di parti di corpo umano, è stato recepito nella maggior parte delle legislazioni sui trapianti, riscuote oggi il consenso pressochè unanime dell’opinione pubblica, ma proprio il sangue, per il quale essa era stata elaborata, è rimasto escluso. Per il sangue infatti è tacitamente o espressamente consentita la vendita e il commercio in molti Paesi. Così, in Italia, la legge 14\7\1967 n.592 (a differenza della legge sul rene, approvata nello stesso anno) prevede espressamente la possibilità di un corrispettivo per il “donatore” del sangue; si è cercato di giustificare questa disposizione, osservando che si tratta di un atto di disposizione del corpo che non produce una diminuzione permanente dell’integrità psicofisica. (Moscati). Molte sono comunque le voci che – proprio in nome della concezione solidaristica e di una “cultura della donazione” basata “sulla valorizzazione del gesto del dono del sangue” – richiedono una modifica della disposizione legislativa, soprattutto a partire dagli anni Ottanta, quando essa è divenuta una pericolosa e incongrua eccezione al principio generale della gratuità della cessione degli organi, che è stato esteso in via generale a tutti i casi di cessione a scopo di trapianto (Romboli, 319).
Vi sono paesi, comunque, nei quali – fermo restando il principio della donazione degli altri organi – il prelievo di sangue dietro compenso costituisce espressione di una normale attività commerciale: negli USA, per esempio, a fronte di un bisogno interno annuo di sangue di 3 milioni di litri ne vengono prelevati oltre 9 milioni, destinando il surplus all’esportazione (ma proprio con riferimento all’introduzione del libero mercato del sangue negli USA, Tittmuss osservava che “non potremo mai offrire una stima economica dei costi sociali subiti dalla società americana a seguito del declino della donazione di sangue” (Tittmuss, pag.198)); per converso, la sola Germania acquistava, sino a qualche anno fa, 800.000 litri all’anno di sangue americano.
Anche la Comunità europea, con una direttiva “a sorpresa” del 14 giugno 1989, ha scelto la strada del mercato: il sangue e il plasma umano sono stati qualificati come materie prime per la preparazione di medicinali e inseriti nel circuito commerciale delle imprese farmaceutiche.
La scelta operata dalla Comunità ha suscitato reazioni accorate e indignate in Francia, il paese che attualmente si pone il più rigido custode dei valori di solidarietà e del principio della donazione (che non è incompatibile con la qualità di cosa attribuita alle pari del corpo, come è accaduto per il caso del signor Daoud). Il Comité national d’ethique ha infatti criticato aspramente la decisione comunitaria e ha osservato che trattare il sangue e gli emoderivati come merce contrasta con i principi della gratuità della cessione delle parti del corpo umano e del trapianto in ogni sua fase, del rispetto della figura del donatore e della tutela dell’interesse del malato, e, ponendo le premesse per una generalizzata mercificazione di ogni altra parte del corpo umano, costituisce un serio attentato alla dignità dell’uomo (Nay).
7. Il dibattito sul principio della donazione.
Il principio della gratuità della cessione delle parti del corpo umano non è esente da critiche.
Secondo un primo gruppo di oppositori, esso risulta sempre meno idoneo per risolvere la penuria di organi e per soddisfare le lunghissime liste di attesa di possibili riceventi.
La mancanza di organi è assai grave nei paesi, come USA e Gran Bretagna, in cui vige quale condizione per l’espianto un sistema “opt in”, ove cioè la legislazione richiede per il prelievo di organi il consenso del defunto, accertabile a mezzo di dichiarazioni univoche, o dei suoi stretti famigliari. La “carta del donatore”, infatti, non funziona: pochi la sottoscrivono, e quei pochi, quando serve, non l’hanno con sè. Diventa così determinante il consenso dei familiari, i quali non sempre sono però rintracciabili nel breve spazio di tempo a disposizione, e raramente sono favorevoli. (Thorne).
Negli USA inoltre la propensione alla donazione sta vistosamente decrescendo negli ultimi anni: favorevole a donare i propri organi era il 70% di un campione rappresentativo nel 1968, è il 45% nel 1985. Il rifiuto è motivato soprattutto con due ragioni: il rischio che i medici non aspettino la morte (23%), e il rischio che addirittura la affrettino, se hanno bisogno di un organo (21%) (Porzio, 89). Per far fronte alla crescente mancanza di organi, si è anche pensato al macabro espediente di sostituire la condanna a morte con una condanna alla confisca degli organi, ufficialmente denominata pre?mortem prisoner organ draft (Stone).
La penuria di organi non è però meno grave nei paesi dove vige un sistema opt out, il quale prevede in via generale (con limitazioni predeterminate) l’espiantabilità degli organi dal cadavere. A questo gruppo di paesi appartiene l’Italia, dove – a seguito della legge 2\12\1975 n.644 – l’espiantabilità dell’organo, con l’eccezione dell’encefalo e delle ghiandole genitali e della procreazione, è divenuta la regola, salvo il caso di accertata volontà contraria del defunto o dei suoi stretti famigliari.
L’Italia, anzi, nonostante questa legislazione liberista, occupa da sempre uno degli ultimi posti in Europa. Tra il 1986 e il 1991 il numero dei donatori nel nostro paese è rimasto attorno a 5 per milione di abitanti, contro i 15 della Gran Bretagna e della Spagna, i 20 della Francia, i 25 dell’Austria; superiamo solo la Grecia, che ha 2 donatori ogni milione di abitanti. Anche se si considera il numero di trapianti, invece del numero dei donatori, il risultato non cambia: per ciò che riguarda il rene, per esempio, nel 1991 si sono eseguiti in media 34 trapianti per milione di abitanti nei paesi della Comunità europea, contro i 10 per milione di abitanti eseguiti in Italia (Nespor-Satolli-Santosuosso, pag.134).
Questo comporta che in Italia, attualmente, 28.500 pazienti sopravvivono attualmente con dialisi, in attesa di un trapianto di rene; di questi, 6000 sono inclusi in liste di attesa per il trapianto; i trapianti sono però non più di 500\600 all’anno (Antonella Cremonese). Erano invece circa 300, nel 1991, i pazienti in attesa di un cuore, e 400 i pazienti in attesa di un fegato, mentre vengono eseguiti annualmente meno della metà dei trapianti che sarebbero necessari (Nespor-Satolli-Santosuosso, pag.135).
La mancanza di organi, che pure indubbiamente costituisce un fatto assai grave, non è però, secondo i sostenitori del principio della donazione, una ragione sufficiente per far abbandonare il principio. Il rifornimento di organi potrebbe infatti, secondo costoro, essere reso sufficiente rispetto alle necessità se fossero compiuti adeguati sforzi per diffondere nella collettività una reale cultura della solidarietà attraverso il trapianto, e se, d’altro lato, fosse predisposta una organizzazione sanitaria idonea al recupero degli organi potenzialmente utilizzabili.
Un secondo gruppo di critici del principio della donazione osserva che esso, contrariamente alle apparenze, non ha privato della qualità di bene in senso economico i componenti del corpo umano nè i loro trasferimenti, ma ha soltanto, e paradossalmente, escluso dal regime di mercato proprio coloro che lo “possiedono”. Così, come del resto insegna la vicenda di Moore, nel complesso processo che si conclude con il trapianto o con l’utilizzazione di un componente del corpo umano, solo a chi cede una parte del proprio corpo si impone di agire eticamente, in modo altruistico e senza compenso: tutti gli altri attori ? medici e organizzazioni sanitarie (in particolare dove non esiste un’assistenza sanitaria gratuita), imprese farmaceutiche e produttori di attrezzature o strumenti igienici e sanitari, intermediatori e “banche” di conservazione, stoccaggio e congelamento di organi e componenti del corpo umano ? traggono dal principio di gratuità che grava sul cedente e quindi dall’azzeramento del suo possibile compenso, una ragione di aumento dei propri profitti (senza sostanziale beneficio per il ricevente).
L’eliminazione di questa ingiusta penalizzazione del proprietario può avvenire ? secondo una linea di pensiero rigorosamente mercantilista ? soltanto riconoscendo, accanto alla libertà e al piacere di donare, la libertà di vendere (Arrow), e introducendo così il diritto di proprietà, di disposizione e di vendita al proprietario degli organi e componenti del corpo (Engelhardt, Hardiman), eventualmente all’interno di un mercato degli organi appositamente costituito e accuratamente regolato, nel quale sia comunque interdetta la vendita tra vivi, in modo da evitare situazioni di sfruttamento (Cohen Lloyd); secondo altri, introducendo forme di incentivazione o di compenso (non necessariamente in denaro, ma sotto forma, per esempio, di agevolazioni sanitarie, ospedaliere, o fiscali al cedente o ai suoi eredi) per la utilizzazione degli organi dei cadaveri o per la cessione di tessuti umani.
Sono però, tutte queste, secondo i sostenitori della donazione, manifestazioni di contrattualismo individualistico iperrazionalista, di una “concezione etica che ci presenta tutti come dei free riders che nel corso di tutta la nostra vita in modo unilaterale possiamo decidere quando è conveniente considerarsi membri di una società e, quando non lo è, andare per la nostra strada; battitori liberi che non debbono nulla agli altri, e ai quali nulla può essere richiesto” (Lecaldano I.1. 47/48). Ponendosi in questa linea di pensiero, molti giuristi si sono pronunciati, in nome del benessere dell’umanità e del principio di solidarietà, per una sorta di nazionalizzazione dei cadaveri, e quindi di tutte le sue componenti: secondo costoro (sia pure con varie sfumature), “lo Stato, in un’organizzazione futura, deve poter disporre di qualunque cadavere, per poterne prelevare qualunque parte al fine di giovare a una vita umana” (Leone).
In realtà, il dibattito sulla donazione, e quindi sulla gratuità o meno della cessione degli organi, si basa su alcuni presupposti che vengono considerati pacifici, che però tali non sono.
8. Qualche riflessione aggiuntiva sulla donazione di organi.
La donazione è solitamente definita come un atto di liberalità di un soggetto, che trasferisce a un altro soggetto un proprio bene, senza alcun compenso. Si tratta di una definizione che, depurata dalle specificità che l’istituto ha assunto nei vari ordinamenti giuridici, corrisponde all’idea diffusa nell’opinione pubblica della donazione come atto di espressione della libertà e dell’autonomia dell’individuo per ciò che riguarda i propri beni. Due sono quindi i protagonisti necessari e sufficienti: un soggetto che dona, e un soggetto che riceve il dono.
Ben diversa è però, a questo riguardo, la cessione dell’organo.
Prima di tutto, già si è detto che, per quanto animato da buona volontà, nessuno potrebbe mai fare dono di un proprio organo da solo senza la partecipazione attiva e la collaborazione di una complessa struttura organizzativa e sociale. A differenza del dono di un paio di scarpe o di una bottiglia di champagne (per il quale sono sufficienti la decisione di donare, e il denaro necessario per comprare le scarpe o la bottiglia), il dono di un organo richiede assai di più per potersi realizzare. Richiede équipes di medici forniti di un know-how altamente specializzato per l’espianto prima e per il trapianto dopo, sofisticate strutture sanitarie che consentano di eseguire tutti gli interventi necessari, costosi sistemi di conservazione e trasporto, appropriate e spesso costose e durature cure mediche successive, unite a attività di assistenza per il ricevente (per evitare il pericolo del rigetto); in generale, un consistente investimento economico e finanziario che grava, in tutto o in gran parte (a seconda dei sistemi sanitari) sull’Amministrazione sanitaria e quindi sulla collettività.
Il dono di un organo – a differenza della donazione del paio di scarpe – esiste e si realizza in quanto atto sociale (Kluge), del quale la decisione privata di cedere l’organo costituisce un frammento, significativo e necessario, certo, ma, di per sè, del tutto insufficiente. Donatore, in definitiva, non è solo il soggetto cui l’organo appartiene, ma l’intera collettività cui il donatore e il ricevente appartengono.
C’è poi un secondo aspetto che rende diversa la donazione di organi dalla generale categoria della donazione, ed è che al donatore non è lasciata di norma la possibilità di scegliere il ricevente.
Con l’eccezione dei casi di donazione interparentale o interfamigliare (dove la decisione di donare è, in realtà, determinata proprio dall’esistenza di un vincolo famigliare, e avviene con riferimento a un ricevente necessariamente predeterminato), la scelta del ricevente dipende, per lo più, da liste di attesa formate che tendono (o dovrebbero tendere) a garantire l’imparzialità e l’equità della scelta (Porzio, Task Force). Moltissimi sono i criteri utilizzabili, e molti quelli in concreto utilizzati o dei quali è stata proposta l’utilizzazione, oltre a quelli preliminari della probabilità di riuscita dell’intervento (e quindi della compatibilità dell’organo con il sistema immunitario del ricevente). Tutti, mentre tendono a tutelare l’oggettività del processo decisionale, appaiono più o meno discutibili (salvo, forse, quello, assai semplice, della pura estrazione a sorte). Per esempio: a parità di altre condizioni (tra le quali, ovviamente, vi è l’imminente pericolo di morte), deve essere preferito un ricevente giovane o anziano? Deve essere preferito un ricevente con la stessa cittadinanza del cedente, o appartenente al suo sesso, o alla sua razza, o addirittura proveniente dalla stessa area geografica? Devono essere preferiti i capofamiglia ai singles? Chi ha già ricevuto un trapianto va in capo o in coda alla lista? Questi sono alcuni dei problemi (neppure tra i più complessi) che pone la predisposizione di criteri per la formazione delle liste di attesa. Quel che è certo, è che in nessun caso è stato incluso, o suggerito, per la formazione delle liste il criterio di tener conto, in qualche misura, della volontà del cedente.
Questo dipende dal fatto, ancora una volta, che donatore non è chi mette a disposizione l’organo, ma una intera collettività che mette a disposizione investimenti, tecnici sanitarie, strutture di ricerca e apparati di intervento di taluni soggetti sfortunati (non necessariamente suoi membri) . Si tratta di scelte che la collettività compie a mezzo dei suoi rappresentanti che cooperano nel formare la politica sanitaria del paese, dedicando al trapianto una determinata quota della quota di bilancio del settore (scelta probabilmente criticabile, a fronte di altre possibili, sulla base di semplici analisi dei costi e dei benefici, ma questo, come le questioni concernenti la formazione delle liste di attesa, fa parte di un’altra storia).
Quindi, poichè donatore dell’organo è, secondo questa ricostruzione, la collettività, è più che comprensibile che ad essa, e non a chi mette l’organo a disposizione, spetti anche il compito di individuare il ricevente.
9. Il dilemma del buon samaritano.
E così, la cessione di un organo, collocato nella pubblica opinione come una delle più significative espressioni di liberalità e di autonomia dell’individuo, e come uno dei massimi gesti individuali di solidarietà umana (in Messico si è proposto di attribuire a chi cede un organo la qualifica di ‘eroe nazionale’) si è trasformata in un gesto diffuso di solidarietà collettiva, all’interno del quale la posizione di colui che cede l’organo resta importante sì, ma perde la sua caratteristica di centralità e unicità. Tutti i membri di una collettività rinunciano (non sempre consciamente, naturalmente) a un pezzetto di assistenza sanitaria, e quindi di salute, per offrire la possibilità a alcuni soggetti sfortunati (non necessariamente membri anch’essi della collettività) di proseguire la propria vita con un organo altrui.
E chi cede l’organo (e partecipa, per un frammento certo non trascurabile, al gesto di solidarietà collettiva)? Per quel che abbiamo detto, qualificarlo “donatore” costituisce un’operazione di suggestione linguistica e giuridica che cela, come abbiamo visto, la differenza tra questa cessione e quella della donazione propriamente detta, altera la vera identità collettiva del donatore e consente l’improprio sviluppo di tutte contrapposizioni tra dono e vendita.
Ma allora, se non perchè spinto da puro spirito di liberalità, se non per donare, perchè qualcuno dovrebbe essere disponibile a cedere gratuitamente un proprio organo?
Per dare una risposta, facciamo ricorso alla storia del buon Samaritano, nella risistemazione, sotto forma di Dilemma del Samaritano, offerta da Derek Parfit (Parfit, 60)
Ciascun Samaritano potrebbe dare assistenza talvolta un bisognoso, a costi ridotti per sè stesso. A ciascun Samaritano potrebbe, per converso, capitare di essere aiutato da uno straniero. In una piccola comunità, il costo dell’assistenza potrebbe essere facilmente ripagato dal Samaritano, nel corso della sua vita .
E’ però assai più improbabile che ciò accada nel mondo moderno, e in particolare nel mondo occidentale. Nelle vaste comunità urbane, il Samaritano è quindi portato a pensare che il proprio aiuto al bisognoso sia ininfluente o non necessario, poichè c’è comunque sempre qualcuno che presta assistenza; per converso, può pensare che, in caso di proprio bisogno, troverà sempre qualcuno disposto a prestargli assistenza.
Se ciascuno si comporta in questo modo, il risultato diventa peggiore per tutti.
Ciascuno trarrebbe un profitto agendo in modo puramente egoistico e rifiutando la propria assistenza al bisognoso, ma ciascuno, così agendo, conseguirebbe un danno assai maggiore se tutti si comportassero come lui.
Ecco quindi che il Samaritano avrebbe dovuto passare alla storia non per la sua bontà, ma per il suo buon senso.
Il prototipo del Samaritano – e il dilemma in cui egli può trovarsi – può essere esteso, come ha dimostrato Parfit, a tutte le situazioni nelle quali può contare sul fatto che, perseguendo soltanto il proprio interesse, non subirà conseguenze negative, perchè un numero sufficiente di persone comunque agisce tenendo conto dell’interesse collettivo (Parfit, pag.53 ss.).
Può essere esteso, in particolare, a tutti i casi di servizio pubblico. Così, ciascuno può pensare che, non pagando il biglietto per il tram, o non pagando le tasse, o ottenendo medicinali inutili gratuitamente o al prezzo politico fissato dal Servizio sanitario nazionale, trae un profitto. Ma se tutti si comportano in questo modo, scompaiono i tram, i servizi pubblici cessano di funzionare, le medicine aumentano di prezzo. Perseguire il proprio interesse e la propria utilità produce un beneficio solo finchè si rimane un free-rider, finchè cioè molti continuano a tener conto dell’utilità collettiva. Se tutti perseguono il proprio interesse, il risultato finale è un danno assai più consistente del profitto tratto.
Se si tiene conto di tutto ciò, è facile comprendere che la disponibilità a cedere gratuitamente i propri organi non è un gesto di pura liberalità, così come non era un gesto di pura bontà il comportamento del buon Samaritano in una piccola comunità. Entrambi sono comportamenti altamente razionali, rivolti a perseguire in modo non occasionale il proprio interesse, e quello dei propri famigliari. Entrambi sono comportamenti altrettanto dovuti, non solo moralmente e socialmente, ma anche egoisticamente parlando, quanto quello di pagare il biglietto del tram o di non richiedere medicinali non necessari.
E veniamo ai trapianti. Se tutti, in caso di morte, cedono gratuitamente gli organi, tutti sanno che vi sono buone probabilità di ricevere gratuitamente un organo, in caso di bisogno. Chi, invece, si rifiuta di cedere gli organi (volendo evitare i ridotti rischi che ciò comporta), o chi si rifiuta di cederli senza compenso (in caso di apertura di un libero mercato degli organi) può egualmente contare – vista la comunità allargata in cui vive – sul fatto che vi siano buone probabilità, per sè o per i suoi famigliari, di ricevere gratuitamente o dietro compenso un organo in caso di bisogno. A meno che non ci siano troppi che la pensano in questo modo. Se così accade (e così oggi accade), la probabilità di ricevere un organo in caso di bisogno diviene assai bassa.
La conclusione è che l’insistenza con la quale la cessione di organi da parte di un soggetto è stata qualificata e ricostruita come donazione è scorretta non solo linguisticamente e giuridicamente, ma anche moralmente. Ciò sarebbe, tutto sommato, privo di rilievo, se questa insistenza non fosse inoltre, anche dannosa. Essa infatti ha sinora indotto chiunque a ritenere che il comportamento di cedere un organo senza compenso, in quanto dono, sia del tutto facoltativo e eventuale, sicchè farlo o non farlo sia privo di effetti pratici sulla posizione propria e dei suoi famigliari, e si eticamente irrilevante. E questo non è vero. Cedere gratuitamente i propri organi è, come abbiamo appena visto, un atto con il quale si persegue il proprio interesse, assai di più che non decidendo di non cederli o attendendo di poterli cedere a pagamento.

BIBLIOGRAFIA
ARROW, KENNETH Gift and Exchanges, in Philosophy and Public Affairs 4, 1972, p.343
BAUD JEAN PIERRE, L’affaire de la main volée, Editions du seuil Parigi 1993.
BENTHAM JEREMY, Qual è l’utilità dei morti per i vivi, Londra 1831.
BRECCIA, Commentario all’art.5 del codice civile, …
CHARGAFF, EMIL, Engineering a Molecular Nightmare, in Nature, 327, 21\5\1989 p.199\200
COHEN LLOYD, R. Increasing the supply of transplants organs: the virtues of a future market, in George Washington Law Review, 58, 1989, p.1
CURRAN, W.J. Scientific and Commercial Development of Human Cell Line, in New England Journal of Medicine, n.998, 14 aprile 1991.
ENGELHARDT, T.E., The Foundations of bioethics, Oxford 1986, p.366
FREIFELD, Fresh\Frozen, in Forbes n.28, gennaio 1985 pag.90
GOROVITS, S. E ALTRI, Progeny, Progress and Primrose Path: Moral Problems in Medicine, New York
HARDIMAN ROY, Towards the Right of Commerciality, in UCLA Law Review, 34, 1990, 259
HOWARD, Biotechnology, Patient’s Rights and the Moore Case, in Food, Drug & Cosmetic Law Journal, n.44, 1989, pag. 338.
KLUGE, EIKE- HENNER W., Designated OrganDonation: Private Choice in Social Context, in Hastings Center Report, 1989, p.10
LECALDANO E., La questione della disciplina del prelievo delle parti del cadavere a scopo di trapianto terapeutico. Il contributo della riflessione sulla morale con due linee argomentative in La Bioetica. Questioni morali e politiche per il futuro dell’uomo, Bibliotechne, Milano 1991, pag.47.
LEGENDRE, P., L’inestimable objet de la transmission. Ètude sur le principe généalogique en Occident, Fayard Parigi 1985, p.27\8.
LEONE, Trapianto degli organi umani, pag.51.
MOSCATI, Trapianto di organi, in Dizionario di diritto privato a cura di Irti, p.817.
MURRAY, THOMAS H., Gifts of the Body and the Need of Strangers, in Hastings Center Report 17, 1987, pp.30\38
NAU, J. – Y., Le Comité National d’éthique dénonce les profits commerciaux réalisés à partir du sang humain in Le Monde 7\12\1991.
NESPOR STEFANO – SANTOSUOSSO AMEDEO – SATOLLI ROBERTO, Vita, morte, miracoli, Milano, Feltrinelli 1992
PAGANELLI, M., Alla volta di Frankestein: biotecnologie e proprietà (di parti) del corpo, in Foro Italiano, IV, 1989, 413.
PARFIT, DEREK, Reasons and Persons, Oxford University Press, 1984.
PORZIO, R., The Transplant Age: Reflections on the Legal and Moral Aspects of Organ Transplants, Vantage Press, New York 1969.
ROMBOLI,
SINGER, , Freedom amd Utilities in the Distribution of Health Care, in BERMANT G., BROWN, P., DWORKIN, G., Market and Morals, Hemisphere Publishing Corporation, Washington 1977.
STONE, J.E., Biomedical Engineering Alternatives to Death Penalty: Modern Technology Challenge to TRaditional Form of Punishment, in Southwestern University Law Review, 19, 1990, pag.1
SWAIN M.S., MARUSYK, R.W., An alternative to Property Rights in Human Tissue, in Hastings Center Report, n.12, 1990.
THORNE, E., Tissue Transplants: The Dilemma of the Body’s Growing Value, in The Public Interest n.98, 1990, pag.43.
TITTMUSS, RICHARD, The Gift Relationship: from Blood to Social Policy, London 1971.
U.S. GOVERNMENT, TASK FORCE ON ORGAN TRANSPLANTATION, Issues and Recommendations, U.S. Government Printing Office, 1986.
U.S. GOVERNMENT, OFFICE OF TECHNOLOGY ASSESSMENT (OTA), New Developments in Biotechnology: Ownership of Human Tissues and Cells, U.S. Government Printing Office, Washington 1987 pag.52.

Internet e la Legge – Capitolo 17

Capitolo 17
I libri digitali

24.1.L’era del libro digitale: un ritorno al passato.
Il 14 marzo 2000 un noto autore americano, Stephen King, ha diffuso in rete un proprio racconto, prima di porre in commercio la versione cartacea.
Nelle 24 ore seguenti, il racconto viene scaricato da 400.000 lettori virtuali da ogni parte del mondo. Un trionfo.
Molti hanno considerato il 14 marzo 2000 la ufficiale data di inizio di una nuova era. L’era del dopo-Gutenberg, quella in cui il libro digitale sostituirà il libro cartaceo, l’era in cui la disseminazione dell’informazione non dipenderà più da una molteplicità di intermediari, ma avverrà direttamente tra autore e lettore.
Sotto questo profilo, il libro digitale può rappresentare anche la chiusura di una parentesi, durata sei secoli, in cui la disseminazione dell’informazione è stata dominata dalla stampa: non un balzo in una nuova era, ma un ritorno al passato.
Prima della stampa infatti, nel mondo greco o romano, non vi era differenza tra lettori e autori.
Chiunque poteva divenire un autore in un modo assai semplice: scrivendo.
Non c’erano filtri, né intermediari che selezionavano i testi da stampare o le informazioni da erogare in base a criteri di profitto, o a valutazioni etico-religiose (queste ultime sopravvengono nel mondo occidentale medioevale, allorché la conservazione e la riproduzione dei manoscritti diviene un compito di ordini religiosi, i quali esercitavano anche un penetrante screening ideologico per scegliere le opere degne di riproduzione: ma ciò non ha impedito la copiatura e la conservazione delle opere di Petronio o di Marziale).
Tra lo scrittore qualsiasi e lo scrittore affermato (l’autore), nel mondo romano vi era una semplice differenza quantitativa, data dal numero di copie disponibili del manoscritto, e questa dipendeva, in ultima analisi, dalla richiesta dei consumatori di informazioni sotto forma di testi manoscritti .
Poi arriva la stampa, e si spezza la sostanziale coincidenza tra lettori e autori; si afferma una distribuzione dell’informazione selezionata in base a criteri di efficienza economica e commerciale e – in considerazione dell’estendersi del numero di lettori – in base a valutazioni di ordine pubblico e di carattere etico.
L’avvento della stampa ha quindi creato un sistema diseguale, nel quale un ruolo centrale con funzioni selettive è stato progressivamente accumulato da vari intermediari: corrispondentemente, gli autori sono stati isolati dalla generale platea dei lettori e dalla ampia categoria degli scrittori, e trasformati in una categoria composta da coloro i cui testi erano ritenuti idonei alla diffusione secondo valutazioni effettuate con diversi criteri da stampatori, editori, censori, critici, moralisti, organismi pubblici, e così via .
Gli editori pubblicano ciò che ritengono possa creare un profitto, sulla base di valutazioni di ciò che i lettori vorranno e (nei periodi e nei luoghi in cui vi sia una censura) potranno leggere.
Le informazioni inserite nelle opere stampata sono quindi distribuite sulla base di criteri di efficienza economica: ciò che conta è recuperare gli investimenti effettuati, e questa necessità determina il contenuto dell’opera e dell’informazione trasmessa.
Il risultato è che solo una minima parte di ciò che viene scritto viene reso disponibile al pubblico, ed una minima parte delle informazioni meritevoli di essere disseminate viene effettivamente distribuita.
La produzione di opere e di informazioni si adegua, a seconda dei tempi e dei luoghi, alle richieste e ai vincoli imposti dai vari intermediari: gli autori nel periodo della stampa sono quelli che producono informazioni che l’editore accetta (secondo sue valutazioni di ciò che il pubblico è disposto a comprare), e che il governo o le autorità religiose permettono di pubblicare.
I libri stampati disponibili sono quindi il risultato di uno stratificato processo di selezione.
L’avvento del libro digitale porterà alla scomparsa della selezione e degli intermediari che hanno svolto il ruolo di selettori, gli editori in primo luogo.
Qualsiasi autore, o meglio, qualsiasi scrittore, può pubblicare un libro digitale: è sufficiente realizzare l’opera – non in forma manoscritta come un tempo, ma in forma digitale – e diffonderla poi in Rete, rendendola disponibile a un pubblico vasto quanti sono gli utenti della Rete, e distribuito su scala mondiale. Se l’opera sarà letta o scaricata per essere conservata, dipenderà non dai processi selettivi introdotti dalla stampa, ma dal contenuto, e quindi, dal giudizio del mercato.
È realistica questa prospettiva, oppure va classificata tra le numerose utopie che si sono sviluppate con l’avvento del Cyberspazio?

24.2 La lunga marcia verso il libro digitale: gli ostacoli tecnologici.
Prima di dare una risposta all’interrogativo, soffermiamoci sul percorso necessario per giungere ad una diffusione del libro digitale. Un percorso non breve.
Gli ostacoli non sono costituiti dagli enormi costi necessari per convertire il patrimonio esistente in libri digitali , e non sono costituiti neppure dalla mancanza di modalità standard per realizzare la trasformazione del patrimonio librario cartaceo in patrimonio elettronico, anche se la situazione attuale – ci sono oltre 1000 modi di formattare un libro digitale, e alcune centinaia di tecnologie per leggere – è comparabile con quella delle prese elettriche: chi ha un rasoio elettrico comprato in Germania, non può usarlo in Italia o negli Stati Uniti.
Gli ostacoli più importanti sono due.
Il primo, di carattere tecnologico e connesso alla tecnologia per la lettura: alla gente non piace leggere sullo schermo di un lettore di testi digitalizzati.
Non va dimenticato, a questo proposito, che l’idea di un libro esclusivamente digitale è vecchia almeno quanto il PC. Nella prima fase, all’inizio degli anni Ottanta – prima dell’espansione della Rete – si pensava al CD-ROM come sostituto del libro cartaceo e come veicolo di lettura.
Tuttora sono inserite e commerciate in CD-ROM antologie più o meno approfondite delle letterature di varie paesi. È un prodotto indubbiamente utile, se non altro perché assorbe all’intero di un dischetto il contenuto di una libreria (con enorme risparmio di spazio e di costi). Ma ha un difetto: nessuno lo compra (ed è per questo che ora in tutta Europa viene allegato come offerta dei periodici), perché, appunto, nessuno ha voglia di leggere sul PC (anche se in parte almeno il crollo del mercato del CD-Rom letterario è stato anche provocato dallo sviluppo della Rete e dall’offerta di intere biblioteche gratuitamente in Rete ).
Gli strumenti portatili o palmari sinora in commercio per leggere libri – il primo, Rocket Ebook, prodotto da Nuvomedia nel 1998 ,seguito da SoftBook Reader e, più recentemente, da Microsoft PocketPC; in Francia è disponibile uno strumento equivalente, Cytale, esposto al Salone del libro di Parigi nell’aprile del 2000 – sono assai costosi non hanno avuto successo(ne sono stati venduti complessivamente 30-40.000).
Poi, leggere sullo schermo è sgradevole, fino a che la tecnologia non introdurrà una illuminazione analoga a quella offerta dalla luce sulla carta che per di più, rispetto al lettore digitale, è un materiale assai più comodo, flessibile, resistente.
Molti sono convinti che i portatili o palmari per lettura, così come sono attualmente non abbiano ragionevoli sviluppi di mercato nel prossimo futuro, e che il modello vincente per la diffusione del libro digitale non sia ancora stato prodotto .
Ma il momento potrebbe non essere lontano.
Sono in fase di studio avanzato anche dei veri e propri libri elettronici, composti da carta elettronica.
Si tratta di un foglio plastificato, flessibile come un foglio di carta. Al suo interno, milioni di microcapsule di un decimo di millimetro di spessore, schiacciate l’una insieme all’altra in una sorta di sandwich elettronico. All’interno delle microcapsule, migliaia di particelle bianche inserite in un liquido blu. A seconda della polarità del campo elettrico creato, le particelle si spostano, e si forma così o un punto bianco o un punto blu. Appaiono così, a seconda degli impulsi inviati, le lettere e le parole, tracciate con un inchiostro elettronico. L’insieme di queste pagine forma il libro elettronico del futuro, il “libro finale” secondo la definizione di Joseph Jacobson, oggi 34 anni, professore al MIT, inventore dell’inchiostro elettronico e fondatore di E-ink (acronimo per inchiostro elettroforetico).
Almeno quattro imprese, E-ink compreso, stanno lavorando su questi fogli e hanno già costruito prototipi. Secondo le previsioni, il libro elettronico dovrebbe essere pronto fra 5 anni.
Per risolvere i problemi di trasmissione via Internet direttamente al consumatore di questi libri, E-ink ha costituito nell’ottobre del 2000 una apposita società con il numero uno mondiale della tecnologia telefonica, Lucent Technologies. Ma anche IBM partecipa a questa gara è ha progettato un giornale elettronico, attualmente di 16 pagine, che può essere ricaricato via Internet o anche con onde radio.
Una tecnologia parzialmente diversa, il Gyricon, basata anch’essa su microcapsule inserite nell’interno di un foglio che si colorano diversamente a seconda degli impulsi elettromagnetici inviati, è stata messa a punto da Nicholas Sheridon ed è in corso di sviluppo da parte di Xerox, che nel 1999 si è consorziata con 3M, una multinazionale che opera nel settore chimico e dei prodotti adesivi: l’obiettivo è il lancio di Wand, un foglio di grandi dimensioni per annunci al pubblico, da affiggere nei supermercati, nei luoghi di incontro.

24.3. La lunga marcia verso il libro digitale: gli ostacoli economici.
Vi è poi un secondo problema, legato specificatamente a Internet: alla gente non piace pagare per i contenuti, siano essi testi, musica, fotografie o altro, che riceve attraverso Internet. E per questo che quotidiani e settimanali, dopo vari tentativi di offrire la propria versione online in abbonamento, si sono arresi e permettono l’accesso gratuitamente (salvo imporre, in taluni casi, un obbligo di registrazione e la richiesta di un compenso per l’utilizzazione degli archivi): il solo Wall Street Journal – sfruttando la specificità delle notizie offerte – si è mantenuto fedele alla politica dell’abbonamento. Ed è per questo che hanno avuto un successo così travolgente tutte le iniziative, quali Napster o Gnutella, che hanno offerto la possibilità di scaricare gratuitamente musica dal Cyberspazio (per lo più violando la normativa sul diritto d’autore).
Ma torniamo a Stephen King.
Quest’ultimo, sottovalutando il principio appena esposto, e sottovalutando quindi l’importanza del fatto che il primo racconto digitale era stato offerto online gratuitamente, ha ripetuto l’esperimento, questa volta offrendo un romanzo esclusivamente digitale, ma a pagamento.
Ha così posto in Rete un romanzo, The Plant, che aveva iniziato molti anni prima e che intendeva completare caricando capitolo dopo capitolo periodicamente in Internet . Il lettore avrebbe potuto scaricare ciascun capitolo, pagando ogni volta un modico compenso (un dollaro per i primi due capitoli, compensi analoghi per i capitoli successivi). King si era impegnato a completare il libro se almeno il 75% di coloro che scaricavano il capitolo offerto avesse versato l’importo richiesto. Era anche possibile effettuare automaticamente la transazione per gli utenti abituali di Amazon: con un solo click, potevano ottenere il nuovo capitolo e versare il compenso richiesto.
Alla fine di novembre, King, avendo constatato che erano decresciuti i lettori, ma soprattutto erano decresciuti i lettori paganti – solo il 45% dei lettori pagava il compenso – si è fermato (lasciando tra l’altro a bocca asciutta i consumatori adempienti).
In conclusione, i due problemi combinati – rifiuto dell’utente di utilizzare lo schermo per la lettura e di pagare contenuti diffusi su Internet – contribuiscono a produrre quello che gli economisti chiamano l’effetto “chicken and egg”, in altri termini: prima l’uovo o la gallina? I produttori di palmari non sono disposti a investire se prima non si rendono conto che la gente legge. I produttori di contenuto non sono disposti ad investire se prima non c’è il modo di leggere.
Il risultato è che pochi sono i libri digitali disponibili (anche se l’insuccesso di King non ha frenato l’entusiasmo di molti autori ), e pochi i palmari diffusi con possibilità di lettura dell’e-book .
In definitiva, il libro cartaceo gode infatti di ottima salute. Anzi, paradossalmente proprio il libro cartaceo è il prodotto più venduto con il commercio elettronico: secondo un’indagine di Nielsen Media Research, nel 1997 vi sono stati oltre 5 milioni di acquisti di libri mediante Internet.
Inoltre, secondo un rapporto Gallup, hanno visitato una biblioteca almeno una volta in un anno il 64% degli americani nel 1998, mentre erano il 51% venti anni prima. A fronte dell’aumentata domanda, nel solo 1997 sono state costruite o ristrutturate negli Stati Uniti 225 biblioteche pubbliche. E non bisogna pensare che questo aumento di domanda dipenda dal fatto che esse offrono accessi a Internet; dipende invece dai soliti, tradizionali motivi: richiedere un libro in prestito (81%), consultare il bibliotecario (65%), mentre solo il 17% dei frequentatori si propone di connettersi con Internet.
In conclusione, non bisogna essere troppo ottimisti sull’affermazione in tempi brevi del libro digitale: le nuove tecnologie per affermarsi non solo devono funzionare, ma devono anche essere una soluzione per un problema reale. Invece, i libri digitali al momento si presentano come una soluzione in cerca di un problema .

24.4 Le ragioni dell’ottimismo: qualche considerazione sulle guide turistiche.
Per gettare uno sguardo nel futuro del libro, e costruire una risposta all’interrogativo con il quale avevamo concluso il primo paragrafo, dobbiamo cercare di comprendere le ragioni per le quali, nonostante le difficoltà del percorso e le incertezze date dall’immaturità dei mezzi tecnologici a disposizione, gli editori dimostrano tanto ottimismo da lanciare faraonici piani di investimento per l’affermazione degli e-book, paradossalmente accelerando i tempi della conclusione dell’epoca che li ha posti come intermediari dominanti del mercato del libro stampato.
Infatti, nel maggio del 2000 una delle più grandi case editrici del mondo, Barnes & Nobles ha investito 20 milioni di dollari nello sviluppo di libri digitali .
Anche Time Warner Books, Random House, Simon and Schuster hanno già stabilito siti dove vendono opere online direttamente ai richiedenti, da leggere sullo schermo del PC o su palmari portatili.
In generale, Andersen Consulting prevede 2.4 miliardi di e-books nel 2004, mentre PricewaterhouseCoopers ritiene addirittura che in quell’anno gli e-books cominceranno ad avere un impatto significativo sul mercato editoriale in quanto copriranno il 26% di tutte le vendite editoriali, con una spesa per il consumatore finale di 5.4 miliardi di dollari .
Alla Fiera del libro di Francoforte dell’ottobre 2000, su 6791 espositori presenti, più di 2000 hanno presentato delle opere digitali. Secondo un sondaggio realizzato durante la Fiera di Akep (Arbeitskreis Elektronishes Publizieren), il 96,9 % degli intervistati ritiene che Internet assumerà un ruolo sempre più centrale nello sviluppo della casa editrice del prossimo futuro .
Molti, di fronte a scelte economiche apparentemente ingiustificate, hanno concluso ironicamente che il futuro del libro digitale sembra essere come un test di Rohrschach: ciascuno vi vede quello che vuole vedere.
Eppure, a partire dalle concrete possibilità offerte dal mercato, l’ottimismo degli editori non è fuori luogo e gli investimenti programmati sono tutt’altro che sconsiderati: sono il frutto di valutazioni assai approfondite che non tengono conto tanto della situazione attuale della tecnologia, sicuramente insufficiente, quanto delle poderose possibilità di sfruttamento della digitalizzazione dei testi.
Cominciamo ad esaminare la nicchia di mercato che più si presta all’uso del libro digitale: enciclopedie, guide, manuali, testi scolastici e universitari.
Pensiamo per esempio a una guida turistica.
Attualmente chi vuole prepararsi in modo accurato per trascorrere una vacanza di una settimana visitando alcune città italiane in Emilia è costretto ad acquistare vari e costosi volumi, dedicati l’uno alla storia e alla cultura, l’altro alla gastronomia, l’altro ancora alle località da visitare, e così via. Poi deve trascinarseli dietro per tutto il viaggio per consultarli e utilizzarli. Se invece desidera solo informazioni turistiche generali, dovrà probabilmente comprare una corposa guida d’Italia (analogamente, chi voglia avere indicazioni sull’epoca di potatura di una azalea difficilmente evita l’acquisto di un trattato completo di giardinaggio).
Solo poche pagine e poche delle informazioni acquistate vengono utilizzate, anche se il prezzo richiesto è stato commisurato all’intero pacchetto di informazioni che si è stati costretti a comprare.
Nel mondo del libro stampato si è affermata la regola che non si può acquistare ciò che serve o ciò che si vuole: si deve acquistare ciò che il venditore e l’autore vogliono vendere. È una regola ferrea, imposta da considerazioni di carattere economico, che il lettore ha dovuto subire.
Nel mondo del libro digitalizzato, questa regola scompare: il consumatore può selezionare solo le parti o i capitoli desiderati e può pagare ciò che effettivamente intende usare. Compra solo ciò che si utilizza.
Si diversifica l’informazione disponibile, e si permette all’acquirente di realizzare a costi irrisori un proprio volume personalizzato, selezionando le pagine volute o raccogliendo più capitoli sullo stesso argomento da libri diversi, in modo da avere un ventaglio di informazioni e quindi una guida più accurata e onnicomprensiva. Per tornare all’esempio dell’Italia, il nostro ipotetico turista potrà costruire un proprio volume dedicato esclusivamente alle città dell’Emilia, formato dall’assemblaggio di capitoli di vari libri, uno dedicato all’arte, l’altro alla gastronomia, l’altro ancora agli alberghi: un obiettivo che avrebbe richiesto l’acquisto di numerose guide cartacee.
Inoltre, potrà ricevere il testo desiderato direttamente a casa, o da chioschi e rivendite munite di strumenti per scaricare l’opera richiesta – quotidiano, rivista o libro – direttamente sul lettore portatile del cliente: si potrà andare ad acquistare un libro come oggi si va a rifornirsi di benzina.
I vantaggi per il consumatore sono evidenti.
Ma vi sono anche vantaggi per l’autore e per l’editore.
Questo diverso modo di costruzione e trasferimento del prodotto determinerà una consistente riduzione di costi: non si dovranno più stampare tante copie del libro quante si prevede di vendere o si vorrebbe vendere. Ciascun libro sarà prodotto in forma digitale (o eventualmente su carta) a richiesta.
Potranno così essere eliminate la maggior parte delle spese di intermediazione tra autore o editore e lettore ora esistenti: in primo luogo, le spese delle materie prime, la carta innanzitutto; poi le spese (deposito dei volumi, macero degli invenduti, inventari) che gravano sull’editore, il quale deve tenere conto anche del rischio di pubblicare libri che non sa se avranno successo; infine, i costi di distribuzione e magazzinaggio che da soli rappresentano più del 50% del prezzo finale del libro cartaceo.
Alla selezione dei prodotti determinata da regole economiche, si sostituisce una selezione determinata dalle capacità dell’editore di costruire cataloghi completi, attraenti, onnicomprensivi su determinate materie.
La riduzione dei costi opererà a tutto beneficio di coloro che stanno ai due capi del filo: titolari della proprietà intellettuale su un’opera da un lato, lettori dall’altro.
Ma non è tutto oro ciò che luccica.
Prima di tutto, accanto ad una riduzione dei costi vi è, meno appariscente, una loro diversa allocazione.
Infatti, l’accesso a testi digitalizzati, e più in generale all’informazione digitalizzata dipende dalla disponibilità dell’equipaggiamento tecnologico necessario: un PC o un lettore digitale, un modem, un telefono, software adatto a questo scopo, e adatto anche a riprodurre immagini se esse sono contenute nel testo, e così via.
Sono costi non indifferenti, che vengono trasferiti sull’utente finale (mentre prima erano costi di produzione e intermediazione dell’informazione stampata, distribuiti sul singolo prodotto acquistato): essi operano una netta selezione tra lettori di informazioni digitali e non. In un mondo a prevalente informazione digitali, chi non ha l’equipaggiamento tecnologico necessario è tagliato fuori. È agevole già ora individuare chi è predestinato all’esclusione: gli appartenenti alle fasce di reddito più modeste, che non sono in grado di affrontare la spesa per munirsi della tecnologia necessaria e, su scala globale, coloro che vivono in Paesi non sviluppati, ove Internet è scarsamente diffuso, anche per i costi delle infrastrutture (solo il 3% della popolazione africana ha accesso a Internet, per esempio).

24.5 Le nuove frontiere del diritto d’autore e della proprietà intellettuale nel nuovo mercato del libro digitale.
In realtà, i grandi investimenti che sono in corso per lo sviluppo e l’affermazione sul mercato del libro digitale trovano la loro reale giustificazione nella possibilità che questo strumento offre di realizzare nuove e ancora in parte inesplorate forme di profitto per l’editore, per l’autore e, in generale per la proprietà intellettuale.
Il diritto d’autore è sorto infatti con modalità e caratteristiche vincolate dalla realtà economica e produttiva in cui la creazione dell’autore si materializzava, fissata dalla tecnologia del supporto cartaceo. Questa realtà, come si è visto, imponeva di realizzare e di vendere un certo tipo di prodotto: il libro. Un racconto di venti pagine, per quanto entusiasmante, non può essere posto isolatamente in vendita, perché i costi di stampa e distribuzione lo rendono difficilmente commerciabile. Lo stesso vale per un romanzo di tremila pagine.
Se cambiamo la realtà cartacea e materiale nella quale il diritto d’autore si estrinseca, e lanciamo l’opera in Rete, il diritto d’autore non è più vincolato alle stesse caratteristiche e alle stesse modalità. Ciò che non si poteva fare con il supporto cartaceo – la vendita di un’opera frammentata in capitoli, o in pagine – diviene fattibile in Rete.
Ma il libro digitale e la cessione frammentata in Rete offrono un ulteriore, consistente vantaggio all’editore e all’autore, che si traduce in una corrispondente penalizzazione per la categoria dei consumatori.
Torniamo al nostro esempio.
Chi acquista una guida d’Italia cartacea per una visita di sette giorni alle città dell’Emilia ne usa poche pagine, ma ha a disposizione un piccolo patrimonio che può oculatamente gestire. Prima di tutto, può essere letta dall’acquirente un numero infinito di volte; può essere imprestato ad amici, che a loro volta possono leggerlo: si tratta di utilizzazioni compatibili con l’attuale assetto del diritto d’autore, e di un uso legittimo dell’opera della quale si sono acquistati i diritti . Può conservarla per il caso di una futura visita in altre località italiane, e magari scegliere le località da visitare utilizzando la guida come strumento di consultazione; può imprestarla o regalarla a parenti ed amici che si recano in Italia, partecipando a meccanismi di scambio in base ai quali potrà ricevere in prestito una guida per le prossime vacanze in Francia; può venderla sul mercato del libro usato e recuperare parte dell’investimento effettuato.
Sono tutte utilizzazioni compatibili, e usi legittimi dell’opera, anche, o forse sarebbe meglio dire solo, perché non vi sarebbe stato modo, nella realtà materiale e cartacea di concretizzazione del diritto d’autore, di impedire questo uso.
Le possibilità si riducono con il libro digitalizzato ritagliato appositamente per determinate esigenze: non è agevole trovare qualcuno che abbia esattamente le esigenze per le quali abbiamo creato il nostro volume.
Ma soprattutto, il libro digitalizzato può essere trasferito da chi ne detiene la proprietà intellettuale con particolari tecnologie che ne regolano l’uso: può essere graduato, a seconda del compenso contrattualmente convenuto, il numero di consultazioni ammesso, oppure il tempo per il quale il testo rimane disponibile per il lettore; può essere concessa o preclusa la possibilità di stampa del testo, e così via.
In altri termini, alla frammentazione del testo, consentita dalla tecnologia digitale, corrisponde una frammentazione, e una corrispondente valorizzazione economica, del diritto d’autore e della proprietà intellettuale: il diritto d’autore si trasforma da goffo e monolitico strumento ancorato alla riproduzione cartacea in un agile e duttile meccanismo per estrarre valore dalle molteplici possibilità d’uso dal contenuto di un’opera, personalizzandone la cessione per soddisfare le svariate esigenze degli utenti.
Proprio questa elasticità di uso e queste immense possibilità di sfruttamento hanno convinto molti editori tradizionali di libri su carta e molti nuovi editori virtuali di libri digitalizzati che vi sia un enorme mercato che attende di essere sviluppato e sfruttato e che l’investimento, ancorché elevato e rischioso, meriti di essere effettuato.
Ed è infatti in corso, ormai da tempo, una gara alla digitalizzazione di libri cartacei idonei alla scomposizione e alla vendita frammentata.
In primo piano figurano, oltre che le guide turistiche, i testi scolastici e universitari.
Molti editori che si occupano di questo settore hanno già predisposto database per permettere ai docenti di costruire dei libri di testo mediante assemblaggio e composizione di parti di libri del proprio catalogo.
McGraw-Hill ha creato un database chiamato Primis, che permette ai docenti di scegliere tra 180.000 pagine di libri, distribuiti su 20 discipline, per creare il proprio libro di testo personalizzato. Un’altra casa editrice, Taylor & Francis ha costituito con Versaware, società che si occupa specificatamente di tecnologia nel settore dell’editoria, una società che ha progettato un sistema per la realizzazione di libri digitali personalizzati. I libri possono essere consegnati via Rete direttamente agli studenti, sotto forma di files da stampare o da scaricare su palmari da lettura (le parti di testo più utilizzate costano naturalmente di più), a seconda delle richieste, del piano di studi, della preparazione di base del richiedente, e anche del risultato che si intende conseguire.
Proprio questa caratteristica della personalizzazione, che è contemporaneamente il cuore del valore aggiunto del libro digitale alla proprietà intellettuale e della possibilità del consumatore di ottenere esattamente ciò che desidera, reca però con sé un attentato ad un modo di uso dell’opera letteraria – dal quotidiano al romanzo al saggio – che era implicitamente ammesso nella realtà cartacea: il diritto di leggere restando anonimo.
Chi compra un giornale o un libro, non fornisce le proprie generalità. Certo, può essere riconosciuto dal venditore, specie se è un acquirente abituale. Ma è sufficiente far acquistare l’opera da altri, o acquistare in luoghi diversi da quelli abituali (una libreria in una stazione ferroviaria o in un aeroporto), per potersi garantire con una buona probabilità l’assoluto anonimato.
La possibilità di leggere in modo anonimo, da quando la stampa ha permesso una diffusione del libro e delle opere letterarie e da quando è decresciuto il controllo esercitato o esercitabile dall’autorità sui testi scritti, ha costituito un enorme valore per l’autonomia della persona e, più in generale per lo sviluppo della società occidentale . Ha garantito infatti il formarsi della libertà di opinione, il sorgere di idee non necessariamente conformi al volere del potere politico o religioso; ha garantito la circolazione di testi vietati o sgraditi al potere, contrastando l’omogeneizzazione dei comportamenti e delle culture e favorendo quella miscela di visioni del mondo diverse e spesso conflittuali che sono stati alla base della nostra convivenza sociale e della nostra democrazia.
Tutto ciò è destinato a scomparire in una ipotetica futura organizzazione del mercato culturale ove la trasmissione dei testi avviene esclusivamente a mezzo di contratti on-line, nei quali è necessario fornire i propri dati identificativi per ottenere il prodotto desiderato.

Internet e la Legge – Capitolo 15

Capitolo 15
Il mercato del divertimento

Cinema, televisione e Video, Giochi, Musica, libri, Cultura: generi e categorie assai diversi gli uni dagli altri. Contribuiscono però a formare ciò che i paesi di lingua inglese raccolgono insieme nel concetto di entertainment business: il mercato del divertimento.
Si tratta di un mercato che è in realtà costituito da tanti sub-mercati autonomi e solo marginalmente connessi, con caratteristiche, utenti, imprenditori, problemi tecnologici, giuridici e organizzativi spesso assai diversi, uniti però da alcuni elementi comuni.
Da un punto di vista sociologico, si tratta di un mercato che si rivolge al tempo libero dei consumatori: un’area che, negli ultimi decenni, per effetto dell’aumento del benessere nel mondo occidentale e del progressivo ridursi del tempo dedicato all’attività lavorativa e a soddisfare bisogni primari, è in continua espansione.
Da un punto di vista economico giuridico, si tratta di un mercato sul quale si scambia un particolare tipo di bene: le informazioni. Tutto ciò che circola nel mercato del divertimento, sia pure sotto forme diverse, è costituito, alla base, dal bene informazione: un bene, che per molti versi costituisce un diritto (ed è talvolta considerato come un diritto fondamentale nell’attuale organizzazione sociale), nella prospettiva del mercato, diviene una merce.
Da un punto di vista organizzativo-giuridico, è un mercato caratterizzato dalla presenza di un terzo polo, oltre a produttori e consumatori: gli autori dei contenuti, titolari di diritti riconosciuti sulle opere dell’ingegno prodotte. In altri termini, e proprio per la presenza di questo polo di autori, il mercato del divertimento è caratterizzato dalla presenza della proprietà immateriale, che scaturisce dall’ingegno degli autori.
Fin dai primi anni in cui ha abbandonato la sua dimensione esclusivamente accademica e culturale, la Rete è stata considerata come uno spazio assai promettente per lo sviluppo di un mercato virtuale del divertimento. In realtà uno solo è stato il settore che ha avuto successo nel Cyberspazio, assumendo caratteristiche e fisionomie proprie, diverse da quelle che gli stessi settori hanno nel mondo reale: la pornografia.
Fino a pochi anni orsono, però, nel settore del divertimento vi sono stati scarsissimi contatti tra realtà virtuale e produttori tradizionali, se si escludono alcuni timidi tentativi verificatisi negli Stati Uniti all’inizio degli anni Novanta, soprattutto da parte di produttori di video e cinema di Hollywood, di offrire prodotti digitali in collaborazione con operatori del Cyberspazio (erano le c.d. Siliwood, combinazione di Hollywood con Silicon Valley) direttamente nelle case degli utenti. Tentativi tutti abbandonati, perché risultati (o comunque ritenuti) in breve tempo privi di concreti sbocchi commerciali.
Le strade dell’entertainment business tradizionale e di quello virtuale sono così rimaste divise.
Poi, a partire dal 1997, questa volta non solo negli USA ma anche in Europa, i due mercati sono entrati nuovamente in contatto, anzi, in alcuni casi, come nel settore della musica, si può parlare di una vera e propria collisione. Molte imprese tradizionali hanno avviato programmi di investimento per espandere la loro attività su Internet, puntando su un rapido e consistente sviluppo del settore e, viceversa, molte imprese della new economy hanno compreso che, per trarre profitti dalle loro iniziative, avevano bisogno di controparti affermate su mercati tradizionali.
Il contatto si è manifestato per ragioni differenti e con caratteristiche diverse nei settori dai quali questo mercato è composto.
Così, nel settore infrastrutturale delle telecomunicazioni e informazioni si è sviluppata una ondata di fusioni tra imprese della new economy e dell’economia tradizionale, rivolte a sfruttare le sinergie derivanti dai due tipi di imprenditorialità.
Il caso più clamoroso è costituito dalla fusione tra AOL e Time Warner.
L’accordo tra le due società, perfezionatosi nel dicembre del 2000 a oltre un anno di distanza dal suo annuncio a causa delle indagini cui è stato sottoposto dagli organismi “antitrust” federali americani , si propone di realizzare un ponte verso il 21 secolo tra la new economy, personificata da AOL (una delle più importanti imprese del settore con oltre 25 milioni di abbonati) e la tradizionale entertainment business, rappresentata da Time Warner .
In altri settori un ruolo assai importante hanno rivestito le innovazioni tecnologiche, ma soprattutto l’atteggiamento degli autori e degli imprenditori rispetto a tali innovazioni.
Così, nel settore editoriale sono stati principalmente gli imprenditori tradizionali ad interessarsi delle possibilità offerte dal mercato virtuale, e ad avviare ardite iniziative per sviluppare – anche dal punto di vista tecnologico – prodotti idonei per questo mercato (si veda il capitolo dedicato ai Libri digitali).
Lo stesso può dirsi nel settore del commercio di beni artistici e delle aste, ove una delle più affermate case d’asta a livello mondiale, Sotheby, certamente trascinata dall’imponente successo ottenuto dai siti di aste virtuali (sui quali ci soffermiamo in un apposito capitolo) ha dapprima raggiunto un accordo con Amazon per lanciare nel novembre del 1999 un sito – Sothebys.amazon.com – che compare sul portale di Amazon, offrendo all’asta beni da collezione per il largo pubblico; successivamente ha avviato un sito autonomo, sothebys.com, dedicato a oggetti d’arte di valore.
Completamente diverso è stato invece l’andamento del mercato della musica: gli imprenditori tradizionali si sono rifiutati di sfruttare le opportunità offerte dalla rete e sono rimasti arroccati sulla difensiva. Come era prevedibile, è stato il mercato virtuale ad assumere l’iniziativa, e a distribuire contenuti musicali nella Rete, entrando pesantemente in collisione con consolidati assetti organizzativi e giuridici del mercato tradizionale: si è qui assistito a scontri giudiziari e, da ultimo, a avventurosi tentativi di accordo, con l’accordo tra Bertelsmann e Napster (si veda il capitolo dedicato alla Musica digitale).
Il contatto tra mercato tradizionale e mercato virtuale nell’entertainment business, pur procedendo negli ultimi tempi con maggior cautela, sembra essersi stabilizzato, ma gli esiti sono tutt’altro che certi.
Secondo molti osservatori specializzati in Internet continua a non offrire ragionevoli prospettive di profitti per le tradizionali attività che si occupano in senso lato di divertimento e quindi media, libri, musica, video, informazione . Nessuno sinora è riuscito a trarre profitti da un entertainment business basato solamente sulla Rete: è significativo l’esempio di Amazon, che, pur avendo assunto da anni una posizione di assoluta supremazia nella vendita in Rete di libri, CD e altri prodotti per il divertimento, ha continuato ad accumulare ingenti perdite.
Questa valutazione sembra essere confermata da un segnale assai significativo e cioè il calo, per tutto il 2000, della pubblicità via Internet, dovuto sia al mancato decollo nei termini sperati del settore, sia al fatto che sempre meno sono gli utenti che si inducono a cliccare su un banner di pubblicità (secondo dati dell’agosto 2000, sono passati dall’1% del 1997 allo 0,4% del 1999): ed infatti tutte le imprese sorte e sviluppatesi specificatamente per la pubblicità in Rete – prima fra tutte la più importante negli USA, Doubleclick Inc – hanno assistito a pesantissime perdite delle loro quotazioni in Borsa .
Vi sono essenzialmente due ragioni – una di carattere tecnico, l’altra economico – che non consentono di trarre valutazioni ottimistiche nel breve o medio periodo dal contatto di realtà virtuale e imprese tradizionali.
La prima è costituita da ragioni di immaturità tecnologica in una delle varie fasi della catena produttiva.
È il caso di tutto il settore video (che costituisce la parte più importante del mercato), il cui sperato sviluppo è reso difficile dalle difficoltà di trasmissione, e quindi di scaricamento, con le attuali connessioni Internet: sono infatti necessarie connessioni via cavo abilitate alla trasmissione a banda larga, tuttora scarsamente diffuse, anche negli Stati Uniti.
È il caso anche dei libri digitali: uno dei contenuti che non offre difficoltà dal punto di vista tecnologico per la distribuzione on-line, il testo, si scontra con la mancanza di uno supporto tecnologico che possa competere, quanto a gradimento e comodità per il lettore, con la carta e con il libro. È anche il caso anche delle arti figurative, la cui distribuzione online è ostacolata da difficoltà tecniche nella resa del prodotto, che resta assai inferiore a quello che si può ottenere mediante riproduzioni fotografiche.
In tutti questi casi si pone il tradizionale problema dell’uovo e della gallina, applicato all’economia: da un lato mancano gli investimenti tecnologici per lanciare il settore perché vengono ritenuti insufficienti i contenuti per giustificarli, d’altro lato mancano i contenuti perché non vi sono le strutture tecnologiche adeguate per diffonderli e ricavarne un profitto.
La seconda difficoltà è costituita da un aspetto economico.
È il caso dei prodotti musicali, ove lo sviluppo tecnologico attuale permette di diffondere on line brani musicali assolutamente uguali, come qualità e come resa, a quelli che possono essere acquistati su un CD, ma nessuno è disposto a pagare per riceverli.
Accanto a queste due difficoltà, deve esserne indicata una terza, costituita dall’incerto panorama legislativo e giurisprudenziale per ciò che concerne uno degli elementi su cui si basa lo sviluppo della società dell’informazione, e cioè la proprietà intellettuale: quel terzo polo tra imprese produttrici e consumatori che costituisce la base del mercato del divertimento.
Tuttavia, il contatto tra imprese tradizionali e imprese che si sono sviluppate nel Cyberspazio non sembra destinato a cessare, come è accaduto nella prima ondata: la strada è quella indicata dall’accordo tra AOL e Warner, ma anche tra Bertelsmann e Napster, quella della combinazione tra nuove tecnologie, contenuti tradizionali, nuove forme di protezione della proprietà intellettuale e quindi di distribuzione.