Il principio di precauzione tra incertezza intrinseca e razionalità limitata

di Gavino Zucca

Il Principio di Precauzione (PdP) è uno strumento decisionale di tipo giuridico nato per cercare di far fronte alle scelte tecnologiche quando, pur in una situazione di incertezza o ignoranza scientifica, vi sono ragioni per credere che una determinata attività potrebbe avere conseguenze negative molto estese e, soprattutto, irreversibili. Il principio apparve nella Germania dell’Ovest degli anni ’70, sotto la spinta dell’emotività provocata dalla scoperta di alcuni gravi problemi ambientali. Il Vorsorgeprinzip si caratterizzava per un intervento diretto delle autorità nella salvaguardia ambientale, in un’ottica di cura e protezione per le generazioni presenti e per quelle future, anche in mancanza di prove scientifiche adeguate sull’esistenza di una correlazione fra una data causa e un determinato effetto ambientale. Con gli anni il PdP si è diffuso ad altre realtà nazionali e internazionali, e la sua applicazione è stata estesa oltre alla semplice protezione ambientale, fino ad includere anche la salute degli uomini e degli animali. Fra i momenti più importanti di questo percorso si possono ricordare la Dichiarazione di Rio del 1992 e il Trattato di Maastricht. Il PdP è entrato in tal modo a far parte della normativa internazionale, e da allora è stato virtualmente incluso in tutti i trattati relativi alla protezione dell’ambiente.

Man mano che il PdP si estendeva, però, il suo significato ha subito dei mutamenti. All’impostazione tedesca originaria, di impronta essenzialmente socio-politica e caratterizzata dall’attenzione alle preoccupazioni dell’opinione pubblica, se ne è affiancata un’altra, soprattutto in Gran Bretagna, di stampo tecnico-scientifico, basata sulla richiesta di calcoli scientifici e argomentazioni razionali per la giustificazione delle azioni precauzionali. Un compromesso fra le posizioni è stato infine in qualche modo accolto dall’Unione Europea, che in una comunicazione del 2000 ha dettato le linee guida per l’implementazione del principio. Nonostante questa vasta diffusione, che ha portato il PdP ad essere accettato da entità quali l’ONU e l’UE e ad essere incluso in svariate legislazioni nazionali (in Francia, ad esempio, è in discussione una sua introduzione a livello di Costituzione), tale principio è anche molto osteggiato. Negli USA, ad esempio, è normale che le corti di giustizia richiedano ai proponenti di misure precauzionali (compresa la stessa EPA) stringenti giustificazioni scientifiche e razionali a sostegno di tali misure. E nella legislazione federale USA non compare alcun riferimento al PdP. A causa di questa differente impostazione, il principio è stato negli ultimi anni al centro di alcune contese economiche, nelle quali determinate misure precauzionali europee sono state considerate dagli USA e dal WTO come una barriera ingiustificata al libero commercio.

Le principali critiche al PdP sostengono, in estrema sintesi, che esso è ascientifico e antiscientifico e potrebbe ostacolare, se non bloccare, il progresso e la ricerca scientifica; inoltre, le definizioni esistenti sono molteplici e ambigue, dal che derivano alcune conseguenze, quali la possibilità di mascherare misure protezionistiche, di stornare risorse preziose per impiegarle in azioni irrilevanti, di condurre ad esiti che potrebbero rivelarsi anche peggiori rispetto a quelli cui si vorrebbe ovviare. Tuttavia, se si analizza attentamente la situazione, si ha spesso l’impressione che le dispute vertano più intorno alle parole che non ai fatti, e che gran parte della discussione intorno al PdP derivi dal tentativo di difendere posizioni di potere. Quasi nessuno, infatti, mette in dubbio l’idea in sé di precauzione. Ciò che in realtà sembra creare problemi è l’idea di una sua definizione normativa. È vero, ad esempio, che del PdP esistono differenti versioni che vanno da forme più forti ad altre decisamente più moderate, ma è anche indubbio che nelle controversie che lo riguardano sembra spesso che non vi sia neanche la volontà di pervenire ad una sua definizione unica e condivisa. Volendo considerare il PdP come una norma del diritto internazionale, il riferimento comune per tutti dovrebbe essere la definizione dell’ONU, contenuta nella Dichiarazione di Rio. Ma quasi sempre, sia da parte dei sostenitori del principio che di chi si oppone ad esso, si fa invece riferimento ad una versione ben più forte, non ufficiale, che dovrebbe più propriamente chiamarsi “regola di astensione” e che può essere riassunta col motto “nel dubbio astenersi”, ovvero: non agire fino a quando non vi sono certezze. Accade così che da un lato vi sia chi pretende il blocco di attività fino a quando la scienza non sarà in grado di fornire certezze, e che dall’altra gli scienziati replichino che la scienza non potrà mai dare certezze e quindi un principio che chiede qualcosa che non è possibile fornire è assurdo. Ma il PdP, per lo meno per come enunciato nella Dichiarazione di Rio, è ben lontano da tutto ciò. Esso prende atto che l’incertezza scientifica è inevitabile, ma proprio da questa incertezza trae la richiesta di un diritto, quello di poter prendere misure precauzionali per proteggere se stessi e le generazioni future, se vi sono ragioni per credere che possano esservi dei pericoli estesi che, una volta scoperti, non sono più eliminabili.

Una breve analisi logica dei due tipi di enunciati può aiutare a capire meglio questa differenza radicale. L’enunciato più forte del PdP afferma che “si devono prendere misure precauzionali quando la scienza non è in grado di garantire con certezza la sicurezza di una determinata attività”. Ma il principio cui si è giunti in ambito ONU dice una cosa molto diversa: anche se la scienza non ha stabilito l’esistenza di un rischio, non si può impedire a nessuno di assumere misure precauzionali per proteggere l’ambiente e la salute delle generazioni presenti e future, quando vi sono ragioni per ritenere che tale rischio possa causare danni estesi e irreversibili. Il PdP, in altri termini, non enuncia un dovere, ma un diritto. E afferma semplicemente che, proprio perché la scienza non è in grado di garantire certezze assolute sulla sicurezza di una determinata attività, quando le poste in gioco sono estremamente elevate e la decisione è urgente, si deve concedere a chiunque il diritto di agire preventivamente in senso precauzionale per la propria protezione.

La situazione presenta molte analogie con quanto accadde nel XVIII secolo con la definizione del diritto alla libertà. Anche in quel caso la situazione appariva confusa, tanto da far dire a Montesquieu che «non vi è parola che abbia ricevuto maggior numero di significati diversi, e che abbia colpito la mente in tante maniere come quella di libertà». E molte delle accuse attualmente rivolte al PdP si sarebbero potute a suo tempo rivolgere all’enunciazione della libertà come un diritto fondamentale dell’individuo. Eppure, nonostante le differenti modalità di applicazione di questo diritto fondamentale nelle varie comunità, e gli esiti talvolta non del tutto felici cui esse hanno condotto, nessuno oggi metterebbe in dubbio la sua validità generale. Così, enunciare oggi un diritto alla precauzione dovrebbe avere il solo scopo di sancire in maniera univoca ciò che è già comunemente riconosciuto da tutti, e la Dichiarazione di Rio si presta bene a questo scopo. Essa afferma un principio politico e pratico, non scientifico: il diritto di applicare una delle strategie euristiche fondamentali di ogni organismo vivente, che prevede di procedere con cautela quando si avanza verso l’ignoto, cercando di cogliere indicazioni da ciò che accade intorno e utilizzando la strategia più adatta alla situazione per decidere e agire. La precauzione appare in definitiva niente più che una norma di buon senso, che recenti esperienze negative hanno condotto a riaffermare in maniera più formale. Il vero problema sta quindi nel trovare modalità di messa in atto del principio che lo limitino e regolamentino adeguatamente onde evitare abusi. Questa questione, a sua volta, ruota principalmente intorno alla definizione di “rischio plausibile”, e deve rispondere a domande come: Chi e come riconosce quali sono i rischi potenziali e ne stabilisce la plausibilità? Chi e come decide quali misure vanno intraprese e ne verifica l’efficacia?

A questo punto sono almeno due le linee da seguire. La prima riguarda l’identificazione di criteri epistemici e pratici per riconoscere la plausibilità dei rischi e l’adeguatezza delle misure proposte. In tal senso si è mossa ad esempio l’UE con l’identificazione di una serie di criteri cui l’applicazione del PdP deve attenersi: proporzionalità, non discriminazione, coerenza, esame di vantaggi e oneri derivanti dall’azione o dall’inazione, esame dell’evoluzione scientifica per un’eventuale revisione delle misure precauzionali.

La seconda linea d’azione riguarda la definizione di metodologie pratiche per portare avanti il processo decisionale vero e proprio. Per tentare un chiarimento concettuale rispetto a quest’ultimo punto, si può partire dall’idea che la messa in atto del PdP richieda una presa di decisione sociale in condizioni di incertezza o di ignoranza. Ciò che rende problematico il tentativo di implementare il PdP è che ciascuno dei tre principali aspetti presenti in questa definizione (la presa di decisione sociale, l’incertezza scientifica e a valutazione e la gestione del rischio tecnologico in condizioni di incertezza o ignoranza) ha oggi a che fare con la crisi o il ripensamento di un particolare tipo di razionalità: economica, scientifica, tecnologica e politica.

Per quanto riguarda la prima, la prospettiva proposta dalla teoria della razionalità limitata ha evidenziato come le decisioni reali siano sottoposte ad una duplice limitazione derivante da un lato dalle pressioni ambientali, e dall’altro dalle limitazioni cognitive. L’idea di fondo è che nella presa di decisione noi facciamo uso di euristiche fast and frugal, semplici ma efficaci da un punto di vista ecologico, da adattare alle situazioni, e che nell’operare scelte ricerchiamo il soddisfacimento più che la massimizzazione dell’utilità, operando gli opportuni adattamenti dei nostri livelli di aspirazione rispetto ai vari obiettivi. La conseguenza è l’impossibilità di operare delle scelte individuali che siano ottimali in senso assoluto, come invece previsto dalle teorie economiche classiche. Quando si considerano poi le decisioni all’interno di gruppi naturali ci si trova di fronte ad ulteriori problemi che rendono ancora più complessa l’idea di poter raggiungere una decisione ottimale: esistenza di conoscenze e competenze distribuite; obiettivi, motivazioni e valori divergenti e in opposizione fra loro; differenze di metodi, criteri, euristiche, strategie; possibilità di ingannare o sfruttare la situazione a proprio vantaggio individuale, esistenza di diversi pesi (status, prestigio) nel processo decisionale. Inoltre, spesso la scelta migliore dipende anche da ciò che fanno gli altri e dal livello di fiducia reciproco con cui si affronta il processo di delibera. La decisione, quindi, lungi dal poter essere ottimizzata, può invece soltanto essere più o meno “buona” per il gruppo da un punto di vista adattativo.

Per quanto riguarda la razionalità scientifica, si può dire che l’eredità culturale del ‘900 sia senza dubbio la scoperta della dimensione ineliminabile dell’incertezza all’interno della conoscenza scientifica. Ciò naturalmente non toglie nulla al suo valore teorico e pratico, ma permette di comprendere meglio quale valore si debba assegnare alle enunciazioni di regolarità descritte dalle leggi scientifiche, e quali ne possano invece essere i limiti intrinseci e ineliminabili. In particolare, il PdP ha a che fare sostanzialmente con sistemi adattativi complessi (ambiente, ecosistemi, organismi viventi), il cui comportamento è imprevedibile nel tempo e nello spazio. In questi casi, i modelli di laboratorio si rivelano spesso inadeguati a descrivere con sufficiente accuratezza ciò che avviene in realtà. Molte delle innovazioni di cui si occupa il PdP hanno un unico, vero laboratorio, costituito dal mondo reale in cui esse trovano applicazione. E in questo laboratorio, esistono altre conoscenze di cui spesso non si tiene conto: le nozioni pratiche di chi vive dentro quel laboratorio, i cosiddetti saperi profani e locali, spesso apportatori di nozioni fondamentali trascurate dagli esperti tecnici. Oltre a ciò, oggi si tende a vedere sempre più la dimensione pluralistica e per certi versi contingente dell’intera impresa scientifica, e l’importanza dei valori e delle altre espressioni dell’emotività umana da cui gli scienziati non possono essere immuni. In particolare, soprattutto in certi settori, sono possibili più teorie in competizione e opinioni di minoranza che non possono essere trascurate.

Il terzo punto citato riguarda la valutazione e la gestione del rischio, attività tradizionalmente separate e attribuite, rispettivamente, alla scienza e alla politica. Ormai diventa sempre più evidente quanto sia irreale pensare di risolvere ogni problema mediante la semplice valutazione di un rischio oggettivo, soprattutto quando si ha a che fare con situazioni complesse e poco conosciute. Da un lato, questa valutazione oggettiva dovrebbe tenere conto di una quantità di informazioni spesso al di fuori di qualunque capacità di controllo. Dall’altro, vi è il grosso problema di come tener conto degli aspetti qualitativi. Il rischio in realtà è in buona parte una costruzione sociale, e per quanto gli esperti possano ostinarsi a ritenere irrazionali atteggiamenti in contrasto con le valutazioni oggettive, nondimeno si deve accettare il fatto che ciò a cui deve rispondere un politico è il rischio percepito dalla comunità, poiché alla fin fine è alla comunità che tutto deve essere rivolto, anche le innovazioni tecnologiche. Oggi, il paradigma tradizionale di gestione del rischio tecnologico, che è sempre stato fondato sostanzialmente sull’approccio ingegneristico per far fronte a sistemi complicati, si sta rivelando sempre più inadeguato per la gestione di sistemi complessi. Probabilmente, il riferimento più adatto è invece la medicina, con la sua strategia basata sui tre fattori: sintomi, medicinali, prevenzione che, nel caso della gestione dei rischi tecnologici, possono corrispondere, rispettivamente, agli early warnings (segnali precoci di qualcosa che non va), ai parametri di controllo con cui cercare di agire sul sistema e, appunto, all’approccio precauzionale.

L’analisi effettuata consente a questo punto di trarre alcune conclusioni. Anzitutto, le prospettive proposte dalla razionalità limitata e dall’incertezza intrinseca della scienza suggeriscono che non sembra realizzabile la pretesa di chi:

  • da un lato, come i sostenitori del PdP, ritiene possibile esaminare in modo esaustivo alternative e possibili conseguenze di una data attività o prodotto, oppure pretende certezze preliminari su di esse, attribuendo l’onere della prova totalmente sui produttori
  • dall’altro, come gli oppositori al principio, pretende prove scientifiche e razionali “forti” (basate sulla cosiddetta sound science) prima di dare l’assenso a misure precauzionali, attribuendo l’onere della prova totalmente sui proponenti le misure precauzionali.

Per affrontare adeguatamente le sfide tecnologiche presenti e future è invece necessario trovare una via di mezzo che riesca a conciliare l’inevitabile incertezza intrinseca di ogni attività umana che abbia a che fare con un sistema complesso con la necessità di continuare a migliorare la nostra condizione utilizzando al meglio la conoscenza scientifica, minimizzando per quanto ci è possibile i rischi che da tale applicazione possono derivare. Si tratta, in effetti, di un problema prettamente politico legato a un processo in atto di democratizzazione tecnologica, del quale il PdP fa parte integrante, e che riguarda le decisioni in merito ad innovazioni tecnologiche che possono interessare l’esistenza di tutti, anche di chi non è interessato. Il dilemma dei decisori politici consiste nella necessità di conciliare due libertà fondamentali: da un lato, quella di una comunità di prendere misure precauzionali, se lo ritiene opportuno, al fine di proteggere se stessa, il proprio ambiente e le generazioni future; e, dall’altro, la libertà economica e di iniziativa privata, così come il diritto di usufruire dei vantaggi e dei benefici derivanti dalle innovazioni tecnologiche. La ricerca di regole di implementazione del PdP coincide con la ricerca di regole per la conciliazione di queste due libertà.

Da ciò che si è detto emerge il valore unico e insostituibile della pluralità: nessuno, neanche gli scienziati, ha in mano la verità unica e la soluzione ai problemi tecnologici complessi, ma una decisione buona (in senso adattativo) per tutti può essere trovata cercando un adeguamento delle aspirazioni di ciascuno e allo stesso tempo sfruttando la conoscenza di livello superiore contenuta in maniera distribuita nelle conoscenze di tutti. La presa di decisione deve di conseguenza diventare un processo collegiale e riflessivo di confronto, ricerca e apprendimento reciproco che dovrebbe coinvolgere tutti coloro che sono interessati e che hanno conoscenze o motivazioni utili per la decisione da prendere. È chiaro che non esiste, e non può esistere, un unico modo di affrontare i problemi. Quella che si deve ricercare è invece una pluralità di metodi partecipativi, tra cui scegliere e da adattare a seconda della situazione, e in funzione di parametri quali l’urgenza della decisione, la familiarità, la tecnicità, il livello di controversia, la “località” dell’argomento. All’interno di questi processi devono anche essere previste opportune procedure che possano valutare anche la validità epistemica e pratica delle decisioni in merito alla plausibilità dei rischi e all’adeguatezza delle misure proposte. Comunque, è bene ricordarlo, la decisione finale sul se e sul come attuare una misura precauzionale è eminentemente politica, anche se moralmente vincolata ai pronunciamenti della comunità.

Un approccio partecipativo può rispondere a molte delle difficoltà pratiche emerse nell’analisi appena condotta. Esso è anzitutto un metodo per far fronte ai limiti della razionalità, soprattutto quando applicata a problematiche sociali, grazie all’ampliamento del numero di alternative tra cui scegliere e al contributo di creatività e alle visioni innovative e fuori dagli schemi. Permette inoltre di far fronte all’incertezza intrinseca o all’ignoranza delle conoscenze scientifiche mediante un confronto e una integrazione con le ipotesi scientifiche di minoranza e i saperi locali e profani. Per quanto riguarda la percezione del rischio, consente di tenere conto di preoccupazioni, valori, motivazioni, esigenze di tutti coloro che sono toccati dalla scelta, ricercando un adattamento delle aspirazioni su criteri molteplici, contrastanti e incommensurabili. Un altro effetto positivo è la diffusione a tutti i livelli di conoscenze e della consapevolezza di quali siano i livelli di incertezza scientifica e gli altri valori e motivazioni in gioco. Anche questo contribuisce ad una diminuzione della percezione pubblica del rischio, grazie ad un aumento di fattori quali la familiarità, la capacità di controllo, l’equità e così via. Il processo partecipativo ha inoltre il vantaggio di far sentire tutti coinvolti in una scelta sociale che può avere effetti anche su coloro che non sono direttamente interessati, con una condivisione delle soluzioni proposte e una riduzione della conflittualità sociale. Infine, anche la scienza, che oggi sempre più spesso rischia di essere esclusa ed emarginata nelle decisioni sulle innovazioni tecnologiche, può guadagnare molto da un approccio partecipativo. Il principio, infatti, non ha (o non dovrebbe avere) niente da dire sulla libertà di ricerca, poiché esso si riferisce solo a quelle conoscenze che, facendosi tecnica, possono avere un impatto sulla vita delle persone, anche di quelle che non sono interessate. Partecipando, la scienza può apportare a queste decisioni il suo contributo sia in termini di metodologia critico-razionale, che in termini di conoscenze che, per quanto limitate e incomplete, non sono mai del tutto inesistenti. In altri termini, di fronte a qualunque dilemma tecnologico, non siamo mai in condizioni di totale ignoranza, ma al più di profonda incertezza. L’alternativa, oggi, sembra essere che anche quel poco che la scienza sa, tende ad essere del tutto trascurato, e questo è un rischio che la società contemporanea non può permettersi di correre.

L’articolo è disponibile in formato pdf cliccando qui.

Gavino Zucca, laurea in fisica all’Università di Pisa e in filosofia all’Università di Bologna, è attualmente docente di fisica presso l’ISIS Archimede di San Giovanni in Persiceto (BO)

17 marzo 2005 | in: Cittadini, Contributi,