L’insostenibile leggerezza del neodarwinismo


 
di Giorgio Masiero*,
*fisico e docente universitario

e Michele Forastiere*,
*insegnante di matematica e fisica

 
 
 

In un recente articolo abbia mostrato i limiti scientifici del neodarwinismo e persino la sua contraddizione con il naturalismo. In aggiunta ai commenti dei lettori apparsi sul sito, abbiamo ricevuto privatamente molte mail con richiesta di delucidazioni e quantificazioni, cui ci proponiamo di rispondere in questo articolo.

Ricordiamo che il neodarwinismo è riconducibile allo schema monodiano, che vede nel gioco esclusivo di Caso & Necessità, agenti a livello di DNA, le condizioni sufficienti all’insorgenza di organismi sempre più complessi, dalle forme prebiotiche fino all’uomo. Il neodarwinismo identifica il motore dell’evoluzione nella successione graduale di mutazioni genetiche provocate per caso, i cui effetti fenotipici sono poi selezionati col criterio della sopravvivenza del più adatto (necessità). In questa visione, la ricca evidenza paleontologica e genetica dell’evoluzione (la speciazione asincrona di organismi a contenuto informativo crescente insieme alla desunzione di appartenenza di specie simili ad antenati comuni) assegna un ruolo smisuratamente prevalente del caso. L’evoluzione è un fatto, ciò che appare insufficiente è che il caso (più la selezione naturale, che però al livello fisico di DNA assume il ruolo d’improbabile comparsa) sia l’unica risorsa per spiegare l’origine di specie nuove ad informazione genetica crescente e di tutte le forme biologiche esistenti, compreso l’uomo. In altri termini, il caso diventa in questo paradigma l’alibi all’assenza di spiegazioni scientifiche, assume il ruolo di onnipresente “god of the gaps” e rischia di bloccare così linee di ricerca alternative.

L’aberrazione appare particolarmente evidente con la speciazione umana, e in particolare in quello che abbiamo definito “effetto Ramanujan”: vale a dire, nella constatazione che l’abilità matematica umana, intesa come prestazione biologica del cervello di H. Sapiens Sapiens, si è costituita da subito in una capacità sovradimensionata rispetto alle esigenze di fitness selettiva. La soluzione proposta dal neodarwinismo di considerare la capacità astrattiva e matematica umana come un carattere gregario correlato ad un altro genuinamente adattativo (quale per es. il bipedismo) non può essere considerata una spiegazione scientifica nemmeno in termini coerenti con il paradigma, finché non si indica la necessità, ovvero il meccanismo fisico responsabile della correlazione tra i due caratteri. Emerge l’assenza di un’appropriata legge fisica capace di spiegare come ciò potrebbe avvenire, superando la spinta contraria dell’entropia.

Qual è la probabilità che in una popolazione si fissi un carattere (allele) mutato, neutro rispetto alla selezione? La vita, anche al livello più elementare di un batterio, è informazione e in matematica l’informazione non è il caso, ma per definizione il suo opposto. La quantità d’informazione  è collegata alla sua probabilità P dall’equazione di Shannon:

P = 2I,

da cui si evince che ad un’alta quantità di informazione corrisponde una bassa probabilità e viceversa. Così, se tirando una moneta a testa (T) o croce (C) comunico di aver fatto C, poiché la probabilità dell’evento C è 1:2 = 2-1, l’informazione che ho dato vale 1 bit, che è il quanto minimo d’informazione: c’erano 2 possibilità, T o C, ed ho comunicato quale si è attuata. Se invece comunico una successione esatta di 8 uscite di lancio (per es., TCCTCTTT), poiché la probabilità di questa stringa è 1:28 = 1:256 = 2-8, l’informazione che ora dò vale 1 byte ≡ 8 bit. Con 8 lanci ci sono 256 possibilità equiprobabili, ed ho comunicato quella di 256 che si è avverata: l’informazione è maggiore, vale 1 byte. Un 13 al totocalcio contiene un’informazione ancora maggiore, 21 bit, perché la sua probabilità è 1:313 ≈ 1:221 = 2-21. Maggiore è il numero delle forme diverse in cui un evento può potenzialmente manifestarsi, maggiore è la quantità d’informazione contenuta nella sua forma attualizzata.

Quanta informazione c’è nel genoma umano? Secondo J.C. Venter, esso contiene 3.200 Mbyte, di cui solo il 37,5% (1.200 Mbyte) è utile, perché codificante o comunque composto di geni e sequenze correlate. Quale sottostruttura della “quota utile” è dedicata alle funzioni astratte della mente? Lo “Chimpanzee Genome Project” ha tra i suoi scopi la comparazione tra i genomi degli umani e quelli delle scimmie, per comprendere che cosa distingue i primi. Non è ancora stata eseguita l’intera scansione del DNA dello scimpanzé, ma con riferimento ai campioni finora esaminati (33,3 megabasi del cromosoma 22), la distanza in termini d’istruzioni emersa tra uomo e scimmia è l’1,44%. Assumendo che tale percentuale sia omogeneamente distribuita in tutto il genoma e, soprattutto – secondo una delle assunzioni fondamentali del neodarwinismo – che tutte le differenze tra le specie siano riducibili al DNA, se ne deduce che la “caratteristica” genetica umana sta in 17 Mbyte.

Facciamo ora l’assunzione che la mutazione che porta all’effetto Ramanujan sia dovuta all’apparire casuale di una specifica proteina che regola la crescita e/o la connessione di particolari strutture neurali. Una proteina media ha la lunghezza di 300 amminoacidi ed ogni amminoacido è codificato da 3 basi: dunque, il nostro gene richiede una stringa di 900 bit (abbiamo prudentemente dimezzato i 1.800 bit canonici, tenuto conto che il codice genetico è degenerato, alcune mutazioni sono silenti e molte posizioni lungo la sequenza portano alla stessa struttura 3D). Questo equivale ad assegnare alle funzioni più astratte della mente un peso dello 0,005% sulla caratteristica genetica umana, che sarebbe giudicato forse troppo basso da Aristotele che ripartiva le funzioni vitali in 3 componenti: la vegetativa, la sensitiva e l’intellettiva. Se si deve “soltanto” al caso senza l’azione di una legge selettiva la formazione di questa sottostruttura del genoma, a priori il numero di stringhe è 2900 ≈ 10271, che ripartito in centinaia di migliaia di anni tra decine di migliaia di generazioni di una popolazione totale dell’ordine di alcuni miliardi d’individui (~ 1010) fornisce il valore P ~ 10-261 ≈ 0. Se invece assumiamo l’arco di tempo a partire dall’abiogenesi (~ 3,5 × 109 anni), con l’enzima apparso da subito e rimasto quiescente fino ad oggi in tutti gli organismi derivati dal primo, otteniamo un limite superiore  P < 10-221 ≈ 0, tenuto conto che gli atomi della Terra sono dell’ordine di 1050.

Un’altra stima, del tutto indipendente, si può ottenere supponendo che una prima forma del nostro enzima (lunga magari solo un centinaio di amminoacidi) sia apparsa per caso fin dalla nascita della vita – nel cosiddetto “brodo primordiale” – e sia stata poi in qualche modo codificata nel DNA, rimanendo sepolta in sezioni neutre del pool genico complessivo della biosfera fino alla comparsa del primo H. Sapiens Sapiens. Sotto questa ipotesi, possiamo avvalerci del metodo di calcolo delle probabilità messo a punto da E. Koonin e presentato qui qualche tempo fa. Questa volta, nelle ipotesi di Koonin (1021 pianeti adatti a ospitare la vita, un tasso di sintesi di 1 molecola/cm3×sec per un tempo di 10 miliardi di anni), la probabilità della comparsa spontanea di tale proteina da qualche parte nell’Universo, in tutto il tempo trascorso dal Big Bang, risulta dell’ordine di 10‑119. Per un’ulteriore comparazione, può essere utile il calcolo della probabilità di autocomposizione casuale di un organismo monocellulare, che il fisico inglese F. Hoyle eseguì negli anni ‘80, immaginando un modello di batterio astratto con un DNA semplificato, capace di programmare soltanto 400 proteine. Egli trovò P ≈ 10‑40.000, che è un valore compatibile con quello da noi calcolato per una sola proteina, anziché 400. Un valore analogo è stato ottenuto anche dal chimico e genetista americano R. Shapiro nel 1986 per un batterio di 2.000 proteine.

In conclusione, tutti i valori trovati risultano inferiori alla cosiddetta soglia di impossibilità assoluta di 10-100, introdotta dal matematico francese G. Salet. Detto in altri termini, l’effetto Ramanujan, e più in generale la comparsa di una singola proteina, è da considerarsi un evento impossibile, se inquadrato esclusivamente nell’ambito del neodarwinismo. Fu lo stesso F.H. Compton Crick, scopritore insieme a J.D. Watson della struttura del DNA (che valse ai due biologi il premio Nobel 1962 per la medicina), ad ammettere: «Se una particolare sequenza di aminoacidi fu selezionata a caso, quanto raro potrebbe essere un tale evento? […] La gran parte delle sequenze [necessarie al DNA] non potrà mai essere sintetizzata del tutto, in nessun tempo». Queste parole sono la traduzione genetica del dilemma di Wallace, dell’effetto Ramanujan e più in generale dell’enigma dell’origine della vita. Allorché J. Monod, parlando dell’emergenza della vita, scrisse nel suo saggio “Caso e necessità” che «il nostro numero è uscito per caso alla roulette cosmica», si espresse con una metafora adatta forse ad un libro di divulgazione, ma non con la precisione che si richiederebbe ad un saggio scientifico. Per vincere la puntata massima alla roulette, infatti, le probabilità sono 1:37; perché si combini casualmente la più semplice cellula di sole 400 proteine, invece, esse sono 1:1040.000 ≈ 1:3725.507: Monod avrebbe dovuto dire per la precisione che, non tanto “noi” umani, ma già gli organismi unicellulari a capo della catena biologica hanno vinto la puntata massima alla roulette per almeno 25 mila volte di seguito!

S.J. Gould e R. Lewontin sono stati i pionieri nella denuncia del ruolo smisurato giocato dal caso nel neodarwinismo. Chi, come R. Dawkins, si era inizialmente rifugiato nel nebuloso concetto di “cernita cumulativa”, ora ha trovato nelle infinite possibilità di replica fornite dalla metafisica del multiverso, la sua consolazione. Schiere crescenti di scienziati, tuttavia, non si rassegnano a fondare la biologia su basi così anti-sperimentali, e addirittura anti-scientifiche (perché contrarie alle leggi statistiche), solo per non toccare ideologie di moda ed interessi forti: oltre ai “revisionisti”, ci sono molti studiosi che vanno ormai oltre la cosiddetta “nuova sintesi” (fusione di genetica ed evoluzionismo darwiniano) considerandola superata: G. Dover, J. Fodor, E. Koonin, L. Kruglyak, L. Margulis, S. Newman, M. Piattelli Palmarini, C. Woese,… Se non si è disposti ad accontentarsi d’un ricorso ripetitivo alla roulette, se anzi si considera questa scappatoia la via opposta ad un’autentica ricerca scientifica, occorre pensare a qualcosa di nuovo.

Condividi su:
  • Aggiungi su Facebook
  • Aggiungi su OKNOtizie
  • Aggiungi su Twitter
  • Aggiungi su Windows Live
  • Aggiungi su MySpace

137 commenti a L’insostenibile leggerezza del neodarwinismo