Ediacara

image

Nel 1946, il geologo australiano Reginald C. Sprigg, esplorando alcune montagne dell’entroterra australiano a nord di Adelaide conosciute col nome di Ediacara Hills, scoprì un giacimento di altissima importanza paleontologica. Era un insieme di organismi marini dal corpo molle, principalmente con aspetto accomunabile alle attuali meduse oppure a particolari tipi di Artropodi, a vermi, o a forme di vita ben più strane e difficilmente catalogabili.

image

a.Ricostruzione della fauna di Ediacara b.Spriggina c.Forma simile ai Pennatulacei attuali d.Parvancorina e.Tribrachidium

La conservazione di questi fossili era avvenuta all’interno di lamine argillose alternate a durissimi strati di quarzite ricristallizzata. Degli organismi era rimasta sostanzialmente soltanto la traccia in rilievo, peraltro in certi casi ad un livello di leggibilità straordinario. La durezza della roccia aveva permesso ai resti di giungere sino ai nostri giorni nonostante l’età, che come vedremo si rivelò antichissima. Le impronte si trovavano quasi tutte sulla pagina inferiore della parte argillosa della stratificazione, come se fossero ‘appoggiate’ sugli strati più duri di quarzite. Ciononostante si riuscì ad inquadrare le principali forme dentro un contesto ben definito, e a ricostruire il loro stile di vita.

imageimageimageimage

Alcune possibili ricostruzioni dell’habitat precambriano di Ediacara

L’importanza del ritrovamento è legata principalmente alla sua antichità: si tratta di fauna risalente al Precambriano (periodo con cui viene generalmente indicata tutta quella fase della storia della terra antecedente a 530 milioni di anni fa, inizio del Cambriano).

Fino a questa scoperta le conoscenze su tale epoca geologica, almeno dal punto di vista biologico, erano limitatissime: erano stati rinvenuti degli strati di quarzite analoghi nel 1914 nell’Africa del Sud-Ovest (l’attuale Namibia), ma le impronte erano scarsamente leggibili, e la pubblicazione di tale scoperta, avvenuta in Germania nel 1930, non destò particlare interesse nella comunità scientifica di allora. L’attenzione verso tali studi si ravvivò invece nel Dopoguerra, proprio in seguito al ritrovamento della comunità di Ediacara.

Quella che di lì a breve venne denominata ‘Fauna di Ediacara’ non suscitò inizialmente un grande stupore, sia perchè tali popolamenti erano stati in principio erroneamente datati come cambriani, sia per il fatto che le poche specie inizialmente scoperte da Sprigg furono accomunate a forme di vita già conosciute. In particolare la Dickinsonia, tra i principali organismi che popolano il giacimento, venne classificata come una banale medusa. Con l’approfondimento delle ricerche, portati avanti dall’Università di Adelaide, si scoprì invece la reale importanza del ritrovamento: essa era difatti la più completa testimonianza della fauna precambriana mai giunta fino ai giorni nostri.  Si trattava di un popolamento completamente diverso da tutte le forme fossili successive, come se la natura avesse effettuato un tentativo evoluzionistico fallito, per poi dare luogo alle nuove strutture di vita cambriane, da cui si sarebbero evoluti tutti i principali phyla animali giunti fino a noi.

Si trattava di organismi marini, che presumibilmente erano trascinati dalla marea sulle spiagge dove si posavano, e venivano ricoperti di una sabbia finissima (‘da fonderia’), che andava a formare un silt. Tale strato offriva un’ottima protezione e garantiva un elevato stato di conservazione. Con la fossilizzazione, la lamina si tramutava nella parte argillosa del ritrovamento, mentre lo strato inferiore in quarzite. Ciò spiega perchè gli animali sono stati trovati tutti nella pagina inferiore della lamina argillosa. Degli animali è arrivata fino a noi soltanto l’impronta del dorso (in ‘norma dorsale’), mentre della parte ventrale non ci è giunto niente.

La Fauna di Ediacara era composta esclusivamente da organismi marini di basso fondo a corpo molle; non si sono conservati né gusci calcarei, né scheletri chitinosi, né conchiglie. Alcuni avevano strutture simili alle spicole degli attuali Poriferi, presumibilmente con l’unica funzione di sostegno del corpo e di aggancio dei muscoli, che si presume fossero quasi inesistenti. Non esistevano inoltre predatori, si trattava esclusivamente di consumatori primari, da cui la definizione di ‘Paradiso o Giardino Ediacariano’. Della grande varietà di forme si potevano comunque definire alcune categorie principali: le numerosissime meduse, di cui ne sono stati definiti almeno 6 generi e 15 specie; delle forme coralliformi a corpo molle, simili agli attuali Pennatulacei; dei vermi segmentati, dotati talvolta di robusti scudi cefalici; degli strani organismi a simmetria bilaterale, assomiglianti a vermi; altre forme non accomunabili a nessun altro organismo.

Tra le forme assomiglianti alle meduse alcune erano probabilmente delle colonie (come l’attuale caravella portoghese), ma la maggior parte erano presumibilmente organismi singoli; avevano forme per lo più circolari, presentavano ripiegature o estroflessioni, e molto probabilmente non avevano tentacoli (sebbene dalla norma dorsale ben difficilmente si sarebbero potuti scorgere). Tra gli animali simili ai Pennatulacei la struttura generale del corpo era più o meno simile: presentavano alla base un disco circolare che permetteva loro l’aggancio al fondale marino, poi un asse centrale (rachide), da cui dipartivano numerose branchiole con un angolo fisso di inclinazione.

L’unica sensibile differenza rispetto ai Pennatulacei attuali è che, mentre in questi ultimi le branchiole sono connesse tra loro, negli organismi di Ediacara queste erano separate. Questo è uno degli elementi che ha fatto supporre che il moto ondoso nei periodi in cui si sviluppò la comunità fosse estremamente blando. Sono stati trovati organismi estremamente simili in un’altra comunità fossile precambriana rinvenuta in Russia (la celebre Fauna del Vendiano).

Tra le forme vermiformi, la più celebre è sicuramente la Dickinsonia; considerata inizialmente una medusa, venne poi classificata come un verme segmentato, con una struttura relativamente simile agli Anellidi. Presentava una pieghettatura costante lungo il corpo e un rachide centrale, non si sa però se tale struttura possa essere accomunabile alla metameria (suddivisione del corpo in segmenti) tipica degli Artropodi. Non sono stati trovati né occhi né bocca, ma presumibilmente questi si trovavano sulla pagina inferiore del corpo.

image image

Dickinsonia

Un altro organismo vermiforme di questa fauna era la Spriggina, che presentava piccole dimensioni (4-5 cm), e una struttura del corpo molto particolare. L’elemento più evidente era uno scudo cefalico a forma di ferro di cavallo, mentre il corpo era diviso in circa 80 segmenti, ciascuno dei quali terminava con un’estremità aguzza. E’ stato trovato in diverse posizioni, ma sempre in norma dorsale. Ciò ha fatto supporre che tale animale avesse una notevole mobilità sul fondo, ed è stato accomunato anche per questo a diverse forme di Artropodi, in particolare ai Trilobiti, soprattutto pr la struttura corporea. L’ipotesi che si trattasse di un antenato di tali organismi è stata però accantonata col ritrovamento di forme particolarmente antiche degli stessi Trilobiti, con caratteristiche morfologiche completamente differenti. In tal caso si è trattato presumibilmente di una convergenza adattativa.

imageimage

Spriggina

Tra gli animali attuali è stata trovata una forma particolarmente simile alla Dickinsonia, lo Sfinter, che vive sulle spugne di cui si nutre, così come presumibilmente faceva la stessa Dickinsonia, che potrebbe effettivamente essere un suo antenato; allo stesso modo il polichete Tomopteris sembra assomigliare notevolmente alla Spriggina, sebbene presumibilmente si tratti solamente di convergenza morfologica.

image

Tomopteris

Tra gli altri organismi, non accomunabili a nessuna particolare forma attuale, risalta il Precambridium, di forma ovoidale e dotato di strane estroflessioni, ritenute branchie o parti dell’intestino, che assomiglia unicamente alla Vendia, un altro organismo precambriano proveniente dalla Fauna del Vendiano; la Parvancorina, di dimensioni estremamente ridotte (pochi mm) con corpo a forma di scudo con piccole pieghettature dorsali interpretate come branchie, anch’essa non rassomigliante a nessun organismo attuale; il Tribrachidium, di dimensioni estremamente ridotte, forma circolare, che presentava una parte centrale rialzata da cui si dipartivano tre braccia con andamento flessuoso, con pieghettature estremamente fini sulla parte più esterna. Non si è tuttora stabilito se la parte centrale fosse introflessa (bocca) o estroflessa (sostegno alle braccia).

È stata notata una notevole rassomiglianza con un echinoderma del Mesozoico, sebbene in questo caso si trattasse di un animale a corpo molle. Oltretutto sulle braccia sono state notate delle estroflessioni che potrebbero essere accomunate ai ‘pedicelli ambulacrali’, utilizzati per nutrizione e movimento, tipici proprio degli Echinodermi, sebbene non può essere esclusa l’ipotesi di convergenza morfologica.

image image image image

Tribrachidium

La datazione al Carbonio 14 ha indicato che tale comunità risale a 640 milioni di anni fa. Su Ediacara sono state fatte molte ipotesi, e si sono formate due scuole di pensiero predominanti: la scuola ‘Australiana’, guidata dall’australiano Glaesner e dal russo Fedorkin, che afferma che la Fauna di Ediacara è composta da antenati dei phyla marini attuali, contrapposta a quella ‘Europea’, guidata dal tedesco Seilacher, secondo cui tali organismi non avrebbero avuto alcuna interazione con le successive forme cambriane, né possono essere inserite in nessun phylum, da cui il termine ‘Vendozoa‘ per raggruppare questo insieme di organismi. Tale gruppo animale sarebbe stato costituito da forme prive di grandi organi interni, con un celoma (cavità) centrale diviso in cellette, in cui avvenivano tutti i processi metabolici; si sarebbe trattato, in sostanza, di un tentativo evolutivo operato della natura, risoltosi in un fallimento con l’estinzione di tutti i suoi rappresentanti.

Entrambe le teorie possono essere parzialmente appoggiate in base all’osservazione dei fossili, dato che effettivamente qualcuno di questi animali può essere associato ad alcune forme attuali (ad esempio quelli dotati di spicole potrebbero essere progenitori dei Poriferi), ma d’altra parte non sono effettivamente stati osservati organi interni, e le pieghe presenti su molti individui fanno pensare ad un incremento della superficie del corpo, caratteristica tipica degli animali che si nutrono per assorbimento. Il dibattito prosegue, e il mistero sulla straordinaria Fauna di Ediacara resta, così come d’altronde è immutabile la meraviglia nell’osservare quelle che, almeno finora, sono le più antiche forme di organismi fossili mai ritrovate.

image

L’estinzione dei Dinosauri – L’ipotesi impatto extraterrestre

image

Il tramonto dei Dinosauri, opera di Julian Baum

L’evento cataclismico che condusse all’estinzione di massa della fine del Cretaceo, all’incirca 65 milioni di anni fa, lasciò via libera al successo evolutivo dei Mammiferi sul pianeta a discapito di quelli che al tempo erano i dominatori della Terra, i Dinosauri. Le sue origini sono però ancora fonte di accesi dibattiti presso la comunità scientifica. Questo perché i dati risalenti all’epoca sono ovviamente frammentari, sia per quanto riguarda le scarse testimonianze fossili sia per la difficoltà di interpretazione degli strati geologici risalenti al periodo in cui tale estinzione è avvenuta.

Ciononostante, le principali linee seguite dalla ricerca optano verso le due uniche possibilità ritenute effettivamente credibili, ovvero l’impatto di un corpo extraterrestre (una cometa o un asteroide), o una lunga serie di violente eruzioni vulcaniche. In entrambi i casi, tali eventi avrebbero portato profonde e radicali modificazioni climatiche e ambientali sul pianeta, in tempi troppo brevi per permettere agli animali più sfavoriti da queste di riadattarsi almeno ad un livello che garantisse la sopravvivenza delle specie.

Tali modificazioni avrebbero presumibilmente causato un lungo oscuramento della luce solare su tutto il globo, al punto da bloccare la fotosintesi e mettere in crisi l’intera catena alimentare, oltre a creare un lungo ‘inverno nucleare’ con forti abbassamenti delle temperature, e un successivo periodo di forte riscaldamento in cui, a causa degli effetti di tale evento, la concentrazione di anidride carbonica nell’atmosfera si sarebbe notevolmente innalzata, causando un effetto serra su scala globale. Gli organismi pertanto sopravvissuti al primo periodo freddo avrebbero poi dovuto affrontare un lungo intervallo di tempo con temperature eccezionali su tutto il pianeta.

In aggiunta alle modificazioni termiche, l’aumento di CO2 nell’atmosfera avrebbe causato piogge acide diffuse, e questo spiegherebbe la successiva scomparsa di numerosi gruppi tassonomici marini come ad esempio le Ammoniti, i cui gusci carbonatici erano solubili nelle acque acide. Non si esclude inoltre la diffusione su scala globale di vasti incendi che avrebbero causato la distruzione di circa metà delle foreste presenti sul globo: una notevole presenza di fuliggine negli strati geologici dell’epoca potrebbe confermare tale ipotesi. Questa sarebbe stata causata della ricaduta di lapilli nel caso di lunghe eruzioni, o di frammenti incandescenti nel caso di un impatto meteoritico.

In poche parole, una catastrofe su scala globale, che avrebbe favorito soltanto le specie in grado di adattarsi in tempi sufficientemente brevi e di sopravvivere a condizioni ambientali estreme: ciò andrebbe oltretutto a supporto della teoria degli equilibri puntiformi di Stephen Jay Gould e Niles Eldredge, secondo cui la storia dell’evoluzione della vita sulla Terra non avrebbe sempre premiato le specie più adattate, ma quelle più capaci di resistere a quegli eventi cataclismici che hanno portato alle estinzioni di massa: per molti versi, le più fortunate.

Nei primi anni ‘80 Walter Alvarez insieme a suo padre Luis per primo portò agli occhi della comunità scientifica l’ipotesi dell’impatto extraterrestre, e lo fece adducendo una lunga lista di dati scientifici a favore alla sua teoria: per prima cosa, studiando lo strato geologico KT (da Kreide, Cretaceo in tedesco e Terziario, l’epoca geologica successiva), ossia quello interessato dagli eventi immediatamente precedenti e immediatamente successivi all’evento catastrofico, venne scoperta, in ogni parte del mondo in cui tale strato venne studiato, un’anomala abbondanza dell’elemento Iridio, componente estremamente raro sulla crosta terrestre, in concentrazioni e rapporti con gli altri elementi presenti molto simili a quelli rinvenuti sulle meteoriti litoidi risalenti a quell’epoca geologica.

Uno dei siti di ricerca più importanti a livello mondiale riguardante queste ricerche è situato a Gubbio, in Italia, dove uno strato argilloso di circa 2 cm di spessore delimita chiaramente il KT, differenziandosi completamente, anche dal punto visivo, dagli strati calcarei soprastanti e sottostanti. La caduta di un meteorite, di circa 10 km di diametro e alla velocità stimata di 10 Km/sec, avrebbe causato la formazione di un cratere di circa 150 Km di diametro, e l’impatto avrebbe riversato nell’atmosfera tali quantità di materiale proveniente dal corpo extraterrestre da permetterne una sua diffusione negli strati alti dell’atmosfera, e una ricaduta di questo sotto forma di precipitazioni su tutto il globo.

Altra prova a favore di questa ipotesi è la presenza, negli strati geologici interessati dall’evento, di granuli di quarzo con deformazioni laminari dovute a shock da ipervelocità; questi tipi di strutture sono reperibili solo in siti di esplosioni nucleari, o in prossimità di crateri da impatto meteorico, e possono essere ricreate in laboratorio sottoponendo granuli di quarzo della crosta terrestre a fortissime pressioni e temperature.

image

Granulo di quarzo con deformazioni laminari dovute a shock da ipervelocità

La prova schiacciante, definitiva a favore di tale teoria sarebbe però il rinvenimento del cratere da impatto che avrebbe causato la catastrofica estinzione, e questo non è mai stato trovato, pur ricercandolo su ogni parte del globo. Un’area della penisola dello Yucatan in Messico alcuni anni orsono è stata indicata come uno dei possibili luoghi dell’impatto, ma le testimonianze fossili non hanno mai confermato tale ipotesi. Non va però esclusa la cancellazione del cratere in seguito all’erosione superficiale di 65 milioni di anni, o alla sua scomparsa, sprofondato con quel 25% della crosta terrestre presente alla fine del Cretaceo che è stato ‘inghiottito’ per subduzione.

Non è stata esclusa, soprattutto negli ultimi anni, la possibilità di un impatto multiplo di più corpi, o addirittura una pioggia meteorica. In effetti sono presenti sulla superficie terrestre alcuni crateri doppi, dovuti pertanto a impatti multipli. Inoltre il corpo centrale di una cometa avrebbe potuto disgregarsi in più parti per l’attrito con l’atmosfera terrestre, essendo composto in gran parte di ghiaccio.

E’ interessante anche la teoria secondo cui una stella compagna del Sole, denominata  Nemesis, nel suo periodo di rotazione attorno alla stella principale si ripresenterebbe in prossimità del sistema solare ogni circa 32 milioni di anni, portando ripetute piogge meteoritiche di proporzioni catastrofiche e conseguenti estinzioni di massa. Le prove fossili sembrano dare supporto a tale teoria, sebbene la stella stessa non sia mai stata rinvenuta dagli astronomi.

L’intervallo di tempo entro cui questa tragedia si sarebbe compiuta è uno dei principali pomi della discordia: la teoria dell’impatto supporrebbe un tempo relativamente breve (di circa 1000 anni) in cui l’estinzione di massa avrebbe avuto luogo – e parte delle testimonianze fossili sembrano confermare tale possibilità – mentre per la teoria di un vulcanismo diffuso i tempi in cui le modificazioni ambientali avrebbero portato alla scomparsa di Dinosauri, Ammoniti e compagni di sventura sarebbero ben più lunghi, nell’ordine del mezzo milione di anni.

Entrambe le parti sono tuttora impegnate nella ricerca di prove inconfutabili a sostegno della propria teoria, e la durata del periodo di tempo interessato dall’estinzione di massa è ancora oggi uno dei punti focali del dibattito. Nei primi anni ‘80, periodo in cui le tensioni USA-URSS erano ancora marcate e gli Stati Uniti avevano in progetto di realizzazione uno ‘scudo spaziale’ di protezione da eventuali attacchi d’oltre cortina, la nuova ipotesi dell’impatto extraterrestre ebbe un grande successo tra il pubblico e la stampa come ulteriore supporto a tale progetto di difesa (non si sa bene su quali basi), e i finanziamenti per la ricerca aumentarono, così come l’impegno degli scienziati nella ricerca di una prova definitiva a supporto di questa ipotesi.

La teoria dell’impatto extraterrestre rimane tuttora l’ipotesi più diffusa e più conosciuta, sebbene non l’unica e non necessariamente la più supportata da prove scientifiche; è curioso notare comunque che – vuoi per la sindrome da ‘Jurassic Park’, che ha sempre cercato di spettacolarizzare al massimo la ricerca nel campo, vuoi per le particolari condizioni socio-politiche in cui venne ipotizzata – essa rimanga per il grande pubblico l’unica possibile causa della scomparsa dei Dinosauri. Potenza dei media…

image

Punti del globo in cui in corrispondenza dello strato KT sono state trovate anomalie nei livelli di Iridio e granuli di quarzo deformati per ipervelocità

Le leggi di Mendel

Dagli studi di Gregor Mendel sono state tratte tre importanti leggi che stabiliscono gli elementi fondamentali della trasmissione dei caratteri ereditari, di generazione in generazione, e nell’arco di più generazioni.

image

La copertina originale dello studio sulle ibridazioni delle piante di Gregor Mendel

Queste leggi si basano sui principi fondamentali della teoria cromosomica dell’eredità, che ci fornisce dati indispensabili per poter capire appieno i meccanismi che regolano la trasmissione ereditaria. Le coppie di caratteri allelomorfi (con più varianti) sono determinate da fattori specifici, definiti geni. I caratteri che si rendono evidenti costituiscono il fenotipo, mentre i geni, la cui azione talora si rende evidente e talora no, costituiscono il genotipo.

Al carattere dominante corrisponde un gene che si indica con la lettera maiuscola, ad esempio A, al carattere recessivo un gene che si indica con la lettera minuscola, ad esempio a. Altre coppie di caratteri e geni si indicano con altre lettere dell’alfabeto (B, b, C, c, etc..). Ciascun gene è situato in una determinata area del cromosoma denominata locus (plurale loci), i geni di una coppia di caratteri allelomorfi, definiti alleli, sono situati su cromosomi omologhi in loci corrispondenti. Ciascun individuo, a partire dallo zigote, possiede un corredo cromosomico diploide (duplice), che deriva da fusione di gameti aploidi dei genitori, e quindi coppie di cromosomi omologhi e di alleli per ciascuna coppia di caratteri. Si potranno avere individui omozigoti se presenteranno due alleli uguali (AA o aa), eterozigoti se differenti (Aa).

Tali alleli si separeranno con la meiosi, il processo che dà origine alle cellule riproduttive, i gameti, di natura aploide, e conseguentemente con soltanto la metà del patrimonio genetico del genitore e soltanto uno dei suoi alleli. Con la fecondazione l’individuo diploide che si formerà (zigote) avrà in eredità un allele di origine materna e uno di origine paterna. Da queste semplici ma fondamentali definizioni si possono comprendere appieno le leggi descritte di seguito.

La prima legge, della dominanza, dice che dall’incrocio fra individui di razza pura (parenti), che differiscono per una coppia di caratteri allelomorfi, derivano figli che manifestano uno solo dei caratteri della coppia.

In pratica, se i genitori presentano un carattere dominante l’uno, recessivo l’altro, in prima generazione tutti i loro discendenti mostrano solamente il carattere dominante. Tale legge non ha però valore assoluto per tutti i caratteri fenotipici: in alcuni casi in prima generazione compare un carattere intermedio tra quello dei due genitori, in questo caso si parla di dominanza incompleta. Alcuni autori considerano questa una regola a sé stante, e la definiscono come legge della uniformità degli ibridi di prima generazione.

Un tipico esempio è dato dall’incrocio fra topi omozigoti a pelo grigio (AA) e bianco (aa), in cui quest’ultimo è un carattere recessivo e pertanto non si esprime negli ibridi di prima generazione, mentre l’unico carattere ad esprimersi è il pelo grigio, e viene pertanto definito dominante.

AA x aa —> Aa

image

La legge della dominanza di Mendel.

La seconda legge, detta della disgiunzione o segregazione, è la legge fondamentale della genetica. Essa recita: i caratteri allelomorfi riunitisi negli individui di prima generazione si distinguono nella seconda generazione e nelle generazioni successive.

Questo viene espresso nel fenotipo quando si incrociano tra loro ibridi di prima generazione in cui era scomparso il carattere recessivo dei genitori. Se incrociamo i topi grigi della prima generazione ottenuti dall’incrocio tra grigi e bianchi, ricompare nella seconda generazione il carattere recessivo bianco, per un quarto degli individui totali che compongono la generazione.

Aa x Aa —> 1/4 AA + 2/4 Aa +1/4 aa

AA + Aa = Grigi

aa = Bianchi

image

La legge della disgiunzione di Mendel.

La terza legge, dell’indipendenza, afferma che le varie copie di caratteri allelomorfi si comportano negli incroci indipendentemente le une e dalle altre.

In questo caso vanno considerati gli incroci tra individui omozigoti per una coppia di caratteri indipendenti (non presenti nello stesso locus genico, e comunque che non sono in alcun modo legati tra loro). Gli ibridi di prima generazione seguiranno le leggi sopra indicate indipendentemente per ciascun carattere. Un tipico esempio sono le cavie, per i caratteri del tipo di pelo (arruffato dominante A, liscio recessivo a) e del suo colore (scuro dominante B, bianco recessivo b). In prima generazione tutti gli ibridi presenteranno solamente i caratteri dominanti se figli di genitori omozigoti dominanti eccessivi:

AABB x aabb —> AaBb

Tutti scuri e arruffati.

In seconda generazione tutti gli ibridi presenteranno proporzioni di 1 a 4 per entrambi i caratteri, indipendentemente gli uni dagli altri: ci saranno tre quarti di cavie con pelo arruffato, e tre quarti di cavie con pelo scuro. Nella totalità di rapporti saranno di 9:3:3:1, in cui si presenteranno 9/16 di individui con entrambi i caratteri dominanti, 3/16 di individui con un carattere dominante e uno recessivo, 3/16 in cui tali caratteri saranno invertiti, e 1/16 in cui saranno presenti entrambi i caratteri recessivi.

image

Schema di incrocio tra cavie omozigote dominanti a pelo scuro e arruffato AABB con cavie omozigote recessive a pelo liscio e chiaro aabb; nella prima generazione F1, come indica la prima legge di Mendel, si manifestano solo i caratteri dominanti; nella seconda generazione F2, come affermato dalla seconda legge, ricompaiono i caratteri recessivi che non si erano manifestati nella prima, e ciascuno indipendentemente in rapporto di 1:4 come indicato dalla terza legge di Mendel.

PHYSIX ‘N‘ ROLL – ascoltaRE LA fiSIca

Un viaggio attraverso il mondo delle note, dei suoni, della musica in compagnia della scienza

image

Un’ampia branca della fisica prende il nome di ‘Acustica’ e studia tutti i fenomeni legati al mondo dei suoni. L’idea di questa mostra è di portare al pubblico una parte delle conoscenze di questo immenso campo di studi grazie al linguaggio universale della musica. Non è nostra intenzione né obiettivo cercare di toccare tutti gli argomenti fondamentali di due tematiche così ampie e complesse, ma di rivelare al pubblico che in realtà i punti in comune tra scienza e musica non sono pochi, e che con l’utilizzo di semplici esperimenti e strumenti, e soprattutto con la nostra curiosità, possiamo scoprire alcuni affascinanti segreti del mondo dei suoni e delle sette note.

Andiamo per ordine: la scienza ci insegna che quando parliamo di “suono” ci riferiamo a un fenomeno percepito dal senso dell’udito e tramutato da esso in impulsi codificati dal nostro cervello; tale fenomeno dipende da un’unica grandezza: la pressione che l’aria esercita sul timpano del nostro orecchio. Un segnale acustico è difatti generato dalle oscillazioni di un corpo elastico che agiscono sulle molecole del mezzo circostante e le fanno comprimere e dilatarsi ripetutamente, generando in tal modo delle onde sonore. Tale fenomeno viene generato dalla trasmissione del movimento da una molecola a quelle vicine; la trasmissione avviene nello spazio, fino a giungere alla membrana del nostro timpano, dove giungono oscillazioni generalmente simili a quelle originarie.

Il suono è dunque un fenomeno ondulatorio, come la luce o le onde elettromagnetiche. Le onde sonore hanno alcune caratteristiche specifiche che è bene tenere presente: innanzitutto sono longitudinali, il che significa che le oscillazioni che le generano si muovono nella stessa direzione della propagazione; avvengono senza trasporto di materia, ma solo con la trasmissione del movimento di oscillazione tra molecole circostanti; sono sferiche, ovvero si diffondono nello spazio in tutte le direzioni; infine, ed è un elemento estremamente importante, si diffondono in tutti i mezzi possibili, ma non nel vuoto assoluto, a causa dell’assenza di materia.

La velocità di propagazione del suono dipende dal mezzo in cui si diffonde; in linea generale più questo è compatto, e quindi più compresse sono le molecole che lo compongono, più rapido è il segnale. Questo è il motivo fondamentale per cui la velocità di propagazione del suono nell’aria (340 m/s) è tra le più basse, se paragonata ad altri mezzi di trasmissione comuni come l’acqua (1500 m/s) o l’acciaio (5200 m/s). Se utilizziamo un’asta di legno appoggiata da un lato a una vecchia sveglia, dall’altra al nostro orecchio, con questa sentiremo il suono dell’orologio molto più chiaramente: questo perché il legno trasmette il suono con molta più nitidezza e minor dispersione dell’aria. Anche il nostro senso dell’udito utilizza per la trasmissione e decodificazione dei suoni tre ossicini posti in sequenza: incudine, martelletto e staffa. In ogni caso, la propagazione del suono avviene senza spostamento di materia.

Un semplicissimo esperimento può verificare la natura ondulatoria del suono: un imbuto collegato dal beccuccio a un tubo di gomma, e alla cui estremità larga è stato fissato un foglio di carta con una manciata di sale sulla superficie, che vibrerà se si emettono suoni cantando o parlando (senza soffiare) dal tubo. In questo caso è il suono stesso che fa muovere i granelli. Anche la vibrazione (generalmente non visibile) di un diapason ci conferma tale natura: se lo mettiamo in contatto con una pallina appesa questa rimbalzerà lontano dal diapason in vibrazione, e mettendolo dentro una vaschetta piena d’acqua, questa schizzerà via con forza.

image

Un altro esperimento richiede sempre l’utilizzo di un diapason, con uno dei rebbi (le braccia vibranti) saldato, posto in vibrazione e fatto scorrere su un vetrino affumicato: questo lascia una traccia che ha una forma chiaramente riconducibile al grafico di un’onda.

imageimage

L’emissione sonora dipende anche dal mezzo che la origina: in linea generale, più è compatto, o breve se di forma allungata, più frequenti saranno le onde e quindi le loro frequenze, e di conseguenza più alto il suono. Lo possiamo verificare ‘suonando’ i calici di vetro riempiti d’acqua a diverse altezze, oppure facendo vibrare aste metalliche di differente lunghezza.

La propagazione del suono offre vari spunti di sperimentazione: convogliando opportunamente le onde è possibile creare esperienze originali: una di queste sono le ‘parabole acustiche’: posizionando due ombrelli aperti, uno verso l’altro, a una distanza di alcuni metri, è possibile sentire distintamente il suono emesso da una radiolina posta all’interno di uno dei due ascoltando all’interno del secondo ombrello.

image

Anche i due classici bicchieri collegati da uno spago possono permettere una trasmissione sonora sufficientemente chiara, pur utilizzando un mezzo di trasmissione molto piccolo e limitato.

Modificando l’ambiente di propagazione anche il suono può cambiare: se emettiamo una nota cantando costantemente e nello stesso tempo muoviamo la mandibola, ci accorgeremo che il suono cambia leggermente. Su un principio simile si basa l’effetto ‘talkbox’, lanciato negli anni ’70 dal cantautore americano Peter Frampton, che permette di far ‘parlare’ la chitarra e le tastiere, amplificando il loro suono all’interno di un tubo che convoglia il suono dentro la bocca, la quale poi lo modula con i suoi movimenti. Il suono risultante è una via di mezzo tra lo strumento originario e la voce umana. Su un modello simile si basa il suono dello scacciapensieri, il quale utilizza la cavità della bocca sia come cassa di risonanza che come strumento di modulazione delle note. La curiosità principale circa questo strumento, oltre al fatto di essere apparso in forme similari in varie parti del mondo grazie alla sua facilità di creazione (è noto come Jew’s harp o gewgaw in Inghilterra, marranzanu in Sicilia, trunfa in Sardegna, munnharpe nei paesi nordici, e ne esistono versioni similari in India, nel Tibet, in Giappone, in Siberia e in altre zone ancora), è il fatto di essere un idiofono, ovvero uno strumento il cui suono viene prodotto dalla sua stessa vibrazione, senza corde o membrane. Altri esempi di strumenti idiofoni sono le maracas, le nacchere, lo xilofono, la marimba.

I suoni ‘riflessi’ dalle superfici generano invece l’eco, fenomeno percepibile dall’uomo alla distanza minima di 17 metri dagli ostacoli che lo riflettono: il motivo è dato dal tempo di propagazione del suono stesso nell’aria (340 m/s), la distanza percorsa (34 m minimi) e la sensibilità dell’orecchio umano, che non distingue due suoni differenti per intervalli inferiori a 0,1 secondi (quindi il tempo necessario per percorrere 34 m).

La posizione relativa dell’ascoltatore rispetto alla sorgente sonora, data la caratteristica propagazione longitudinale del suono, modifica leggermente il timbro risultante: un suono emesso da un oggetto in avvicinamento risulta più acuto dell’originale, in allontanamento più grave. Il tipico esempio è dato dal passaggio delle sirene delle macchine della polizia o dei pompieri. Questo è il celebre effetto Doppler, che prende il nome dallo scienziato tedesco che lo studiò per primo.

Ci tocca a questo punto affrontare il punto più ‘fisico’ dell’intero argomento: le caratteristiche delle onde sonore. Ne abbiamo due fondamentali: la frequenza (ovvero il numero di singole onde ripetute per unità di tempo, misurato in Hertz), e l’ampiezza, ovvero il valore massimo rispetto allo zero raggiunto dalla cresta della singola onda (misurato generalmente in decibel). Beninteso, ci occupiamo in questo caso di onde periodiche, ovvero emesse con frequenza e ampiezza regolare, e non di aperiodiche, che sostanzialmente generano rumore e non una tonalità ben definita.

imageimage

A queste due grandezze fisiche ne possiamo affiancare un’altra che non può essere quantificata con unità di misura, ma identifica la forma dell’onda, è riconoscibile visivamente e varia da strumento a strumento: questa caratteristica prende il nome di timbro. Strumenti differenti che emettono la stessa nota alla stessa intensità hanno in ogni caso timbri diversi.

image

Possiamo studiare tutte queste caratteristiche con semplici esperimenti: un particolare effetto (generalmente usato su chitarra o tastiere, ma non solo), è il “pitch shifter”, che sostanzialmente cambia la frequenza del suono originale, abbassando o alzando la sua tonalità di intervalli definiti. Questo può produrre effetti particolarmente divertenti se applicati alla voce umana. Una curiosità: notoriamente inalando dell’elio la voce umana diventa più acuta per alcuni secondi. Ciò non è dovuto a una temporanea modificazione delle corde vocali (l’elio è un gas inerte), ma al cambiamento di densità del mezzo in cui sono immerse (da aria a elio), con conseguente cambiamento della loro frequenza di vibrazione. Per cambiare invece l’ampiezza dell’onda sonora, e quindi il volume, non occorre un megafono elettronico, ma la sua forma ci suggerisce che la propagazione del suono all’interno di un imbuto riesce ad aumentare l’ampiezza dell’onda risultante che esce dalla imboccatura più ampia.

Per quanto riguarda il timbro, basta suonare la stessa nota o accordo su due strumenti diversi per rendersi conto che questo varia a seconda dell’oggetto che la genera. Anche la voce può essere modificata parlando in un microfono coperto da un foglio di carta velina: si tratta di un semplice fenomeno di distorsione, e lo stesso principio avviene nella chitarra elettrica, dove un suono meno cristallino e definito genera note più potenti e aggressive, pur se sulla stessa tonalità.

Un esempio di distorsione della voce umana viene fornita dal kazoo, che non è uno strumento a fiato (bisogna parlarci dentro e non soffiare), ma un membranofono (strumento a membrana), in cui la voce dell’esecutore sollecita una piccola membrana tesa che vibrando aggiunge frequenze di disturbo a quelle originarie, generando un suono della voce modificato. La famiglia di membranofoni a cui appartiene il kazoo prende il nome di mirliton, l’altra grande categoria in cui questi strumenti sono classificati è quella dei tamburi, nei quali la membrana viene percossa con differenti oggetti.

La sovrapposizione di due o più suoni ne genera un terzo, definito risultante, che è dato dalla somma o sottrazione dei suoni che lo generano, in base alle loro ampiezze nei singoli momenti. Per onde di uguale frequenza si possono avere interferenze costruttive se il suono risultante ha ampiezza maggiore (dato dalle somme delle onde originarie) o distruttive (se dato dalla differenza tra le loro ampiezze). Nel primo caso l’ampiezza risultante è maggiore delle originarie, nel secondo è minore.

image

Un oggetto che vibra può emettere un suono, ma si può anche verificare l’esatto opposto: un segnale sonoro può far vibrare un oggetto nelle vicinanze. Tale fenomeno è detto risonanza, e si può verificare ponendo a contatto un diapason in vibrazione con la cassa armonica (che ha esattamente la funzione di amplificare e rafforzare il suono) di un violino o di una chitarra, o anche avvicinando a esso un altro diapason non vibrante.

Un tipo di interferenza particolare si verifica nel caso di interazione tra onde aventi identica ampiezza e frequenza appena differente. La risultante in tal caso presenta frequenza costante, e intensità che varia nel tempo. Il segnale sonoro che ne risulta ha continue variazioni di volume, definite battimenti.

image

Accordando una chitarra si può verificare l’effetto suonando la corda da regolare insieme a un’altra già accordata.

Quando la tonalità corretta è raggiunta, i battimenti spariscono. Sullo stesso principio si basa lo strumento ‘scientifico’ per eccellenza, ovvero il Theremin, il quale, tramite l’utilizzo di segnali provenienti da due oscillatori elettronici miscelati correttamente dal movimento delle mani nell’aria, genera dei battimenti nel capo dell’udibile. Non a caso questo strumento venne ideato da uno scienziato, il fisico russo Leon Theremin. Esso fu il primo strumento musicale elettronico della storia, venne difatti creato nel lontano 1920, ancor prima della chitarra elettrica o dell’organo Hammond.

image

Il theremin ha una struttura piuttosto semplice, essendo costituito da una parte centrale di dimensione variabile contenente le parti elettroniche, e da due antenne, di cui una verticale posta al lato destro dell’esecutore, e una orizzontale e di forma semicircolare al lato sinistro. Per controllare e modificare il suono l’esecutore allontana e avvicina le mani dalle due antenne, per controllare l’intonazione dal lato destro, per modificare il livello di volume dal lato sinistro. Oltre alla particolarità di essere l’unico strumento musicale al mondo che si suona senza essere toccato, il theremin possiede anche il fascino di essere particolarmente difficile da suonare, in quanto è necessario basarsi unicamente sul proprio orecchio per poter ottenere suoni di una tonalità ben definita. A livello di timbro il suono che viene prodotto, che è un’unica nota per volta (non possono essere prodotti accordi), può variare tra la voce femminile e il violino.

Il theremin ha avuto un ampio utilizzo nelle colonne sonore dei film di fantascienza, ma anche nei thriller e nelle produzioni che richiedevano ambientazioni particolarmente sinistre o misteriose. È frequentemente utilizzato dai musicisti di strada per il suo grande impatto visivo. Alcuni gruppi e artisti rock come i Led Zeppelin (in Whole lotta love), i Portishead, i Queens of the Stone Age, la Jon Spencer Blues Explosion, Serj Tankian, e gli italiani Le Vibrazioni ne hanno utilizzato differenti modelli, dal vivo o in studio. L’esempio più celebre di melodia creata col theremin è però la sigla iniziale della serie originale di Star Trek, seguita da quella dei cartoni animati di Scooby Doo. Il principio del funzionamento fu scoperto da Theremin durante alcuni esperimenti militari in cui utilizzava amplificatori a valvole: i suoni che questi generavano potevano in certi casi essere modificati muovendo le mani all’interno del campo magnetico generato dalle valvole. Il modello iniziale dello strumento era particolarmente voluminoso, ma aveva sostanzialmente le stesse caratteristiche dei modelli attuali, e prese il nome originale di eterofono (che però venne presto ribattezzato theremin per la grande popolarità riscossa negli anni dal suo inventore).

Theremin stesso era un musicista (suonava il violoncello) e presentò la sua invenzione nei circoli musicali che frequentava, dove ottenne un grande interesse. Lo stesso Lenin lo contattò poco tempo dopo per organizzare un vero e proprio tour delle capitali europee in cui presentare lo strumento, principalmente per motivi propagandistici e di immagine della Russia postrivoluzionaria. Ovunque lo strabiliante strumento venne presentato il suo successo fu enorme; a Parigi addirittura nacquero dei disordini causati da migliaia di persone che non erano riuscite ad accedere al teatro in cui aveva luogo l’esibizione.

Nel 1928 Theremin presentò il proprio strumento a New York a un ristretto gruppo di musicisti e magnati, tra cui Arturo Toscanini ed Henry Ford. Ben presto venne creata un’azienda per la costruzione e la commercializzazione dell’eterofono (ribattezzato proprio in questa occasione col nome di theremin), i cui diritti vennero poi venduti anche alla major RCA. A un enorme successo di pubblico non corrispose però un risultato commerciale di uguale livello, dati gli elevati costi dello strumento (i modelli attuali non utilizzano tecnologia a valvole ma a transistor, che li rende molto più economici), e la crisi economica di quegli anni, in seguito al crollo della borsa del 1929.

Robert Moog, tra i primi e più importanti creatori di sintetizzatori musicali, conobbe personalmente Theremin e da lui imparò i segreti per produrre lo strumento nella maniera ottimale. La Moog è tuttora la più importante casa costruttrice di theremin, e tra le poche esistenti al mondo. Sono molto diffusi anche i theremin artigianali, che sono spesso più economici (in certi casi invece delle antenne vengono utilizzate delle fotocellule), e a volte vengono venduti anche come kit ancora da assemblare.

Tra i pochi virtuosi dello strumento la più celebre è sicuramente Clara Rockmore, una musicista russa che abbandonò la sua attività di violinista per motivi di salute, e si dedicò interamente al nuovo strumento. Tra i più celebri thereministi attuali vi è sicuramente la russa Lidia Kavina, discendente dello stesso Theremin.

image

Dal punto di vista elettronico lo strumento è suddiviso in due stadi: il primo contiene due oscillatori che generano frequenze identiche nel campo degli ultrasuoni (nel modello Etherwave Standard della Moog sono nell’ordine dei 290 KHz). Uno dei due è però collegato a un condensatore connesso direttamente all’antenna destra. Muovendo la mano, che è un conduttore, all’interno del campo magnetico generato dall’antenna, è possibile modificarlo e in tal modo si cambia anche capacità del condensatore collegato all’antenna: la capacità è funzione della frequenza, che pertanto viene modificata. Abbiamo quindi due segnali simili, ma con una leggera differenza di frequenza, generati da due oscillatori, nel campo degli ultrasuoni.

Ad esempio nell’Etherwave Standard abbiamo l’oscillatore fisso che produce 290 KHz, quello collegato all’antenna che genera un ultrasuono variabile tra 287 e 290 KHz. Entrambe le frequenze non sono udibili, ma l’interferenza tra le due genera un terzo suono dato dalla loro differenza, che va a ricadere nel campo dell’udibile, nel nostro esempio tra 0 e 3 KHz (anche se tra 0 e 20 Hz si tratta di infrasuoni, e quindi non udibili). Il campo magnetico in prossimità dell’antenna genera note sempre più acute più ci si avvicina a essa. Superata una certa distanza (zona dello zero) il campo si inverte, e le note diventano più acute se invece ci si allontana dall’antenna. Il secondo stadio dello strumento converte la frequenza di battito prodotta in una tensione a essa proporzionale; modificando il campo magnetico generato dall’antenna orizzontale (anche in questo caso avvicinando o allontanando la mano) si modifica l’altezza (volume) del suono generato dal primo stadio. Con la mano posta all’interno dell’antenna il volume si azzera. Passato il secondo stadio, il suono deve essere amplificato da un sistema esterno.

I thereministi utilizzano di solito un amplificatore come monitor per sentire perfettamente le note suonate, non avendo riferimenti visivi precisi e dovendosi basare principalmente sul proprio orecchio. Con sufficiente pratica è possibile imparare le principali tecniche utilizzate per suonare strumenti più classici tipo violino o pianoforte, come lo staccato, il legato, il vibrato, il tremolo. Lo strumento offre inoltre un’ampia estensione, riuscendo a coprire circa 5 ottave (più di una chitarra). I modelli più recenti di questo strumento dispongono di potenziometri che permettono di regolare la forma dei due campi magnetici generati dalle antenne (a seconda che il musicista preferisca compiere movimenti più o meno ampi) e anche la forma delle onde generatrici, in maniera tale da modificare il timbro del suono.

Una curiosità riguardante il range delle frequenze udibili riguarda il fatto che questo può variare leggermente con l’età, in particolare per quanto riguarda toni particolarmente alti (intorno ai 20 KHz, limite degli ultrasuoni). Fino ai 18-20 anni inoltre, se si è particolarmente fortunati, si possono percepire frequenze leggermente più alte, prima che l’impianto uditivo completi il suo accrescimento e cominci a usurarsi. Un celebre caso venne fornito dai Welsh boys, due ragazzi che millantarono doti di telepatia e divennero celebri comunicando tra di loro senza emettere apparentemente alcun suono: in realtà il loro trucco risiedeva nell’utilizzo di un fischietto a ultrasuoni collegato a una pompetta e opportunamente nascosto col quale riuscivano a parlare in codice Morse, e il cui suono soltanto loro erano in grado di sentire. Di recente sono state anche commercializzate suonerie per cellulari che operano su frequenze estremamente alte, e che in teoria dovrebbero essere udite unicamente dai teenagers (Teen Buzz).

Quando invece parliamo di infrasuoni ci riferiamo invece a tutte quelle frequenze delle onde sonore comprese tra 0 e 20 Hz, quindi al di sotto della soglia di sensibilità dell’orecchio umano. Sebbene l’uomo non sia in grado di percepirle, molti altri animali non solo riescono a sentirle bene, ma le utilizzano anche per comunicare. Tra gli esempi meglio conosciuti ci sono le balene (in particolare le megattere), gli elefanti, gli ippopotami, i rinoceronti e gli okapi, ma anche animali di taglia molto più piccola, come piccioni, faraone, merluzzi, seppie, polpi, calamari e galli cedroni eurasiatici.

La particolarità delle onde sonore di frequenza bassa è di avere una lunghezza d’onda molto ampia: quelle che l’uomo riesce a distinguere meglio col proprio impianto uditivo hanno una lunghezza d’onda che varia da un massimo di un metro fino a un minimo di minuscole frazioni di centimetro. Al contrario le onde infrasonore hanno lunghezze che variano dalle decine di metri fino ai chilometri, e questo è un grande vantaggio a livello comunicativo: questo tipo di frequenze, infatti, non subisce le perturbazioni o l’attenuazione (se non in misura minore) da parte di ostacoli che invece bloccano frequenze più alte. Il motivo è che la capacità di un oggetto di riflettere un’onda sonora dipende dal rapporto tra la lunghezza d’onda e le dimensioni dell’oggetto stesso. Per questo motivo piccoli oggetti non hanno capacità di bloccare le onde infrasonore, mentre bloccano e riflettono le onde di frequenza più alta.

Anche le molecole d’aria assorbono una buona parte dei suoni ad alta frequenza, lasciando praticamente inalterati i gli infrasuoni. Inoltre, per gli stessi motivi, i suoni molto bassi possono coprire distanze notevoli: ad esempio sentiamo il rombo di un tuono, ma non sentiamo lo schianto del fulmine (a meno che non sia caduto molto vicino a noi), oppure sentiamo i suoni bassi provenienti dallo stereo di un’automobile al suo esterno, ma non gli acuti più alti (che vengono riflessi e rimangono dentro). Al di sotto dei 20 Hz comunque riusciamo a percepire qualcosa, non con il nostro apparato uditivo ma con il petto, che rivela tali vibrazioni: ad esempio le esplosioni dei fuochi d’artificio, o il contraccolpo dato da alcuni impianti di amplificazione particolarmente potenti, come ad esempio quelli utilizzati – volutamente – al cinema, per ottenere un maggior coinvolgimento degli spettatori.

Un altro vantaggio riguarda le distanze coperte da questo tipo di forme di comunicazione: generalmente, un suono parte dalla sua sorgente e si diffonde in tutte le direzioni in maniera sferica, se non viene deviato. Una forma a imbuto (ad esempio la tromba) può convogliare la diffusione del suono e migliorarla, ma in ogni caso il suo volume si attenua rapidamente, generalmente di sei decibel ogni volta che il percorso raddoppia. Gli infrasuoni invece possono propagarsi per chilometri restando pressoché invariati. Si è calcolato che gli infrasuoni generati dagli elefanti abbiano una potenza analoga a quella del tuono, e possano essere uditi dai propri conspecifici anche a 4 Km di distanza, grazie anche al fatto che ostacoli come cespugli o alberi non li perturbano minimamente. Stessa cosa per gli ippopotami, che utilizzano comunicazioni infrasonore sott’acqua lungo il corso dei fiumi, e che pare siano in grado di riconoscere distintamente a più di un chilometro di distanza; in tal caso, gli ippopotami sfruttano anche la velocità di propagazione nel mezzo liquido, quattro volte superiore rispetto all’aria, e una dispersione del suono molto minore. La musica e la creazione di un sistema di notazione fisso e funzionale ha avuto una storia lunga e travagliata, e tuttora in evoluzione. In tutte le culture del mondo però sono nate indipendentemente forme di espressione musicale simili, basate su alcuni principi fisici piuttosto semplici.

Tra i primi a studiare i rapporti fisici tra le note vi fu Pitagora, che creò uno strumento dotato di un’unica corda (monocordo) per poter studiare le relazioni fisiche tra i differenti suoni. Tale strumento è stato ribattezzato ‘chitarrina pitagorica’, e consiste in un asse di legno con una corda tesa tra un occhiello rialzato e una puntina.

image

Sulla base di legno, tra i due estremi dello strumento, c’è un metro che permette la misurazione del tratto di corda suonato. La prima semplice scoperta che venne fatta con questo strumento è che a un tratto di corda breve corrisponde un suono acuto, a un tratto lungo un suono grave; da ciò si deduce che la frequenza delle oscillazioni (e quindi l’altezza del suono) è inversamente proporzionale alla lunghezza di corda che la genera. Ciò che venne in seguito scoperto da Pitagora (e da tutte le popolazioni mondiali in tempi differenti) fu la comparsa di suoni ‘simili’ per lunghezze ben definite: ad esempio per una corda suonata a vuoto e esattamente alla sua metà, a un quarto della lunghezza, o a un ottavo, etc.

Al perfezionamento dei sistemi di notazione contribuì il monaco benedettino Guido d’Arezzo, nato ad Arezzo nel 995 e morto ad Avellino nel 1050, che per primo definì il metodo di notazione del tetragramma (dal greco tetra=quattro e gramma=segni, linee), un insieme di quattro linee su cui venivano riportate sei note: UT RE MI FA SOL LA.

I nomi di queste note derivavano da un inno composto nell’VIII secolo da Paolo Diacono, l’Inno a San Giovanni:

image

Affinché i tuoi servi, a gola spiegata, possano esaltare le tue gesta meravigliose, togli, o San Giovanni, ogni impurità dalle loro labbra.

Queste sillabe non si chiamano più neumi bensì note (Nota = appunto, annotazione). Il nome SI dato al settimo suono venne aggiunto successivamente ricavandolo dalle iniziali di Sancte Johannes. Alla fine del XVI secolo UT venne trasformato in DO (da Giovanni Battista Doni) e le note da quadrate divennero prima romboidali e infine tonde, e si aggiunse una quinta linea al tetragramma, ottenendo il definitivo pentagramma tuttora in uso. Tutti questi miglioramenti ebbero origine dal sistema ideato da Guido d’Arezzo, che pertanto si può ben definire il fondatore dalla moderna notazione musicale.

Per secoli non venne trovato un sistema di notazione fisso e affidabile che non generasse imprecisioni muovendosi lungo l’intero arco delle note. Quello che diede i risultati migliori, ed è tuttora in uso, stabilì la suddivisione della tonalità tra due suoni ‘simili’ consecutivi (detta comunemente un’ottava) in dodici intervalli equidistanti, a cui corrispondessero pertanto dodici note. Delle 12 note che compongono un’ottava 7 vengono indicate con nomi semplici, mentre le restanti 5 con il prefisso b (bemolle o flat) o # (diesis o sharp).

Nella notazione occidentale, sebbene con nomi diversi (Do, Re,Mi, Fa, Sol, La, Si nei paesi latini, A, B, C, D, E, F, G in quelli anglosassoni, dove le scale cominciano dal La (A)), le note corrispondono a valori ‘assoluti’ di frequenza in Hertz, stabiliti per convenzione.

Frequenza sonora (in Hz) e nota musicale corrispondente

262 DO

277 DO# o Reb

294 RE

311 RE# o Mib

330 MI

349 FA

370 FA# o SOLb

392 SOL

415 SOL# o Lab

440 LA

466 LA# o Sib

494 SI

524 DO

554 DO# o Reb

588 RE

622 RE# o Mib

660 MI

698 FA

740 FA# o SOLb

784 SOL

830 SOL# o Lab

880 LA

932 LA# o Sib

988 SI

1048 DO

Si può notare che il valore di frequenza di una nota alta corrisponde al doppio della nota equivalente dell’ottava precedente; inoltre, il rapporto tra due frequenze successive equivale a un valore fisso, ovvero la radice dodicesima di 2 (circa 1,059). Questo sistema venne proposto da Andreas Werckmeister nel 1691, e fu subito appoggiato da Johann Sebastian Bach, ed è tuttora il metodo di riferimento in vigore nel mondo occidentale. Dalla concezione di un insieme di 12 note assolutamente equivalenti nacque inoltre il sistema dodecafonico, un nuovo metodo di composizione musicale, introdotto da Arnold Schoenberg agli inizi del ‘900 e che rivoluzionò la musica moderna, ma questa è un’altra storia…

La dispensa completa e aggiornata è scaricabile all’URL

http://www.lucifredi.it/physix.pdf

Giorgio Celli – Ecologi e scimmie di Dio (1985)

image

Come tutta l’opera del professor Giorgio Celli, questo suo Ecologi e scimmie di Dio è un lavoro assolutamente sui generis nel campo della lettura scientifica italiana. Immaginatevi di fondere assieme l’entusiasmo narrativo di Konrad Lorenz, il rigore scientifico, seppure inserito in un contesto ‘divertito’, di Richard Feynman, la sinteticità ‘giornalistica’ di Enzo Biagi e la capacità immaginifica e colorita di un grande narratore, come ad esempio Italo Calvino, e otterrete qualcosa di molto simile a quanto prodotto in campo letterario dal professor Celli.

image

Giorgio Celli

Nello specifico di quest’opera, tra le sue più conosciute, il trait d’union che sembra unire le apparentemente disparate tematiche trattate è il voler riflettere sul futuro del nostro pianeta e su come l’Umanità stia mettendo a repentaglio il suo stesso futuro con la presunzione di poterlo modificare con la tecnologia e le sue capacità intellettive e discernitive, che, per quanto straordinarie se paragonate al resto del mondo animale, potrebbero tramutarsi in un’arma a doppio taglio. Il cervello ha inventato i nostri killer, scrive Celli nella nota introduttiva, e l’esempio non potrebbe essere più azzeccato. Il parallelismo che viene descritto è tratto dal mondo animale, e riguarda il cosiddetto fenomeno dell’ortogenesi, in cui i cambiamenti nella struttura corporea di determinati organismi portano a un immediato successo adattativo, senonché le modifiche possono essere talmente radicali e drastiche da portare in breve tempo la specie stessa all’estinzione.

È classico il caso dell’Alce d’Irlanda, in realtà una specie di cervo, il cui palco si accrebbe a dismisura fino a diventare di dimensioni sproporzionate, e, nonostante un successo adattativo immediato, l’impaccio e il peso delle corna (definite in questi casi iperteliche) divenne insostenibile, al punto da segnare la scomparsa della specie. E se il nostro cervello fosse il prodotto di una ugualmente rovinosa ortogenesi? L’interrogativo posto da Celli è tuttora aperto, a quasi vent’anni dalla pubblcazione di questo libro, che per tantissimi aspetti si è rivelato profetico. Le nostre capacità immaginative e realizzative si sono spinte fino ai limiti con velocità imprevedibile, eppure i nostri sogni sono cresciuti più in fretta della saggezza.

image

Scheletro di Alce d’Irlanda (Giganteus megaloceros), specie estintasi presumibilmente a causa del suo palco di dimensioni spropositate.

La narrazione ci riporta alla mente uno dei primi esempi di ‘ecologismo’ in letteratura, il dottor Stockmann di un’opera di Henrik Ibsen: costui è il protagonista di un autentico dramma ambientale ante litteram, in quanto, da medico delle terme, indaga su misteriosi inquinamenti delle acque che portano dolori e malesseri ai pazienti, fino a scoprire gli effetti nefasti di una conceria posta a monte del centro termale; denunciando l’accaduto, però, non assurge al ruolo di eroe, ma piuttosto di guastafeste che cerca di rovinare il successo economico dell’area, e viene accusato di truffa e fuggito da tutti.

L’inseguire ‘chimere’ tecnologiche e scientifiche è però tanto dannoso quanto accusare o ostracizzare gli scienziati mossi da buona fede: un classico esempio citato da Celli è l’incredibile successo che ottenne il celebre pesticida DDT (abbreviazione di diclorodifeniltricloroetano), sviluppato inizialmente da Zeidler e successivamente da Muller, che dai tempi della II Guerra Mondiale fino agli anni ’60 venne utilizzato in tutto il mondo come killer micidiale (in particolare sulle piantagioni di patate minacciate dalla famigerata Doriphora), ritenendolo versatile e sicuro; purtroppo, poco per volta, se ne scoprirono i suoi effetti nefasti sia sull’ambiente che sull’uomo, dall’indebolimento dei gusci delle uova di uccello e le altissime mortalità conseguenti, alla scoperta di fattori mutageni e cancerogeni, che, causa principale il cosiddetto ‘bioaccumulo’, finivano per raggiungere in quantità sempre maggiori i vari anelli della catena alimentare, uomo compreso.

In questo senso fu esempio premonitore il libro Primavera silenziosa di Rachel Carson, citato dallo stesso Celli, che ci narra anche della nascita dei primi rimedi naturali agli agenti infestanti, ovvero la cosiddetta ‘lotta biologica’, introdotta dal russo Metnikoff, che per primo debellò alcuni parassiti dei cereali utilizzando dei funghi, a loro volta parassiti naturali di questi ultimi. L’impresa ebbe talmente tanto successo che il ricercatore creò la prima vera e propria fabbrica biotecnologica, verso fine XIX secolo, per la coltura delle spore del fungo.

La narrazione di Celli ci porta poi ad alcuni fantasiosi dialoghi che il dottor Mario, tipico rappresentante del mondo occidentale, ha con alcune figure diaboliche (!) tra cui Jezabel, che lo portano in più occasioni a riflettere sul relativo benessere del pianeta su cui vive, con due terzi della popolazione sotto la soglia della povertà, un costante accumulo dell’inquinamento portato dalla produzione industriale, un’esplosione demografica difficilmente controllabile… anche in questo caso, il racconto di Celli si è dimostrato profetico.

In certi casi, ci ricorda il professore bolognese, la figura dello scienziato può scadere in ingenui entusiasmi che troppo spesso lo portano a conclusioni affrettate e approssimative, fino a donare all’intera comunità scientifica facili illusioni; un classico esempio fu la ‘scoperta’ dei ‘Raggi N’, ad opera del professor Blondot dell’Università di Nancy (da cui il nome), che ben presto si rivelarono un buco nell’acqua, una semplice interferenza su ondulazioni già conosciute: in tal caso, l’entusiasmo iniziale venne dato dal fervore scientifico del tempo, in cui venivano costantemente individuate nuove frequenze di trasmissione (Raggi X, raggi gamma e via dicendo), e l’entusiasmo della nuova scoperta fece sottovalutare l’importanza del rigore scientifico e delle controprove nella ricerca.

Altra tipica ‘chimera’ della storia della scienza furono i cosiddetti ‘Animali sapienti’, come il cane Rolf o il cavallo Hans (Clever Hans), considerati, verso la fine dell’Ottocento, in grado di compiere difficili calcoli matematici e ragionamenti complessi e di comunicarli battendo le zampe o gli zoccoli a terra, quando questi in realtà altro non facevano che cogliere impercettibili segni di assenso da parte dei loro padroni.

image

Il cavallo Hans, ritenuto in grado di compiere strabilianti calcoli matematici.

In realtà l’essere visionari è uno dei punti di forza dei grandi scienziati: ne è un celebre esempio Alfred Russel Wallace, che fu ideatore (sebbene in molti lo ignorino) quasi in contemporanea con Charles Darwin della teoria dell’origine delle specie per selezione naturale. La sua straordinaria e innata capacità immaginifica però fu in parte anche la sua disgrazia, in quanto il suo essere personaggio particolare, dal passato avventuroso e dai più disparati interessi, anche nel campo dello spiritismo e della parapsicologia, lo resero decisamente più ‘scomodo’ del suo tranquillo collega, che ottenne ben maggiore riconoscimento presso la comunità scientifica.

imageimage

Alfred Russel Wallace e Charles Darwin

Altro esempio di capacità ‘visionaria’ la ebbe lo stesso Darwin, anche se un’indole schiva e sensibile non lo aiutò, e a questo suo carattere non certo rivoluzionario Celli dedica un capitolo dell’opera, che però ci dimostra che lo scienziato inglese aveva comunque intraprendenza almeno nella sua visione diagnostica del mondo naturale: Darwin fu anche un eccellente botanico e ipotizzò che a ogni fiore corrispondesse un apposito animale impollinatore (cosa che in realtà non è sempre vera), e, qualora questo non fosse ancora stato scoperto, egli era comunque certo della sua esistenza. Un esempio venne dato da un’orchidea del Madagascar il cui nettario si trova in fondo a una lunga cavità dove nessun apparato boccale di un insetto conosciuto avrebbe potuto arrivare; i fatti diedero ragione a Darwin quando venne scoperta una farfalla notturna dotata di una spirotromba di circa 20 cm di lunghezza (!) a cui, non a caso, venne dato il nome di praedicta.

image

L’orchidea del Madagascar Angraecum sesquipedale, visitata dal suo unico impollinatore, la falena Xanthopan morgani praedicta

Celli ci ricorda che l’uomo è in tutto e per tutto un animale, e riassume in sé caratteristiche psicologiche e comportamentali già presenti da milioni di anni nei suoi progenitori. Gli animali provano sentimenti, giocano, hanno capacità diagnostiche e discernitive, in certe occasioni hanno addirittura comportamenti superstiziosi o dettati da una sorta di moralità, specie nel caso di animali domestici, e non usano mai la violenza se non hanno un motivo ben preciso; in tal senso il capitolo conclusivo del libro, in cui Sherlock Holmes descrive al dottor Watson di come il padre di Giosuè Carducci, Michele, avrebbe secondo lui assassinato il fratello del celebre scrittore, suo figlio Dante, e avrebbe successivamente mascherato il misfatto come suicidio, per togliersi la vita lui stesso pochi mesi dopo. Questi eventi rivelano una natura violenta che si cela da sempre nell’indole umana, e che bisognerebbe cercare di controllare in ogni modo, in particolare in un periodo storico come questo, in cui l’opera degli scienziati, le ‘Scimmie di Dio’ del titolo, ci consentono di fare passi più lunghi della gamba e mettere a repentaglio il futuro nostro e dell’intero pianeta.

image

Konrad Lorenz – L’altra faccia dello specchio (1973)

image

Tra le opere teoretiche di maggior importanza di Konrad Lorenz vi è senz’altro questo saggio datato 1973 (anno di conseguimento del premio Nobel da parte del suo autore). In quest’opera viene sottolineato come tutte le componenti del comportamento umano innato e appreso possano essere inserite in un’ottica di continuità filogenetica con la realtà naturale che circonda l’uomo.

In questo libro ho compiuto il tentativo, forse troppo audace, di dare una visione generale dei meccanismi cognitivi nell’uomo, scrive Lorenz.

Di certo il background culturale dell’autore, sia medico che biologo, lo ha aiutato a mettere insieme un’opera di tale portata, che rivela umiltà nel sottolineare l’ambiziosità del progetto in relazione alle sue comunque non illimitate conoscenze, associata però all’orgoglio nel tentare un lavoro mai realizzato in precedenza.

Finora infatti nel nostro pianeta non si è mai dato il caso di un’autoanalisi riflessiva della cultura umana, esattamente come, prima dei tempi di Galilei, non esisteva una scienza oggettivante della natura nel senso in cui la intendiamo noi. Ecco il perché di questo tentativo di un’analisi naturalistica della società e del comportamento umano, con tutti gli elementi classici dell’etologia di Lorenz, in particolare la difesa dell’idea del comportamento come l’intersecarsi di due elementi indispensabili e irrinunciabili come l’istinto e l’appreso. Tutti gli aspetti dell’analisi biologica degli individui, del loro comportamento e della struttura delle società che costituiscono, per la prima volta vengono così applicate all’uomo.

I tanti aspetti della vita umana, come l’abbigliamento, le mode, l’invarianza e l’evoluzione culturale, l’apprendimento e più in generale l’acquisizione di informazioni a qualunque livello vengono pertanto toccate con il distacco tipico di un naturalista: così Lorenz cerca di dimostrare, non senza ricchezza di esempi, che esiste una notevole continuità nella crescita e sviluppo della cultura umana in relazione al mondo naturale che la circonda.

Tutte le forme e i metodi di apprendimento presenti in natura, viceversa, si presentano nei vari piani che vanno a strutturare l’intelletto umano, sia a livello di singolo che di società. Il distacco tra il mondo naturale e l’ambito umano, teorizzato e sostenuto per secoli, viene poco per volta superato da una nuova ottica di continuità in cui quanto apparso precedentemente in natura è stato acquisito e sviluppato dall’uomo in forme culturali sempre più evolute e complesse, utilizzando però elementi già esistenti.

Il messaggio del saggio di Lorenz è probabilmente quello di sottolineare la straordinarietà dell’uomo in questo senso, ovvero il raggiungimento di livelli di complessità culturale e conoscitiva straordinari, pur utilizzando gli stessi metodi e forme di apprendimento che sono propri del mondo naturale. Sicuramente il lavoro in questione è estremamente ampio e ambizioso, ed è accostabile per forma e complessità ai lavori più ostici e teoretici dell’etologo austriaco, come Evoluzione e modificazione del comportamento, trattante le stesse tematiche, ed è pertanto consigliabile principalmente agli addetti ai lavori, sebbene alcuni passaggi (in particolare i ‘prolegomeni gnoseologici’ che fanno da introduzione al saggio e che esplorano le apparenti contraddizioni e i paradossi dell’Idealismo, in parte riconducibile a Kant, e i loro attriti con la visione del mondo da parte del Naturalista) possano rendere la lettura particolarmente appetibile anche agli appassionati di filosofia. In ogni caso un’opera di alto livello che cerca di spiegare e approfondire i concetti di ‘cultura’ e ‘apprendimento’ analizzandoli con l’occhio distaccato dello scienziato.

La VIA in Italia: c’è ancora molto da fare

La VIA, o Valutazione di Impatto Ambientale (EIA, da Environmental Impact Assessment per gli anglosassoni), nasce nei primi anni sessanta ad opera dei ricercatori statunitensi Larry Canter dell’Università dell’Oklahoma e Norman e Leonard Ortolano dell’Università di Stanford come studio preliminare di ricerca dei possibili effetti negativi sull’ambiente di un’opera in progetto di realizzazione. La finalità di tale studio è inquadrare eventuali modifiche al progetto iniziale, qualora necessarie, al fine di mitigare tali effetti entro i limiti consentiti dalla legge, fino all’opzione do nothing, che prevede la non realizzazione dell’opera stessa. In Italia la VIA è stata introdotta con la legge istitutiva del Ministero dell’Ambiente 349 del 1986, prendendo spunto dai contenuti della direttiva comunitaria 85/337/CEE, che regola gli aspetti fondamentali della pianificazione del territorio a livello europeo. Dopo l’iniziale recepimento la via burocratica seguita dalla Valutazione di Impatto Ambientale per diventare legge e -soprattutto- procedura rigida, affidabile e scientificamente rigorosa è stata molto più che tortuosa, ed è tuttora ben lontana dall’essere conclusa.

Il principale problema riguardante questo tipo di ricerche è l’effettiva assenza dell’opzione “zero” (il suddetto do nothing), che nella realtà dei casi non viene mai applicata, trasformando lo studio in poco più che un giustificativo da allegare al progetto, al fine di permettere la sua realizzazione. L’eccessivo potere in mano ai committenti permette infatti di rendere tacitamente obbligata una valutazione positiva, imponendo la conferma della realizzabilità del progetto già nella scelta dei ricercatori impegnati nello studio, che ovviamente vengono trasformati in vassalli di chi propone l’opera in oggetto.

Oltre a questo, la legislazione italiana è assolutamente carente nel dare indicazioni ben dettagliate su come tale studio debba essere realizzato, privandolo pertanto di ogni rigore scientifico e di una procedura standard che permetta di creare un protocollo rigido e immutabile, e conseguentemente dei precedenti a cui rifarsi. I miglioramenti nella procedura a livello internazionale sono stati importanti: i principi su cui si basava questo tipo di ricerca quando venne concepita (fine anni Sessanta) prevedevano una gestione dell’ambiente impostata su parametri ancora approssimativi; non veniva ad esempio considerata la possibilità della partecipazione del pubblico alle osservazioni generali sull’esecuzione dei progetti, non erano studiati i cosiddetti “impatti cumulativi”, dovuti all’interazione di elementi diversi, gli unici fattori ritenuti importanti ai fini della valutazione erano di natura prettamente economica e, soprattutto, le risorse naturali venivano considerate come infinite, carattere evidente di una coscienza ecologica ancora acerba.

Sotto tutti questi aspetti la procedura si è affinata ed è diventata completa e affidabile: i fattori umani e di partecipazione del pubblico, le eventuali modifiche ai progetti e la VAS (Valutazione Ambientale Strategica) come studio preliminare sull’effettiva possibilità di realizzare un progetto operano ormai un ruolo fondamentale negli studi di impatto, almeno a livello europeo; gli esempi sono assolutamente innumerevoli, e possono essere ricondotti ad alcuni modelli di base, come l’impianto petrolchimico (uno studio realizzato da R.Bisset in Scozia crea un eccellente modello per equivalenti ricerche successive), la discarica (la raccolta dei rifiuti nel porto di Rotterdam, valutata da P.de Jongh), l’autostrada, la miniera, etc. Lo stesso ponte Vasco Da Gama sul fiume Tago in Portogallo, inaugurato nel 1998, progetto faraonico e discutibile dal punto di vista ambientalistico, creato oltretutto ignorando buona parte delle indicazioni fornite dalla ricerca, è stato fortemente osteggiato da buona parte delle associazioni ambientalistiche e dall’opinione pubblica al punto da diventare, ironicamente, un esempio da seguire per quanto riguarda le modifiche successive alla realizzazione dell’opera, dall’ampliamento delle aree protette nella zona circostante, ai rigidissimi studi di monitoraggio, e così via.

image

Il ponte Vasco Da Gama sul fiume Tago, in Portogallo.

La situazione in Italia, purtroppo, è ancora ben lontana dagli standards qualitativi europei. Oltre all’ancora inesistente partecipazione del pubblico agli studi di valutazione, gran parte delle ricerche si sono più volte dimostrate semplici giustificativi delle opere, anche quando queste rivelano già a livello progettuale impatti notevolissimi (due esempi significativi sono il collegamento ferroviario ad alta capacità Torino-Lione e la metropolitana sublagunare di Venezia). La Commissione nazionale della Via, istituita dal Ministero dell’Ambiente e della tutela del territorio, creata come organo super partes in grado di giudicare l’effettiva imparzialità di questo tipo di ricerche, si è finora rivelata assolutamente inefficace, e una procedura accelerata prevista dal Governo per determinate opere ritenute “di interesse nazionale” riduce la VIA a poco più di una farsa per gran parte dei progetti coinvolti.

Le grandi opere previste per il futuro prossimo saranno presumibilmente assoggettate a questo tipo di valutazione “all’acqua di rose”, e la nuova procedura della “Valutazione di incidenza”, prevista per tutti i progetti rientranti nei SIC (Siti di Interesse Comunitario, zone di particolare pregio naturalistico), manca anch’essa di un protocollo procedurale di riferimento e legalmente riconosciuto.

Il futuro prossimo, in tal senso, appare tutt’altro che roseo, almeno fino a quando la filosofia che si cela dietro alla realizzazione delle grandi opere sarà quella del “tutto e subito”.

Riferimenti bibliografici: l’opera del professor Virginio Bettini, professore di Analisi e valutazione ambientale presso la Facoltà di Scienza della Pianificazione Urbanistica e Territoriale dell’Università di Venezia e di Principi di Valutazione di Impatto Ambientale presso la Facoltà di Scienze Ambientali di Sassari è assolutamente fondamentale, in quanto massimo esperto nel settore in Italia e membro dell’International Association for Impact Assessment (IAIA); nelle sue opere lo spirito critico e ‘militante’ verso la superficialità con cui tali tematiche vengano affrontate in Italia rende la lettura di estremo interesse, poiché in grado di fornire uno specchio realistico e tristemente disilluso su tali problematiche; tra queste segnalo Valutazione di Impatto Ambientale, UTET 2002, realizzata in collaborazione con i ricercatori dell’Università di Sassari, e L’impatto ambientale – Tecniche e Metodi, CUEN 1995, breve ma completo compendio dell’attuale situazione italiana a confronto con la situazione comunitaria, completo di una ricca bibliografia per argomenti. Dal punto di vista strettamente legislativo, l’opera più completa è sicuramente Valutazione di Impatto Ambientale di Andrea Martelli, Sistemi Editoriali 2003, in cui vengono approfonditi nel minimo dettaglio gli aspetti burocratici e giuridici della questione, con un cd completo di tutte le normative nazionali e regionali sull’argomento.

L’estinzione dei Dinosauri – L’ipotesi vulcanismo

Secondo recenti scoperte paleontologiche, le tracce fossili a noi giunte sembrano rivelare una nuova realtà riguardo all’estinzione di massa che, al termine dell’era geologica del Cretaceo, circa 65 milioni di anni fa, colpì alcuni dei maggiori gruppi animali che popolavano la terra, tra cui i Dinosauri e le Ammoniti; secondo tali scoperte, il periodo in cui avvenne questa autentica ecatombe fu molto più lungo di quanto si era finora stimato. Se, difatti, con la teoria degli Alvarez dell’impatto extraterrestre si supponeva un evento perdurato all’incirca un migliaio di anni, periodo quasi istantaneo se paragonato alla storia geologica del pianeta, tracce fossili e studi geologici e stratigrafici sembrano dimostrare che per molti gruppi tassonomici il declino prima della scomparsa sia stato ben più lungo, di decine o anche centinaia di migliaia di anni.

Non solo: le stesse prove volte a sottolineare l’immediatezza di tale evento, come lo strato KT, che segna il limite tra Cretaceo e Terziario, caratterizzato dall’innaturale concentrazione di Iridio tipica delle meteoriti, sembra essersi depositato in tempi ben più lunghi di quanto ipotizzato finora. Tali scoperte sembrano dare maggiore credito all’altra teoria che cerca di spiegare le cause dell’evento catastrofico del Cretaceo, ovvero l’ipotesi del vulcanismo. Una lunga serie di violentissime eruzioni si sarebbe protratta per migliaia di anni, causando un’enorme immissione di polveri nell’atmosfera, e generando un ‘inverno nucleare’, così come stimato per l’ipotesi di un impatto meteorico, con gli stessi drammatici effetti sulle forme di vita del pianeta.

A sottolineare questi aspetti vi è anche il fatto che, dallo studio di numerose eruzioni vulcaniche, tra cui il vulcano Kilauea delle isole Hawaii, i prodotti gassosi e il materiale piroclastico espulso sembra presentare alte concentrazioni di Iridio, ben più alte di quanto normalmente presente sulla crosta terrestre, e in rapporti con gli altri componenti analoghi a quelli del livello KT. L’attività di alcuni vulcani, come quelli hawaiani, è legata alla presenza di pennacchi o ‘punti caldi’ (hot spots), che sembrano aver avuto difatti un ruolo importante nella storia evolutiva del pianeta. Un hot spot è una zona di risalita di materiale magmatico proveniente da altissime profondità, dal punto di incontro tra mantello inferiore e nucleo, e, sostanzialmente, nel corso della storia geologica, non cambia la sua posizione in base ai movimenti della crosta, avendo origini molto più profonde. Questo comportamento si differenzia da tutti gli altri fenomeni vulcanici, aventi origini molto meno profonde e strettamente legate all’attività della litosfera.

Un punto caldo lascia traccia di sé sulla crosta terrestre; ne è proprio un classico esempio l’arcipelago delle Hawaii, in cui si possono vedere tutta una serie di vulcani, sepre più antichi via via che ci si allontana dall’hot spot: questa è una ‘traccia’ evidente del movimento che ha avuto la crosta terrestre nel corso di milioni di anni, che ha registrato l’attività del punto caldo sotto forma di edifici vulcanici. Una situazione analoga si può osservare in corrispondenza del punto caldo attualmente presente sotto l’isola di Reuniòn, nell’oceano Indiano, in prossimità del Madagascar e in corrispondenza del vulcano Piton de la Fournaise: tutta una lunga serie di isole vulcaniche, o di vulcani sommersi, sempre più antica man mano che ci si allontana verso nord, si presenta allineata fino all’India, dove è presente un’imponente formazione basaltica di origine vulcanica, i Trappi del Deccan.

image

I Trappi del Deccan

Questa è la più antica formazione legata all’attività del pennacchio di mantello che avrebbe generato l’hot spot e ha dimensioni imponenti: ricopre difatti un’area di circa 10.000 Km², ha un volume che supera i 10.000 Km³, lo spessore delle singole colate varia mediamente dai 10 ai 50 metri, con punte di 150 metri, e in determinate zone dell’India nordoccidentale la coltre lavica raggiunge uno spessore totale di oltre 2400 metri. Pertanto tale formazione deve per forza essere stata associata a una importantissima serie di attività vulcaniche nella storia della Terra.

Fino alla fine degli anni ‘80 si stimava che tali formazioni avessero un’età variabile tra gli 80 e i 30 milioni di anni, ma studi più recenti compiuti studiando i cristalli lavici, i quali una volta raffreddatisi rivelano l’orientamento dei poli magnetici (che si invertono regolarmente) presente al momento della loro formazione, hanno dimostrato che questi risalgono proprio al periodo KT, e hanno un’età approssimativa di circa 500.000 anni. Questa sembrerebbe un’importantissima prova a favore della teoria del vulcanismo, se non altro perché un evento di tale portata in ogni caso avrebbe dovuto influire sull’evoluzione biologica del pianeta, apportando cambiamenti sensibili a livello climatico e di composizione atmosferica. In aggiunta a questo, sembra che la presenza di ciascuno di questi ‘trappi’ di grande estensione sia direttamente correlata a tutte le grandi estinzioni di massa finora verificatesi sul pianeta Terra: ad esempio un’immensa formazione di questo tipo presente in Siberia ha un’età stimata di 250 milioni di anni, e si sarebbe formata proprio in occasione della più grande estinzione di massa mai registrata sul pianeta.

image

Le principali province basaltiche terrestri, associate ai rispettivi hot spots

In aggiunta a questi aspetti, sembra ormai dimostrato che la formazione di granuli di quarzo

image

con laminazioni dovute a stress da ipervelocità non avvenga soltanto nel caso di cadute di meteoriti, ma anche nel caso di eruzioni vulcaniche di tipo esplosivo. Lo conferma il fatto che queste vengono trovate anche in zone sottoposte a test nucleari, associate pertanto a fortissimi eventi esplosivi. Insomma, negli ultimi anni i sostenitori della teoria dell’estinzione dei Dinosauri dovuta a un prolungato periodo di forte attività vulcanica sembrano aver acquisito prove importanti a suo favore, soprattutto grazie alla datazione dei Trappi del Deccan, che fornirebbe il vero e proprio ‘luogo del delitto’, che per i sostenitori dell’impatto extraterrestre manca ancora: difatti non è stato tuttora trovato uno o più crateri meteorici associabili all’ipotizzato evento di impatto extraterrestre.

Ciononostante, il dibattito continua, soprattutto perché le risposte certe in questi casi sono difficili da ottenere, sia per la rarità delle testimonianze fossili, sia perché i metodi di datazione degli strati geologici sono ancora molto perfezionabili e lasciano tuttora un amplissimo margine di errore. Noi ci accontentiamo di seguire gli sviluppi di questa affascinante ricerca, fiduciosi del fatto che in tempi brevi, visti gli enormi progressi degli ultimi anni, si possa giungere a una risposta certa su chi sia il colpevole della scomparsa dei Dinosauri dalla Terra.

image

-Signori, la situazione sta precipitando… il clima è cambiato, i Mammiferi ci incalzano e noi abbiamo un cervello troppo piccolo per questi grandi problemi… (Illustrazione di Gary Larson)

Konrad Lorenz – L’anello di Re Salomone (1949)

image

Ho da sempre associato la figura di Konrad Lorenz a quella di un vecchio saggio che ha condotto la sua vita in maniera appassionata ma al tempo stesso equilibrata, in armonia con sé stesso, con la natura e gli animali che lo hanno circondato nel corso tutta la sua esistenza, molto più che a quella del grande e influente scienziato, principale artefice della nascita di una nuova disciplina scientifica, l’etologia o studio del comportamento animale; ciò è dovuto in gran parte a questa sua opera, datata 1949, in cui è Lorenz stesso a confessare di averla scritta spinto dalla passione per lo studio degli animali e per la rabbia nata dall’aver letto tante, troppe storie ingiuste e crudeli nei confronti dei suoi beniamini.

Non si tratta difatti di un classico saggio scientifico scritto con rigore e compostezza di termini, ma di un vero e proprio gesto d’amore del grande scienziato nei confronti del mondo animale in tutta la sua varietà e meravigliosa ricchezza. È difatti un libro scritto con trascinante passione, che narra di oche selvatiche che credono di appartenere alla specie umana a causa dell’imprinting, che le ha legate indissolubilmente allo scienziato che le ha ‘covate’, e che per primo hanno visto al momento della loro nascita; di taccole disposte a sacrificare la loro vita pur di salvare le loro compagne; di pesci incredibilmente passionali, di gatti falsi, cani bugiardi, volpi molto meno furbe di quanto non voglia la tradizione; di acquari che si tramutano in grandi mondi inesplorati, creati con poche pianticelle e pesciolini raccolti dallo stagno vicino a casa, e di altri mille piccoli episodi legati a tutta la vita dell’autore, condotta nella casa di Altemberg in un piccolo paradiso incontaminato e popolato da tantissime specie diverse, conviventi in perfetta armonia. Vediamo insomma uno scienziato premio Nobel impegnarsi, in maniera quasi romanzesca, a narrare tutte le piccole e grandi meraviglie del mondo animale, rivelando di avere un coinvolgimento nei suoi studi che si spinge ben oltre la semplice ricerca di nuove scoperte per tramutarsi in una vera e propria passione che riesce a rendere partecipe il lettore dopo pochissime pagine.

Ciononostante, c’è molto più del semplice gusto di Lorenz nel raccontare con ironia e coinvolgimento in questo romanzo; si delinea, a poco a poco, il pensiero del grande scienziato austriaco sulle discusse tematiche dello studio del comportamento animale, come il corteggiamento, l’aggressività (protagonista di un altro suo grande saggio), l’amore, la territorialità e così via, ricordandoci, se ce ne fosse bisogno, che i comportamenti di noi umani non sono poi così lontani da quelli dei nostri ‘fratelli minori’; non è certo un caso, difatti, se gli studi di Lorenz, Von Frisch, Tinbergen (insigniti del premio Nobel per la medicina nel 1973) e pochi altri grandi scienziati hanno fornito un contributo prezioso allo studio del comportamento e della psicologia umana.

Forse questo libro ha due differenti chiavi di lettura: da un lato c’è l’amore, la passione e soprattutto il rispetto per la vita in tutte le sue forme, raccontata in maniera ora ironica, ora coinvolgente e appassionata, ora triste e malinconica, che ci permette di affrontare un approccio alla lettura analogo a quello per un romanzo sensu stricto, mentre dall’altro, forse parzialmente nascosta tra le righe, c’è la rigida convinzione dello scienziato che cerca di insegnarci che l’uomo non è poi così evoluto e superiormente distaccato nei confronti del resto del mondo naturale, e che il rispetto per la vita è un qualcosa di imprescindibile in una società che si presuppone civile. Il piccolo paradiso di Altenberg ha insegnato agli scienziati che per studiare a fondo e coerentemente il comportamento gli animali questi devono essere osservati in libertà; questo libro, invece, ci ha insegnato che per capire realmente la natura del mondo in cui viviamo forse non è sufficiente osservarla e rispettarla, ma bisogna realmente sentirsene parte. Probabilmente non sarebbe male ricordarselo anche in questi tempi di ecologia ‘usa e getta’.

image

Konrad Lorenz (1903-1989) gioca con un’oca selvatica, specie protagonista del suo saggio sul comportamento ‘Io sono qui, tu dove sei?’