mercoledì 19 febbraio 2025

Dell’importanza della terza missione e di chi dovrebbe farla



Anche se negli ultimi mesi non sono mancati articoli importanti, molto ben scritti ed esaustivi, che ponevano critiche piuttosto feroci nei confronti della cosiddetta terza missione, più di recente la discussione è esplosa anche a livello di social media, a partire da un articolo di opinione a firma di Claudio Giunta, pubblicato da Il Post, che a sua volta partiva da questo articolo di Claudio Marazzini.

Chi è già dentro il mondo universitario ha sicuramente ben presente di cosa si sta parlando, per gli altri basti sapere che la terza missione, che si affianca alla prima missione (la didattica) e alla seconda (la ricerca), è un insieme di attività che mirano a trasferire conoscenze e innovazioni al di fuori del contesto accademico, creando un impatto diretto sul territorio e sulla società. Si snoda principalmente in due diverse strade: una rivolta alle aziende, con la creazione ad esempio di start-up che si affiancano alla ricerca accademica, o con la pubblicazione di brevetti e licenze per l’utilizzo delle tecnologie e dei metodi che la ricerca ha creato, e l’altra invece rivolta alla comunità, quella che viene comunemente indicata come divulgazione, in cui figurano attività come seminari, festival o la famosa notte dei ricercatori.

Sono tutte attività che portano via una gran quantità di tempo ed energie, che vengono pertanto sottratte proprio alla ricerca che dovrebbe essere il lavoro primario di un ricercatore.


E io sono assolutamente d’accordo.


Molti immaginano la vita del ricercatore come a metà fra quella avventurosa di un Indiana Jones o un (più realistico) Charles Darwin e quella fatta di provette e lavagne piene di formule complesse, come quella di Einstein o Marie Curie. In realtà fare il ricercatore è un lavoro che, pur pieno di soddisfazione e se vogliamo divertimento, spesso è fatto anche di burocrazia, come quella legata all’ANVUR (Agenzia Nazionale di Valutazione del Sistema Universitario e della Ricerca) con tutti i suoi punteggi e le sue valutazioni, o quella legata alla ricerca di finanziamenti che costringono spesso il ricercatore a dover fare vero e proprio marketing. Nel caso poi dei professori, vi si deve aggiungere le ore dedicate a una didattica che si evolve e che non è più soltanto lezione frontale ma laboratori, workshop, incontri e quant’altro. Per non parlare della corsa alla pubblicazione che, almeno nell’ambito scientifico, crea storture tutte sue su cui non mi soffermerò.

Quello su cui non sono invece per nulla d’accordo è la conclusione per cui la terza missione sia di scarsa importanza, in particolare nelle discipline umanistiche. 

Non sono una grande fan di una distinzione così netta fra discipline umanistiche e scienza, perché spesso si tende sempre a sminuire una in favore dell’altra, con la scienza che è “utile” (aggettivo usato sia come insulto che come vanto) e il sapere umanistico relegato (o esaltato) a puro diletto mentale. Trovo che sia davvero ingiusto e sminuente nei confronti di entrambi questi rami del sapere, assai più intrecciati di quanto pensiamo, anche a causa di una divisione manichea e artificiale che ci viene inculcata fin dalla scuola.  E credo fermamente che la cultura, che sia scientifica o umanistica, debba far parte integrante della vita della società a 360 gradi. Università ed enti di ricerca, come principali attori nella produzione di questo sapere, sono a mio parere fondamentali anche nella diffusione di questo sapere, in particolare nella società “civile”. Ma allora come conciliare questa fondamentale necessità con la consapevolezza che un ricercatore ha bisogno di potersi focalizzare sulla produzione di questo sapere?

In tutti questi ragionamenti, articoli, lamentele, come abbiamo visto giustificate dal punto di vista di un ricercatore, c'è una grande assenza: non viene mai nominato, neanche una volta, chi effettivamente per lavoro si occupa di questo. Di disseminazione della cultura. Insomma, di terza missione.

Quando si parla di divulgazione (scientifica o umanistica che sia) si pensa immediatamente ai Barbero e ai Piero Angela, a chi gira video su YouTube e su Instagram, a chi gira l’Italia con gli spettacoli ai festival della scienza e alle fiere del libro. Eppure il mondo della divulgazione (scientifica, che è quello di cui faccio parte e che è il mio lavoro, ma esistono molti esempi anche in ambito umanistico) è assai variegato e composto da professionisti che lavorano in tanti ambiti diversi, come ad esempio proprio l’università e i centri di ricerca.

Un divulgatore che lavora all’interno dell’accademia si occupa di organizzare e coordinare tutte le attività di terza missione che il dipartimento di cui fa parte mette in atto, dalla notte dei ricercatori, dove ad esempio si trova a dover organizzare laboratori, visite o dimostrazioni dei progetti di ricerca anche in ambienti esterni come piazze o exhibiter, ai seminari rivolti agli studenti delle scuole secondarie, in cui ad esempio necessario non solo occuparsi di creare e mantenere i contatti con docenti e dirigenti scolastici, ma anche e soprattutto affiancare i relatori stessi nella preparazione del seminario rivolto a un target estremamente preciso e spesso difficile da gestire. Sempre più istituzioni, inoltre, collaborano con l’accademia per la creazione di mostre ed eventi dedicati alla cittadinanza, che non hanno solo il ruolo di far conoscere l’università, ma che dovrebbero soprattutto contribuire a creare una cittadinanza più consapevole sui temi della scienza e della cultura, attività che richiedono una expertise che ovviamente i ricercatori non possono e non sono tenuti ad avere. Naturalmente chi si occupa di fare comunicazione della scienza in una università o in un centro di ricerca lavora a stretto contatto con i ricercatori che sono la sua fonte primaria e li prepara e affianca nel caso sia richiesta la loro presenza fisica in alcune attività (perché non si può prescindere dalla presenza dei ricercatori quando si comunica la ricerca, in un modo o nell’altro) e in generale si ritrova a dover gestire situazioni molto diverse da caso a caso, a seconda del dipartimento in cui si trova a lavorare e dei ricercatori stessi con cui deve interagire. Ovviamente questo non porta a zero il tempo speso da chi vuol partecipare alla terza missione, ma lo riduce drasticamente, oltre ad innalzarne la qualità e l’impatto, come spesso accade quando a occuparsi di qualcosa è chi ha effettivamente la formazione giusta per farlo.

Questa del “divulgatore in accademia” è una figura che, da ormai alcuni decenni, in molti Paesi esteri, specialmente anglosassoni, è ben diffusa e riconosciuta, direi istituzionalizzata, e in italia si sta iniziando a intravedere qui e là. Ciò che manca è appunto una organizzazione istituzionalizzata di questa figura, la cui presenza è ancora molto dipendente da quanto tal dipartimento o istituto è "illuminato" e dalle risorse finanziarie a sua disposizione, con evidenti grandi disparità territoriali.

Ne deriva un insieme di figure dall'inquadramento contrattuale nebuloso, per lo più assunte con assegni di ricerca che di ricerca hanno pochissimo perchè, appunto, il mestiere è un altro, o con inquadramenti come co.co.co o ancora come tecnologi.

Fa quindi un po’ tristezza, e un po’ rabbia, che quando si parla di terza missione, e di come questa porti via del tempo al lavoro di ricerca, il primo pensiero sia sempre quello di eliminare un qualcosa che viene considerato in fin dei conti superfluo e poco importante e mai quello di chiedere che a fare un lavoro fondamentale per la nostra società sia chi, alla fine, per quel lavoro si è formato e che ne ha le competenze.


lunedì 11 marzo 2024

Oppenheimer e quella cosa importante di cui non parla mai nessuno


Luglio (Agosto da noi... maledetti rinvii) 2023.

Milioni di persone affollano le sale cinematografiche per gustarsi l'ultimo film di Christopher Nolan, regista amatissimo, cult, amato e odiato in egual misura. 

Avanti veloce fino a Marzo e quello stesso film si porta a casa ben 7 premi oscar fra cui miglior attore protagonista, miglior regia e miglior film. 

Protagonista della pellicola è J. R. Oppenheimer.

Chi era costui?

Julius Robert Oppenheimer (Oppy per gli amici) è stato uno degli scienziati più importanti del XX secolo e uno degli uomini che più hanno influito sulla storia umana, almeno quella recente.
Il padre era un ebreo tedesco emigrato negi Stati Uniti e arricchitosi grazie all'industria tessile, la madre era un'artista tedesco-americana, che aveva studiato a Parigi e che esponeva le sue opere in un atellier di New York.

Oppenheimer studiò fisica a Cambridge, dove attraversò momenti molto difficili, ebbe grandi problemi negli studi, in particolare nella parte più pratica e di laboratorio e dovette ricorrere alle cure di uno psichiatra a causa di un vero e proprio esaurimento nervoso e a una grave crisi di identità.

Nel corso della sua carriera scientifica conobbe e collaborò con moltissimi dei più importanti scienziati dell'epoca, soprattutti fisici teorici, perchè la fisica quantistica, la nuova fisica come veniva definita da molti, stava rivoluzionando non solo il modo in cui questa scienza veniva  studiata ma anche come la gente guardava a questo tipo di cose. Basti pensare che personaggi come Einstein erano molto popolari anche fra un pubblico che non aveva alcun interesse per la fisica e le scienze in generale.

Anche Oppenheimer a suo modo fu un personaggio quasi pop. Era molto affascinante e carismatico, riusciva ad attirare verso di sè colleghi e studenti, inoltre le sue frequentazioni nel partito comunista lo rendevano un personaggio che persino il governo degli Stati Uniti teneva d'occhio.

E naturalmente il successo del progetto Manhattan, con la costruzione della prima bomba atomica, lo rese estremamente influente a vari livelli sia accademici che soprattutto politici. Questo almeno finchè le sue simpatie comuniste non ne decretarono la rovinosa caduta nell'era del maccartismo.

Una vita che qualsiasi regista vorrebbe portare sullo schermo, a maggior ragione quando i dilemmi etici e morali dell'uomo dietro lo scienziato possono diventare il fulcro della narrazione autoriale di questo regista.

E i chimici ringraziano

La fisica quantistica è un paradosso… ma funziona. 
[Oppenheimer in una scena del film]
Tutti conoscono Oppenheimer come il direttore del Progetto Manhattan e il suo nome è inevitabilmente legato alla bomba atomica.
Ma in verità i meriti scientifici di Oppenheimer sono stati molti di più e sono legati strettamente a questa nuova scienza che stava nascendo e che prendeva vigore sempre maggiore durante i primi decenni del '900, cioè la meccanica quantistica. 
Lasciamo per un attimo da parte la bomba atomica e tutti i dilemmi scientifici ed etici che si porta ancora dietro dopo tutti questi anni, e parliamo di tecnica  matematica nota come approssimazione di Born-Oppenheimer, messa a punto proprio dal nostro Oppy insieme a un altro grandissimo fisico dell'epoca, Max Born, fra il 927 e il 1928. Questa approssimazione è particolarmente utile proprio ai chimici, in particolare a quei chimici che si occupano di studiare il modo in cui due atomi interagiscono fra loro per formare legami chimici.
In meccanica quantistica elettroni e protoni (e in generale le particelle subatomiche) possono essere rappresentate da una funzione d'onda, in pratica un'operazione matematica che ne descrive le caratteristiche e il comportamento. La risoluzione dell'equazione di questa funzione è però particolarmente complessa perchè in un atomo bisogna tenere conto del movimento dei protoni e degli elettroni allo stesso tempo.
L'approssimazione di Born-Oppenheimer, invece, implica che poichè la massa dei nuclei è enormemente più grande rispetto a quella degli elettroni, allora è possibile considerarli separatamente e quindi risolvere separatamente la funzione d'onda prima per i nuclei e poi per gli elettroni, combinando successivamente le soluzioni trovate. Anzi, possiamo considerare i nuclei fermi rispetto agli elettroni, semplificando ulterirmente tutto il sistema.


Equazione di Schrödinger con approssimazione di Born-Hoppenheimer


L'approssimazione di Born-Oppenheimer ha profonde implicazioni nell'ambito della chimica computazionale e della spettroscopia molecolare. Consentendo la risoluzione efficiente delle equazioni che descrivono il comportamento dei sistemi molecolari, questa approssimazione è alla base di numerosi modelli teorici utilizzati per predire la struttura molecolare, le proprietà termodinamiche e cinetiche, nonché le interazioni molecolari.

Non tutto rose e fiori

L'approssimazione di Born-Oppenheimer è uno strumento utilissimo, anzi, fondamentale in chimica quantistica e permette di poter studiare le proprietà chimico-fisiche dei materiali molto più facilmente e sostanzialmente in modo accurato.
Non è tuttavia priva di limitazioni.
Per quanto si può considerare, in un primo momento, i nuclei atomici fermi, essi non sono fermi ma si muovono con un moto che ha degli effetti quantistici su quello degli elettroni.
In particolare non tiene conto del cosiddetto effetto tunnel, cioè quell'effetto per cui in determinate condizioni gli elettroni sono capaci di 'saltare' la barriera energetica anche se non potrebbero farlo, di fatto compiendo delle azioni (per esempio una reazione chimic) che apparentemente non potrebbero fare.
L'approssimazione non tiene conto anche di un altro effetto, chiamato decoerenza quantistica, che influisce su come le funzioni d'onda dei nuclei e degli elettroni si comportano l'una rispetto all'altra.


Il fatto che uno strumento così importante per la chimica e la fisica come l'approssimazione di Born-Oppenheimer abbia anche dei limiti così evidenti ci fa capire che la scienza non è granitica e non è tutto o bianco o nero, ma che nella realtà le cose sono più complicate a alcune teorie (molte teorie) vivono in questa sorta di limbo per cui vanno bene e funzionano ma in alcuni casi è necessario trovare altre teorie che funzionano un po' meglio. Questo soprattutto in un campo come la fisica o la chimica dove le approssimazioni sono degli strumenti utili ma imperfetti per avvicinarsi quanto più possibile alla descrizione della realtà.


venerdì 13 maggio 2022

Quella volta che Paperino scoprì il metilene

 


In una storia a fumetti del 1944, il grande Carl Barks, maestro assoluto dei paperi Disney, racconta di come Paperino, nel tentativo di aiutare i nipotini Qui, Quo e Qua nei loro esperimenti scientifici, prende una botta in testa e diventa d'un tratto uno scienziato brillante. La storia in questione è Paperino chimico genio (a volte pubblicata anche con il titolo di Paperino chimico pazzo) e sarebbe soltanto una delle tante, splendide, storie a fumetti sul papero più sfortunato al mondo, se non fosse che questo albo anni dopo fu citato più volte in articoli scientifici e testi universitari, e fu persino l'oggetto di una lettera mandata alla stessa Disney da parte di uno scienziato di Harvard.

Dopo aver ricevuto la botta in testa ed essere diventato un genio della chimica, Paperino inventa la paperite, un gas esplosivo dalle proprietà incredibili che Paperino sfrutta come propellente di un razzo, costruito per raggiungere la luna. Purtroppo durante il viaggio il nostro eroe guarisce e dall'essere “Professor Donald Duck, the Mightiest Chemist in the Universe!” torna il solito sfortunato e combinaguai di sempre. Riesce a tornare sano e salvo nel giardino di casa sua, ma il metodo di preparazione della paperite è completamente dimenticato.

Peccato, perché per sintetizzarla, Paperino utilizza una molecola che era stata solo teorizzata ma che non sarà ottenuta fino al 1959, ben 15 anni dopo: il metilene.


Il più semplice dei carbeni

Il carbene è una specie chimica con formula generale R2C molto reattiva, motivo per cui i carbeni sono largamente sfruttati in chimica organica e in metallorganica.
La loro struttura elettronica è particolare, infatti presenta una coppia di elettroni sul carbonio che può presentarsi sia come singoletto che come tripletto.
Il carbene singoletto, con i due elettroni appaiati sullo stesso livello energetico, è quello meno stabile e possiede una geometria planare; il carbene tripletto ha energia minore ed è quindi più stabile, inoltre può presentari sia con una geometria planare che non planare.
Il carbene tripletto ha anche la caratteristica di essere paramagnetico: i due elettroni, infatti, non trovandosi appaiati ma ognuno sul proprio orbitale, con spin parallelo, sono sensibili ai campi magnetici applicati e generano a loro volta in questi casi un campo magnetico. Questa proprietà è molto utile perché permette ai carbeni di poter essere studiati tramite tecnica EPR, una spettroscopia simile alla risonanza magnetica nucleare ma in cui è possibile individuare sostanze che posseggono, appunto, uno o più elettroni spaiati.



L'uso principale dei carbeni è nella sintesi di composti metallorganici e in particolare su larga scala è utilizzato nella sintesi del tetrafluoroetene, un precursore del Teflon, il polimero plastico con cui si fabbricano le pentole antiaderenti, vari tipi di guarnizioni o nei motori dove è necessario eliminare il più possibile l'attrito.

CHClF2 → CF2 + HCl
2 CF2 → F2C=CF2







Paperino chimico genio

Il chimico tedesco premio Nobel  Eduard Buchner è stato il primo a postulare, nei suoi studi di sintesi organica, l'esistenza di queste molecole fortemente reattive, nel 1903.
Proprio perché si tratta di molecole estremamente reattive, però, è molto difficile riuscire a isolarle. Composti di carbonio bivalente erano stati tuttavia postulati già nel 1876, quando fu proposto che il diclorocarbene, Cl―C―Cl, fosse un intermedio nell'idrolisi catalizzata da basi (decomposizione causata dall'acqua) del cloroformio (HCCl3), ma comunque la teoria intorno ai carbeni iniziò a prendere piede soltanto a partire dal Novecento, postulando, appunto, che si trattava di intermedi di reazione.
Successivamente, però, le prove sperimentali sembrarono confutare queste ipotesi, e infatti la chimica dei carbeni perse via via di popolarità fino agli anni '50, quando si riuscì finalmente a dimostrarne l'esistenza e soprattutto l'utilità.
Nel 1944, quindi, quando Paperino chimico genio veniva pubblicato, i carbeni (e il metilene) erano una teoria chimica non particolarmente di moda, quasi dimenticata, e la storia di Barks rimase, appunto, solo una delle tante storie brevi dedicate al personaggio.


Nel 1964, però, quando la chimica dei carbeni era ormai un fatto appurato, ecco che a Paperino viene per la prima volta riconosciuta, in un certo senso, la paternità della scoperta del metilene. Nell'articolo  "The Spin States of Carbenes", scritto da P.P. Gaspar e G.S. Hammond e pubblicato in in Carbene Chemistry, a cura di Wolfgang Kirmse, si legge: “Nonostante il recente ampio interesse per la chimica del metilene, sono necessari ulteriori studi […] Tra gli esperimenti che, a nostra conoscenza, non sono stati ancora effettuati ce n'è uno dei più intriganti suggerito nella letteratura di non meno di 19 anni fa (91).” La nota 91 portava come fonte proprio il numero 44 di Walt Disney's Comics and Stories.  
Un anno dopo, la Disney ricevette una lettera da Richard Greenwald, uno scienziato di Harvard. "I recenti sviluppi della chimica hanno concentrato molta attenzione su specie di questo tipo", ha commentato Greenwald. “Senza essere tecnico, lasciami dire che i carbeni possono essere prodotti ma non isolati; cioè non possono essere messi in un barattolo e tenuti su un guscio. Possono, tuttavia, essere fatti reagire con altre sostanze."
Queste parole fanno riferimento proprio alle tavole di Barks, in cui Paperino fa reagire il metilene con l'ammoniaca per ottenere il fantomatico Nitrogeno spaccatutto.
Ma non finisce qui.
L'incredibile intuito di Paperino si guadagna anche un posto in uno dei principali testi universitari di Chimica Organica, il libro "Organic chemistry" di Morrison e Boyd: nel capitolo dedicato ai carbeni, ecco comparire proprio la tavola in cui il nostro eroe nomina il metilene e nella didascalia alla figura è riportato "Evidence of early (1944) research on methylene. CH2 by D. Duck"


martedì 9 novembre 2021

Scienziati si diventa: la terza missione dell'Università



Tradizionalmente, l'Università ha avuto due missioni fondamentali: creare nuova conoscenza, attraverso la Ricerca, e tramandarla, tramite la Didattica.

Oggi, invece, le cose sono radicalmente cambiate e a questi due compiti si affianca una terza missione, ritenuta ormai fondamentale in un mondo sempre più tecnologico e complesso.

Questa terza missione, che è entrata con questo nome nei documenti europei a partire dal 2000, è la disseminazione della conoscenza scientifica a beneficio della società nel suo complesso.

Verso la Terza Missione: il Public Understanding of Science

Nonostante sia un'introduzione piuttosto recente, già dagli anni sessanta si era iniziato a parlare della responsabilità etica e sociale che le Università hanno nei confronti della cittadinanza. La popolazione, è stato man mano riconosciuto, ha il diritto di sapere verso quali obiettivi è diretta la ricerca scientifica, in che modo potrebbe influire sulla società o, più banalmente, per cosa vengono spesi i soldi dei finanziamenti, pubblici e privati, a essa destinati.

I primi passi ufficiali nel concretizzare questo nuovo approccio sono stati fatti nel 1985, quando la Royal Society ha pubblicato un primo testo di fondamentale importanza nella definizione della Terza Missione e, in generale, di cosa vuol dire fare comunicazione della scienza.

Il rapporto, in modo molto esplicito intitolato "The Public Understanding of Science", sottolineava come una maggiore comprensione della scienza e dei suoi metodi sia un elemento cruciale per aumentare la prosperità di una nazione. È anche importantissima nel processo decisionale, sia pubblico che privato, e in generale nel rendere più ricca la vita degli individui.

Secondo gli autori, poichè la nostra società è altamente tecnologica e dipende da un'industria fortemente science-based, non conoscere i principi secondo cui la scienza si muove è impensabile e non può che portare a un indebolimento dell'industria, prima, e dell'intera società, poi. Politici, dirigenti e cittadini devono quindi possedere una cultura scientifica di base e la scienza deve entrare nel dibattito pubblico.

Un'ulteriore sezione era dedicata alla comunicazione e gestione del rischio e dell'incertezza, elementi indispensabili per i policy maker.

Per arrivare a questo obiettivo educativo, gli autori hanno chiamato in causa principalmente le scuole, in cui la scienza e il metodo scientifico vanno insegnati da subito, e i media, che devono incrementare la copertura di notizie scientifiche e rapportarsi in modo costruttivo e sinergico con gli scienziati.

Per molti versi The Public Understanding of Science è un testo che si basa ancora fortemente su una visione top-down della comunicazione scientifica, in cui un attore "sapiente" - la comunità scientifica - è incaricato di educare l'altro che va quindi alfabetizzato, con delle regole abbastanza precise che indichino cosa vuol dire alfabetizzazione scientifica e in che modo la scuola e le università debbano educare i cittadini.

Tuttavia, pur con i suoi limiti, è stato un grande passo in avanti nella consapevolezza che il mondo accademico e la comunità scientifica non potevano rimanere confinati nella proverbiale torre d'avorio, ma iniziare a dialogare con la comunità di cui fanno parte. Ha posto, inoltre, l'accento sull'importanza che la scienza riveste nella società e su come questa debba essere presente nel dibattito pubblico perchè indispensabile per vivere nel mondo moderno.

La terza missione dell'Università oggi

Il concetto di comunicare la ricerca non solo ai propri pari - gli altri ricercatori - ma anche ad altri agenti della società, si è evoluto ed è enormemente maturato dagli anni ottanta a oggi.

Non solo, in molti casi, è differente l'approccio che scienziati e media hanno assunto nei confronti della comunicazione della scienza, superando il modello top-down e arrivando a una più inclusiva forma di dialogo fra istituzioni scientifiche e cittadini, ma si è anche avuta una normativizzazione del fenomeno.

A partire dai primi anni 2000, infatti, prima nell'Unione Europea e poi in Italia, è stato introdotto il concetto di Terza Missione dell'Università come lo conosciamo oggi, assieme a un metodo valutare gli atenei anche in base a criteri che mettono al centro la comunicazione scientifica. Nel nostro paese è l'Agenzia Nazionale di Valutazione del sistema Universitario e della Ricerca (ANVUR) che si occupa di valutare l'impatto sociale delle università e degli istituti di ricerca, attraverso criteri ben definiti che vanno a incidere sulla quantità dei finanziamenti pubblici erogati.

Anche l'Unione Europea, nel distribuire i fondi per i progetti di cui si fa promotrice, mette la comunicazione in un ruolo centrale, tanto da farne un criterio da cui non si può prescindere. I ricercatori devono, quindi, obbligatoriamente comunicare l'andamento, gli obiettivi e i risultati delle loro ricerche per poter continuare a usufruire dei fondi per il loro progetto.

Principalmente si tratta di una comunicazione verso l'esterno, cioè verso il pubblico generalista, attraverso iniziative come "La notte dei ricercatori", festival e conferenze divulgative. Ma anche, nel caso in cui il progetto di ricerca sia interconnesso con realtà aziendali e politiche, con tutti i vari attori coinvolti più o meno direttamente nella ricerca stessa.

Altro punto fondamentale della terza missione è anche lo scambio di conoscenza con il mondo dell'industria. Storicamente fedeli a un Modello Open Science in cui le università non detengono alcuna proprietà intellettuale, si è oggi passato a un modo di fare ricerca in cui le università conservano, proteggono e commercializzano i risultati delle loro ricerche (Modello di Licenza) fino ad arrivare al moderno modello in cui università e industria attuano una politica di attiva collaborazione (Modello di Innovazione). Gli atenei stessi hanno iniziato a gestirsi in modo simile a un'azienda, in cui la collaborazione con altre realtà, territoriali o internazionali, genera un profitto e quindi un ulteriore finanziamento per le proprie ricerche.

Anche l'Unione Europea ha dato un incentivo significativo tramite i Progetti Europei, con cui ripartire i finanziamenti verso quelle ricerche che sono in grado di generare benessere e progresso nella società e che rientrano in un programma più ampio di obiettivi che l'Unione si pone (come ad esempio Horizon 2020, il programma di finanziamenti per innovazione e ricerca attualmente in atto).

Pro e Contro

L'introduzione della terza missione nelle università e negli istituti di ricerca ha contribuito fortemente ad accrescere la consapevolezza scientifica dei cittadini, che sempre di più si ritrovano a dover interagire in prima persona con i ricavati della scienza e a prendere decisioni science-related. In particolare i nuovi media sembrano aver dato una spinta positiva aumentando la curiosità verso la scienza in un pubblico sempre più giovane.

Anche la comunità scientifica, seppur in misura minore, ha acquistato consapevolezza di come il proprio lavoro scientifico possa uscire dal laboratorio e avere un effettivo impatto sulla vita delle persone e sulla società. Sempre più ricercatori, in particolare giovani, si trovano a essere coinvolti in attività di comunicazione con il pubblico.

Dall'altro lato, però, una parte della comunità scientifica lamenta come l'implementazione della terza missione tolga tempo ed energie al lavoro di ricerca che dovrebbe essere l'obiettivo primario di uno scienziato. La scrittura di un progetto, la comunicazione con il pubblico o con i finanziatori, la partecipazione a festival ed eventi, sono attività che richiedono tempo e, oltretutto, capacità professionali che i ricercatori non sempre possiedono e non sono tenuti a possedere. Tuttavia carenze di questi aspetti possono compromettere, anche seriamente, la possibilità di ricevere finanziamenti anche da parte di atenei ed enti in cui si produce ottima ricerca e didattica di qualità.

Per quanto l'affermarsi sempre più alto di professionisti nella comunicazione scientifica che si occupano di questo aspetto in vece dei ricercatori, lo svantaggio in termini di tempo ed energie richiesti per portare avanti gli obiettivi della terza missione rimane, in particolare con gli attuali criteri di valutazione.

Un altro problema sollevato dalla comunità scientifica è l'appiattimento della ricerca che, vincolata a una logica industriale e di profitto, rischia di focalizzarsi unicamente su quei campi considerati più "meritevoli", lasciando indietro la ricerca di base o altre discipline meno di tendenza. La comunità scientifica, pur riconoscendo quindi i miglioramenti che la collaborazione con l'industria apporta alla società, teme di tradire la vocazione stessa della scienza, che dovrebbe essere mossa dalla curiosità e dal desiderio di sapere.

Nonostante i problemi che questo nuovo modo di fare ricerca scientifica si porta dietro, comunque non si può prescindere, in una società come la nostra, dal mantenere un vivo dialogo fra la scienza, le industrie e i cittadini.

 

Bibliografia

  • https://royalsociety.org/~/media/royal_society_content/policy/publications/1985/10700.pdf
  • https://www.anvur.it/attivita/temi/
  • https://www.scientificbulletin.upb.ro/rev_docs_arhiva/full3aa_408113.pdf
  • https://www.sciencedirect.com/science/article/pii/S0040162520311100
  • https://link.springer.com/article/10.1007/s10961-015-9401-3#Sec2
  • https://ec.europa.eu/programmes/horizon2020/en/what-horizon-2020

 


sabato 14 novembre 2020

La Vista delle Piante




Le piante ci vedono?
Ovviamente tutti sappiamo che le piante non hanno occhi, e per moltissimo tempo si è creduto che non possedessero nemmeno la vista. 
In realtà prima di tutto bisognerebbe capire e definire precisamente cos'è la vista. 

Ci viene naturale associare l'atto di vedere alla presenza di occhi, e forse se si parla del regno animale questo può essere anche vero, ma cosa si può dire delle piante?
Secondo molte definizioni oggi accettate dalla scienza la vista è il "senso della luce e degli oggetti illuminati". Questo cambia tutto nella nostra percezione di che cosa vuol dire vedere e di che cos'è la vista, e cambia tutto ciò che abbiamo sempre creduto di sapere sulle piante.


La luce è il cibo delle piante: la fotosintesi

Basta pensare a un girasole per capire che le piante non sono affatto immuni agli stimoli luminosi.
Ma non solo, facendo una passeggiata in un bosco ci si accorge subito di come alberi e piante di vario genere siano impegnate in una lotta senza esclusione di colpi per ricevere fino all'ultimo raggio di sole disponibile. 
E come dar loro torto? 
In fondo dobbiamo pensare che la luce solare è la loro più importante fonte di sostentamento, il loro cibo se vogliamo, la portata principale della loro dieta basata sulla fotosintesi.
La Fotosintesi Clorofilliana è un processo biochimico che permette alle piante di sintetizzare il glucosio di cui hanno bisogno utilizzando la luce solare come fonte di energia.
E' un processo composto da due fasi:
  • Fase Luminosa: grazie al pigmento verde chiamato clorofilla, le piante catturano la luce solare dando inizio a una serie di reazioni chimiche che portano alla formazione di molecole denominate ATP e NADH.
  • Fase Oscura o Ciclo di Calvin: in questa fase la pianta usa l'ATP e la NADH prodotte durante il giorno per trasformare l'anidride carbonica che prende dall'atmosfera in molecole di Glucosio o di altre componenti necessarie alla sua sopravvivenza.
Lo scarto di questo complesso processo biochimico è l'Ossigeno.
Certo, in una serie di reazioni così elaborate intervengono anche moltissimi altri nutrienti, come l'acqua e i sali minerali, che la pianta assorbe attraverso le radici; si può tuttavia dire che la luce è il motore principale della Fotosintesi e la pianta ha un bisogno disperato di trovarla.


Piante che seguono il sole: il Fototropismo

Se la luce è così importante, non sorprende che le piante abbiano sviluppato un'incredibile capacità di muoversi verso di essa, modificando la posizione delle foglie ma anche crescendo nella sua direzione.
Questo movimento è detto Fototropismo
Quando due piante si trovano a vivere molto vicine la competizione per la luce è una faccenda molto reale, perchè la più alta fa ombra alla più bassa. 
Questo porta le piante a crescere più rapidamente in altezza per superare la rivale, una competizione chiamata fuga dall'ombra, e che era noto fin dall'antica grecia!
Se mettiano una piantina in una scatola chiusa e lasciamo una sola apertura per far entrare la luce, noteremo che quella pianta crescerà nella direzione del foro fino a uscirne per ricevere più luce possibile.


Esempio di Fototropismo



Il Fototropismo è un comportamente che è stato a lungo ignorato e sottovalutato, ma che esperimenti più recenti hanno studiato più approfonditamente, scoprendo che le piante sono davvero molto più intelligenti di quanto non pensassimo.
Una crescita rapida come quella della fuga dall'ombra, ma anche il dirigersi deliberatamente verso la fonte luminosa, denota un complesso calcolo dei rischi e dei benefici; ci vuole un gran dispendio energetico, infatti, potrebbe addirittura essere fatale, eppure il beneficio rappresentato dalla luce vale l'investimento fatto.


Occhi chimici

Se è evidente, quindi, che le piante hanno percezione della luce e si muovono per raggiungerla, è altrettanto evidente però l'assenza di occhi.
Come fa quindi la pianta a vedere la luce?
Grazie a una serie di molecole che agiscono da fotorecettori, in grado cioè di ricevere e trasmettere informazioni sulla direzione da cui  i raggi luminosi provengono e sulla loro qualità
La pianta, infatti, non è solo in grado di riconoscere la luce dall'ombra, ma riesce ad avere informazioni anche sulla sua lunghezza d'onda.
Questi fotorecettori sono: i fitocromi, le fototropine e i criptocromi.

Strutture dei fotorecettori


Queste molecole sono proteine sensibili a specifiche lunghezze d'onda della luce (il rosso, l'infrarosso, il blu e l'ultravioletto). Quando la luce le colpisce, modificano la loro struttura e la loro conformazione inviando così un certo segnale alla pianta che fornisce tutte le informazioni necessarie perchè veda.
Se nell'uomo e negli animali più evoluti i fotorecettori si trovano nell'occhio e l'impulso elettrivo viene inviato al cervello, nelle piante non abbiamo nè occhi nè cervello. 
Dove sono posizionati quindi questi recettori?
Nel mondo vegetale, tutte le facoltà sono presenti su tutta la pianta, e lo stesso vale per i fotorecettori che servono a percepire la luce. La maggior parte di essi sono situati sulle foglie, ma ce ne sono anche sullo stelo, i viticci, i germogli e persino nel legno cosiddetto verde.
E' come se la pianta fosse ricoperta di migliaia di minuscoli occhi.

Nel 1905 il botanico Gottlieb Haberlandt ipotizzò persino la presenza sulla pianta di piccoli ocelli, una sorta di occhio primitivo formato da minuscole lenti concave o convesse, esattamente come il cristallino che si trova nella struttura degli occhi umani, che oltre all'idea di luce restituiscono alla pianta anche le forme. 


Schema di un ocello


Le teorie di Haberlandt non hanno mai trovato una conferma sperimentale, ma sicuramente negli ultimi anni il mondo vegetale ha riacquistato dignità presso gli scienziati, che si sono resi conto sempre di più di come le piante non siano semplicemente degli esseri immobili. L'intelligenza delle piante è sempre più studiata e sempre più evidente studio dopo studio, e ora che gli esperimenti rivelano anche un po' del modo in cui percepiscono il mondo, dobbiamo riconoscere evidentemente come molto più che un ornamento.


Chissà, forse la conoscenza dell'intelligenza vegetale a partire dalla comprensione di come vedono e sentono il mondo, può aiutarci non solo a vivere meglio e in armonia con loro sul nostro pianeta, ma anche a dare una svolta alla nostra ricerca di intelligenze aliene.



lunedì 14 settembre 2020

Fosfina nell'atmosfera di Venere

 


Quando pensiamo a pianeti che possono ospitare la vita certamente Venere non è il primo che ci viene in mente: nonostante dimensioni e massa siano simili a quelle terresti la sua atmosfera è composta quasi interamente da Anidride Carbonica, ha una pressione di 92 atm, una temèperatura di circa 380°C e piogge di acido solforico.

Un bel posticino quindi.

Ultimamente però si è iniziato a rivalutare questo pianeta come possibile pianeta ospitale per la vita, in particolare ci si è concentrati su alcuni strati della sua atmosfera che si trovano a circa 50 km dalla superficie e che presentano condizioni di temperatura simili a quelle terrestri (che definiamo temperate) e di pressione atmosferica.

E' proprio qui, in queste nubi, che gli scienziati hanno rilevato la presenza di una molecola molto semplice eppure molto importante: la fosfina.


Fosfina: chimica e biochimica



La fosfina è una semplice molecola composta da un atomo di fosforo legato a tre atomi di idrogeno.
Possono esserci anche dei derivati che al posto dell'idrogeno presentano dei gruppi alchilici o arilici.
Si prepara industrialmente in vari modi: facendo reagire fosforo bianco con idrossido di sodio (reazione che produce anche ipofosfito di sodio come sottoprodotto), tramite l'idrolisi di un fosfuro di metallo quali il fosfuro di alluminio o il fosfuro di calcio, oppure campioni puri  possono essere preparati usando l'azione dell'idrossido di potassio sullo ioduro di fosfonio.
Sono molto utili in tante reazioni chimiche, in particolare i derivati fenilici delle fosfine sono usati insieme a catalizzatori metallici in una importante reazione della sintesi organica che permette di formare nuovi legami C-C (la reazione di Sonogashira).
Un altro modo in cui la fosfina può essere prodotta è tramite l'azione di alcuni batteri anaerobici, cioè che vivono in assenza di opssigeno, e per questo motivo può essere considerata un indicatore della presenza di forme di vita su pianeti ed esopianeti. 
 

Fosfina su Venere

Le misurazioni dell'atmosfera di Venere sono state fatte sfruttando una particolare banda di assorbimento della fosfina, utilizzando una tecnica spettroscopica e le osservazioni di due differenti telescopi ottenute autonomamente.
La presenza di PH3 nell'atmosfera è stata quindi confermata oltre ogni ragionevole dubbio ed è stata stimata essere di circa 20 ppb (parti per miliardo).
Restava da capire, escludendo ovviamente la presenza di laboratori ed industrie sulla superficie, se qualche evento naturale potesse essere responsabile.

La presenza di PH3 implica una fonte atmosferica, superficiale o sotterranea di fosforo, o la consegna dallo spazio interplanetario. Gli unici valori misurati del fosforo atmosferico su Venere provengono dalle sonde di discesa Vega 32 , che erano sensibili solo al fosforo come elemento, quindi non era in grado di distinguere le varie forme e molecole in cui si presenta, ma nessuna specie di fosforo è stata segnalata sulla superficie planetaria.



spettri JCMT e ALMA dell'intero pianeta attraverso l'intera banda
passante comune a entrambi i set di dati.



La maggior parte del fosforo presente nell'atmosfera o nella superficie di Venere è prevista come forme ossidate di fosforo, ad esempio fosfati. Considerando tali forme e adottando i dati di abbondanza di Vega (il valore più alto dedotto, più favorevole per la produzione di PH3 ), sono andati a calcolare se la termodinamica di equilibrio in condizioni rilevanti per l'atmosfera, la superficie e il sottosuolo venusiano può fornire ~ 10 ppb di PH 3 (considerando quindi un limite inferiore per trovare la soluzione termodinamica più facilmente ottenibile). Hanno trovato che la formazione di PH3 non è favorita anche considerando 75 reazioni rilevanti in migliaia di condizioni che comprendono qualsiasi probabile proprietà dell'atmosfera, della superficie o del sottosuolo (temperature di 270-1.500 K, pressioni atmosferiche e sotterranee di 0,25-10.000 bar, ampio intervallo di concentrazioni di reagenti). In particolare, i ricercatori hanno escluso l'idrolisi del fosfuro geologico o meteoritico come fonte del PH3 venusiano . Si esclude anche la formazione di acido fosforoso (H3PO3 ) perchè la sua formazione a temperature e pressioni di Venere richiederebbe condizioni piuttosto irrealistiche, come un'atmosfera composta quasi interamente da idrogeno.
Le reazioni fotochimiche nell'atmosfera di Venere non possono inoltre produrre PH3 a alla velocità necessaria alla Fosfina stessa per non venir degradata dai raggi UV in un'atmosfera come quella di Venere, e oltretutto per generare PH3 dalle specie di fosforo ossidato, i radicali generati fotochimicamente devono ridurre il fosforo estraendo ossigeno e aggiungendo idrogeno, che richiedono reazioni prevalentemente con H, ma anche con radicali O e OH. I radicali di idrogeno sono rari nell'atmosfera di Venere a causa delle basse concentrazioni di potenziali fonti di idrogeno (specie come acqua H2O e acido solforico H2S).
Si è infine escluso anche che possa essere stata prodotta PH3 attraverso eventi quali fulmini, impatti con oggetti in atmosfera o vento solare perchè la quantità di fosfina prodotta sarebbe troppo inferiore a quella rilevata.

Se nessun processo chimico noto può spiegare la presenza di PH3 all'interno dell'atmosfera superiore di Venere, allora deve essere prodotto da un processo non precedentemente considerato plausibile per le condizioni venusiane. 
Questa potrebbe essere fotochimica o geochimica sconosciuta. 
O forse vita. 

Naturalmente bisogna andarci molto cauti: ad esempio, la fotochimica delle goccioline delle nuvole venusiane è quasi completamente sconosciuta e si deve quindi considerare una possibile fonte fotochimica in fase gocciolina per PH3 (anche se PH3 verrebbe ossidato dall'acido solforico). 
Anche le domande sul perché organismi ipotetici su Venere potrebbero produrre PH3 sono altamente speculative.

La conferma della presenza di fosfina nelle nubi di Venere è quindi una scoperta socuramente eccitante, che apre a molteplici possibilità, ma ancora molti studi sulla geochimica e la fotochimica di questo pianeta andranno fatti prima di poter dire c'è vita su Venere.



sabato 1 agosto 2020

La scienza di Dark


In una piovosa cittadina tedesca, al limitare di un bosco, scompaiono misteriosamente dei bambini.
Nel frattempo un uomo si uccide e un altro arriva in città... e la locale centrale nucleare rischia di dover chiudere.
Questo l'incipit di una delle serie tv di maggior successo degli ultimi anni, dove alberi genealogici, misteri da svelare, viaggi nel tempo e litri di pioggia si intrecciano alle storie personali di un gruppo di personaggi dei più svariati.
Ma questo non è un sito cinematografico e quindi non vi parlerò della qualità della serie, né della sua trama, né delle sue svolte di trama.
Questo è un sito scientifico e, proprio come dice il titolo, si parlerà di scienza, in particolare della scienza che più o meno in modo accurato gli autori hanno inserito nella loro creatura come filo conduttore della trama e vero e proprio motore della storia.


I viaggi nel tempo e la Teoria della Relatività

L’eterna corrente trascina sempre con sé tutte le epoche attraverso entrambi i regni e in entrambi le sovrasta. 
[Elegie duinesi - R.M. Dilke]

Penso che chiunque abbia anche solo sentito nominare la serie, pur senza averla vista, sa che Dark parla di viaggi nel tempo.
In realtà parla di molto altro, ma è innegabile che i viaggi nel tempo siano uno dei punti fondamentali della storia e a questi viene dato ampio spazio sia narrativamente che scientificamente.
Un concetto citato più volte è quello di Wormhole e si parla spesso di Teoria della Relatività.
Ma di cosa si sta parlando?

La Relatività Ristretta e, successivamente, la Relatività Generale, sono due teorie fisiche formulate da Albert Einstein nel 1905 e nel 1915.
Furono teorie rivoluzionarie per la fisica di quell'epoca perché fino a quel momento ci si era basati sulle leggi di Newton e sulla cosiddetta Relatività Galileiana, per cui le leggi matematiche che governano i fenomeni naturali sono le stesse in qualunque sistema di riferimento.
Era un periodo però di grande fermento scientifico, quello di inizio novecento, e già si era trovato che i fenomeni elettromagnetici uscivano da questo tipo di visione del mondo, ma non c'era in effetti una vera e propria teoria matematica a supportare queste evidenze.
Einstein riuscì con le sue teorie non solo a dare a questi dati un fondamento matematico, ma a rivoluzionare completamente la fisica (ma non solo!), smentendo contemporaneamente la teoria dell'Etere (una sorta di fluido invisibile che si credeva pervadesse tutto e in cui si muovevano le onde elettromagnetiche) e inoltre a introdurre il concetto di spazio-tempo.

rappresentazione semplificata
della deformazione dello
spazio-tempo
Cosa succede se lasciamo cadere una pietra? Certo, questa cade per effetto della forza di gravità terrestre. Ma cos'è davvero la gravità?
Dobbiamo considerare che la Terra non agisce direttamente sulla pietra, ma in un certo senso possiamo dire che la Terra agisce sullo spazio-tempo in cui è immersa, creando come effetto, quindi, ciò che noi chiamiamo gravità.
Immaginiamo lo spazio-tempo come un enorme telo teso, e su questo telo poniamo un peso, come ad esempio la Terra.
Questa deforma il telo creando un avvallamento.
Se ora noi mettiamo sul telo una pallina più piccola e leggera, vedremo che essa tende a finire dentro questo avvallamento creato dalla Terra pesante.
Un'altra cosa che noteremo è che man mano che la pallina si avvicina al centro dell'avvallamento (la cosiddetta singolarità), inizierà ad andare più veloce.
Ecco perché parliamo di spazio-tempo, perché non solo abbiamo una deformazione dello spazio, ma anche del tempo che non è più una costante immutabile, ma è diverso a seconda di dove ci si trova.
Se immaginiamo che la nostra pallina sia un'astronave al cui interno c'è un uomo, avremo che quest'uomo invecchia più lentamente di, diciamo, il suo fratello gemello rimasto sulla Terra.
Sono differenze piccolissime che però posso acquistare una certa rilevanza a grandissime distanze e che hanno una certa rilevanza anche nella nostra vita di tutti i giorni, perché l'aggiustamento di queste minuscole variazioni di tempo permette ai nostri dispositivi GPS di funzionare correttamente.
Naturalmente questa spiegazione è molto semplificata, certamente la Terra non è poggiata sullo spazio tempo, ma vi è immersa, e c'è parecchia matematica a supportare il tutto, fino ad arrivare alla famosissima equazione dell'Energia e della Massa E=mc^2.

Risolvendo una di queste equazioni, un assistente di Einstein, Nathan Rosen, teorizzò la possibilità di attraversare lo spazio-tempo tramite delle scorciatoie, chiamate Ponti di Einstein Rose, ma che comunemente sono conosciuti col nome Wormhole.
rappresentazione di uno wormhole
Rosen immagina di riuscire a piegare lo spazio-tempo talmente tanto da poterne avvicinare i due lembi. Per fare questo è necessaria una massa di dimensioni incredibili, come ad esempio quella di un Buco Nero (che cattura la materia senza lasciare sfuggire neanche la luce) e un Buco Bianco (che emette materia, ma non permette a nulla di entrare), uno da una parte e uno dall'altra del Wormhole.
Essendo però lo spazio e il tempo la stessa cosa, è possibile teoricamente spostarsi da un punto all'altro non solo dello spazio ma anche del tempo. Questo richiederebbe una quantità di energia enorme, impossibile a livello pratico, ma teoricamente parlando non ci sono particolari impedimenti ai Wormhole. Se la distanza esterna fra le "bocche" del Wormhole è abbastanza corta e la distanza interna all'interno del Wormhole è sufficientemente lunga, allora l'uscita si troverà in un punto del tempo precedente all'entrata.

Dal Gatto di Schrodinger agli Universi Paralleli

 Penso si possa tranquillamente affermare che nessuno capisce la meccanica quantistica 
[Richard Feynman]

A un certo punto la serie si complica ed entra in ballo la Meccanica Quantistica.
Più o meno quello che è successo nella storia della fisica, si potrebbe dire.

Niels Bohr
Durante i primi anni del '900 c'era davvero gran fermento e oltre ad Einstein molti altri fisici elaboravano teorie rivoluzionarie che spesso erano in contrasto fra loro e i cui principi risultavano non sempre chiari ( d'altronde per molti versi è ancora così quando si parla di Meccanica Quantistica).
Uno di questi fisici era Niels Bohr, il principale esponente di quella che va sotto il nome di Interpretazione di Copenaghen: secondo questa interpretazione una particella, finché non viene sottoposta a misura, non possiede una posizione definita.
Possiamo pensare di conoscere con una certa ragionevole precisione la probabilità che quella particella si trovi in un posto o in un altro, ma finché non la misureremo, quella sarà contemporaneamente (o per meglio dire, potenzialmente) ovunque.
Questo vuol dire che dobbiamo abbandonare qualsiasi pretesa di una conoscenza approfondita della realtà che ci circonda.
Einsteinperò, pur essendone uno dei fondatori, si sente un po' a disagio con la Meccanica Quantistica, e in particolare con i Salti Quantici presenti in questo tipo di interpretazione; credeva infatti che non fosse possibile per un evento essere influenzato da qualcosa da cui risulta separato da intervalli spaziali. Non è possibile che la funzione d'onda che descrive la particella venga influenzata istantaneamente in tutto lo spazio da un'osservatore che invece si trova in un punto.
Inoltre, Einstein, trovava inaccettabile l'uso della probabilità (Dio non gioca a dadi).
Einstein non perse mai l'occasione di manifestare pubblicamente la sua insoddisfazione nei confronti della teoria, e le sue discussioni con Bohr rappresentano uno degli eventi leggendari nelle cronache della Fisica moderna.
Un altro a non essere particolarmente soddisfatto dall'Interpretazione di Copenaghen era Schrodinger, che non concordava con la suddivisione in sistemi quantistici e classici, nonché dal ruolo dell'osservatore, anch'esso fatto di atomi e quindi, secondo lui, parte del sistema.
Da qui il povero e famoso gatto: in una scatola si pone un gatto, una sostanza radioattiva e un contatore Geiger; le probabilità che la sostanza radioattiva decada entro un'ora sono il 50% e se questo accade viene azionato un meccanismo che libera una sostanza velenosa in grado di uccidere il gatto. 
Finché non apriamo la scatola e non osserviamo l'interno, il gatto è contemporaneamente vivo e morto... assurdo, secondo Schrodinger.

il gatto di Schrodinger
                                      

A questo punto si inserisce un'altra interpretazione, proposta per la prima volta dal dottorando Hugh Everett, che viene chiamata dei Molti Mondi.
Everett elimina il problema del collasso della funzione d'onda ad opera di un osservatore esterno dicendo che tutti gli esiti potenziali sono realizzati, ma non tutti nello stesso universo fisico. 
Si verrebbe a creare, quindi, un multiverso di universi paralleli, che però non possono venire in contatto fra loro.
Questo è considerato un bel problema, dato che rende impossibile verificare l'idea di Everett. Inoltre Richard Feynman (un fisico statunitense, premio Nobel nel 1965) ad esempio era preoccupato dal fatto che ogni universo contenesse una copia di noi stessi.
i molti gatti
Secondo lui ognuno di noi sa in quale modo il mondo si è diviso per cui ci è possibile seguire la traccia del nostro passato. Quando facciamo un'osservazione di questa traccia, il risultato è "reale" nello stesso modo in cui lo sarebbe se l'osservazione fosse seguita da un osservatore "esterno"? Inoltre, sebbene
possiamo considerare noi stessi osservatori esterni quando guardiamo al resto del mondo, il resto del mondo include osservatori che osservano noi. Saremo sempre in accordo su ciò che vediamo? Secondo Feynman non vale nemmeno la pena di discuterne.
Tuttavia questa interpretazione ha riscosso anche molto successo, non solo fra i fisici (come ad esempio Stephen Hawking) ma soprattutto nella fantascienza che se ne è servita abbondantemente grazie proprio alla fascinazione scientifica e filosofica che si porta dietro.
Secondo David Deutsch, un fisico britannico, inoltre, ci sarebbe persino un modo per dimostrare questa teoria tramite un computer che creerebbe un fenomeno di interferenza quantistica, per cui i mondo che sono stati separati a un certo punto si ricombinerebbero... vi ricorda qualcosa? 

La Teoria del tutto

Una cosa che la serie Dark è riuscita a fare, a prescindere dalla riuscita effettiva finale, è stata prendere la Teoria della Relatività e la Meccanica Quantistica e unirle insieme in modo che convivessero e si intersecassero in un'unica trama coerente.
Una cosa che è un po' il sogno della maggior parte dei fisici.
Per ora le due teorie cardine della fisica moderna funzionano piuttosto bene nel descrivere il mondo che ci circonda nella rispettiva area di studio (l'infinitamente grande e l'infinitamente piccolo), eppure falliscono se applicate l'una all'altra.
Nemmeno a dirlo, fu Einstein il primo a cercare una teoria unificante, ma non ci riuscì e da allora ancora nessuno ce l'ha fatta, alcuni persino ritengono una tale impresa impossibile, altri ancora hanno abbandonato l'idea di una teoria unica, come Stephen Hawking il quale, dopo averla cercata per anni, decise che in fondo era meglio così:
 “Sono lieto che la nostra ricerca della comprensione non finirà mai e che avremo sempre la sfida di una nuova scoperta. Senza di essa, ristagneremmo“



 Bibliografia

  • "L'ordine del tempo", Carlo Rovelli - Adelphi
  • "Relatività: esposizione divulgativa" , Albert Einstein - Universale Bollati Boringhieri
  • "Wormholes in spacetime and their use for interstellar travel: a tool for teaching general relativity" , Michael S. Morris and Kip S. Thorne
  • "L'incredibile cena dei fisici quantistici" , Gabriella Greison - Salani Editore
  • "La Realtà Quantistica" , Danilo Babusci, Matteo Mascolo - INFN-Laboratori Nazionali di Frascati Via E. Fermi 40, Frascati, Italy
  • "On the Role of Entanglement in Schrodinger’s Cat Paradox" , Stefan Rinner · Ernst Werner
  • "Quantum theory, the Church-Turing principle and the universal quantum computer" , David Deutsch

giovedì 2 aprile 2020

Quanto è acida la Coca Cola?


Se la presenza di zucchero in gran quantità è sicuramente dannoso per il nostro organismo, cosa dire allora dell'acido fosforico?
Periodicamente la questione sull'acidità della Coca Cola torna a far parlare di sè e puntualmente viene smentita come enorme bufala. Come è possibile? Come posso sapere quanto è acida la Coca Cola?

La storia in breve

Chi non conosce la Coca Cola?
Questa bevanda è, ormai da molti anni, la regina incontrastata delle bibite zuccherate in tutto il mondo, impossibile immaginare una festa di compleanno senza una bottiglia di questa bevanda in mezzo al tavolo.
Nonostante la sua popolarità, è anche spesso stata al centro di molte critiche a causa del suo altissimo contenuto di zucchero (dai 9 agli 11 grammi ogni 100 grammi di bevanda).
John Pemberton
Non tutti sanno però che a crearla fu il farmacista statunitense John Stith Pemberton l'8 maggio 1886 ad Atlanta, in Georgia, ma non come drink da bere con gli amici, bensì come rimedio per il mal di testa e la stanchezza.
Prese l'idea da una popolare bevanda chiamata Vino di Coca, una miscela di vino e foglie di coca, ma Pemberton sostituì l'alcol con un estratto delle noci di cola, una pianta tropicale da cui si estrae anche la cocaina. La sostanza alcaloide venne scartata nel processo di produzione ma le noci furono mantenute.
Tuttavia Pemberton non era un grande uomo d'affari, accumulò migliaia di dollari di debiti e vendette la sua formula e i diritti a Asa Candler, un uomo d'affari che aveva intuito il grade potenziale della Coca Cola e sapeva bene che la pubblicità era fondamentale per diffonderla e vincere sulla concorrenza.
Negli anni venti la Coca Cola iniziò letteralmente a sbancare e divenne quindi un marco mondiale e la più conosciuta fra le bevande e uno dei marchi più popolari del pianeta.
La ricetta esatta è tutt'ora segreta, ma gli ingredienti indicati in etichetta sono:

  • Acqua
  • Anidride carbonica
  • Zucchero (solitamente sciroppo di glucosio, ma diversi dolcificanti possono essere utilizzati nelle versioni dietetiche o in altre)
  • Colorante E150d (caramello solfito ammoniacale)
  • Acido fosforico
  • Aromi naturali (tra i quali è presente l'estratto di foglie di coca)
  • Caffeina (in genere sui 100mg/l ma in quantità variabile in versioni dietetiche o altre)

Quanto acido c'è?

Se abbiamo una soluzione acida ma non sappiamo quanto acida, il modo più immediato è prendere una cartina tornasole e musirare il pH

si immergeun pezzo di cartina nella soluzione e
si confronta con i valori standard indicati


Tuttavia, se si vuole sapere con più precisione la concentrazione di un acido in una soluzione incognita, il metodo comunemente usato è la Titolazione acido/base.
Consiste nel neutralizzare lentamente l'acido a concentrazione ignota, usando una base la cui concentrazione è, invece, nota.
esempio di titolazione e costruzione
della curva di titolazione
Il pH della soluzione varia, prima lentamente, poi subisce un salto in corrispondenza di un punto detto Punto di Equivalenza.
Il raggiungimento di questo particolare punto indica la fine della titolazione e il volume di titolante utilizzato (cioè della soluzione di cui conosciamo la concentrazione) ci serve per poter determinare la concentrazione ignota.
La variazione di pH durante la titolaione va necessariamente monitorata.
Esistono sostanzialmente due metodi:
  • Tramite uno strumento (ad esempio uno spettrofotometro o un potenziometro)
  • Tramite un indicatore di pH
Gli Indicatori di pH in particolare sono estremamente utili: si tratta di specie chimiche che presentano una vistosa variazione di colore in base al pH in cui si trova. Il cambiamento di colore dell'indicatore indica il raggiungimento del punto equivalente e la scelta dell'indicatore adatto è fondamentale quando si va a fare una titolazione acido/base.

Indicatori acido/base
fonte https://it.wikipedia.org/wiki/Indicatore_(chimica)#Indicatori_acido-base_(o_indicatori_di_pH)

Titolazione dell'Acido Fosforico

L'acido che è presente in maggior quantità nella Coca Cola e in generale in tutte le bevande a base di cola simili, è l'Acido Fosforico H3PO4 che quidi sarà l'acido di cui dovremo determinare la concentrazione.
L'Acido Fosforico, come ogni studente di chimica sa, sititola usando una base forte, generalmente la soda caustica o l'idrossido di potassio, ed è l'acido stesso a fare da indicatore in quanto reagendo con dei sali di ammonio forma un composto giallo paglierino.
Nel caso della Coca Cola, però, il colore molto scuro della bevanda rende impossibile apprezzare questo cambiamento di colore, perciò è necessario trovare un'alternativa.
Inoltre prima di poter effettuare l'aalisi, bisogna allontanare tutta l'Anidride Carbonica, che può dare problemi sia pratici, che nella misurazione del volume.
Il metodo classico che quindi si utilizza è quello potenziometrico, cioè usando uno strumento che misura il pH usando degli elettrodi, tipicamente un elettrodo a vetro.

Curva di titolazione di Acido Fosforico con Idrossido di Sodio
La concentrazione misurata di Acido Fosforico in questo tipo di bevande è circa 0.003 M, che corrisponde a un pH di circa 2.4.
Risultati simili si ottengono anche diluendo la soluzione e quindi riuscendo ad apprezzare il cambiamento di colore al punto equivalente.
Questo valore non deve spaventarci, perchè il nostro stomaco arriva fino a pH 1!

Bisogna fare comunque due considerazioni:
si va a calcolare la concentrazione soltanto dell'Acido Fosforico, nonostante vi siano altri acidi all'interno della Coca Cola, questi però non influiscono in maniera apprezzabile sul pH della bevanda;
c'è inoltre da considerare l'errore dovuto al fattoche l'Acido Fosforico è un acido poliprotico (cioè ha più di un idrogeno acido) e questo rende la titolazione più difficile e quindi soggetta aerrori che vanno poi calcolati, questo errore comunque in soluzione diluite è molto piccolo e inizia a diventare significativo solo per soluzioni molto più concentrate.


Quindi, quanto è acida la Coca Cola?

Abbastanza, tanto da poter essereutile per eliminare una patina sottile di calcare da un bicchiere, ma non tanto da dare problemi al nostro stomaco, che in quanto ad acidità non si batte!




Bibliografia:

  • http://www.treccani.it/90anni/parole/1927-coca-cola.html
  • J. Chem. Educ. 1983, 60, 5, 420 Publication Date:May 1, 1983 https://doi.org/10.1021/ed060p420
  • Martín, Julia, Gloria Cañamares Marin, and Agustin G. Asuero. "Titration Error in Polyprotic Acid-Base Titrations: Applications to Titration of Vinegar, Cola Drinks and Antibiotic Batches."

mercoledì 7 agosto 2019

La chimica dei colori: il blu




 Benvenuti su La chimica dei colori.
Dopo una introduzione in cui vi ho parlato di come si definiscono i colori e dello spettro della luce visibile, veniamo ad argomenti probabilmente più interessanti e pratici e al primo approfondimento su un colore in particolare: il blu.

Definizione di blu


Il blu è uno dei colori percepibili dall’uomo, appartenente pertanto allo spettro del visibile, situato a circa 470 nm fra il ciano e il violetto.

Nella pittura è sempre stato considerato un colore primario, ma secondo la moderna teoria dei colori questo non è corretto, essendo i colori primari il ciano, il magenta e il giallo.

È un colore storicamente molto apprezzato, in particolare dagli antichi Egizi, ma anche dai pittori medievali nonostante fosse molto difficile da reperire e pertanto riservato alla raffigurazione di Cristo o della Vergine, come simbolo di purezza e divinità.

Non era invece molto popolare fra Gregi e Romani, in quanto veniva associato al colore azzurro degli occhi dei barbari.

Un piccolo excursus: coloranti, pigmenti e lacche


Prima di lanciarci nella storia di questo colore, è utile dare qualche definizione che ci aiuti a capire la differenza fra i diversi tipi di sostante colorate utilizzate dall’uomo.


I pigmenti sono generalmente i più comuni, in particolare se si parla di arte pittorica. Sono chiamati anche “terre” in quanto sono costituiti da polveri di varia natura (più spesso di origine minerale) insolubili nel mezzo in cui sono utilizzate, che vengono applicate tramite dispersione meccanica.


I coloranti invece sono sostanze organiche (possono essere sia naturali che di sintesi) solubili in un solvente. Essi si legano direttamente alle molecole dell’oggetto da colorare (ad esempio un tessuto) e impartiscono una colorazione stabile non solo superficiale ma su tutta la massa.


Le lacche, infine, sono pigmenti ottenuti rendendo insolubili dei coloranti, o precipitandoli come sali insolubili di cationi metallici o, a seconda della natura del colorante, facendoli reagire con poliacidi complessi.

Il blu: un colore difficile da trovare


Nell’antichità il grande problema del blu fu la sua reperibilità. La fonte principale per il pigmento blu fu il Lapislazzulo, i cui giacimenti si trovavano dove ora sorge il moderno Afganistan, o il più abbondante minerale Azzurrite, un carbonato di rame che però presentava dei problemi di stabilità.

Lapislazzulo
 
La vera svolta avvenne nell’Antico Egitto, grazie a quello che è passato alla storia come Blu Egizio, quello che può essere considerato il primo pigmento di sintesi della storia.

La sua formula chimica è (CaCuSi4O10) e la sua produzione iniziò più di 5200 anni fa e fu conosciuto anche da Greci e Romani e persino in Mesopotamia.

Manufatto dipinto con il Blu Egizio

La sua sintesi partiva da materiali facilmente accessibili come il limo, la sabbia e minerali quali azzurrite o malachite, ma non sappiamo come questa produzione fu iniziata e perfezionata fino ad arrivare al prodotto che è giunto fino a noi, sappiamo però che per oltre 4000 anni la sua composizione è rimasta invariata e che quindi si può presumere che gli antichi egizi arrivarono ben presto alla formula definitiva. In ogni caso la sintesi di questo pigmento comportava anche l’aggiunta di additivi come sale o cenere di papiro, e un controllo costante della temperatura, che doveva mantenersi sempre fra gli 800° C e i 900° C, e considerando che all’epoca non si disponevano di strumenti per misurarla come i termometri, non doveva essere affatto un compito facile.

Simile al Blu Egizio è quello che viene chiamato Han Blu, un pigmento rinvenuto in Cina e che presenta con il più famoso fratello occidentale, una struttura chimica che differisce unicamente per la presenza del Bario (Ba) al posto del Calcio (Ca).
Generico MCuSi4O10

Dopo la caduta dell'Impero Romano, il Blu Egizio praticamente scomparve dall’arte, fino ai tempi moderni dove è stato riscoperto dagli archeologi e riprodotto in laboratorio dai chimici.

Più che per le sue doti artistiche, però, questo pigmento è oggi studiato per le sue caratteristiche chimico-fisiche molto interessanti: la sua struttura cristallina particolare fa sì che riesca ad assorbire radiazioni infrarosse.

Una frase del genere potrebbe non voler dire nulla a chi non è del mestiere, ma in realtà è una caratteristica importantissima e che può portare a moltissime applicazioni in vari campi.

Il primo e più comune è quello sempre crescente della diagnostica dei beni culturali, cioè quella scienza che si occupa di esaminare opere d’arte o reperti archeologici per stabilirne le caratteristiche, la provenienza, l’epoca storica o per valutarne l’autenticità. Naturalmente questo lavoro è molto delicato e la ricerca di metodi che riescano a trarre molte informazioni senza che l’oggetto in esame venga rovinato è sempre aperta. Fortuna vuole che questo antico pigmento, così comune in reperti di epoca egizia sia visibile a strumenti che emettono radiazioni Infrarosse e che quindi possa essere riconosciuto facilmente e senza andare ad intaccare in alcun modo l’oggetto.

L’assorbimento di radiazione IR, comunque, è una porta aperta anche sul mondo delle comunicazioni e delle tecnologie ad esse legate, e lo studio del pigmento Blu Egizio si muove anche in quella direzione, chissà se fra qualche anno non avremo fibre ottiche o computers fatti proprio di questo materiale!

Il blu nei secoli


Come ho detto, dopo la caduta dell’Impero Romano, del Blu Egizio si perde ogni traccia. Durante il Medioevo il blu diventa un colore estremamente raro e l’unica fonte era rappresentata dall’Acquamarina, un minerale molto prezioso. Nel Rinascimento pertanto il blu divenne simbolo di purezza associato al mantello della Vergine Maria, o di divinità associato alla figura di Cristo.

Bisogna aspettare il 1704 prima di avere un primo pigmento di sintesi, il cosiddetto Blu di Prussia: venne scoperto casualmente da Diesbach che stava tentando di sintetizzare un pigmento rosso utilizzando sali di potassio e alcali. Questo è un sale di Ferro, per la precisione un ferrocianuro ferrico, ed è utilizzato spesso nei saggi per la determinazione della presenza di cianuro o come chelante nel trattamento di avvelenamento da metalli pesanti. È il colore nazionale francese ed era usato per colorare le uniformi degli eserciti napoleonici.

Blu di Prussia

Grandissima importanza storicamente ha avuto il Cobalto per la produzione di pigmenti blu sintetici, in combinazione di ossido con alluminio, fosforo, zinco e altri materiali per dare una grande varietà di sfumature.
Indigofera Tinctoria
Infine è impossibile non nominare l’Indaco: non è un pigmento, ma un colorante estratto dalla pianta Indigofera Tinctoria; all’interno di questa pianta vi è il precursore dell’indaco, l’indacano, il quale viene privato del glucosio tramite un enzima e infine ossidato all’aria per dare l’indaco. La tintura della stoffa si ha pertanto immergendola in una soluzione di indacano ed enzima (che è incolore o leggermente giallina) e lasciandola poi asciugare all’aria. I tessuti tinti con questo colorante, grazie proprio al metodo usato, non tendono a scolorire come quelli tinti con altri coloranti.

 

Bluetiful


Dopo la sintesi del Blu Cobalto (1802) sono passati più di 200 anni prima che si sintetizzasse una nuova tonalità di blu: l’YInMn Blue (Y=Ittrio ; In=Indio; Mn=Manganese).

Noto anche come Mas Blue, è un pigmento inorganico blu scoperto per caso dallo studente Andrew Smith nel laboratorio del professor Mas Subramanian presso l'Università statale dell'Oregon nel 2009. Smith stava effettuando degli esperimenti per ottenere una fibra ad alta conducibilità elettrica mediante ossidi di Ittrio, Manganese e Indio. Dopo averli messi in forno a quasi 1200° F (circa 649°C) ottenne un impasto che non aveva le proprietà richieste, ma che era di colore blu brillante e che rifletteva in modo insolito la radiazione IR.

YInMn Blue o Mas Blue

Questo nuovo pigmento era inoltre privo di tossicità (a differenza del blu cobalto o del blu di prussia), incredibilmente stabile e la sua capacità di riflettere l’infrarosso lo faceva essere meno soggetto a riscaldamento e quindi adatto a essere usato come vernice per automobili o nel restauro dei dipinti.

Dopo la scoperta, è stato aperto al pubblico un concorso per poter stabilire un nome commerciale di questa nuova tonalità e alla fine l’azienda di pennarelli Crayola, nel 2017, lo ha finalmente commercializzato con il nome vincitore: Bluetiful.




 

 

Bibliografia:

  • Berke, Heinz. "Chemistry in ancient times: the development of blue and purple pigments." Angewandte Chemie International Edition 41.14 (2002): 2483-2487.
  • J.R. Barnett et al. / Optics & Laser Technology 38 (2006) 445–453
  • Philip McCouat, "Egyptian blue: the colour of technology", www.artinsociety.com
  • Accorsi, Gianluca, et al. "The exceptional near-infrared luminescence properties of cuprorivaite (Egyptian blue)." Chemical Communications 23 (2009): 3392-3394.
  • García-Fernández, Pablo, Miguel Moreno, and José Antonio Aramburu. "Origin of the exotic blue color of copper-containing historical pigments." Inorganic chemistry 54.1 (2014): 192-199.
  • http://www.artspecialday.com/9art/2017/05/20/la-scoperta-yinmn-blue/
  • https://it.wikipedia.org/wiki/YInMn_Blue