Il micromondo

Provate a dire ad un fisico teorico che un positronio – costituito da un elettrone e dalla sua antiparticella (il positrone di egual massa Me) – è stabile per un tempo medio di un decimiliardesimo di secondo, poi si disintegra in due fotoni gamma (di massa nulla); vedrete che non batterà ciglio, anzi aggiungerà che la cosa è stata verificata sperimentalmente nel secolo scorso dopo soĺo qualche anno che Dirac ipotizzò l’esistenza del “suo mare”.
Ma come reagisce un comune mortale sentendo parlare di antiparticelle (cioè di antimateria), disintegrazione, decimiliardesimo di secondo, “particelle” di massa nulla, mare di Dirac ….
Non può che pensare ad un racconto fantascientifico !!
E invece è tutto assolutamente scientifico oltreché prodigioso, basta utilizzare la famosa e semplicissima formula di Einstein

E = 2Me•c2 = 2h•c/λ

da cui si ricava:

λ = h/(Me•c)

essendo:

λ             [m]        la lunghezza d’onda dei due fotoni emessi da calcolare

h            [J/s]       la costante di Planck pari a 6,6•10-34 (6,6 quadrimiliardesimi di Joule per secondo)

2Me         [kg]        la massa di elettrone + positrone pari a 2•9,1· 10−31 (10 trimiliardesimi di kg ciascuna)

c             [m/s]     la velocità della luce pari 3•108 (300 milioni di metri al secondo)

Il 2 a destra della formula perchè i fotoni creati sono due(1)

Facendo i calcoli si ottiene:

λ = 6,6/(9,1•3)•10 (-34+31-8) = = 0,24•10-11 [m]

Tenendo conto che i fotoni gamma hanno lunghezza d’onda inferiore a 10-10 m, lo spettro di emissione e’ proprio quello dei raggi gamma.

Fortunatamente questa reazione è reversibile(2) perché con tutti i raggi gamma che arrivano sulla terra dagli spazi siderali, se non si disintegrassero e se non lo facessero così velocemente avrebbero il tempo di attraversare l’atmosfera e pioverci addosso impedendo la sussistenza della vita sulla terra(3).

Purtroppo il personale di volo, soprattutto quello destinato ai voli intercontinentali, volando anche oltre 10 km di altitudine, un bel po’ di fotoni gamma se li beccano ed è per questo che purtroppo invecchiano così velocemente.   

27/01/2023

Gianfranco Pellegrini

NOTE

(1) I due fotoni si allontanano dal punto della reazione in direzioni opposte – uno con spin 1/2 e l’altro con spin -1/2 – ed avranno entrambi lo stesso tipo di polarizzazione circolare : entrambi destrogira oppure entrambi levogira. Si tratta di un caso di “entanglement” oggetto, come noto del famoso paradosso EPR (Einstein-Podolsky-Rosen) e oggetto dell’ultimo premio nobel per la fisica (2022).

(2) In questo caso i due fotoni sono in avvicinamento da direzioni opposte sempre con lo stesso tipo di polarizzazione circolare (CD oppure CL).

(3) Ci si potrebbe chiedere, perchè i fotoni gamma diretti verso il pianeta terra non si trasformano in positronio negli spazi siderali e invece lo fanno durante l’attraversamento della atmosfera. In realtà in minima parte ciò accade anche fuori dall’atmosfera ma si tratta di casi rarissimi in quanto la densità media di materia dello spazio fuori dall’atmosfera è di appena un atomo di idrogeno ogni m3 (in pratica lo spazio è vuoto), dunque i fotoni non possono essere deviati. Appena iniziano ad attraversare l’atmosfera, essi incontrano molecole di materia che li deviano creando le condizioni affinchè possano collidere fra loro dando origine al positronio.

Gli operatori

Son sempre rimasto affascinato dal concetto fisico di “operatore”, dove il nome sta effettivamente ad indicare (già dai tempi del tardo latino [operator -oris]) colui che opera, “colui che agisce”, colui che compie determinate operazioni o determinate azioni. Naturalmente ogni operazione/azione implica dei cambiamenti per cui un operatore è una “entità” in grado di modificare lo stato (delle cose o della realtà).

Per essere un po’ più scientifici possiamo definire un operatore come una “applicazione” che riceve qualcosa (in input) e restituisce qualcosa (in output). Chiamando “stato iniziale” (delle cose) quel “qualcosa ricevuto in input” e “stato finale” (delle cose) quel “qualcosa restituito in output” possiamo generalizzare il concetto di operatore affermando che: “un operatore è una applicazione in grado di trasformare uno stato iniziale in uno stato finale”.

Un banale esempio di operatore è l’operatore “addizione” il cui simbolo è “+” che è in grado di trasformare uno stato iniziale costituito da due o più numeri chiamati “addendi” in uno stato finale costituito da un numero chiamato “somma”; naturalmente affinchè sia valida l’affermazione testè enunciata – oltre a indicare dettagliamente tutta la sequenza di operazioni che l’operatore deve svolgere –  occorre specificare tutta una serie di regole del gioco come ad esempio occorre:

  • che gli stati iniziale e finale siano entrambi rispettivamente contenuti nell’insieme di elementi sui quali l’operatore opera (viene applicato) e tali stati non devono contenere elementi estranei(1)
  • definire una regola generale che consenta all’operatore di effettuare l’operazione qualunque siano gli elementi appartenenti allo stato iniziale e allo stato finale
  • che l’operazione non venga perturbata da effetti di disturbo estranei in grado di modificare l’esito dell’operazione
  • ecc.

Poi ogni operatore avrà proprietà particolari; in particolare l’operatore addizione gode di molte proprietà come ad esempio:

  • è commutativo
  • è associativo (e dissociativo)
  • se ad un numero in input si aggiunge un elemento neutro chiamato “zero” e indicato con il simbolo “0” lo stato iniziale non cambia (cioè lo stato finale coincide con lo stato iniziale)

Facciamo ora un altro esempio di operatore chiamato “operazione chirurgica” (OC) e costituito da un insieme di elementi essenziali all’effettuazione dell’operazione quali:

  • il chirurgo (C)
  • l’anestesista (A)
  • la sua equipe (E)
  • la sala operatoria (SO)
  • tutti gli altri accessori necessari ad effettuare l’operazione

Per semplificare la descrizione trascuriamo per un momento gli aspetti quantitativi e qualitativi(2) (come ad esempio la bravura del chirurgo, l’adeguatezza della sala operatoria, il grado di igiene dei locali, l’adeguatezza degli accessori, ecc.) e concentriamoci solo sull’aspetto booleano (il chirurgo c’è/non c’è, l’anestesista c’è/non c’è, ecc.).

L’operatore OC è costituito da elementi e/o sottoinsiemi da sommare booleanamente fra loro cioè, affinchè l’operazione possa avvenire è necessario che: (OC =1) solo se (C = 1) and (A = 1) and (E = 1) and (SO = 1) ……

Attenzione ho scritto “solo se” (simbolo ⇒) e non “se e solo se” (simbolo ⇔) in quanto:

  • se non ci sono tutti gli elementi essenziali per effettuare l’operazione, OC non è in grado di operare

mentre

  • possono esserci tutti gli elementi essenziali per effettuare l’operazione anche senza che OC operi per forza

In questo esempio lo stato iniziale è costituito dal paziente malato (PM) e lo stato finale dal paziente guarito (PG).

Anche nel caso dell’operatore OC valgono regole del gioco da rispettare simili a quelle sopra menzionate, ma anche altre non citate in precedenza inerenti le operazioni possibili fra operatori quali ad esempio:

  • la somma di OC1 + OC2 : significa che vengono operati due pazienti diversi oppure che lo stesso paziente subisce due operazioni;
  • ecc.

Nel caso particolare in cui lo stesso paziente subisca due volte la stessa operazione abbiamo OC x OC = OC2.

Ci sono naturalmente differenze di comportamento fra l’operatore “addizione” e l’operatore OC: ad esempio mentre il risultato dell’operazione “addizione” è certa (algoritmica), l’operazione OC non è certa (aleatoria) in quanto (continuando nella semplificazione booleana) l’esito dell’operazione può portare lo stato finale a “guarito” come anche lasciare il paziente nello stato iniziale “malato” cioè può lasciare lo stato inalterato come peraltro farebbe l’operatore “addizione” nel caso particolare in cui operasse con l’elemento neutro “zero”(3).   

Si potrebbe andare avanti a oltranza con considerazioni di questo tipo e si arriverebbe a concludere che è possibile applicare tutti gli stessi ragionamenti e teoremi che si applicano sugli operatori logico/matematici a qualunque tipo di operatore (compresi gli operatori ecologici, quelli di borsa, quelli quantistici, ecc.).

Voglio però concentrare la mia attenzione sull’operatore “ritardo” (U(4)) che consiste nel lasciare lo stato iniziale “in attesa” per un certo lasso di tempo ∆t. Dopo questa attesa lo stato riprende ad evolvere apparentemente senza alcun tipo di conseguenza. Ebbene, il fatto che non abbia conseguenze è quasi sempre falso; pensiamo ad esempio ad una catena di montaggio: in un caso come questo l’applicazione dell’operatore U ha molteplici conseguenze dirette ed indirette come ad esempio perdita di produttività, sfasamenti sull’intero ciclo di produzione, ecc. Non sto dunque parlando di qualcosa di astratto ma di un operatore maledettamente concreto realizzabile ad esempio aggiungendo un operatore chiamato “temporizzatore” nel listato di programma del PLC che comanda e controlla la catena di montaggio !!

L’operatore U è applicabile in tutti gli ambiti possibili e immaginabili (in realtà anche in quelli inimmaginabili) come la nostra vita quotidiana, i mezzi pubblici, ecc.; in qualsiasi ambito concreto in cui agisce genera effetti tangibili.  

Oltre al temporizzatore (timer), altri esempi di operatore U sono i guasti, gli incidenti, alcune tecniche di meditazione trascendentale, gli aumenti di velocità, ecc.

Torino, 21/01/2023

Gianfranco Pellegrini

NOTE

(1) Non tutti gli operatori hanno questa proprietà (che si chiama “chiusura”); ad esempio l’operatore “prodotto vettoriale” PV (non a caso anche chiamato “prodotto esterno”) contrariamente al “prodotto scalare” (non a caso anche chiamato “prodotto interno”)  produce uno stato finale esterno allo stato iniziale; facendo il semplice esempio dello spazio R2 (geometricamente rappresentabile dal piano cartesiano XY), l’operatore PV trasforma elementi dello spazio iniziale R2 in elementi dello spazio spazio R3 esterni allo spazio R2 (seppur R2 sia contenuto in R3).

(2) Nel caso in cui si volessero tenere in conto anche questi aspetti occorre identificare per ogni elemento essenziale una scala di valori quantitativa e/o qualitativa e dare un valore a ciascun elemento.  

(3) Anche in questo caso, una analisi meno semplicistica porta ad identificare una scala di valori che consenta di dare un punteggio al grado di bontà dell’intervento.  

(4) Lo ho chiamato U perché in meccanica quantistica viene indicato con questo simbolo; in questo ambito ricopre un ruolo importantissimo perché è legato all’energia del sistema. Non mi dilungo oltre in questa sede perché svilupperò questo tema in modo dettagliato in un prossimo articolo dedicato alle leggi di conservazione e alle simmetrie in meccanica quantistica, nonché alle relazioni esistenti fra:

–             inversione/riflessione, operatore P, coefficiente δ, e parità

–             rotazione, operatore R(ϑ), coefficiente m e spin     

–             traslazione spaziale, operatore D(r), coefficiente k e impulso

–             traslazione temporale, operatore U(τ), coefficiente ω ed energia  

Polymeric form of water

From what has been seen so far it is easy to see the polar associations of water molecules will hardly be maintained at temperatures above 100°C. In reality, the dimeric form also coexists in the vapor state at temperatures well above 100°C(1). But we are interested in what happens at temperatures below 100°C where, as the temperature decreases, increasingly more complex oligomeric forms begin to appear. In particular, the molecules can associate in single file to form progressively longer linear chains (aliphatic forms), or assume closed chain forms (associations of the aromatic type).

Without going into too much detail on the physics underlying this matter, the so-called “continuous model” (also called polymeric model) corresponds to knowing the structure of water under certain conditions of temperature and pressure and is equivalent to being able to answer the following points:

– Know the number of molecules involved respectively by zero, one, two, three or four hydrogen bonds

– Knowing how many of the molecules involved in the hydrogen bonds form open-chain or closed-chain oligomers

– identify the typological form according to the number of cycles or open chains

If we add the fact that everything is played in domains ranging in size from 3 to 20 Angstrons, it is easy to understand why we are far from being able to aspire to experimental confirmations while there are several valid numerical simulations.

The simulation of a few thousand molecules already requires significant computing resources; the simulation of an entire drop of water (consisting of about 10E21 molecules) would be much more expensive. The polymeric model considers liquid water as a network of more or less regular hydrogen bonds and responds very well to many purely chemical questions. valid numerical simulations.

This theory is preferred by chemists; physicists prefer the “discrete model” where water is made up of a myriad of microscopic icicles, each made up of no more than a hundred molecules and having a very short average life (the time between formation of the icicle and its dissolution is equal to about one pico-second). The reason for this preference is that this model, unlike the polymeric one, can be found experimentally through the use of infrared or Raman spectroscopy. In choosing between the two approaches we are therefore faced with the dilemma of a model – the continuous one – which cannot be tested but which manages to explain almost all the so-called “anomalous” behaviors of water, compared to the discrete model which can be found experimentally but which cannot explain many of the anomalous behaviors of liquid water.

However, let’s see the discontinuous model in a little more detail and check how it differs from the continuous model. Let’s start by trying to understand what ice exactly is and why it forms. As the temperature drops, the thermal energy is less and less able to contrast the aggregating effect of the hydrogen bonds which favor the formation of linear and cyclic polymers with a percentage increase of the cyclic form compared to the linear one as the temperature drops. In particular, in cold water the concentration of aggregates with five molecules (pentamers) and six molecules (hexamers) are predominant compared to aggregates with lower or higher numbers of molecules(2). Analyzing the ice by X-ray (or even better neutron) diffraction we find the typical hexagonal lattice; for obvious electrostatic reasons, the various layers could never be pentagonal, under penalty of instability of the crystalline structure. Therefore, below 10°C, the hexagonal cycles begin to aggregate with each other, expanding and forcing the pentagonal cycles to occupy the remaining interstices. Below 0°C the hexamers become predominant and tend to occupy all the spaces, forcing the few remaining pentamers to disintegrate, to “escape” from the crystalline matrix in formation and return to monomeric molecules. At this point it is also easy to understand why ice, being formed solely of hexagonal layers regularly superimposed on each other, is less dense than cold liquid water (i.e. at a temperature between 0°C and 4°C) where the gaps still incomplete hexagonal matrices are filled by pentamers(3).

The “microscopic icicles” model predicts a part of completely disordered molecules in which parts each formed by only a hundred completely ordered molecules in hexagonal form are included. It is difficult to explain how so few ordered molecules have the energy to tend to break up or, even worse, to aggregate new unrelated water molecules. Furthermore, since we are not dealing with a homogeneous medium, the energy would be exclusively of the interfacial type. However, these problems do not arise for the polymeric model as it is all homogeneously made up of polymers of various sizes, many of which are branched, both linear and cyclic.

Based on these considerations we tend to prefer the continuous model and in the next in-depth articles we will completely abandon the discrete model.

Then in a study of further detail we will be forced to abandon also the polymeric model to arrive at the interfacial water model(4).

Turin january, 24 2022

Gianfranco Pellegrini

Notes

(1) See note (11) of the previous article “Simple chemistry applied to water”.

(2) The graph below indicates the concentration of the various polymers in cold water. As can be seen,

       pentamers stand out with a concentration close to 40% and hexamers with a concentration of around

       25%.

3) Anyone who lives in cold places knows that to prevent the water pipes from breaking, it is necessary to prevent freezing. In reality, it is not so much the freezing that breaks the pipes, but the increase in specific volume (i.e. the reduction in density). Given that the maximum is obtained at 4°C when the water is still liquid, it is incorrect to say that freezing must be avoided. In reality it is expected to keep the temperature of the water in the pipes above 4°C but most people think that this is just a safe temperature above the risk zone. Well, if you want to maintain a safety zone you must still keep it above 4°C (e.g. 7°C or, even better 9°C) which is what you do when you set the anti-ice function in the heating systems in the mountains.

4) The so-called “polywater” model has not brought much success to the in-depth studies of this precious substance. In fact, the so-called “polywater disaster” was one of the two incidents (the other being the famous “Benveniste affair”), which prevented scientists from progressing in water studies. In the 1960s, the Russian chemist Nikolai Fedyakin discovered that water, under certain conditions, became difficult to freeze and/or vaporize. He turned to the greatest Russian chemist of the time (Boris Derjaguin) who was fascinated by the discovery and dedicated an entire research team to deepening this phenomenon. The desire for easy sensationalism on the part of an incautious journalist led him to write that a drop of polymerized water dropped into the ocean would lead to the polymerization of all the water in the globe, transforming it into a useless jelly. The Cold War did the rest: let’s not forget that it was the time when the USA and the USSR were competing to excel and the USSR had already scored some important coups in the aerospace field. The “polywater” became so ridiculous that Derjaguin himself was forced to give in.

La bellezza dell’indeterminismo

Come una lente concentra i raggi solari in un fuoco incandescente, la determinazione è un concentrato di indeterminazione. 

Il determinismo altro non è che un caso particolare dell’indeterminismo: è quel caso in cui il molteplice “collassa” nel singolo. Con linguaggio matematico potremmo dire che il determinismo è il limite che tende a “uno” del ventaglio di scelte possibili.

La logica è fatta anche di “or”, e proprio per questo non consente di inanellare sequenzialmente un “and” dietro l’altro a formare una catena di cause-effetti. Dopo ogni “and” è necessaria una pausa contemplativa per poter gustare tutti i possibili “or” che riusciamo a concepire con la nostra mente, e se non ne troviamo ci vediamo costretti a fare un passo indietro con un risoluto “not”; ma anche dopo un “not” guai a perseverare con un “and”, perché ci porterebbe in un vicolo cieco: cerchiamo anche in questo caso tutti gli “or” possibili che ci consentano di sperimentare vie alternative.

Il creativo davanti a una “tabula rasa” non parte certo da un “and”: riceve piuttosto in dono una molteplicità di “or” che fatica a contenere perché gli arrivano in testa incessantemente come una pioggia di meteori; putroppo sarà costretto ad operare una scelta fra tutti i meravigliosi “or” che ha il privilegio di poter contemplare e li fa “collassare” mediante un atto deterministico in un elemento montono, cioè privo di armoniche, cioè non armonioso. Ma il “collasso” è necessario per poter consentire ad un nuovo “and” di aprire una nuova finestra verso uno spazio costellato di nuovi “or” e così via come l’albero che, partendo da una molteplicità di foglie, si contrae in rami sempre più radi fino al tronco finale che sarà l’oggetto creato. Purtroppo anche  al creativo mancherà il coraggio di immergersi sotto terra per diramarsi nuovamente fra le radici.

Nonostante Darwin e nonostante le generazioni di biologi classificatori di questi due ultimi secoli, la natura fortunatamente è indeterminata, è complessa, è emergente, è anti-entropica.

Anche le neuroscienze stanno scoprendo una realtà indeterministica.

Gli scienziati che si occupano di esperimenti cognitivi hanno cominciato a fare grossi passi avanti da quando si son liberati dell’approccio deterministico ed hanno cominciato a interpretare la realtà in ottica concettualistica.

Persino i fisici – conservatori per loro natura – grazie alla meccanica quantistica, sono approdati all’indeterminismo: non parlo dell’inspiegabile indeterminismo alla Heisemberg della prima metà del secolo scorso, bensì di quello vero e spiegabilissimo intravisto da Bell nel 1964 e sancito dal nobel 2022 riconosciuto ad Aspect, Clauser e Zeilinger. Anzi, molti fisici ormai hanno intuito che le teorie quantistica e relativistica sono incomplete e che sono “completabili” solo a patto di smettere di considerare le entità fisiche come oggetti e cominciare a trattarli come concetti. Aerts, Sassoli de Bianchi, Sozzo e Veloz, col loro articolo appena pubblicato “Sull’interpretazione concettualistica della teoria quantistica e relativistica”, hanno puntato un faro illuminante in questa direzione che speriamo consenta di risolvere molte difficoltà interpretative di questo nostro mondo.  

Tutto questo per dire che l’uomo si ostina a non capire che il determinismo è quella catena di cause-effetti, cioè quella catena di “and” che lo lega spalle al mondo nella caverna platonica impedendogli di contemplare tutti i meravigliosi “or” di cui l’universo è costellato.

Questa catena si chiama “pregiudizio ontologico” e prima ce ne liberiamo prima i nostri occhi si apriranno a nuovi spazi e nuove dimensioni.

Torino – 3 novembre 2022

Gianfranco Pellegrini

L’acqua è un liquido quantistico (parte 1)

Nell’articolo precedente abbiamo introdotto il concetto di “Exclusion Zone” (EZ) dell’acqua, spiegando che queste zone godono di particolari proprietà(1) difficilmente spiegabili con l’artificiosa introduzione di potenziali elettrostatici classici applicati alla dinamica intermolecolare al solo fine di poter dare una plausibile interpretazione alle osservazioni sperimentali(2). Ragionando in questa scala di valori, liberare un elettrone dalla molecola d’acqua richiede un’enorme quantità di energia(3) assolutamente non raggiungibile mediante l’interazione elettrostatica fra molecole d’acqua adiacenti. Dunque la capacità riducente mostrata dall’acqua non può essere attribuita a fenomeni elettrostatici circoscritti ma va ricercata in una ben più intensa interazione di natura collettiva che coinvolge la dinamica di un gran numero di molecole. In questo articolo approfondiremo le implicazioni dell’elettrodinamica quantistica (QED) sulla termodinamica dell’acqua(4) e scopriremo come e perché tali implicazioni potrebbero giustificare l’effetto riducente non attribuibile alla ionizzazione.

Se eccitato da un campo elettromagnetico di fondo (vuoto quantistico), un insieme di molecole d’acqua può entrare in oscillazione tra due sue configurazioni interne. Ciascuna molecola d’acqua ha le dimensioni di circa 2 Angström (Å), mentre l’energia necessaria per consentire una transizione energetica da uno stato al successivo è pari a 12,06  eV e dunque, un fotone è in grado di fornire tale energia solo se la sua lunghezza d’onda è pari ad almeno circa 158 Å (5), cioè 80 volte più grande del diametro di una molecola d’acqua. Si tratta di verificare se le molecole d’acqua stanno fra loro sufficientemente vicine da poter essere eccitate contemporaneamente da uno stesso fotone dando luogo ad un processo di oscillazione collettiva che coinvolge tutte le molecole investite dal fotone.

Una prima molecola d’acqua eccitata da un fotone incidente può decadere rilasciando al fondo ambientale l’energia ricevuta oppure può trasmettere tale energia ad una molecola vicina eccitandola. Chiamando P la probabilità di eccitazione di una seconda molecola, N il numero di molecole presenti nel volume V = λ3 “investito” dal fotone ed n  = N/V la densità molecolare dell’acqua, ci sarà un valore critico di n (ncr), corrispondente ad un valore critico di V (Vcr = N/ncr) tale che PVncr = 1.

Tenendo conto del fatto che:

  • la distanza intermolecolare fra due molecole d’acqua contigue è pari a d = 17,6 Å (6)
  • il volume d’azione del fotone è pari a V = λ3 = 1583 = 3.912.534 Å3
  • il numero massimo di molecole contenibile nel volume V è pari a N = V/(d3·0,74048) = 1.852(7) molecole
  • n = N/V = 1.852/3.912.534 = 0,000473337 molecole H2O/ Å3

la massima probabilità P di eccitazione di una seconda molecola da parte della prima è pari a P = 1/V·n = 0,05%.

D’altro canto il fotone non ha alcuna probabilità di tornare al fondo ambientale e dunque resta intrappolato nell’insieme di molecole d’acqua. Ciò avviene per tutti i fotoni provenienti dal fondo ambientale e in brevissimo tempo, all’interno dell’insieme delle molecole contenute nel volume V, si crea un grande campo elettromagnetico crescente: è quel che gli scienziati chiamano Dominio di Coerenza (CD).  

Secondo un teorema generale di elettrodinamica, le altre molecole che transitano vicino al CD vengono attratte dalla risonanza al suo interno producendo l’enorme aumento di densità effettivamente osservato nella transizione vapore-liquido che termina solo quando i nuclei “duri” delle molecole vanno a stretto contatto fra loro. Il valore di saturazione raggiunto dall’acqua liquida è 1.600 volte più alto della densità del vapore acqueo. Secondo i calcoli matematici(4), la dinamica che si instaura mette gli elettroni in oscillazione permanente fra lo stato fondamentale e lo stato eccitato a 12,06 eV(8).

Il CD mantiene permanentemente al suo interno un campo elettromagnetico attivo di lunghezza d’onda pari a 158 Å, ossia 41,1·1013 Hz o ancora 165 eV. Secondo una proprietà generale della teoria quantistica dei campi, la frequenza del campo generato all’interno del dominio di coerenza è circa 7,5 volte inferiore a quello del campo libero. Questa rinormalizzazione della frequenza del campo per adeguarsi alla frequenza del CD è la causa del suo “auto-intrappolamento” ed elimina di fatto l’effettiva distinzione fra materia e campo. In realtà, ciò che otteniamo è un’intima “miscela” di materia e campo che potremmo definire “materia energizzata”(9).  

Il meccanismo di “auto-intrappolamento” si può capire bene partendo dalla definizione di massa relativistica m:

m2 = E2 – c2p2 = h22 – c22)

essendo p il momento e ν la frequenza (nel campo libero ν = c/ λ perché come noto il fotone ha massa zero).

Come abbiamo visto all’interno del CD, ν2 – c22 < 0 e dunque, apparentemente, il fotone avrebbe una massa negativa (o più precisamente una massa immaginaria). Ciò significa che non si può propagare come particella e si manifesta sottoforma di energia di coesione del CD.

In accordo con i calcoli matematici(4), una molecola d’acqua all’interno del CD si trova in una sovrapposizione fra stato fondamentale con probabilità pari a 0,87313 e stato eccitato con probabilità pari a 0,12687 e dunque mediamente l’energia di eccitazione è pari a 12,06 · 0,12687 = 1,53 eV, mentre il campo elettromagnetico intrappolato richiede un’energia pari a 3,55 eV per molecola.

Tuttavia l’energia di interazione tra il campo elettromagnetico intrappolato e la corrente elettrica prodotta dall’oscillazione della nuvola elettronica molecolare dà luogo ad un valore negativo di -5,34 eV, producendo un saldo netto di -0,26 eV per molecola; tale valore corrisponde anche alla frequenza di oscillazione collettiva coerente di tutte le molecole all’unisono all’interno del CD. Interpretando il fenomeno in questo modo, l’insorgenza della coerenza elettrodinamica corrisponde ad un abbassamento dell’energia totale e contemporaneamente ad un abbassamento della sua entropia poiché la coerenza prescrive un moto comune a tutte le molecole, riducendo nettamente il numero di microstati, il cui logaritmo è proprio proporzionale all’entropia.

Proseguiremo questa trattazione nel prossimo articolo.  

Torino – 26 settembre 2021

Gianfranco Pellegrini

Note

  1. Per una trattazione dettagliata della EZ si rimanda a Zheng JM, Chin WC, Khijniak E Jr, ed al. – Surfaces and interfacial water: evidence that hydrophilic surfaces have long impact. – Ad Colloid Interface Sci 2006; 23: 19-27. Qui si riassumono brevemente le principali caratteristiche della EZ:
    • All’interno della EZ l’acqua è pura e priva di qualunque altra sostanza in soluzione o in sospensione
    • L’acqua nell’EZ ha una viscosità superiore a quella dell’acqua normale
    • L’acqua in EZ è riducente mentre l’acqua normale è un blando isolante quindi, nell’interfaccia EZ / acqua normale, si realizza una pila REDOX la cui differenza di potenziale può raggiungere qualche frazione di Volt
    • La EZ diventa fluorescente se sottoposta a UV con frequenza pari a 2.700 Å.
  2. Franks ed al. – Water, a comprehensive treatise. 7° Vol. – New York, Usa: Plenum Press, 1982
  3. Si tratta di 12,6 eV. La frequenza necessaria per rilasciare questa energia corrisponde a 12.6 / 4.136 * 10-15 = 3.05 * 1015 Hz, cioè circa 3 PHz. La banda degli ultravioletti è compresa fra 0,75 PHz e 30 PHz, dunque per ottenere effetti ionizzanti sulla molecola d’acqua è necessaria una radiazione ultravioletta.  
  4. Arani R, Bono I, Del Giudice E, e al. – QED coherence and the thermodynamics of water – Int J Mod Physics 1995; 9: 1813-41
  5. λ = h·c/E = (1,054572 · 10-16 · 299.792.458/12,06) · 1010 ≈ 158 Å (essendo h la costante di Plank, c è la velocità della luce e λ la lunghezza d’onda).
  6. Nella molecola d’acqua la distanza intramolecolare (cioé la distanza tra atomi appartenenti alla stessa molecola) é pari a 10 Å mentre la distanza intermolecolare e’ pari a 17,6 Å. Come si vede questa distanza é molto inferiore a quella che avrei sommando i raggi di Van der Waals dei 2 atomi, anche se maggiore della distanza intramolecolare del legame covalente. Questo indica che il legame intermolecolare che si instaura ha delle proprietá particolari, tanto da meritare il nome speciale di legame idrogeno.
  7. Il numero 0,7048 deriva dalla soluzione del problema matematico conosciuto col nome di “impacchettamento di sfere” e riguarda la disposizione di sfere identiche non sovrapposte che riempiono uno spazio; questo problema trova applicazione pratica ad esempio nel confezionamento delle arance o nel trasporto delle angurie. Si tratta di un problema apparentemente semplice da risolvere ma che ha coinvolto menti del calibro di Keplero, Gauss, Töth; solo nel 1998 Thomas Hales annunciò la dimostrazione della congettura di Keplero: i “giudici” sentenziarono di essere “certi al 99%” della precisione della prova fornita da Hales, così la congettura di Keplero è stata “quasi” certamente provata. In pratica Hales ha “quasi” dimostrato che in ogni disposizione possibile, ogni sfera è circondata da altre 12 sfere e la densità media di ciascuna disposizione è pari π/√18 = 0,7048.
  8. Lo stato eccitato raggiunto dagli elettroni nel dominio di coerenza (12,06 eV) è più basso del livello di ionizzazione (12,60 eV) di soli 0,54 eV.
  9. Il termine “materia energizzata” è stato coniato alla fine dell’800 dal botanico tedesco Julius Sachs per denotare la sostanza costituente gli organismi viventi.

Campi VLF e acqua in dinamica biochimica

Nonostante le molecole d’acqua ammontino al 99%(1) di tutte le molecole presenti nella materia vivente, e nonostante sia noto che l’acqua interagisca in vari modi con i campi elettromagnetici naturali, nello studio dei meccanismi che regolano i processi vitali gli effetti dell’acqua e dei campi elettromagnetici vengono trascurati. Le molecole d’acqua sono enormemente più piccole e molto più semplici delle molecole organiche e ciò ci porta a pensare che, affinchè possano incidere sensibilmente sui meccanismi della vita, esse debbano agire in modo collettivo, cioè in cooperazione fra loro. Inoltre le reazioni biochimiche avvengono fra molecole che si trovano distribuite nel mezzo acquoso e che al momento della reazione si trovano molto distanziate fra loro.

Ogni azione di un organismo vivente anche minima come un battito di ciglio, corrisponde ad una catena di centinaia di migliaia di reazioni biochimiche complicatissime ciascuna delle quali avviene in tempi talmente infimi che l’intera catena di reazioni si svolge in una frazione di secondo. Quindi quando macroscopicamente assistiamo ad una qualunque azione, a livello microscopico stiamo parlando di una gran quantità di macromolecole molto distanti fra loro, immerse in un mezzo acquoso, soggette ad un gran numero di reazioni biochimiche, ciascuna sviluppantesi in tempi brevissimi; ma la cosa ancor più eclatante è che, se la stessa azione viene ripetuta, ri-avvengono quasi le stesse centinaia di migliaia di reazioni biochimiche che si ripetono quasi esattamente nella stessa sequenza temporale.

Per poter distinguere l’azione di un organismo vivente dall’algoritmo che muove un robot per comandargli l’esecuzione della medesima azione, ho dovuto aggiungere due “quasi”. Sono proprio quei due “quasi” che consentono alla materia vivente di evolvere rispetto ad un robot che eseguirà la medesima azione meccanicamente sempre esattamente allo stesso modo ma senza alcuna possibilità di evolvere(2). Queste osservazioni ci inducono a pensare che, affinchè tutto ciò possa avvenire, sia necessaria una qualche azione di tipo elettromagnetico e che l’acqua, oltre a costituire un mezzo che accoglie le macromolecole, giochi un ruolo determinante nelle sequenze di reazioni biochimiche. In tal senso, al fine di verificare che ruolo possano avere l’acqua e le onde elettromagnetiche, merita di essere approfondita l’interazione fra molecole d’acqua “organizzate” e campi elettromagnetici. In realtà gli studi di elettrodinamica quantistica effettuati in questi ultimi trenta anni hanno mostrato che l’acqua, assoggettata a campi elettromagnetici naturali è in grado di auto organizzarsi in “domini di coerenza” (Coherence Domains, CD)(3) all’interno dei quali migliaia di molecole oscillano alla medesima frequenza del campo magnetico generante. L’ipotesi è che i domini di coerenza siano in grado di agire sulle biomolecole stabilendo le sequenze di reazioni biochimiche, consentendo il riconoscimento delle biomolecole fra loro e fungendo da veri e propri acceleratori di reazione. Seguendo questa via, le reazioni biochimiche non avverrebbero secondo i classici meccanismi di dinamica diffusiva, bensì sarebbero governate dai campi elettromagnetici originati dalle molecole d’acqua che oscillano all’unisono all’interno dei domini di coerenza. Una dinamica di questo genere consente la diffusione di correnti ioniche non perturbabili dall’agitazione termica di fondo e governabili da campi elettromagnetici assai più deboli di quelli minimi consentiti dalla soglia kT(4). E. Del Giudice(5) e L. Giuliani(6) hanno applicato questo modello al caso particolare degli elettroliti mostrando che l’azione delle onde VLF (Very Low Frequency)(7) sugli ioni può essere spiegata grazie al loro effetto sulla dinamica dell’acqua. In particolare, l’effetto Zhadin(8) diventa una prova del fatto che la struttura interna dell’acqua è governata da campi elettromagnetici(9).    

In questo e nei prossimi articoli ripercorrerò sintetizzandolo e semplificandolo lo studio di E. Del Giudice e L. Giuliani “Coherence in water and the kT problem in living matter”, apparso nella monografia “Non-thermal effects and mechanisms of interaction between electromagnetic fields and living matter” – European Journal of Oncology – Library Vol. 5, edita nel 2010 dall’Istituto Nazionale per gli studi e controllo del Cancro “Bernardo Ramazzini” di Bologna.

Il fatto che le molecole organiche si trovino immerse nel mezzo acquoso ci induce a pensare che la dinamica delle reazioni biochimiche non può essere semplificata considerando dette macromolecole isolate dall’acqua che le permea; tale semplificazione ha portato A. Szent-Gyorgyi(10) nel 1957 ad affermare che i biologi non riusciranno a distinguere la materia animata da quella inanimata finchè continueranno a trascurare il fatto che le reazioni biochimiche avvengono in un mezzo acquoso e in presenza di campi elettromagnetici(11).    

Già negli anni ’50 del secolo scorso è stato scoperto che uno strato di acqua “speciale” spesso parecchie centinaia di micron chiamato EZ (Exclusion Zone) appare in adiacenza a superfici idrofile(12). GH. Pollack(13) sta conducendo da molti anni approfonditi studi su questo fenomeno(14). Siccome le superfici periferiche delle macromolecole possono essere assimilate a superfici idrofile, si può pensare che anche gli strati adiacenti alle superfici esterne delle macromolecole siano occupati da EZ. Ciò ci porta a concludere che in soluzioni concentrate i processi chimico-fisici siano molto diversi rispetto a quelli che avvengono in soluzioni diluite proprio perché in queste ultime le macromolecole risultano molte di meno e molto più distanziate fra loro e dunque anche questi strati di acqua “speciale” si riducono di conseguenza(15). La EZ manifesta le seguenti caratteristiche(16):

  1. All’interno della EZ l’acqua è pura e priva di qualunque altra sostanza in soluzione o in sospensione 
  2. L’acqua nell’EZ ha una viscosità superiore a quella dell’acqua normale
  3. L’acqua in EZ è riducente mentre l’acqua normale è un blando isolante quindi, nell’interfaccia EZ / acqua normale, si realizza una pila REDOX la cui differenza di potenziale può raggiungere qualche frazione di Volt
  4. La EZ diventa fluorescente se sottoposta a UV con frequenza pari a 2.700 Angstrong.

L’effetto riducente in EZ era già stato rilevato nel 1956 da Szent-Gyorgyi(17) che scoprì una lunga eccitazione elettronica di diverse specie molecolari interagenti con acqua normale. Egli suggerì che questa proprietà fosse all’origine del trasferimento di energia nei sistemi biologici, spiegando come l’energia legata delle biomolecole può essere trasformata in energia libera in grado di fornire lavoro utile. Seguendo questa linea di pensiero, Szent-Gyorgyi ha definito “vita” la dinamica interagente fra due distinti livelli di nuvole elettroniche delle molecole d’acqua: uno stato eccitato e uno stato di fondo. Alla base delle singolari proprietà REDOX vi è proprio questa dinamica elettronica riscontrabile nell’acqua di cui è costituita la materia vivente.       

Secondo questa visione dei fenomeni la vita può essere vista come una piccola corrente elettrica vagante dove il campo elettromagnetico trova un ruolo nella dinamica biologica; infatti i campi elettromagnetici sono in grado di interagire con le correnti di elettroni eccitati producendo importanti effetti biochimici in grado di governare le sequenze di reazioni.  

Nei prossimi articoli, basandoci sugli studi di G. Preparata(18) esamineremo i fenomeni fin qui descritti dal punto di vista dell’elettrodinamica quantistica (QED)(19). Partiremo dalla descrizione dell’effetto Zhadin che fornisce un esempio di interazione “non termica” fra campo elettromagnetico e materia vivente; vedremo che i suoi effetti sulla interazione fra debolissimi campi magnetici di bassissima frequenza e correnti di ioni possono essere utilizzati come sonda per testare alcuni fenomeni tipici di QED.

S. Antioco – 21 agosto 2021

Gianfranco Pellegrini

Note

  1. E’ vero che misurando la percentuale in peso l’acqua arriva solo al 60/70% ma questo perché le molecole organiche sono molto più pesanti di quelle dell’acqua; se però ragioniamo in termini di numero di molecole la percentuale di molecole d’acqua arriva appunto a superare il 99%. Per maggiori approfondimenti si rimanda al precedente articolo “Acqua e vita”.
  2. In realtà la potenza di calcolo dei moderni calcolatori consente di imitare l’approccio biologico e di realizzazione sistemi AI (Artificial Intelligence) e di autoapprendimento
  3. Per approfondimenti vedi anche l’articolo precedente “I domini di coerenza dell’acqua”.
  4. Una macromolecola è in grado di risuonare con il CD quando la differenza tra una delle sue frequenze e la frequenza del CD è inferiore al “rumore termico” kT, che a temperatura ambiente è pari a 0.025 eV.
  5. Emilio Del Giudice (1940 – 2014) è stato un fisico teorico dell’Istituto Nazionale di Fisica Nucleare (INFN), membro dell’International Commission for Electromagnetic Safety, membro dell’International Institute of Biophysics; ha lavorato presso l’Istituto Niels Bohr di Copenaghen, ha eseguito assieme a Giuliano Preparata approfonditi studi sulla materia condensata; è stato fra i pionieri della teoria delle stringhe e pioneristico è stato anche nell’applicazione della teoria quantistica dei campi alla materia soffice (soprattutto applicata all’acqua) 
  6. Livio Giuliani (1950 – ) è stato Direttore del dipartimento UOT dell’Istituto Nazionale di Prevenzione e Sicurezza negli ambienti di lavoro (ISPESL)
  7. Blackman CF, Bename SG, House De, et al. Effects of ELF (1-120 Hz) and modulated (50 Hz) RF fields on the efflux of calcium ions from brain tissue in vitro. Bioelectromagnetics 1985; 6: 1-11.
  8. Mikail Zhadin (1935 – 2015) – Dottore in Biologia, in fisica e in matematica; è stato Direttore del laboratorio di neurocibernetica degli insiemi cellulari all’Istituto di Biofisica cellulare di Mosca, nonché membro dell’accademia russa di Scienze naturali; autore di 170 pubblicazioni in Biofisica e Neurofisiologia.
  9. M. Zhadin – On mechanism of combined extremely weak magnetic field action on acqueous solution of amino acid – European Journal of Oncology – Library Vol. 5, 2010.
  10. Albert Szent-Gyorgyi (1893 – 1986) – Scienziato ungherese vincitore del Nobel per la medicina e la fisiologia nel 1937 a cui viene attribuita la scoperta della vitamina C e delle componenti e reazioni del ciclo di Krebs.
  11. Szent-Gyorgyi A. Bioenergetics. Academic Press, New York, 1957
  12. Henniker JC. The depths of surface zone of a liquid. Rev Mod Physics 1949; 21: 322-41.
  13. Gerald H. Pollack (1968 –   ), Ordinario di Bioingegneria alla Washington University, vincitore nel 2012 della medaglia Prigogine – Fondatore/Editore della rivista scientifica internazionale WATER
  14. Pollack GH, “La quarta fase dell’acqua – Oltre la forma liquida, solida e gassosa”, Ed. Sapio – 2018.
  15. Pollack GH, Cells, gels and engines of life. Ebner & Son, USA; 2001.
  16. Zheng JM, Chin WC, Khijniak E Jr, et al. Surfaces and interfacial water: evidence that hydrophilic surfaces have long impact. Ad Colloid Interface Sci 2006; 23: 19-27
  17. Szent-Gyorgyi A. Bioenergetics. Science, 1956; 124: 873-5.
  18. Giuliano Preparata (1942 – 2000). Ha insegnato Fisica Teorica nelle più prestigiose università americane (Princepton, Haward, Rockfeller, New York University), Sfaff member nella Teory Division al CERN di Ginevra; esperto di fisica delle particelle contribuendo alla costruzione del modello standard; ha avanzato nuove teorie su soluzioni coerenti della QED in sistemi sufficientemente densi; Assieme alla biologa molecolare Cecilia Saccone hanno proposto il  modello Markoviano di evoluzione molecolare; ha oltre 400 lavori al suo attivo (fisica del laser, superfluidità, superconduttività, materia condensata, ecc.); in una serie di lavori sperimentali si è occupato delle proprietà dei campi elettromagnetici dell’acqua, proseguiti nel 2009 dal Nobel per la medicina L. Montagnier.
  19. Preparata G. QED Coherence in matter. World Scientific, Singapore, 1995. Vedi anche Del Giudice E, Vitiello G. Role of the electromagnetic field in the formation of domains in the process of symmetry-breaking phase transition. Physical Rev A 2006; 74.

Interazioni intermolecolari nell’elio

L’esistenza della fase condensata nell’acqua dimostra inequivocabilmente che esistono forze intermolecolari di tipo attrattivo fra le molecole stesse e di tipo repulsivo che si oppongono alla compressione delle molecole fra loro; in particolare le forze attrattive dipendono dalle interazioni coulombiane tra le particelle elementari in gioco e dalla polarizzazione delle molecole d’acqua.

Come abbiamo avuto modo di descrivere dettagliatamente in articoli precedenti(1) ciascun atomo di idrogeno costituente la molecola d’acqua ha una elettronegatività pari a circa 0,2 mentre l’atomo di ossigeno ce l’ha pari a -0,4; ciò determina una polarizzazione molto elevata che da origine ai cosiddetti legami a idrogeno. A questi scambi energetici si sommano quelli dovuti all’agitazione termica che a temperatura ambiente risultano particolarmente rilevanti.

Oltre a questi fenomeni di natura elettrostatica e di natura termodinamica, nell’acqua si manifestano interazioni di natura elettromagnetica che danno luogo a oscillazioni coerenti. Purtroppo gli scambi energetici fra la radiazione elettromagnetica e le molecole d’acqua sono di entità nettamente inferiore rispetto a quelli di natura elettrostatica e di natura termodinamica e dunque vengono sovrastati da questi ultimi. D’altro canto, risulta sperimentalmente impossibile separare gli effetti di ogni singola tipologia di interazione e dunque non si riesce a far emergere gli effetti dovuti alle sole interazioni elettromagnetiche

Tuttavia, dal punto di vista delle interazioni elettromagnetiche, considerazioni teoriche portano ad una analogia di comportamento fra l’acqua è l’isotopo 2 dell’elio quindi, studiare l’HE2 ci può dare informazioni utili anche sull’acqua. L’elio, essendo un gas nobile, non manifesta interazioni intermolecolari di tipo elettrostatico ma risente dell’agitazione termica dunque, per poter ridurre questi effetti che disturberebbero l’analisi, occorre ridurla il più possibile. Da qui la necessità di effettuare la sperimentazione a temperature vicinissime allo zero assoluto.

Il grande premio nobel per la fisica  Pyotr Leonidovich Kapitza nel 1937 ha pubblicato un articolo(2) in cui descrive una serie di proprietà dell’elio a temperature al disotto del punto λ, fra cui la superfluidità.  

Lo scienziato americano Tisza(3) tenta senza successo di interpretare il fenomeno della superfluidità considerando l’elio un bosone degenere in quanto a queste temperature l’elio si trova allo stato il liquido e dunque non può di certo essere considerato un gas ideale, ma soprattutto agli atomi non eccitati non può essere impedito di entrare in collisione con quelli eccitati il cui attrito generato impedisce l’emergenza di fenomeni di superfluidità.

Finalmente nel 1941 lo scienziato russo Lev Davidovich Landau(4) giustifica il fenomeno della superfluidità ipotizzando che il “movimento potenziale” (Rot v = 0) abbia un livello energetico quantistico inferiore a tutti i livelli di “movimento vorticoso” (Rot v ≠ 0) e questa ipotesi si dimostra consistente(5).

Ciò significa che la condizione Rot v = 0 si conserva, ossia che un liquido quantistico possiede stati stazionari di “movimento potenziale” mentre non esistono stati stazionari di “movimento vorticoso” (Rot v ≠ 0); in altri termini, nel liquido quantistico non esiste transizione continua fra stati di movimento potenziale e vorticoso. Perciò, tra il più basso livello del movimento potenziale e di quello vorticoso deve esistere un certo intervallo energetico non nullo(6). Anche se non è logicamente possibile indicare quale dei livelli sia quello più basso fra i due, l’ipotesi che il livello corrispondente al movimento potenziale sia più basso dell’inizio dello spettro relativo al movimento vorticoso porta a giustificare il fenomeno della superfluidità. Landau giustifica la superfluidità dell’elio liquido a temperature inferiori al punto λ proprio ipotizzando che si verifichi questo caso.

Ogni stato debolmente eccitato deve essere considerato come una combinazione di eccitazioni elementari e, nel caso del movimento interno potenziale, tali eccitazioni altro non sono che quanti di onde (sonore) longitudinali chiamate fononi.

In analogia ai fononi, le eccitazioni elementari dello spettro vorticoso possono essere chiamati rotoni ed hanno un’energia funzione quadratica del momento(7).

Se la densità di fononi e rotoni non è troppo elevato(8), l’insieme che ne risulta può essere considerato alla stregua di un miscuglio di due gas ideali.

Il gas fononico obbedisce alla statistica di Bose e dunque, nel caso in cui kT<<∆,  si può applicare la distribuzione di Boltzmann.

In definitiva la capacità termica dell’elio II può essere suddivisa in una parte fononica proporzionale a T4 ed una parte rotonica proporzionale a e-∆/kT. In effetti a temperature inferiori a 1°K si sperimenta un effetto fononico predominante sul valore della capacità termica(9).

Allo zero assoluto l’elio si trova in una condizione di normale stato non eccitato.; se la velocità del flusso non è troppo grande quando scorre attraverso un capillare, l’interazione tra l’elio e le pareti del capillare non può portare ad un’eccitazione di moto interno (cioè a una dissipazione di energia) e dunque il liquido avrà viscosità nulla(10).

A temperature superiori allo zero assoluto si ha un certo numero di fononi e rotoni. Se consideriamo l’elio, da un calcolo statistico risulta che in un recipiente rotante si stabilisce un equilibrio statistico diverso da quello che si stabilisce in un recipiente fermo; ciò perché il gas di rotoni e fononi ruota con il vaso come se fosse “trasportato” dalle sue pareti.

Se le pareti del recipiente sono in moto, solo una parte dell’elio viene trasportata dalla loro rotazione, mentre la restante parte rimane stazionaria. Dunque, in queste condizioni, potremmo considerare l’elio liquido come costituito da un miscuglio di due liquidi di cui uno “normale” e l’altro (superfluido) avente viscosità zero e non trasportato dalle pareti del recipiente. L’interazione fra questi due “fluidi” non genera attrito fra loro(11). Mentre parlare di due fluidi è una semplificazione esplicativa che non rappresenta la realtà fisica, le condizioni di moto sono invece effettivamente due: normale e superfluido.

Al variare della temperatura la densità dell’elio è data dalla somma della “densità normale” e della “densità superfluida”: a T = 0 la “densità normale” è nulla e cresce al crescere della temperatura fino al punto λ oltre il quale la “densità superfluida” si annulla e la densità diventa tutta “normale”(12).  La parte superfluida non trasporta calore quindi, in condizioni di totale superfluidità si ha la reversibilità termodinamica. Ad esempio nel caso di elio che attraversa una fessura molto stretta il fluido che scorre attraverso alla fessura è tutto superfluido e dunque senza attrito(13).

Riguardo al riscaldamento del liquido nel recipiente al fluire dell’elio nel capillare stretto le formule sono quelle ricavate da Londona partire da quanto proposto da Tisza e confermano appieno gli esperimenti di Kapitza(14). In un capillare il flusso di calore dall’estremo più caldo a quello più freddo dovuto alla parte “normale” si sommo al flusso di “calore negativo” dall’estremo più freddo a quello più caldo dando luogo ad un trasferimento di calore assai elevato.

Dal punto di vista idrodinamico si possono considerare due distinte velocità: quella normale vn e quella superfluida vs (con Rot vs =0)(15).

L’utilizzo delle equazioni descritte in questo articolo portano a due differenti valori della velocità del suono per l’elio II u1 = ∂p/∂ρ e u2 = (Ts2ρs/Cρn)1/2 ; per T à λ u2 à 0, mentre per T à 0 u1 à c e u2 à √3.

Torino 17 aprile 2021

Gianfranco Pellegrini

Note

1) Vedi l’articolo “La chimica semplice applicata all’acqua”.

2) P. L. Kapitza, Nature 141, 74 (1937), USSR 18, 28 (1938)

3) L. Tisza, Nature 141, 913 (1938)

4) USSR 60, (1941)

5) I calcoli effettuati da Landau conducono alle seguenti regole di commutazione:

Da queste formule emerge che Rot v commuta con ρ e v e dunque anche con l’Hamiltoniana esclusivamente quando è nullo su tutto il volume occupato dal liquido.

6) E’ importante sottolineare che i livelli energetici di cui stiamo parlando non sono quelli del singolo atomo di elio, bensì quelli del liquido nel suo insieme.

7)  

  (μ è la massa effettiva del rotone e l’energia è misurata a partire dallo stato normale del liquido).

8) Cioè se la temperatura del liquido è sufficientemente bassa.

9) W. H. Keesom & A. P. Keesom, Physica 2, 557 (1935)

10) A causa del gap energetico esistente nello spettro, i rotoni possono essere eccitati solo se            v > (2∆/μ)1/2 e i fononi solo se v > c (ciò a causa della dipendenza lineare della loro energia dal momento).

11) Cioè alcun momento fra un fluido e l’altro.

12) Chiamando ρn e ρs rispettivamente la densità del “fluido normale” e del superfluido, la densità ρ è pari a ρ = ρn + ρs con ρn = 0 a T = 0°K e ρ = ρs a T = λ. Considerando il rapporto fra fononi e rotoni si può scrivere:

.

Questa formula può essere utilizzata anche per calcolare il valore di λ ottenendo λ = 2,30°K rispetto al valore conosciuto che è pari a λ = 2,19°K.

13) Per ottenere questo risultato l’elio in uscita dovrebbe essere a una temperatura inferiore a quella dell’elio II contenuto nel recipiente iniziale (nel caso ideale dovrebbe trovarsi allo zero assoluto).

14) H. London, Proc. Royal Society A171, 484 (1939). P. L. Kapitza, Phys. Rev. 60, 354 (1941).

15) Le formule ricavate da Landau sono valide su superfici rigide in cui vs soddisfa le condizioni al contorno di un liquido ideale e il valore di vn non è troppo elevato.

La “fragranza”

Finalmente dopo quasi un anno mi accingo a scrivere un nuovo articolo sul blog. Non si è trattato di un periodo di inattività, bensì di approfondimenti su alcuni argomenti che mi consentissero di poter affrontare in modo rigoroso il tema in oggetto. Per la verità rimarrebbero ancora alcune questioni aperte ma stavolta non più di natura squisitamente tecnico – scientifica quanto piuttosto metodologica; infatti rimane la difficoltà di riuscire a spiegare in modo semplice quali sono gli obiettivi che mi prefiggo di raggiungere con questo studio e inoltre, la multidisciplinarità coinvolta rende difficile mettere tutti i tasselli al loro posto in modo organico e coerente. Infine non posso negare che l’argomento nel suo insieme è assai complesso e coinvolge calcoli a volte ostici e ragionamenti molto lunghi da argomentare.

Tutto quanto premesso porterà inevitabilmente a dover suddividere la trattazione in numerosi articoli di cui i primi inevitabilmente quasi esclusivamente descrittivi; In ogni caso, al fine di evitare di ripetermi o di appesantire la trattazione con calcoli lunghi e ostici e quindi inutilmente noiosi, mi vedrò costretto a fare numerosi rimandi ad approfondimenti già fatti in miei articoli precedenti e a riferimenti bibliografici destinati a quegli specialisti che avessero tempo e voglia di ulteriori approfondimenti.

Con questo primo articolo comincerò col fare alcuni esempi semplici che mi consentiranno di mostrare quali sono gli obiettivi che mi prefiggo di raggiungere e dove elencherò tutte le varie discipline coinvolte e cercherò di spiegare le interconnessioni fra i vari argomenti secondo un approccio che non potrà che essere squisitamente olistico.

Quindi procederò con una serie di articoli monotematici dove cercherò di descrivere in modo più esaustivo possibile alcuni articoli scientifici e i risultati ivi raggiunti.

Seguirà un articolo conclusivo di sintesi che farà da “train d’union” e metterà insieme tutti i pezzi del puzzle.

Per essere precisi il significato letterale della parola fragranza è: “odore intenso, gradevole e delicato”, ma in questo contesto intendo estenderne il significato e riferirmi, oltre che all’aspetto meramente olfattivo, anche all’aspetto visivo esteriore e all’’aspetto gustativo manifestato dal cibo naturale(1), cioè di quel cibo derivante da ciò che prima di diventare cibo era materia vivente viva. Se pensiamo ad esempio ad un frutto appena colto dall’albero mostrerà colori vividi, emanerà odori intensi e produrrà sapori genuini tanto che sarà difficile distinguerlo da uno stesso frutto ancora appeso all’albero. Poi, man mano che passa il tempo, anche mantenendolo in condizioni microclimatiche di conservazione ottimali, degraderà inesorabilmente fino a perdere completamente la sua fragranza, a rinsecchire e infine a marcire.

E’ come se avvenisse una forma di trapasso – più o meno lenta ma inesorabile – da una condizione di materia vivente viva a materia vivente morta. Al fine di mitigare l’effetto psicologico ingenerato sul compratore dal degrado in atto, la filiera dal produttore al consumatore utilizza vari tipi di stratagemmi come ad esempio sigillare con ceralacca l’estremo del gambo tranciato, lucidare la scorza con cere, illuminare il prodotto intensamente con colori caldi nei banconi di vendita, ecc. Aldilà di queste particolarità ogni frutto avrà una sua specifica resistenza (oggi sarebbe più di moda dire resilienza) più o meno marcata alla perdita di fragranza: ad esempio le mele o gli ananas normalmente resistono più di agrumi, pere, kiwi. L’esempio delle patate è ancora più eclatante perché, una volta sradicate e conservate per lungo tempo, se immerse in acqua riescono a germogliare e a proseguire a vivere sottoforma di una nuova pianta di patata. Nel caso dei semi poi, si conservano per millenni, magari anche a temperature bassissime, e dopo millenni sono ancora in grado di germogliare. Passando dal mondo vegetale a quello animale il processo di degrado della fragranza risulta assai più veloce. Un pesce appena pescato o la carne di un animale appena ucciso perdono di fragranza assai velocemente e in ogni caso, il processo di passaggio da sostanza vivente viva a sostanza vivente morta è in questi casi irreversibile.

Chi ha la mia età si ricorda sicuramente degli anni in cui in casa non c’era ancora il frigorifero e ci si approvvigionava giornalmente di cibo fresco quasi tutto sfuso. E’ vero che c’erano già anche gli omogeneizzati, le scatolette, le conserve, ecc. ma la stragrande maggioranza del cibo consumato era costituito da frutta e verdura fresca, carne appena macellata, pesce appena pescato, latte appena munto, uova appena raccolte, pane appena sfornato, cereali, legumi, ecc.

Oggi è tutto diverso, la filiera alimentare non può fare a meno di conservare, affumicare, salare, stagionare, refrigerare, surgelare, congelare, inscatolare, imbottigliare.

La domanda che è lecito porsi è se la qualità del cibo di cui ci stiamo nutrendo è esattamente la stessa di quella antica ovvero se stiamo perdendo qualcosa.

Oggi le normative internazionali impongono di etichettare il cibo indicando obbligatoriamente numerosi parametri come la percentuale di sostanza edibile, il valore energetico, le percentuali di grassi, carboidrati, proteine, la scadenza, le condizioni di conservazione, ecc; non si parla mai di aspetto esteriore, profumo, sapore. Per la verità, sull’aspetto esteriore si fa molto, persin troppo: i frutti sono tutti grandi (forse meglio dire gonfi), tutti uguali fra loro, belli lucidi, esenti da bachi, bellissimi da vedere nei banconi di vendita. Il profumo e il sapore invece, sono purtroppo un lusso che si può permettere solo chi ha la fortuna di poter mangiare cibo ancora fragrante, e che non ha subito alcun tipo di adulterazione quando era in vita.

Chi come me, nonostante questo degrado lento progressivo e inesorabile del livello di fragranza è riuscito a mantenere viva una certa sensibilità alla genuinità originaria, riconosce immediatamente un cibo fragrante da un cibo “artificiale” ma, si tratta di semplice constatazione in quanto non vi è modo di apprezzare differenze oggettive che consentano di mettere veramente a confronto i due tipi di cibo.         

Questa rassegna di articoli intende approfondire l’argomento della fragranza da un punto di vista scientifico evidenziando quali sono gli studi recenti che si stanno facendo nel mondo.

La prima premessa importante da fare è dire che il cibo naturale altro non è che ex sostanza vivente viva.

Quando parliamo di sostanza vivente ricordiamoci che stiamo parlando di acqua e pochissimo altro. C’è un’informazione sbagliata secondo cui la sostanza vivente è costituita da circa il 70% di acqua senza specificare che quella è la percentuale in peso. Ai fini delle miriadi di reazioni biochimiche che avvengono in ogni istante nella sostanza vivente viva, la percentuale in peso non indica assolutamente nulla. Ai fini delle reazioni biochimiche, ciò che conta veramente non è certo la percentuale in peso, bensì il numero di molecole di ciascuna specie che costituisce la sostanza vivente. A parte le molecole inorganiche e i singoli elementi, il cui numero è veramente esiguo, oltre alle molecole d’acqua vi è un numero importante di molecole organiche che mediamente pesano circa 400 volte di più di una molecola d’acqua !!!! E’ a causa di questa differenza di peso che nasce l’enorme divario fra il numero di molecole d’acqua rispetto a quelle organiche. Ecco perché, per poter ragionare in modo corretto è fondamentale dire che nella sostanza vivente il numero di molecole d’acqua – tutte uguali fra loro – è pari al 99,99% e solo il rimanente 0,01% è da suddividere fra i milioni di tipologie diverse di altre molecole (organiche, inorganiche e altri elementi chimici)(2) – tutte diverse fra loro. Data questa enorme supremazia del numero di molecole d’acqua rispetto a tutte le altre molecole, diventa naturale arguire che in tutti i fenomeni che coinvolgono la materia vivente, l’acqua debba giocare un ruolo da protagonista. Ecco perché nel proseguo dello studio concentreremo le nostre attenzioni su alcune proprietà, caratteristiche e comportamenti dell’acqua.

Fra tutti gli scambi energetici che avvengono a livello intramolecolare, non ci occuperemo di quelli dovuti agli urti fra molecole e all’agitazione termica (quelli tipicamente studiati dalla termodinamica) bensì di quelli dovuti alle oscillazioni coerenti, ci occuperemo cioè dell’interazione fra radiazione elettromagnetica e le molecole d’acqua (quelli tipicamente studiati dalla elettrodinamica quantistica)(3).             

Dal punto di vista teorico, anche se si tratta di teorie estremamente complicate, i risultati risultano convincenti. Anche le simulazioni virtuali sembrano rappresentare in modo soddisfacente quanto previsto dalla teoria. Sfortunatamente, fra le tante anomalie che manifesta l’acqua, vi è quella che alcuni comportamenti che dovrebbe manifestarsi a certe temperature molto basse, in realtà li manifesta a temperature ben più alte; ciò rende assai complicato riuscire a separare le interazioni energetiche dovute alle oscillazioni coerenti da quelle dovute agli urti fra molecole  e all’agitazione termica e dunque quest’ultime disturberanno l’esperimento rendendolo all’atto pratico inutile. Siccome però si è constatato che questi fenomeni che accadrebbero nell’acqua hanno notevoli similitudini con quelli che si manifestano nell’isotopo 2He supere nell’ 4He superfluido a temperature prossime allo zero assoluto, cioè a temperature talmente basse che l’effetto termodinamico diventa pressochè irrilevante e tale da consentirci di rilevare le energie dei rotoni e dei fononi e altri effetti come quelli derivanti dall’aggregazione delle molecole di Helio sottoforma di domini di cooerenza; ecco perché sarà importante descrivere gli esperimenti in tal senso realizzati da Landau. Per quel che riguarda infine la frequenza delle radiazioni si tratta di frequenze ultrabasse (ULF – Ultra Low Frequancies) in genere utilizzate nelle comunicazioni fra sottomarini e frequenze estremamente basse (ELF – Extremely Low Frequency)  in genere utilizzate nelle comunicazioni in miniera. Su questo punto attingeremo da lavori fatti dall’Istituto Ramazzini di Bologna in merito ad approfondimenti volti a verificare eventuali effetti oncologici favoriti da questa tipologia di radiazioni. Naturalmente noi utilizzeremo i risultati di questi lavori per i nostri scopi e non per i fini oncologici per i quali sono stati sviluppati.     

Resta ancora da dire che l’acqua facente parte della materia vivente sembra essere costituita in parte da acqua liquida come tutti la conosciamo ma in gran parte da raggruppamenti di molecole chiamati “domini di coerenza” in cui le molecole oscillano tutte all’unisono a frequenze ben definite. Per gli approfondimenti di questo argomento faremo uso del testo di G. Preparata intitolato “QED coherence in matter”.

A questo punto credo che abbiamo tracciato la strada maestra e non ci resta che cominciare la nostra avventura alla scoperta dei segreti di quella che in modo esteso abbiamo definito “fragranza”.

Torino 28 febbraio 2020

Gianfranco Pellegrini

Note

  1. Oggi, come sappiamo è possibile cibarsi anche di prodotti realizzati esclusivamente per sintesi chimica come dimostrano le pillole di cui si nutrono gli astronauti.
  2. Per maggiori dettagli si veda anche il mio articolo “Acqua e vita”.
  3. La QED (Quantum ElectroDynamics) è una disciplina sviluppatasi nella seconda metà del secolo scorso che, tra l’altro, studia l’interazione quantistica fra le onde elettromagnetiche e la materia .

La fisica in aiuto della epidemiologia

In questo articolo intendo mostrare come la fisica sia in grado di dare risposte alle seguenti domande inerenti l’evoluzione e la diffusione di Covid -19:

  • La diffusione è la stessa in tutte le zone del mondo ?
  • La diffusione cambia nelle varie stagioni dell’anno ?

Prima di rispondere a queste domande occorre dire qualcosa sui raggi ultravioletti.

Si tratta di onde elettromagnetiche aventi lunghezza d’onda in una banda compresa fra la luce visibile e i raggi X.

Il grafico sopra riportato mostra lo spettro solare e, in particolare, l’area a sinistra del visibile rappresenta i raggi ultravioletti.  Il grafico indica che, più è piccolo lo strato di atmosfera sopra la nostra testa, maggiore è la radiazione: in particolare quella visibile, ma anche quelle infrarossa e ultravioletta. Questo perché l’atmosfera ha un effetto assorbente che mitiga la radiazione che incide sulla crosta terrestre.

Vediamo quali sono le zone della terra dove lo spessore atmosferico è più basso. Sicuramente più saliamo di quota e meno atmosfera ci ritroviamo sopra la nostra testa quindi, ad esempio, chi è in volo a 8.000 m.s.l.m. oppure chi si trova sulla cima dell’Everest si ritroverà uno strato atmosferico sovrastante assai inferiore a chi si trova a livello del mare. Inoltre, tenendo conto che l’atmosfera terrestre ha una forma ellissoidale, più schiacciata ai poli e più spessa all’equatore, chi si trova ai poli avrà uno strato atmosferico sovrastante minimo mentre chi si trova all’equatore lo avrà massimo.

La figura sopra riportata mostra però, che lo strato di atmosfera attraversato dalla radiazione solare dipende anche dall’inclinazione dell’asse terrestre e dall’angolo di incidenza della radiazione solare.

L’inclinazione dell’asse terrestre fa sì che lo strato atmosferico passi nell’arco delle ventiquattro ore da un valore minimo ad un valore massimo. L’angolo di incidenza della radiazione solare cambia invece nell’arco dell’anno assumendo valori massimi e minimi ai solstizi e agli equinozi, ma è diverso anche per i due emisferi terrestri nel senso che quando è massimo nell’emisfero boreale diventa minimo in quello australe e viceversa.

Queste considerazioni ci portano a concludere che sicuramente la radiazione solare, e in particolare quella ultravioletta, sono diverse nelle varie zone della crosta terrestre e cambiano di ora in ora e di giorno in giorno. Ecco ad esempio un grafico pubblicato da  “3Bmeteo” che mostra la variazione annuale di radiazione ultravioletta a Roma.

Ma che c’entrano i raggi ultravioletti col Covid-19 ?

I virus, rispetto agli esseri viventi complessi vengono annientati dai raggi UV. Ad esempio l’uomo viene colpito solo a livello epidermico e comunque, la produzione di melanina costituisce una valida protezione per la pelle contro gli UV; nonostante ciò, l’abuso di esposizione al sole, può comunque essere nocivo per la pelle portando a volte anche a evoluzioni tumorali epidermiche.

Ben diverso è il discorso per i virus. Ad esempio, gli UV emessi dalle lampade ai vapori di mercurio con lunghezza d’onda pari a 254 nm sono in grado di distruggere i legami molecolari del DNA dei microrganismi, producendo dimeri di timina nel loro DNA e distruggendoli, rendendoli innocui o impedendo la loro crescita e riproduzione.

Guardando al grafico sopra riportato possiamo constatare che a Roma a giugno la radiazione UV in grado di colpire il coronavirus è ben quattro volte superiore rispetto a quella relativa al mese di febbraio.  

Non vi è dubbio che, come tutti gli organismi viventi, anche i virus siano soggetti a continui mutamenti genetici anzi, trattandosi di organismi così semplici, tali mutamenti generano in essi cambiamenti macroscopici e veloci rispetto ai cambiamenti impercettibili e lenti afferenti agli organismi viventi complessi. E gli UV sono proprio fra i maggiori responsabili di queste mutazioni genetiche.

Ciò che mi è difficile credere è che fra i miliardi di miliardi di possibili mutazioni, avvenga proprio esattamente quella che rende i virus meno aggressivi; non solo, ma miliardi di miliardi di virus subiscono esattamente e contemporaneamente proprio questo tipo di mutazione.

Preferisco più semplicemente credere che se a giugno i virus vengono irradiati con gli UV quattro volte di più che a febbraio, risultino quattro volte meno numerosi e dunque per questo e solo per questo meno virulenti.

Torino   2 giugno 2020

Gianfranco Pellegrini

L’acqua strutturata

Prima di affrontare questo nuovo argomento è forse il caso di rinfrescarci la memoria con quanto detto nell’articolo precedente intitolato “Potere solvatante dell’acqua”. Abbiamo visto che la solvatazione porta alla creazione di zone che abbiamo chiamato zona “A”, in cui le molecole d’acqua si trovano direttamente a contatto col soluto “S” e dunque risultano più o meno polarizzate a seconda dell’atomo solvatato (1). Abbiamo poi definito una zona “C” occupata dall’acqua non interessata alla solvatazione e dove le molecole d’acqua si trovano legate fra loro mediante il legame idrogeno e dunque disposte in catene lineari più o meno lunghe o in catene cicliche. Infine abbiamo chiamato zona “B” la zona di interfaccia fra la zona “A” e la zona “C”, in cui le molecole d’acqua subiscono l’influenza sia da parte delle molecole della zona “A”, sia da parte di quelle imperturbate della zona “C”. Il raggio minimo della zona “B” è pari a quello della zona A (≈5 Å) mentre il suo raggio massimo è facilmente ricavabile mediante la formula:

essendo nmax il numero massimo di molecole d’acqua al disopra del quale non vi è praticamente più effetto polarizzante(2). La figura sottoriportata è una rappresentazione di queste zone che si formano nella soluzione.

Negli articoli precedenti abbiamo analizzato con attenzione ciò che accade nella zona “A”, ora vediamo cosa accade in zona “B” tenendo conto che, in questo caso non abbiamo risultati sperimentali a conforto dei ragionamenti che ci accingiamo a fare.

Aumentando la concentrazione di un soluto può accadere che ad un certo punto il soluto cominci a precipitare oppure che la soluzione si trasformi in una forma gelatinosa a metà strada tra la forma liquida e quella solida. Dato che il volume della soluzione resta costante, all’aumentare della concentrazione di soluto aumenta il numero di zone “A” (cioè il volume occupato dalla zona “A”) e di zone “B” a discapito delle zone “C” che si riducono corrispondentemente. La presenza delle zone “C” garantisce la separazione delle zone “A” polarizzate e schermate dalle zone “B”. Nel momento in cui, all’aumentare del soluto, le zone “C” si riducono troppo, avviene quella che si chiama transizione sol-gel in cui il liquido diventa coerente. Ci sono dei casi in cui la percentuale di soluto in grado di formare il gel è minima e ciò porta ad escludere che il responsabile della formazione di gel sia la zona “A” e dunque il soluto(3). D’altro canto dobbiamo anche escludere che responsabile sia la zona “C” in quanto è costituita da acqua pura. Non ci resta che pensare alla zona “B”; l’ipotesi è che la zona di transizione “B” sia costituita da acqua “strutturata”, ossia da acqua le cui molecole sono legate fra loro in modo coerente(4). Sembra quasi che ci sia un’analogia fra acqua gelata (ghiaccio) e acqua gelatinosa (gel). Il ghiaccio è così consistente per via della struttura cristallina esagonale ben conosciuta. L’ipotesi è che con la forma gelatinosa avvenga una parziale strutturazione dell’acqua non così regolare come nel caso del ghiaccio ma tale da dare al gel una certa solidità. In effetti, nel precedente articolo “Forma polimerica dell’acqua”, abbiamo visto che le simulazioni al computer portano a molecole d’acqua legate fra loro in forma di dimeri, trimeri, tetrameri, pentameri, ed esameri in varie percentuali(5); nel momento in cui il 100% sono esameri abbiamo il ghiaccio.

Se pensiamo agli organismi viventi, essi sono costituiti da oltre il 99% di molecole d’acqua e, in generale, hanno consistenza gelatinosa. Il comportamento dell’acqua semplice è assai diverso da quello dell’acqua strutturata (gelatinosa); ad esempio, per evitare che l’acqua congeli, la rendiamo gelatinosa miscelandola con glicole etilenico, sfruttando questa proprietà nel 1930 è stato fatto uno studio che ha consentito di misurare il rapporto acqua liquida / acqua strutturata in un organismo vivente portato a -22°C(6).  Si sa che al disotto di certe percentuali minime di acqua strutturata, la vita non può sussistere(7); la percentuale di acqua strutturata diminuisce man mano che si invecchia: l’uomo a livello embrionale ha la consistenza di una medusa, ma la percentuale di acqua strutturata si riduce quando diventa feto e continua progressivamente a scendere nel neonato fino a quando invecchia e muore. In certi casi la percentuale varia da stagione a stagione(8).

Con questo articolo si conclude l’approfondimento del comportamento dell’acqua mediante approccio lagrangiano. Abbiamo visto che dove c’è un atomo di ossigeno, è facile trovare due protoni che si legano con esso ed ecco perché l’acqua è così diffusa sulla terra.

Intanto occorre precisare che questo metodo non può soddisfare lo scienziato rigoroso che, se desidera può comunque attingere al metodo hamiltoniano ottenendo risultati ben più precisi. A noi qui interessava un metodo semplice che, evitando i complicati formalismi tipici della meccanica quantistica, ci consentisse di capire i meccanismi chimico-elettrici che regolano questi fenomeni a patto naturalmente di rinunciare ad un elevato grado di precisione nei risultati.

Facciamo un esempio. Se ci troviamo sulla superficie terrestre  riusciamo percepire e dunque a studiare con grande facilità e precisione tutti i fenomeni che avvengono attorno a noi ma ci risulta difficile percepire ad esempio che la terra sta ruotando su se stessa (e noi con essa) ad una velocità di quasi 2.000 km/h; se, al contrario, ci troviamo in una navicella spaziale, la rotazione della terra risulta evidente mentre perdiamo di vista i singoli fenomeni che avvengono sulla crosta terrestre. Rimanendo nell’esempio, l’approccio analitico hamiltoniano ci consente di studiare con grande precisione tutti i fenomeni che accadono sulla crosta terrestre ma ci fa perdere di vista la rotazione della terra attorno a se stessa e, quand’anche ci mettessimo a studiarla analiticamente, il complesso formalismo fisico-matematico ci farebbe perdere la percezione del fenomeno. Al contrario, l’approccio globale laglangiano ci consente di vedere la rotazione della terra attorno a se stessa ma ci impedisce di vedere, se non in modo sfuocato, tutti i fenomeni che avvengono nella crosta terrestre. Fuor di metafora abbiamo anche visto che conoscendo i componenti chimici di cui è costituita una qualunque sostanza possiamo determinarne il suo comportamento termodinamico facendo semplicemente uso dell’elettronegatività degli elementi coinvolti e, con questo sistema possiamo arrivare a comprendere la struttura della molecola d’acqua, quella di una sostanza più complessa, quella di un corpo celeste e dunque quella dell’intero universo. Lo scotto da pagare è che non riusciamo ad entrare nel merito della complessità molecolare se non in modo approssimato.

Abbiamo appreso anche alcuni concetti molto importanti che andiamo a riassumere brevemente.

Innanzitutto abbiamo ritrovato nella zona “B” l’acqua strutturata o polimerica che approfondiremo ulteriormente in prossimi articoli che descrivono gli studi di G. Pollack sulla quarta fase dell’acqua.

Inoltre abbiamo ritrovato i concetti sviluppati in precedenti articoli sui vortici centripeti anti-entropici aggreganti e condensanti rispetto a quelli centrifughi entropici, disaggreganti e disperdenti. Qui è l’elettrone, con la sua elettronegatività nulla a giocare il ruolo di elemento anti-entropico, aggregante, condensante che ha il ruolo di mantenere gli atomi saldamente legati alle molecole di appartenenza. All’opposto abbiamo che il protone, con la sua elettronegatività elevatissima(9) cerca di delocalizzarsi il più possibile all’interno dell’acqua che lo contiene facendo aumentare l’elettronegatività dell’intera soluzione; il protone gioca dunque il ruolo di elemento entropico, disaggregante e disperdente.

D’altro canto, dalla chimica sappiamo anche che tutto ciò che è ricco di elettroni è basico e riducente mentre, al contrario, ciò che è povero di elettroni è acido e ossidante e noi, non a caso, abbiamo ritrovato una relazione diretta tra elettronegatività e pH. Tutto torna !!!

Torino, 16 maggio 2020

Gianfranco Pellegrini

Note

(1) In chimica questa zona di influenza del soluto è chiamata “sfera di coordinamento” ed ha un raggio medio all’incirca costante e pari a circa 5 Å).

(2) Partendo dal numero di Avogadro N = 6,02×1023 e sapendo che in base alla massa molecolare N molecole d’acqua occupano 18 cc, ogni molecola d’acqua occupa mediamente 18/N = 3,1×10-23 cc. Il volume in questione è allora pari a 3,1nmax10-23 cc, ossia una sfera di raggio pari a circa    

(3) Se prendiamo una medusa appena pescata che pesa 100 grammi e la facciamo evaporare, dopo l’evaporazione il peso si riduce a meno di 0,1 grammi. Questo residuo fisso pari a meno dell’1 per mille è costituito da sale da cucina e da molecole organiche (grassi, carboidrati, proteine, ecc.). Quindi una soluzione (la medusa) costituita da più del 99,9% d’acqua riesce ad avere un certo grado di solidità.

(4) E’ bene sapere che esistono transizioni sol-gel reversibili ed irreversibili; sostanze come la gelatina o l’argilla, avendo una forte carica elettrica sono reversibili, mentre il bianco d’uovo o la rigidità cadaverica, dove le molecole d’acqua in zona “B” sono soggette a legame covalente, sono esempi di transizioni irreversibili.   

(5) Ad esempio a 4°C abbiamo un 40% di pentameri e un 25% di esameri che giustificherebbe il fatto che a quella temperatura la densità è massima.

(6) Praticamente si porta la sostanza organica a -20°C ; a questa temperatura si è certi che l’acqua non strutturata è tutta solidificata mentre si suppone che quella strutturata sia rimasta intatta. A questo punto la sostanza organica viene messa in un calorimetro e si determina quanto calore è necessario per il raggiungimento dell’equilibrio termico. In questo modo si può determinare la quantità di ghiaccio contenuta nel campione e, per differenza si determina la quantità di acqua strutturata. (Rif.  R.A. Gortner, Trans. Farad. Soc., 26, 678 – 1930).

(7) Ad esempio, disadratando un lombrico fino al 50%, una volta reidratato riesce a sopravvivere mentre, se si supera questa percentuale muore irreversibilmente.

(8) Ad esempio per certe farfalle che vivono in luoghi con inverni rigidi, in primavera la percentuale di acqua strutturata è pari al 10% e, per contrastare le rigide temperature, in inverno sale oltre il 50%.

(9) Come abbiamo visto negli articoli precedenti, la sua elettronegatività (approssimata) è pari a EN = 4,07. Pensando alla filosofia orientale diremmo che l’elettrone è 100% “Yin” e il protone è 100% “Yang”; questo modello oltre ad un approccio pratico, ci consente anche un approccio filosofico.