De Aqua (versione in italiano)

Per riuscire a comprendere gli attuali studi sul ruolo primario dell’acqua e sulla sua importanza per la vita è fondamentale adottare un approccio olistico. Attualmente la scienza sta affrontando lo studio dell’acqua mettendo insieme elettrodinamica quantistica, biologia, chimica fisica, biochimica, microbiologia e ciò sta consentendo di scoprire nuove frontiere finora inesplorate. 

Dopo aver affrontato alcuni aspetti fisici e chimico-fisici, iniziamo ora un approfondimento con approccio olistico.

Mi sembra importante cominciare con un po’ di storia.

Per Leonardo da Vinci l’acqua è la forza motrice della natura; più in generale, l’acqua ha un’importanza fondamentale in tutto il progresso dell’uomo. L’irrigazione e l’invenzione dell’agricoltura, la ruota idraulica e la lavorazione dei metalli, il mare e l’arte della navigazione e, più in generale, quasi ogni grande svolta nella storia dell’umanità ha avuto l’acqua come protagonista.

Gli egizi conoscevano molto bene l’acqua (Amenem-et nel 1800 A.C. fece sbarramento con dighe di un lago intero); in 3 millenni hanno fatto dighe, canali, bacini, chiaviche che rimasero in funzione fino ai tempi di Cleopatra. In alcune piramidi sono stati ritrovati componenti come tappi, anelli, giunti a bicchiere, tubi in rame, ecc. Gli Egizi avevano grandi capacità nell’individuare le falde sotterranee. Il famoso “pozzo di Giuseppe” (3000 a.c.) vicino alla piramide di Ghizeh è profondo 90 m.

I Cretesi erano famosi per la grandiosità degli impianti. Tra il 3000 e il 1500 A.C. realizzavano sofisticati sistemi di trattamento delle acque reflue. Dopo essersi ristorati alla locanda, i cittadini minoici si preparavano ad entrare nella reggia, nei pressi della quale, per chi veniva da lontano per conferire a corte, c’era una pubblica locanda, alla quale si poteva accedere solo dopo aver sostato in un’ampia stanza adibita a pediluvio conviviale.

La popolazione della civiltà ricca e fiorente di Olinto (348 A.C.) amava concedersi il lusso delle grandi e piccole cose, tra le quali, ad esempio la vasca da bagno, ignorando che era stata inventata 1000 anni prima a Creta.

All’epoca di Ippocrate (400 A.C.) in ogni palestra c’erano le docce (fredde, naturalmente), nelle residenze c’erano le tazze e le latrine e gli impianti di approvvigionamento idrico erano di grande valore. Ippocrate ha indicato precisamente come dovevano essere fatti i sistemi a doccia dove l’acqua sgorgava da mascheroni montati su colonne situate tutto attorno.

Esiodo condannò l’uso dell’acqua calda perché effeminato.

Sulla base delle testimonianze di Diodoro Siculo e di Ateneo la còclea (detta per l’appunto vite di Archimede) è un dispositivo elementare usato per sollevare liquidi (o anche materiale sabbioso, ghiaioso, o frantumato); oggi viene anche utilizzata per produrre energia elettrica. Recenti studi indicano però che essa potrebbe essere addirittura molto anteriore ad Archimede in quanto utilizzata per irrigare i giardini pensili di Babilonia. Archimede, durante la sua permanenza ad Alessandria d’Egitto per motivi di studio, avrebbe così importato in Italia lo strumento già conosciuto in area medio-orientale; la testimonianza di Ateneo potrebbe supportare questa ipotesi.

Anche a Gerusalemme vennero realizzate importanti opere idrauliche. Nell’VIII sec. A.C. Ezechìa realizzò due gallerie di cui una è un esempio di ingegneria fra i più arditi dell’antichità: attraversa la montagna da parte a parte e, a metà percorso c’è scritto in ebraico il giorno in cui gli spaccapietre si incontrarono. A Gerusalemme c’è uno scavo con scala a chiocciola ed un tunnel che consentivano l’accesso ad una grotta sotterranea  naturale fuori le mura dove c’era e c’è ancora l’acqua che sgorga. Queste precauzioni servivano durante gli assedi; la necessità di acqua “pura” li costringeva  a realizzare due impianti separati. Erode il Grande realizzò un’impresa idraulica sbalorditiva costituita da complessi canali sotterranei ed enormi bacini e cisterne. Inoltre fece costruire altre cisterne esterne riempite giornalmente da migliaia di schiavi e animali da soma. C’era inoltre un importante stabilimento termale esattamente come quelli romani.

Il “Civis romanus” dopo una partitella a pallacorda nello sphaeristerium, accedeva accaldato al “tepidarium” dove sudava vestito; poi entrava nello “apodysterium” e, nudo, veniva massaggiato dai servi con i suoi oli ed unguenti. Se sudicio veniva lavato e raschiato. Dopo il bagno raggiungeva il “calidarium” dove sudava e conversava. Un’ulteriore sudata al “laconicum” (torrido perché sopra lo “hypocaustum”) dove veniva lavato con brocche di acqua riciclata calda, tiepida e fredda. Poi veniva raschiato con lo “strigilis” e infine sciacquato con una soffice spugna. Infine massaggio con olio profumato, eventuale bagno freddo nel “frigidarium” e chiacchierata con gli amici fino al tramonto.

“… La causa di ciò è da attribuire alla disonestà dei fontanieri, che ho scoperto derivare acqua dai bacini per usi privati. Ma anche un gran numero di proprietari terrieri nei cui campi corre l’acquedotto perfora le condutture, per cui avviene che gli acquedotti rallentano la loro corsa a vantaggio dei privati o per irrigare i giardini. Su trasgressioni di questo genere non si saprebbe dire di più o di meglio di quanto ha esposto Celio Rufo nel suo discorso …” “…. Per questo si è stabilito di separare tutti gli acquedotti e riclassificarli singolarmente, in modo che prima di tutto l’Acqua Marcia per intero fosse utilizzata per uso potabile, gli altri, secondo la specifica qualità fossero assegnati agli usi loro adatti. L’Anio Vetus, per vari motivi e dato che è captato più in basso ed è meno limpido, servisse per irrigare i giardini e per gli usi più modesti della città……”

“De aquaeductu urbis Romae” (Sesto Giulio Frontino)(1)

Vitruvio(2) nel libro ottavo di De Architectura riporta:

“Uno dei sette sapienti, Talete di Mileto, indicò nell’acqua il principio di ogni cosa ….

… Quelli che esercitano la dignità sacerdotale secondo il rito egizio danno una dimostrazione del fatto che a fondamento di ogni cosa c’è la forza dell’elemento acqua. E’ per questo che, quando in una brocca l’acqua viene portata nel recinto sacro e nel tempio con sacrale venerazione, allora essi si prostrano a terra e sollevando le mani al cielo rendono grazie alla generosità divina per questa invenzione……

…..Nessuno dei soffitti a volta che si trovano nelle stanze per il bagno può avere sopra di sé una fonte, ma la superficie concava della volta, che là è surriscaldata dal vapore infocato proveniente dalle stanze calde, attira l’acqua del pavimento, la trasporta con sé nelle curvature delle stanze e la trattiene in virtù del fatto che il vapore caldo si spinge sempre verso l’alto…… 

……Esistono alcune vene acide di sorgente …. che hanno il potere, se bevute, di dissolvere i calcoli che nel corpo umano si formano nella vescica…..

…..In Italia e nelle Alpi, nel paese dei Meduli, esiste un tipo d’acqua che fa gonfiare la gola a coloro che la bevono”.

Il Medioevo non ha reso onore all’acqua e proprio per questo fu caratterizzato da secoli puzzolenti, famigerati per le numerose malattie contagiose, epidemiche e virulente per le piaghe immonde, le invasioni di pulci, mosche e ratti, inondazioni di escrementi, rifiuti, sporcizie d’ogni genere, da acque stagnanti e contaminate da qualsivoglia tipo di morbo. Tuttavia, conventi e abbazie erano dotati di impianti di approvvigionamento idrico e di scarico. Si tramanda che un monaco dai bollenti spiriti, ad esempio, poteva essere punito con un bagno gelato, oppure sedere di propria volontà con le terga in una tinozza colma d’acqua fredda. Il bagno era previsto non più di 3 – 4 volte l’anno. Agli infermi era consentito qualche bagno in più. Il non utilizzo dell’acqua e degli impianti ha portato malattie, invasioni di insetti e di ratti che arrivavano a ondate. Panico, morte e disperazione furono il pane quotidiano soprattutto del volgo ignorante. L’unica via era la fuga caricandosi a spalle i cadaveri dei figli morti per gettarli in fosse comuni a cielo aperto dalle quali emanava un fetore talmente insopportabile da impedire alla gente di avvicinarsi. Purtuttavia i primi gabinetti (fino al secolo scorso si chiamavano ancora ritirate) sono proprio di quest’epoca.

I bagni turchi, soprattutto nella licenziosa Costantinopoli, divennero centri di attrazione in cui splendide fanciulle danzavano piacevolmente nude in giochi d’acqua che preludevano a incontri libertini…. infatti successivamente si trasformarono in bordelli.

Nel 1527, a causa del sacco di Roma, Clemente VII giunse a Orvieto. Temendo di restare senz’acqua fece realizzare un pozzo di 61 m e largo più di 13 m. A memoria di quello più celebre (ma più piccolo) che si trova nella cattedrale di Dublino, fu chiamato pozzo di San Patrizio. Su questo pozzo c’è l’iscrizione: “Quod natura movimento inviderat, industria adiecit” (laddove la natura è carente, occorre l’intervento dell’impiantista).

Questo periodo fu fertilissimo di invenzioni di macchine di ogni tipo fra cui molte adatte allo sfruttamento dell’energia idraulica ed eolica come forza motrice.

In questo periodo compaiono i primi lavabi e le prime vasche da bagno di lusso (comode), mentre c’è stata un’avversione nei confronti del bidè che tuttora permane in larghe frange dei popoli anglofoni.

A mio avviso il più bel monumento che l’uomo ha dedicato all’acqua è Villa d’Este a Tivoli (Italia)(3)  

“… dovunque tu volga il guardo ne zampillano polle in sì varie maniere e con tale splendidezza di disegno, da non esservi luogo su tutta la terra che in tal genere non sia di gran lunga inferiore…” (4)

Gianfranco Pellegrini

Torino, 10 marzo 2019

Note

(1) Sesto Giulio Frontino è nato attorno al 40 D.C. in Gallia Narbonense. Il suo cursus honorum è caratteristico di un pre-eminente esponente dell’oligarchia senatoriale, e ciò confermerebbe la sua parentela con il cavaliere Aulo Giulio Frontino, che sposò Cornelia Africana, l’unica figlia di Publio Cornelio Scipione. Dopo una lunga carriera in cui fu “prector urbanus”, console “sufectus”, governatore, ma soprattutto “praefectus fabrum” (comandante del genio militare), nel 97 a.C., sotto limperatore Nerva divenne “curator aquarum” a Roma(sovrintendente degli acquedotti di Roma). Scrisse due libri: “De aquaeductu urbis Romae”, “Stratagemata” (commentario quest’ultimo di “De re militari”). In particolare, nel libro “De aquaeductu urbis Romae”, Frontino descrive dettagliatamente la grave situazione della distribuzione dell’acqua a Roma prima del suo mandato nonchè tutti gli interventi da lui attuati per risolvere tutti i problemi. In tale occasione ha inventato i calibri e il pollice (inch). Per impedire il furto di acqua, fece costruire dei calibri in bronzo con stampigliato lo stemma dell’imperatore (di diversi diametri misurati in frazioni della misura del pollice del suo imperatore Nerva); dopo circa 50 anni i furti dell’acqua ripresero perché cominciarono a costruire calibri clandestini con stampigliati stemmi dell’imperatore falsificati (da allora sembra non sia cambiato proprio nulla). Comunque all’epoca di Frontino Roma richiedeva tantissima acqua perché, oltre a terme, fontane, latrine ecc. sempre più ville patrizie erano dotate di piscina; nonostante il sistema di adduzione di acqua a Roma fosse imponente, i furti d’acqua ed un sistema distributivo disordinato e irrazionale cominciava a rendere insufficiente l’acqua a Roma. Ecco che per sistemare le cose si rese necessario l’intervento di un grande geniere come Vitruvio che, avendo dimostrato la sua perizia in ambito militare, sicuramente avrebbe risolto anche il problema dell’acqua a Roma. La scelta fu azzeccatissima perché in effetti risolse tutti i problemi in modo mirabile e, ancor oggi rimangono i segni dell’intervento di Vitruvio.           

(2) Marco Vitruvio Pollione (in latino: Marcus Vitruviius Pollio, circa 80 aC – circa 15 aC circa) era un architetto e scrittore romano, attivo nella seconda metà del I secolo aC, è considerato il più famoso teorico dell’architettura di tutti tempi.

(3) La Villa d’Este a Tivoli è un capolavoro del Rinascimento italiano ed è elencata nella lista UNESCO dei siti del patrimonio mondiale. https://www.youtube.com/watch?v=iAItDwPJY5g

(4) Lettera di Uberto Foglietta a Flavio Orsino, 1569.

I fenomeni collettivi (versione in italiano)

La fisica affronta lo studio dei fenomeni utilizzando diversi approcci. In molti casi gli stessi fenomeni vengono affrontati con approcci diversi alternativi fra loro, altre volte si sceglie un certo specifico approccio perché ritenuto il più adatto allo studio di quel determinato fenomeno, altre volte ancora non si conoscono approcci alternativi a quello utilizzato da tutti. Per proseguire i nostri ragionamenti abbiamo la necessità di approfondire le metodologie utilizzate dalla fisica per affrontare i cosiddetti “fenomeni collettivi” tipici del microcosmo di cui ci stiamo occupando. Per far ciò è inevitabile partire da alcuni concetti di base.

La fisica divide la natura in statica e dinamica e studia entrambe quantitativamente rispetto a ciò che fa la filosofia in merito alle equivalenti nature di “essere”(1) e “divenire”(2).

La fisica attribuisce alla materia proprietà immutabili o mutabili (da misurare quantitativamente) così come la filosofia tratta di “categorie” e “accidenti”(3).

La materia per la fisica ha un contenuto energetico che può essere potenziale o cinetico e può trasferirsi così come in filosofia si parla di “potenza” e “atto”(4).  

La fisica, esattamente come la filosofia, fa uso di analisi e di sintesi(5).

La fisica richiede una visione:

  • binoculare, dinamica e tridimensionale (dinamica + tridimensionale = quadrimensionale)
  • sia microscopica, sia macroscopica dall’immensamente grande verso l’immensamente piccolo fino allo “svuotamento dello spazio” e viceversa
  • sia scientifica (esterna all’uomo), sia umanistica (interna all’uomo)
  • sia di sistema (collettiva), sia di componente (individuale)(6)
  • sia deterministica, sia indeterministica (es. principio di indeterminazione di Eisemberg)

Anche in fisica le verità sono incapsulate(7); fenomeni come l’”effetto tunnel” dimostrano che la teoria classica è incapsulata in quella quantistica; gli esperimenti come quelli fatti con l’uso di acceleratori di particelle, dimostrano che la teoria classica è incapsulata in quella relativistica.

In fisica l’eccezione non conferma di certo la regola; solo per fare un esempio, è grazie alla scoperta del comportamento anomalo dell’elio a temperature inferiori a 2 K che sono cominciati gli studi sui superfluidi. Attualmente i fisici stanno mettendo in dubbio la costanza della velocità della luce postulata da Einstein; indipendentemente dall’esito di questi studi, la sola messa in dubbio del postulato di Einstein chissà quali interessanti scoperte genererà !!!  

Nonostante la termodinamica indichi la tendenza naturale dell’universo al disordine, il mondo delle oscillazioni mostra incredibili fenomeni antientropici(8). In fisica i dubbi sono i benvenuti. 

I fenomeni collettivi sono quei fenomeni che avvengono grazie alla con-partecipazione di un gran numero di componenti e quindi il cui problema non è quello del comportamento del singolo isolato dal contesto, ma il comportamento dell’insieme. Si tratta di spiegare come fa un gran numero di componenti a cooperare in modo da dar luogo al sistema nel suo complesso. L’organismo vivente è un tipico esempio di sistema complesso.

La fisica classica concepisce tutta la materia come inerte (cioè per muoverla occorre imprimergli una forza) mentre sappiamo benissimo che quella vivente non lo è. Se lascio cadere un orologio esso tocca terra e la cosa finisce lì; se lascio cadere un animale, una volta che ha toccato terra la cosa non finisce così perché l’animale può decidere di aggredirmi, di scappare, brontolare, ecc.. La differenza sta nel fatto che l’orologio (pur essendo un oggetto che si muove) è un oggetto passivo, mentre l’animale è un oggetto attivo. L’orologio al contrario dell’animale, pur muovendosi, ma non è capace di comportamenti spontanei. La fisica quantistica ha fatto molti passi avanti nel cercare di spiegare la fisica degli oggetti in grado di comportarsi spontaneamente proprio perché è in grado di studiare la cooperazione fra i vari corpi presenti nell’universo. Con lo studio dei fenomeni collettivi e dei sistemi complessi, tutti i fenomeni isolati tipici della fisica classica di Galileo e Newton grazie alla fisica quantistica perdono di significato. Con l’avvento della fisica quantistica diventa impossibile isolare i corpi dal resto dell’universo(9). In questo senso è improprio affermare che la fisica quantistica è la fisica del mondo atomico e subatomico dato che è nata proprio per rispondere a questioni inerenti il mondo macroscopico e per spiegare come gli atomi si aggregano e generano sistemi complessi.

Gianfranco Pellegrini

Torino, 20 gennaio 2019

Note

(1) Quello dell’Essere è un concetto che attraversa tutta la storia della filosofia fin dai suoi esordi. Per quanto già posto dalla filosofia indiana sin dal IX secolo a.C., è all’eleate Parmenide che si deve l’aver dato inizio in Occidente a questo lungo dibattito che percorre i secoli e le diverse culture fino ai nostri giorni. L’Essere è quindi uno dei concetti fondamentali, se non il concetto fondamentale, tra quelli elaborati dalla tradizione del pensiero filosofico occidentale. ”L’Essere è e non è possibile che non sia … il Non Essere non è ed è necessario che non sia” (Parmenide).

(2) Il Divenire, inteso come mutamento, movimento, scorrere senza fine della realtà, perenne nascere e morire delle cose, è stato uno dei concetti più importanti su cui si sono contrapposte visioni ontologiche di tipo statico (come quella eleatica) e di tipo dinamico (come quella eraclitea e dell’atomismo leucippeo). Il Divenire è, secondo Eraclito, la sostanza dell’Essere, poiché ogni cosa è soggetta al tempo e alla trasformazione. Anche quello che sembra statico alla percezione sensoriale in verità è dinamico e in continuo cambiamento.

“ … poiché tutto muta, meno la legge del mutamento”. (Eraclito).

“ … poiché tutto muta, meno la legge del mutamento”. (Eraclito).

(3) Per Aristotele le categorie sono i gruppi o i generi sommi che raccolgono tutte le proprietà che si possono predicare dell’essere. Sono i predicamenti dell’essere, che si riferiscono a qualità primarie (le essenze immutabili degli oggetti), o secondarie (gli accidenti che possono cambiare).

Le categorie sono in tutto dieci:

– essenze:           la sostanza, la qualità, la quantità, la relazione

– accidenti:         il dove, il quando, il giacere, l’avere, il fare, il subire

Ogni elemento della realtà può essere fatto rientrare in una di queste categorie.

Ne consegue che le categorie di Aristotele hanno un valore oggettivo, perché si riferiscono a degli enti concreti. I nostri giudizi le adoperano non soltanto secondo un rapporto puramente logico tipico del sillogismo, ma riunendole grazie alla capacità intuitiva di cogliere le relazioni effettivamente esistenti tra gli oggetti reali. Ma oltre a ciò, ad ognuna delle categorie si riferisce una parte di quei costrutti semantici del discorso che hanno a che fare con il mondo reale: ad esempio, un nome o un sostantivo si riferisce alla categoria di sostanza; gli aggettivi qualificativi alla qualità, quelli indefiniti alla quantità, o alla relazione ecc.

(4) I due concetti di materia e forma sono riportati in Aristotele a quelli di potenza ed atto. Infatti la materia di per sé esprime solo la possibilità, la potenza, di acquisire una forma in atto nella realtà: perché si realizzi questo passaggio per cui ciò che è possibile diventi attuale, occorre che ci sia già una forma in atto, un essere attuato.

È chiaro che il passaggio dalla potenza (materia) all’atto (forma), che costituisce il divenire, è tale da poterlo concepire come senza fine, poiché ogni atto diviene potenza per un atto successivo o meglio, sostiene Aristotele, avrà come termine ultimo un atto che ha realizzato tutte le potenze, tutte le potenzialità materiali e quindi non avrà più in sè nessun elemento materiale (potenza) e sarà allora un atto puro, Dio.

(5) Per Cartesio l’analisi e la sintesi effettuano una operazione di scomposizione e composizione che riguarda la conoscenza.

L’analisi permette di identificare gli effetti dipendenti dalle loro cause, mentre la sintesi procede ripercorrendo e restaurando i rapporti identificati dall’analisi: in termini più generali l’analisi consiste nel dividere il problema conoscitivo nelle sue parti componenti più semplici, con l’avvertenza di non procedere troppo con la scomposizione per non perdere il senso complessivo del problema (il che accadrebbe se lo si frantumasse in parti troppo piccole);

La sintesi consiste nel rimettere assieme le parti analizzate identificando in questo modo la giusta struttura e composizione del problema da risolvere. In Cartesio l’analisi procede con fini euristici mentre alla sintesi è affidata l’esposizione.

Il procedimento euristico è un metodo di approccio alla soluzione dei problemi che non segue un chiaro percorso, ma che si affida all’intuito e allo stato temporaneo delle circostanze, al fine di generare nuova conoscenza. L’euristico è un procedimento antitetico a quello algoritmico.

(6) Collettivo sta a individuale come altruista sta a egoista.

Su questo tema è famoso il “diavoletto di Maxwell”, un esperimento mentale ideato da Maxwell circa la possibilità teorica di un congegno capace di agire a scala microscopica su singole particelle allo scopo di produrre una violazione macroscopica del secondo principio della termodinamica. Questo esperimento ha sicuramente contribuito all’avvio di nuovi interessanti studi nel campo dell’informazione quantistica. In particolare il principio di Landauer prevede che l’eliminazione di bit di informazione produce energia termica non azzerabile in alcun modo confermando così sperimentalmente quanto previsto dal secondo principio della termodinamica inizialmente messo in forse dal “diavoletto”.

(7) Ci sono due proprietà della materia completamente diverse fra loro: infatti la massa gravitazionale, ossia la capacità di una corpo di attrarne (o di essere attratto da) altri, non ha niente a che vedere con la massa inerziale, ossia con la riluttanza di quello stesso corpo a cambiare il suo stato di quiete o di moto rettilineo uniforme. Eppure quantitativamente la massa inerziale coincide “misteriosamente” con quella gravitazionale e trasferendo un corpo dalla terra alla luna la sua massa gravitazionale (cioè la sua capacità di essere attratta e di attrarre la luna) si riduce notevolmente ma anche la sua massa inerziale (cioè la sua riluttanza a muoversi diversamente) si riduce notevolmente, anzi si riduce esattamente nella stessa proporzione !!! Solo con la teoria della relatività è diventato chiaro che si tratta della stessa proprietà che si manifesta in due diverse forme. Altro esempio di superamento della fisica classica è la possibilità di trasmettere dati mediante l’utilizzo di onde gravitazionali anziché elettromagnetiche come recentemente pubblicato in “Classical and quantum gravity” da un gruppo di scienziati della RUDN university di Mosca.  

(8) A tal proposito è famosissimo l’esperimento mentale denominato “Il gatto di Schroedinger”. Si rinchiuda un gatto in una scatola d’acciaio insieme ad una macchina infernale (che occorre proteggere dalla possibilità d’essere afferrata direttamente dal gatto): in un contatore Geiger si trova una minuscola porzione di sostanza radioattiva, così poca che nel corso di un’ora forse uno dei suoi atomi si disintegra, ma è altrettanto probabile che nessun atomo si disintegri; se ciò succede, allora il contatore lo segnala e aziona un relais di un martelletto che rompe una fiala con del cianuro. Dopo avere lasciato indisturbato l’intero sistema per un’ora, se nel frattempo nessun atomo si fosse disintegrato è plausibile che il gatto sia ancora vivo altrimenti la prima disintegrazione atomica lo avrebbe avvelenato. La funzione “PSI” (proporzionale al quadrato della probabilità) dell’intero sistema porta ad affermare che in essa il gatto vivo e il gatto morto non sono stati puri, ma miscelati con uguale peso. Dopo un certo periodo di tempo, quindi, il gatto ha la stessa probabilità di essere morto quanto l’atomo di essere decaduto. Visto che fino al momento dell’osservazione l’atomo esiste nei due stati sovrapposti, il gatto resta sia vivo sia morto fino a quando non si apre la scatola, ossia non si compie un’osservazione.

(9) La questione del corpo inerte in natura è stata oggetto di speculazione filosofica già dal tempo dei pensatori greci. Democrito in linea con la fisica classica concepiva la materia come inerte e il movimento dei singoli atomi generava collisioni (incontri) casuali e caotiche che davano origine agli aggregati. Gli atomi di Epicuro erano invece in grado di muoversi autonomamente (il “clinamen “ di Lucrezio) dando origine ogni tanto a dei “sussulti” e si incontrano; il “Clinamen” (oggi diremmo la fluttuazione) per Epicuro, altro non era che la manifestazione dell’amore di ogni atomo nei confronti di tutti gli altri. Sussultando, un atomo va verso gli altri, li incontra e genera gli aggregati (molecole). Per Democrito la creazione dell’universo necessita di un Dio che provoca una prima spinta a uno o più atomi affinchè collida(no) con altri atomi dando origine agli aggregati. In altre parole per Democrito e per la fsica classica le cose non possono nascere da sole ma hanno bisogno di un Dio. La fisica classica è dunque solo apparentemente laica, perché in realtà ha bisogno di un Dio. Per Epicuro e per la fisica quantistica la materia si muove da sola e non lascia spazio al Padre Eterno a meno di non immaginare un Padre Eterno intimamente amalgamato con la materia (ossia immaginato come attributo della materia).         

Bolzmann&Gibbs Vs Weber&Fechner (versione in italiano)

In base a quanto detto finora abbiamo precisato che l’universo è permeato da energie di tipo violento, disordinato e disordinante, ma anche di energie soft di natura oscillante, ordinata e ordinante(1).

Tutto lascia pensare che la materia vivente, per rimanere in vita si “nutra” di questo tipo di energia soft e abbiamo ipotizzato che la attinga dai raggi ultravioletti ad una data frequenza(2) per il tramite della stragrande maggioranza delle molecole d’acqua di cui è costituita la materia vivente stessa(3).

In generale tutti sappiamo che nell’universo vi è un continuo e irreversibile aumento del grado di disordine: in fisica si dice che l’entropia aumenta; tuttavia sembrerebbe che l’essere vivente, per rimanere in vita abbia necessità di contrastare continuamente questo processo entropico generando in qualche modo “entropia negativa” in grado di controbilanciare l’entropia positiva che porterebbe progressivamente e inesorabilmente al degrado e alla morte. L’ipotesi che stiamo facendo è che l’energia “disordinata” contenuta nei raggi ultravioletti presenti nell’ambiente circostante venga “ordinata” dagli elettroni dell’acqua mediante la sua capacità di organizzarsi in domini di coerenza.

Già il grande fisico Erwin Schrödinger(4) nel 1944 aveva dedotto che la materia vivente dovesse operare un processo “ordinante”. In questa sede non mi è possibile affrontare tutte le argomentazioni da lui adotte per dedurre ciò(5) ma, anche se richiede un piccolo sforzo, desidero approfondire almeno alcuni punti perché indispensabili nel proseguo dell’analisi. Ci sono varie definizioni del secondo principio della termodinamica tra cui quella che dice che l’entropia è data dal rapporto fra la variazione di calore in un corpo e la temperatura assoluta alla quale avviene questa variazione di calore (Entropia = ∆Q/T) ma, chi si occupa di termodinamica statistica, di chimica-fisica, di cinetica chimica, sa molto bene che una definizione alternativa al secondo principio della termodinamica è quella data dalla formula di Boltzmann e Gibbs:

Entropia = k·log D

Dove k è la costante di Boltzmann (3,2983·10-24 cal/°C) e D è un parametro che tiene conto del grado di disordine atomico(6).  Per cercare una via percorribile che consenta di ottenere valori negativi di entropia, Schrödinger ha ipotizzato processi vitali che, anziché evolvere secondo D evolvano secondo 1/D: in questo modo effettivamente il logaritmo assume valori negativi(7).

La domanda spontanea è: Perché Schrödinger non ha pensato a valori di D inferiori all’unità ? Anche valori di D inferiori a uno fanno sì che il logaritmo – e dunque l’entropia – diventino negativi. In effetti nel 1944 non era possibile ipotizzare valori di D inferiori a uno perché ciò avrebbe implicato che un corpo, portato ad una temperatura pari a 0 K avesse ancora residui di energia oppure avrebbe reso possibile andare al disotto dello zero assoluto(8). Ebbene, nel 2013 un team di ricercatori della Ludwig-Maximilians-Universität di Monaco e del Max-Planck-Institut di Garching, hanno portato una nuvola di potassio al disotto dello zero assoluto dimostrando che il limite non era invalicabile(9).

Visto dal punto di vista microscopico un valore di temperatura più o meno elevato indica un grado di agitazione termica più o meno alto; in particolare, al raggiungimento dello zero assoluto cessa qualunque agitazione termica. Però l’energia di cui sono dotate le particelle non è solo quella relativa all’agitazione termica, perché ci sono ad esempio le energie vibrazionali che, tra l’altro, sono proprio quelle che ci interessano. Quindi sembrerebbe che un modo per “liberarsi” delle energie “forti” lasciando solo quelle “soft” sia quello di abbassare la temperatura(10).

Comunque sia, per ottenere dalla formula di Boltzmann e Gibbs valori di entropia negativi è possibile pensare a valori di D inferiori a uno. Questo è un fatto assai importante perché ci consente di mettere in relazione la formula di Gibbs con il “principio di minimo stimolo” di Weber e Fechner(11). Solo come promemoria il “principio di minimo stimolo” dice che la reazione ad uno stimolo non è proporzionale allo stimolo, bensì al suo logaritmo. L’analogia con la formula di Boltzmann e Gibbs è palese. A questo punto osserviamo che, per valori di D inferiori ad uno, l’entropia negativa aumenta al diminuire del grado di disordine e più è basso il valore di D più aumenta l’entropia negativa. Si tratta della risposta “inbound” di cui abbiamo ampiamente discusso in precedenza(11). Ecco che l’estensione del dominio di una formula fisica ben conosciuta anche a valori di D inferiori a uno ci consente di ottenere l’entropia negativa di cui ha bisogno la materia vivente per mantenersi in vita.  

Gianfranco Pellegrini

Torino, 19/08/2019

Note

(1) Per approfondimenti si veda anche il mio articolo precedente “L’energia armoniosa”.

(2) Riprendendo la nota 5  del mio articolo precedente “I domini di coerenza dell’acqua”, la frequenza necessaria per attivare questo processo è pari a circa 3 PHz; tenendo conto che la banda dei raggi X inizia a 30 PHz vediamo che, pur essendo ancora nella banda degli ultravioletti, siamo molto vicini ai raggi X.

(3) Per approfondimenti si veda anche il mio articolo precedente “I domini di coerenza dell’acqua”.

(4) Erwin Schrödinger (1887 – 1961) ha insegnato a Breslava, Berlino, Oxford, Dublino, Graz e Vienna. E’ il padre della meccanica ondulatoria e nel 1926 ha pubblicato la famosa equazione che porta il suo nome. Ha dimostrato che la meccanica ondulatoria è equivalente alla meccanica quantistica sviluppata da Heisemberg. Schrödinger, pur essendo un fisico teorico, nel 1944 ha scritto un libro di genetica “What is life ?”; quasi a volersi scusare per aver invaso un campo in cui egli non è specialista, nella prefazione scrive: “Ciò che si suppone di un uomo di scienza è che egli possieda una conoscenza completa e approfondita, di prima mano, di “alcuni” argomenti: ci si aspetta quindi che egli non scriva di argomenti in cui non è maestro. Se ne fa una questione di “noblesse oblige”. Per lo scopo presente, io chiedo di rinunciare all’eventuale nobiltà, per liberarmi dall’obbligo che ne deriva”.

(5) Per gli approfondimenti si rimanda al volume E. Schrödinger – “Che cosa è la vita ?” – Adelphi 1995.

(6) In questa sede sarebbe arduo spiegare con maggior dettaglio il significato di “D”. E’ comunque opportuno specificare che il grado di disordine a cui ci si riferisce è molto generale, nel senso che può riferirsi non solo alla più o meno elevata agitazione termica, ma anche al grado di omogeinizzazione di un miscuglio o di una soluzione (a partire dal momento in cui si mettono in contatto i componenti fino al momento in cui il miscuglio o la soluzione diventano omogenei), al grado di reazione chimica raggiunto (a partire dal momento in cui si mettono in contatto i reagenti fino al momento in cui la reazione si può considerare completata, anche se si tratta di processo asintotico), alla % di imperfezione del reticolo in un cristallo, ai cambi di stato (es. la fusione dei cristalli di ghiaccio o l’evaporazione dell’acqua), ecc.

(7) Si veda E. Schrödinger – “Che cosa è la vita ?” – Adelphi 1995 – Cap. VI, par. 7.

(8) Questi sono concetti di chimica-fisica che stanno alla base della formulazione di Lewis e Randall del Terzo Principio della Termodinamica: “Se a T = 0 è giustificato assumere uguale a zero l’entropia di tutti gli elementi nel loro stato cristallino più stabile e perfetto, allora qualunque sostanza pura possiederà un’entropia positiva che, a temperatura uguale a zero, può anch’essa annullarsi se la sostanza (composto chimico puro) si trova in uno stato cristallino stabile, microscopicamente ben definito e strutturalmente perfetto.”

Senza voler entrare troppo nel dettaglio accenniamo sinteticamente quale è il ragionamento che ci sta sotto.

Il fatto che l’entropia allo zero assoluto valga zero non è una assunzione convenzionale o “di comodo”, ma è un’assunzione che ha una sua ampia giustificazione scientifica (III Principio della Termodinamica).   Infatti, procedendo per punti:

– a –  Partiamo dal teorema di Nernst (o teorema del calore) che dice che “ad ogni processo fisico e/o chimico è associata una precisa variazione entropica DE e questa DE –> 0 quando T –> 0.” Pertanto, anche la variazione standard, o DtrasfS0, associata ad una qualsiasi trasformazione deve –> 0 se T –> 0. E questo è dimostrabile, non in via teorica ma su base statistica e/o da dati sperimentali.

La Termodinamica Statistica dice che l’entropia è associata al grado di incertezza (legata al disordine) che si ha nel definire lo stato di un sistema, ovvero al grado di conoscenza che si ha del sistema stesso. Questo concetto è esprimibile con la formula di Boltzman e Gibbs, Entropia = k ln D, dove D indica il “peso statistico” di un sistema, ovvero il numero di modi microscopici in cui posso costruire/realizzare un unico stato macroscopico (vedi nota 6 precedente).

Allo zero assoluto tutti i sistemi “reali” sono, ovviamente, allo stato solido;  consideriamo gli elementi nel loro reticolo cristallino stabile allo zero assoluto e supposto perfetto: non ci sono incertezze di tipo composizionale, strutturale o motorio (il moto è nullo).   Quindi, essendo nulla l’incertezza (ovvero, il peso statistico D è unitario), ne segue che:

b – in base alla formula di Boltzman e Gibbs per tutti gli elementi allo zero assoluto l’Entropia è uguale ed è verosimilmente nulla.  E da ciò, infine, consegue che:

c – quando la temperatura è 0, anche l’entropia di tutte le sostanze pure allo stato cristallino (perfetto) è eguale a 0 perché, in virtù del teorema di Nernst,  per T à 0 DfS0 –> 0.

(9) Il report, pubblicato dai ricercatori tedeschi nel gennaio 2013 sulla rivista Science, potrebbe aiutare a comprendere la cosiddetta “energia oscura”. Il successo raggiunto da questo team di ricercatori è di fondamentale importanza in quanto obbliga l’intera comunità scientifica a rivedere in parte il concetto di temperatura. Quando infatti in fisica si parla di temperatura si utilizzano i gradi Kelvin, una scala che non prevede temperature al di sotto dello zero. Prima di questo esperimento, lo zero assoluto rappresentava il limite al di sotto del quale non aveva più senso parlare di materia; tale temperatura rappresentava infatti la quantità di energia cinetica posseduta dagli atomi di cui è costituita la materia: più la materia è fredda, tanto più gli atomi sono ‘lenti’, fino a fermarsi completamente in corrispondenza appunto dello zero assoluto. 
La temperatura è data dalla media dei valori di tutti gli atomi, quindi anche dai valori relativi alla loro distribuzione. Come previsto dal III° Principio della termodinamica (vedi nota precedente), se la temperatura è molto bassa (ossia se gli atomi sono molto lenti) il disordine è molto basso, quasi nullo.
Sfruttando questa doppia definizione di temperatura, i ricercatori tedeschi sono di fatto riusciti a creare una nuvola di potassio molto fredda, nella quale la maggior parte degli atomi – ma non tutti – si muove molto lentamente. Evitando che gli atomi potessero scambiarsi energia, come avviene normalmente, i ricercatori sono riusciti a mantenerli in una sorta di anomalia definibile matematicamente come temperatura negativa.

(10) Il grande fisico tedesco Max Planck (1858 – 1947) in un lavoro intitolato “Leggi dinamiche e leggi statistiche” (Dynamische und statistische Gesetzmäßigkeit – Rede, gehalten bei der Feier zum Gedächtnis des Stifters der Berliner Friedrich-Wilheims-Universität am 3. Aug. 1914) distingue i fenomeni che seguono leggi di tipo “dinamico” da quelle che invece seguono leggi di tipo “statistico” (noi nel caso di fenomeni “dinamici” parliamo di “passaggio dall’ordine all’ordine”, mentre nel caso di quelli “statistici” parliamo di “passaggio dal disordine all’ordine”, ma i concetti sono i medesimi).

A seconda del grado di precisione richiesto, del fenomeno che interessa analizzare e del tipo di materiali in gioco, un fenomeno può essere considerato “dinamico” anziché no. Ad esempio, il movimento di un robot, se si trascurano le dispersioni termiche dovute all’attrito e altri tipi di “perdite” energetiche di tipo elettromagnetico, può essere considerato con ottima approssimazione un fenomeno “dinamico” e il teorema di Nerst (vedi nota 8 precedente) è in grado di indicarci quali sono le temperature al disotto delle quali il fenomeno continua a poter essere considerato “dinamico”. E’ intuitivo constatare che fino a temperature alle quali il metallo del robot fonde, il movimento del robot possa essere con buona approssimazione considerato “dinamico”.

In realtà la temperatura ambiente (attorno ai 300 K) è da considerare ancora molto bassa ai fini dell’entropia nel senso che per molte reazioni chimiche, l’entropia alla temperatura ambiente è insignificante; ciò è vero in particolare per le innumerevoli reazioni biochimiche che avvengono in continuazione nella materia vivente finchè rimane viva. Le temperature tipiche che troviamo sulla terra garantiscono ai fini della vita livelli di ordine molto elevati (valori di entropia del tutto trascurabili).   

(11) Per approfondimenti si veda anche i miei precedenti articoli “Il principio di minimo stimolo” e “Basse energie e risposta Inbound”.  

Il principio di minimo stimolo(1)

Tornando agli argomenti del blog avevamo chiarito che nelle interazioni fra la radiazione elettromagnetica e le molecole d’acqua presenti nella materia vivente, il “principio del minimo stimolo”impone che l’eccesso di energia risulti non solo inutile, ma persino penalizzante. A partire dai tempi di Marconi e Bell a oggi l’atmosfera terrestre è stata sempre di più inondata di onde elettromagnetiche di varie frequenze. E’ opinione comune che i segnali elettromagnetici dei nostri strumenti non possano essere dannosi perché hanno un basso contenuto energetico; il principio di minimo stimolo sembrerebbe indicare l’esatto contrario: potrebbero essere particolarmente dannosi proprio perché sono poco energetici !!!  Certamente se i segnali elettromagnetici fossero troppo intensi(2) generebbero aumenti di temperatura intollerabili per l’organismo vivente. I primi cellulari immessi sul mercato, oltre a scaldare l’orecchio in modo fastidiosissimo, erano anche nocivi per la salute umana. I cellulari odierni non scaldano e non danno fastidio all’orecchio perché ricevono segnali a bassa intensità: siamo sicuri che non siano nocivi(3)?     

Dopo aver chiarito che i meccanismi di interazione chimica dipendono dalle concordanze di fase, c’è un altro argomento che consolida l’ipotesi delle “basse energie” (piccole dosi). Recentemente è stato scoperto che tutte le acque cosiddette “terapeutiche”(4) (cioè che sembrano avere effetti benefici per la salute) sono caratterizzate da un elevato numero di nano-aggregati(5). Esperimenti recenti hanno mostrato che in prossimità di pareti contenenti cariche elettriche oscillanti, si può generare una concordanza di fase fra gli elettroni “quasi liberi” dei domini di coerenza dell’acqua e le cariche superficiali oscillanti che danno luogo ad una coerenza comune estesa che si attiva alla stessa frequenza delle cariche superficiali oscillanti presenti nella parete(6). Dato che gli elettroni dell’acqua “quasi liberi” presenti nei domini di coerenza hanno la proprietà di riuscire ad oscillare a numerose diverse frequenze, ogni volta che assumono la stessa frequenza delle cariche superficiali oscillanti il segnale diventa coerente. Le pareti superficiali possono essere costituite anche dalle superfici esterne di granuli elettricamente carichi dispersi nell’acqua. In questo modo l’effetto delle cariche superficiali oscillanti, anziché averlo nelle zone di confine come nel caso di recipienti contenenti l’acqua, è omogeneamente distribuito in tutto il volume occupato dall’acqua. Questo effetto è secondario e si aggiunge alla coerenza preesistente nell’acqua stabilizzandola, rendendola totalmente coerente e tutta oscillante(7) alla stessa frequenza delle cariche oscillanti nella superficie dei granuli.  

Alla luce di quanto descritto, molti fenomeni che prima risultavano incomprensibili ora diventano più chiari. Ad esempio diventa comprensibile l’attività dei rabdomanti. Intanto è bene precisare che i rabdomanti non riescono a rilevare l’acqua stagnante o con flusso laminare ma esclusivamente l’acqua con flusso turbolento o vorticoso. Se si chiedesse ad un rabdomante di rilevare il flusso dell’acqua circolante nei pannelli radianti a pavimento, non rileverebbe nulla perché il flusso è laminare. Questo è un fatto abbastanza sconosciuto ma che i rabdomanti sanno molto bene. La ragione sta nel fatto che le cariche statiche (presenti nell’acqua stagnante) e quelle che si muovono a velocità costante (correnti continue presenti nel flusso laminare) non generano alcun campo elettromagnetico. I rabdomanti sono particolarmente sensibili ai campi elettromagnetici e rilevano quelli generati dai vortici che “contagiano” l’acqua ad oscillare in fase con detti campi elettromagnetici. I primi vortici comunicano all’acqua la frequenza di oscillazione che si trasmette a tutto il resto dell’acqua (anche a quella che non è soggetta ai vortici). Sono in corso numerose ricerche e si concentrano sui principi che rendono attiva la materia vivente e sulle relazioni intercorrenti fra materia e psiche. In futuro sarà probabilmente possibile trovare azioni terapeutiche di carattere esclusivamente psichico. Supponiamo ad esempio che le oscillazioni coerenti dell’acqua corrispondano a ciò che chiamiamo “emozioni”. A quel punto, se si riuscisse a governare queste oscillazioni in maniera da produrre particolari emozioni che diano luogo a ben precise attrazioni molecolari, si potrebbe pensare di guarire le malattie non più con i farmaci (nemmeno quelli omeopatici), ma con i “miracoli”, cioè con fenomeni emotivi che diano luogo a ben precise oscillazioni benefiche per l’organismo vivente(8).    

Gianfranco Pellegrini

Torino, 2 dicembre 2018

NOTE

(1) Sul “principio di minimo stimolo”, per maggiori approfondimenti, si rimanda agli studi di Eva Reich e a quelli di Margherita Tosi; si veda anche il mio articolo precedente del 28 luglio 2018 “Tutto oscilla”.

(2) Le onde non trasportano materia ma trasportano energia. L’energia trasportata dalle onde è proporzionale al quadrato dell’intensità dell’onda.

(3) Il dubbio è che possano interagire in modo imprevedibile disturbando le concordanze di fase, distruggendo i domini di coerenza e variando alcune delle frequenze di sintonìa che garantiscono le corrette reazioni biochimiche. Ciò potrebbe modificare le sequenze di reazioni biochimiche portando a reazioni (o a sequenze di reazioni) diverse da quelle previste (ad esempio evoluzioni cancerogene, mutazioni genetiche, evoluzione biologica, …).

(4) Lo scienziato francese L. C. Vincent, fra i massimi esperti di bioelettronica e di Medicina Ortomolecolare, nel 1956 è stato incaricato dal governo francese di giustificare la differente incidenza di  tumori nelle diverse regioni della Francia; le sue ricerche hanno dimostrato che vi è una relazione tra incidenza dei tumori e qualità dell’approvvigionamento di acqua potabile; nella fattispecie, le città con minor incidenza di tumori facevano uso di acqua con caratteristiche fisiche/chimiche molto diverse da quelle relative alle città a maggior incidenza di malattia. Successivamente, nel 1972, Vincent effettuò una sperimentazione sulla saliva e sull’urina di oltre 60.000 malati di tumore francesi e tedeschi aprendo la strada allo studio del terreno biologico con un approccio di tipo energetico.  Da questi studi è emersa l’importanza di idratare il corpo non solo in abbondanza, ma soprattutto con acqua di ottima qualità “fisiologica”. L’acqua è sempre stata considerata fondamentale per la salubrità del corpo. Varie acque sono considerate terapeutiche come ad es. le acque termali, le acque considerate sacre (di Lourdes, del Gange), le acque curative come quelle bevute da popolazioni particolarmente longeve come gli Hunza (vedi studi in merito da parte del Nobel, H. Coanda). Tuttavia, nonostante le credenze popolari e le testimonianze storiche, gli studi scientifici non sono finora riusciti a dimostrare la veridicità di tali convinzioni. In ogni caso torneremo più avanti su questo argomento e parleremo dei numerosi recentissimi studi in corso su questi argomenti.

(5) I nano-aggregati possono essere costituiti da molecole d’acqua “aggregate” fisicamente fra loro in domini di coerenza, oppure da altre molecole, o anche dall’insieme dei due. 

(6) La frequenza di attivazione della coerenza comune estesa non può che essere quella delle cariche superficiali oscillanti in quanto sono le uniche che non possono cambiare; al contrario, come abbiamo visto in precedenza, la frequenza degli elettroni “quasi liberi” dei domini di coerenza cambia. Questo argomento verrà approfondito meglio quando affronteremo i temi dell’“acqua interfacciale”, della “exclusion zone” e dei vortici.

(7) Per maggior precisione è meglio dire che sono gli elettroni “quasi liberi” dell’acqua ad oscillare alla stessa frequenza delle cariche superficiali oscillanti.

(8) Per chi è razionale, l’irrazionale altro non è che ciò che non ha ancora avuto una spiegazione razionale, e dunque il vero ricercatore, se è razionale e se vuole essere un vero ricercatore, deve indagare per forza di cose esclusivamente nell’ambito dell’irrazionale (che per lui è solo temporaneamente irrazionale in attesa che lui ed altri razionali come lui non lo facciano diventare razionale; per le persone irrazionali, al contrario, l’irrazionale corrisponde all’impossibile). Tutte le persone razionali, davanti a fenomeni da loro considerati irrazionali, piuttosto che andare a cercare maliziosamente la truffa partendo dal preconcetto che sotto sotto ci sia la truffa, perché non studiano questi fenomeni pensando che ancora non vengono capiti ma che, una volta capiti, non saranno più da considerare irrazionali ?   

Oltre i confini dei campi vettoriali (versione in italiano)

Questo articolo esula dal tema che sto portando avanti nel blog; ho deciso comunque di pubblicarlo perché l’argomento mi è sembrato interessante da divulgare.

E’ noto che tutti i campi vettoriali che dipendono esclusivamente dalla coordinata radiale ma che sono indipendenti dall’angolo solido ammettono un potenziale e il lavoro fatto dal campo in uno spostamento da un punto qualunque ad un altro punto qualunque nello spazio risulta indipendente dal tipo di percorso scelto per tale spostamento.

Se inoltre la variabilità del campo non solo è radiale ma, in particolare, lo è in ragione del quadrato inverso, il campo diventa conservativo(1).

Faccio alcuni esempi semplici.

Immaginiamo una nuvola di milioni di moscerini che ronzano nell’aria. Immaginiamo di disegnare una superficie chiusa di forma qualunque che racchiude una porzione della nuvola di moscerini. Sia che la nuvola di moscerini si muova verso una determinata direzione, sia che resti mediamente nella stessa posizione dello spazio, il numero di moscerini che entrano nella superficie chiusa eguaglia il numero di moscerini che escono dalla superficie. Questo concetto è valido solo se i moscerini non vengono disturbati in qualche modo nel loro ronzare oppure se all’interno della superficie chiusa che racchiude il volume che stiamo osservando non nascano o muoiano moscerini.

Il primo caso corrisponde a creare una differenza di potenziale. Ad es. se all’interno della superficie introduciamo un uccellino i moscerini volano via allontanandosi radialmente e in questo caso i moscerini saranno tutti uscenti. O ancora, se all’interno della superficie iniettiamo un gas velenoso che uccide i moscerini, il numero di moscerini che attraversano la superficie nell’unità di tempo (inteso come somma algebrica di quelli che entrano meno quelli che escono) eguaglierà il numero di moscerini che muoiono nell’unità di tempo. Si tratta di concetti intuitivi e ragionevoli. L’unico piccolo sforzo da fare è quello di pensare i campi vettoriali come se fossero moscerini svolazzanti.

Il calcolo differenziale ed integrale dei campi vettoriali(2) costituisce un modo elegantissimo di trattare questi argomenti talmente affascinante che rischia di deviare la nostra concentrazione sugli aspetti squisitamente matematici facendoci talvolta perdere di vista il significato fisico dei fenomeni.

Fatte queste premesse, possiamo comunque affermare in estrema sintesi che la teoria dei campi dipende dal tipo di campo e dalle modalità di diffusione nello spazio istante per istante: entrambe queste entità sono suscettibili di estensione e di astrazione.

Ad esempio lo spazio zero-dimensionale (il punto) può essere esteso all’unidimensionalità (retta), estensibile alla bidimensionalità e tridimensionalità (coordinate cartesiane nel piano e nello spazio)(4). Matematicamente è possibile aumentare il numero di coordinate fino a farle diventare infinite (spazi di Hilbert e Banach).

Sono possibili anche estensioni extradimensionali come nel caso spazio-temporale dove, oltre ad aggiungere una coordinata temporale “contaminata” dalle variabili spaziali, anche le coordinate spaziali vengono “contaminate” dalla coordinata temporale.  Per inciso, con l’estensione alla dimensione spazio-temporale il campo elettrostatico diventa elettromagnetico ed elettrodinamico(5) e il campo gravitazionale diventa relativistico. Questo processo di estensione/astrazione ci consente di immaginare una possibile descrizione dei campi in “spazi” di natura completamente diversa da quelli usualmente trattati dalla teoria dei campi.

Anche sui campi è possibile immaginare un processo di astrazione. Ad es. perché non pensare ad un campo “pensiero”, un campo “amore”, un campo “informazione”? Ovviamente il loro domini sarebbero “spazi” particolari come lo “spazio del pensiero”, lo “spazio dell’amore”, lo “spazio dell’informazione”.

A questo punto, in analogia a quanto avviene per altri campi già studiati dalla fisica, si potrebbe immaginare la validità di principi quali la sovrapposizione degli effetti, la “conservazione del pensiero”, ecc.

Con queste ipotesi sarebbe possibile applicare la teoria dei campi anche ad altri “campi” non studiati dalla fisica come ad esempio quelli sopra citati.

La mia ipotesi è che per questa via diventi possibile passare da una descrizione qualitativa (filosofica, sociologica, psicologica, ecc.) ad una descrizione quantitativa (fisica, scientifica) di entità quali pensiero, amore, informazione, ecc. La “forza del pensiero”, il “colore” dell’amore, “l’energia” dell’amore, ecc. diventerebbero quantità misurabili.

In analogia a quanto si fa per i campi studiati dalla fisica, ad es. per lo “spazio del pensiero” lo si può immaginare inizialmente omogeneo e isotropo e si può immaginare una sua trasmissione radiale o addirittura radiale quadratica inversa. Partendo da questi presupposti si analizzerebbero i risultati rettificandoli in base alle incongruenze riscontrate sperimentalmente fino ad arrivare ad una trattazione congruente.

 Gianfranco Pellegrini

Torino, 1 novembre 2018

(1) Come ben noto due esempi di campi conservativi sono il campo elettrostatico e quello gravitazionale. Sul campo elettrostatico sono state eseguite misure che dimostrano che la variabilità dal quadrato inverso della distanza è valido fino a distanze dell’ordine di 10-15 metri (distanze nucleari). Per distanze inferiori sembra che la legge di Coulomb venga meno; in particolare i risultati sperimentali indicano valori circa 10 volte più deboli rispetto a quelli calcolabili con la legge di Coulomb. Una delle ipotesi è che elettroni e protoni non siano cariche puntiformi bensì cariche diffuse. Su questo tema vedasi anche E. Williams, J.Faller, H. Hill, New Experimental Test of Coulomb’s Law: A Laboratory Upper Limit on Photon Rest Mass, in Physical Review Letters, vol. 26, n° 12, 1971, pp. 721-724, Bibcode:1971PhRvL..26..721W, DOI:10.1103/PhyRevLett.26.721. 

(2) In un articolo successivo entreremo in dettaglio sul campo elettrostatico dipolare della molecola d’acqua e sulla teoria VSEPR (Valence Shell Electron Pair Repulsion).  

(3) La teoria dei campi fa uso di derivate spaziali prime scalari e vettoriali (gradiente, divergenza, rotore) e seconde (laplaciano) e si basano sulle regole del calcolo vettoriale e sui teoremi di Stocks e di Gauss. Nell’estensione spazio-temporale, il laplaciano diventa il Dalembertiano.

(4) La trattazione bi/tridimensionale è indipendente dal tipo di coordinate scelte, che esse siano cartesiane, polari, cilindriche, geodetiche o di altro tipo (nel caso ad es.  di utilizzo di geometrie non euclidee). 

(5) In elettrostatica/magnetostatica le equazioni di Maxwell sono separabili: due afferenti alla sola elettrostatica e due alla sola magnetostatica. 

L’acqua “conosce” (versione in italiano)

Abbiamo visto che nelle sequenze di milioni di reazioni biochimiche è fondamentale che i processi siano estremamente veloci e “pressochè” esenti da errori. Abbiamo anche visto che a garantire l’esistenza di queste condizioni sono i domini di coerenza dell’acqua e il teorema di Preparata.

Considerando che oltre il 99%(1) delle nostre molecole sono di acqua, come mai quando siamo vivi mostriamo una certa consistenza solida ? Evidentemente perché le molecole d’acqua quando si trovano nel nostro corpo sono legate fra loro più di quanto lo siano le stesse molecole d’acqua raccolte in un recipiente. Evidentemente per gli esseri viventi e per il resto della natura, anche se la chimica dell’acqua è la stessa, la fisica dell’acqua è diversa. L’acqua “inorganica” è “incoerente” mentre l’acqua “organica” è “coerente”. Entrando a far parte di un essere vivente l’acqua si auto-organizza in modo coerente e riesce così, oltre a diventare più “consistente”, soprattutto a generare un tipo di “informazione” di tipo particolare e responsabile della sussistenza della vita e dell’evoluzione.

Forse è il caso di approfondire meglio il concetto di “informazione”. I computer sono oggetti inanimati che per poter funzionare hanno necessità di energia elettrica e di “informazione”. Sono dunque incapaci di auto-funzionare autonomamente perché necessitano di continua energia elettrica e di istruzioni dettagliatissime(2). Inoltre il computer per operare ha necessità di input è non è in grado di agire spontaneamente. L’input deve essere molto preciso altrimenti va in errore. Se chiedo ad un robot di portarmi la pallo, non capisce che volevo dire “palla” e non me la porta ma mi risponde di ripetere perché non ha capito. Nel caso di sistemi in grado di auto-animarsi (come l’acqua) tutto ciò non è vero, ecco perché occorre non equivocare il concetto di “informazione”. Per chiarire meglio questo concetto trovo importante ricordare il famoso esperimento “acqua e DNA” eseguito dal premio Nobel per la medicina Luc Montagnier. Il DNA nella sua attività emette segnali elettromagnetici. Fornendo questi segnali ad un recipiente pieno d’acqua contenente elementi di DNA ed enzimi che ne attivano la composizione, il DNA si forma spontaneamente. Montagnier, dopo aver captato segnali elettromagnetici di DNA presente in un laboratorio di Parigi, ha trasmesso questi segnali ad un laboratorio di Benevento in cui vi era una provetta contenente, acqua distillata, componenti di DNA ed enzimi. Questi segnali elettromagnetici hanno consentito, grazie all’acqua distillata, la formazione a Benevento dello stesso DNA di Parigi. In questo caso la definizione di “informazione” secondo la teoria informatica è impropria in quanto il contenuto informativo intrinseco (cioè la ricchezza del segnale elettromagnetico inviato) è molto piccolo rispetto alla complessità del DNA. Questo sta a significare che l’acqua, partendo dalla poca informazione ricevuta dal segnale elettromagnetico, è in grado di apprendere e trasferire da sola la quantità di informazione supplementare necessaria a consentire la formazione del DNA. Dovremmo dunque utilizzare il termine “conoscenza” piuttosto che il termine “informazione” e l’acqua piuttosto che “informata” viene “istruita”.

E’ come quando ad un concerto il cantante accenna le prime note di una canzone e il pubblico comincia a cantarla senza aver avuto la necessità che gli venisse cantata dall’inizio alla fine. Così l’acqua: basta darle il “LA” e costruisce da sé tutta la sequenza di reazioni biochimiche o, addirittura è in grado di realizzarne di nuove (quindi, oltre che “conoscere”, “crea”). Tutto ciò spiegherebbe non solo il mantenimento della vita, ma anche la sua evoluzione(3).       

Si potrebbe pensare di usare quest’acqua impropriamente chiamata “informata” a scopo terapeutico; cioè dare ad un essere umano in cui la sua rete di segnali sia “rovinata”, in tutto o in parte, un campione d’acqua che contiene tutti i segnali in modo che questi segnali rimettano in moto tutto il meccanismo. Il fatto è che comunque questi segnali interagiscono in un ambiente che ha già i suoi segnali (“rovinati” o meno) che dunque possono interagire positivamente o meno con nuovi segnali introdotti. Questo spiegherebbe perchè si tratta di processi non deterministici(4). Si tratta di “consigli” piuttosto che di “comandi” e in quanto “consigli”, possono essere accettati o meno dall’ambiente.

La sequenza di reazioni biochimiche avviene solo se si raggiunge la concordanza di fase (ossia la coincidenza delle frequenze di oscillazione dei reagenti) mentre la quantità di energia scambiata è ininfluente anzi se fosse troppa diventerebbe nociva perché porterebbe alla modifica delle frequenze di oscillazione rischiando di perdere la concordanza di fase attesa e scombinando così la corretta sequenza di reazioni biochimiche(5).

Affinchè il processo sia ottimale, occorre che i flussi di energia siano inferiori a quelli che potrebbero generare discordanza di fase o, in altri termini, la temperatura non si deve alzare troppo generando variazioni tali da superare la tollerabilità della concordanza di fase. E’ evidente che ci troviamo di fronte a meccanismi completamente diversi da quelli che si verificano alle alte energie. Qui vale la regola esattamente contraria nota col nome di “principio del minimo stimolo”. Terapeuticamente lo stimolo è tanto più efficace quanto meno è intenso(6).

Gianfranco Pellegrini

Torino, 27 settembre 2018

(1) E’ vero che misurando la percentuale in peso la percentuale d’acqua è solo del 60/70% ma questo perché le molecole organiche sono molto più pesanti di quelle dell’acqua, ma se ragioniamo in termini di numero di molecole la percentuale di molecole d’acqua arriva appunto a superare il 99%. Se consideriamo che ad esempio l’acqua marina è una soluzione al 96%, scopriamo che il corpo umano è una soluzione acquosa molto diluita.

(2) Facciamo un esempio pratico. Se vogliamo che un computer disegni una parabola sullo schermo devo utilizzare un linguaggio di programmazione evoluto (Pascal, C, Fortran, Java, ecc.) che consente di scrivere un listato di istruzioni che consentono di disegnare una parabola a partire da un certo numero di input dati con la tastiera. Agni istruzione utilizzata dal linguaggio di programmazione è costituita a sua volta da una lista di istruzioni elementari che si tramutano in una sequenza di “1” e “0” (vero o falso). Ad es. la programmazione in “Assembler” è molto vicina al cosiddetto linguaggio macchina, ossia la programmazione mediante l’utilizzo di una sequenza di “1” e “0”. Chi ha domestichezza con l’algebra booleana sa che ogni espressione logica complessa è semplificabile in una sequenza di condizioni elementari (“vero” / “falso”) legate fra loro da parentesi e operatori logici “and” e “or”. Basta che manchi una istruzione o che essa sia errata e il computer anziché disegnare una parabola va in errore. Allo stesso modo il computer, se non riceve uno o più input da tastiera non disegna di certo la parabola. Infine, il computer se non è alimentato elettricamente non è in grado di operare.

(3) Cioè, se ci dovessero essere ulteriori possibilità (ad es. nuove molecole), il processo può andare avanti in direzioni nuove e questo può far capire come avviene l’evoluzione nel corso del tempo. Il processo di evoluzione non è un processo chiuso ma aperto.

(4) L’esempio è quello di molte cose scritte in questo blog: se esse arrivano all’attenzione di alcuni followers magari vengono rigettate, mentre se arrivano all’attenzione di altri followers esse vengono accettate.  Allo stesso modo i segnali elettromagnetici provenienti dall’esterno possono trovare ambienti contenenti altri segnali “confusi” che “accettano” i nuovi segnali esterni e altri ambienti che li rifiutano.

Gli studi fatti da Benveniste sulla memoria dell’acqua, non sono riusciti a dimostrare la bontà degli esperimenti proprio a causa della loro non ripetibilità (il cosiddetto metodo galileiano). Le sue teorie (che, tra l’altro, hanno portano allo sviluppo della omeopatia), anche dopo averle approfondite non mi hanno convinto, tuttavia contesto il fatto di essere state scartate per il solo fatto che non garantivano la ripetibilità.  

(5) In caso di eccesso di energia essa porta ad un innalzamento della temperatura corporea (febbre). A livello microscopico significa che come forma di protezione, il surplus di energia anziché generare maggiori frequenze di oscillazione genera maggior agitazione termica (spostamenti più veloci delle molecole). 

(6) Per maggiori dettagli su questo punto si vedano anche i miei precedenti articoli “Low energies and inbound response” e “The soft energy”.

Il sogno di Prigogine(1) (versione in italiano)

Abbiamo detto in precedenza(2) che la configurazione degli elettroni “quasi liberi” dell’acqua, rispetto agli elettroni di valenza dei metalli lascia gli elettroni in prossimità degli atomi di appartenenza e consente ai domini di coerenza di oscillare; ecco perché l’oscillazione è possibile per l’acqua ma non per i metalli. E’ come se l’acqua stesse al confine fra gli isolanti e i conduttori anzi, in generale si comporta come un ottimo isolante (per liberare l’elettrone dell’idrogeno occorrono ben 13,6 eV(3)) ma quando si trova nella configurazione di elettroni “quasi liberi” si comporta come un ottimo conduttore (4). Lo stesso meccanismo che consente la formazione dei domini di coerenza consente anche coerenze di più alto livello dove numerosi domini di coerenza (da circa 1/10 di micron ciascuno) oscillano coerentemente tutti insieme. Siccome il numero di configurazioni possibili per ciascun dominio di coerenza è elevatissimo, anche le possibili coerenze sono tantissime e tali da formare una gerarchia di livelli di gruppi di domini ognuno avente la propria frequenza caratteristica di oscillazione. Tutto questo significa che sono sufficienti piccoli salti energetici per consentire all’acqua – simultaneamente con frequenze numerosissime tutte diverse fra loro – di oscillare da una configurazione all’altra(5) consentendo di produrre campi elettromagnetici risultanti assai complicati. In sintesi, l’ambiente circostante cede all’acqua energia (disordinata) che viene utilizzata dall’acqua per generare (grazie agli elettroni “quasi liberi”) domini di coerenza che generano a loro volta domini di domini, che a loro volta generano domini di domini di domini, fino ad arrivare a domini delle dimensioni di una balena….. I domini di coerenza sono sistemi ordinati e ordinanti che prendono energia dall’ambiente circostante disordinato e disordinante. Ecco che i domini di coerenza realizzano proprio quei sistemi dissipativi (di cui parla Prigogine) in grado di generare spontaneamente ordine(6). E’ come quando, soffiando aria “disordinata” su un clarinetto ne esce un suono “ordinato”.  Ecco un esempio tangibile (come quello dei metronomi(7)) di riduzione spontanea dell’entropia, di creazione di ordine partendo dal disordine (8).

I domini, essendo coerenti non decadono (permangono per tempi lunghissimi) e nel frattempo, nel corso del tempo, se ne aggiungono continuamente degli altri. La “somma” (meglio dire sovrapposizione) di eccitazioni coerenti è anch’essa un’eccitazione coerente ma, esattamente come avviene con tutti i tipi di onde quando sono coerenti le intensità aumentano e le energie aumentano di conseguenza(9). Stiamo parlando di un fenomeno tipico delle basse energie(10): anziché agire con veloci trasferimenti di grandi quantitativi di energia (alte energie), qui abbiamo un grandissimo numero di piccolissimi trasferimenti (contemporanei o sequenziali) di energia che (non trattandosi di sistemi dissipativi) si accumulano nel tempo aumentando così via via il quantitativo di energia trasferito. Ecco un esempio: per trasportare un grosso carico da Roma a Parigi posso decidere di fare un solo trasporto di breve durata, oppure tantissimi piccoli trasporti sia contemporanei sia sequenziali.  

In definitiva gli esseri viventi, grazie a questo meccanismo consentono la trasformazione dell’energia incoerente dell’ambiente circostante in energia coerente(11).  Ciò ha un effetto ordinante sull’attività biochimica in quanto, grazie al fatto che la creazione della coerenza è accompagnata da un campo elettromagnetico che oscilla ad una data frequenza, esiste un teorema in elettrodinamica (teorema della coerenza elettrodinamica quantistica(12)) che dice che se ho un campo elettromagnetico esteso che oscilla con una certa frequenza “X” e prendo due molecole, di cui una che oscilla con frequenza “Y” e l’altra che oscilla con frequenza “Z”, tra queste 2 molecole si stabilisce una forza che dipende dai valori delle tre frequenze che, in generale è una forza assai piccola (trascurabile), ma che diventa grande (e qui importante) nel caso in cui le tre frequenze coincidono. In virtù di questo teorema, se due molecole risuonano alla stessa frequenza di un dominio di coerenza entro cui transitano, queste molecole si attraggono anche se si trovano a grandi distanze fra loro. La massima distanza che consente questo meccanismo è la distanza del dominio di coerenza. Tale attrazione le fa incontrare e reagire(13). Questa reazione produce energia che viene assorbita dal campo elettromagnetico. L’energia prodotta dalla reazione biochimica fa cambiare frequenza al campo. La nuova frequenza attiva molecole biochimiche che si trovano alla nuova frequenza e che reagiscono fra loro. In questo modo ottengo una sequenza di reazioni biochimiche in grado di auto-regolarsi perché ogni step (reazione) di questa sequenza di reazioni definisce univocamente quale sarà lo step (reazione) successivo. Questa spiegazione risolverebbe un mistero della biologia molecolare, infatti in questo modo un gran numero di processi biologici vengono ricondotti a sequenze ordinate di reazioni biochimiche. Ad esempio, per spostare con una mano un bicchiere da una posizione “1” ad una posizione “2”, occorre che la molecola “A” reagisca con la molecola “B”, poi che la molecola “C” reagisca con la “D”, poi che la molecola “E” reagisca con la “F”, ecc. per una sequenza di milioni di reazioni biochimiche. Solo alla fine di questa lunghissima sequenza di reazioni il bicchiere si troverà nella posizione “2”. Affinchè tutto ciò avvenga occorre che la molecola “A” reagisca con la molecola “B” e solo con essa, che la molecola “C” reagisca con la “D” e solo con essa, che la molecola “E” reagisca con la “F” e solo con essa, ecc. Occorre anche che tutte le molecole di tutte le reazioni della sequenza, nessuna esclusa, si riconoscano tra loro e si incontrino per reagire nonostante si trovino distanti l’un l’altra(13) (14). Inoltre le reazioni devono essere estremamente veloci: lo spostamento del bicchiere avviene in pochi secondi e, in questi pochi secondi devono poter avvenire milioni di reazioni biochimiche in sequenza(13) (14). Infine l’intero processo deve essere pressochè esente da errori affinchè avvenga lo spostamento del bicchiere e non tutt’altra azione. Dico “pressochè esente da errori” e non “esente da errori” perché mentre un algoritmo di software consente ad un braccio artificiale di un robot di eseguire lo spostamento del bicchiere sempre esattamente allo stesso modo, ciò non avviene nel caso di movimenti biologici. Nemmeno il più virtuoso violinista mai esistito riuscirebbe ad eseguire un brano musicale sempre esattamente allo stesso modo: tra un’esecuzione e l’altra ci sono sempre anche minime differenze che rendono ciascuna esecuzione unica. Questo è un altro requisito fondamentale affinchè ci possa essere evoluzione. Stiamo immaginando un’evoluzione assai diversa da quella teorizzata da Darwin; Darwin pretende che tra una miriade di eventi disordinati e disordinanti, stocasticamente ogni tanto ne avvenga qualcuno ordinato e ordinante che generi evoluzione: qui abbiamo il caso invece che tra una miriade di eventi ordinati e ordinanti ogni tanto ci sia qualche evento disordinato ma anch’esso ordinante che cambia la sequenza di eventi facendola evolvere verso un’altra direzione. Tale nuova direzione può risultare un vicolo cieco oppure un nuovo filone evolutivo.

In definitiva, per la chimica l’incontro delle molecole affinchè reagiscano è casuale; nel nostro caso invece non può essere casuale perché richiederebbe troppo tempo e perché potrebbe portare a reazioni completamente diverse da quelle della sequenza stabilita. L’agente chimico che consente tutte queste condizioni e soprattutto che impedisce le reazioni biochimiche indesiderate è l’acqua. Il codice di riconoscimento che consente le corrette reazioni chimiche e non altre è la frequenza di oscillazione.

Gianfranco Pellegrini

Torino, 2 settembre 2018

(1) Ilya Prigogine (Mosca, 25 gennaio 1917 – Bruxelles, 28 maggio 2003) è stato un chimico e fisico russo naturalizzato belga, molto noto per le sue teorie sulle strutture dissipative, i sistemi complessi e l’irreversibilità. Ricevette nel 1977 il premio Nobel per la chimica per le sue teorie riguardanti la termodinamica applicata ai sistemi complessi e lontani dall’equilibrio. Nel pensiero di Prigogine ha un’importanza cruciale il concetto di entropia, ovvero il secondo principio della termodinamica: ogni processo naturale, infatti, è irreversibile e tende ad aumentare la sua entropia (e quella dell’ambiente in cui si trova). Anche il tempo, in quanto successione di stati sempre diversi, deve essere concepito come irreversibile, ed è soggetto a sua volta a entropia. Tuttavia in natura esistono organismi viventi in grado di auto-organizzarsi diminuendo la propria entropia a discapito dell’ambiente, vincolati a un maggior o minor disordine entropico. A partire da queste considerazioni, Prigogine e altri studiosi (tra cui Francisco Varela, Harold Morowitz ed Enzo Tiezzi) hanno cominciato a gettare un ponte tra la fisica, la chimica, l’ecologia e le scienze sociali, per studiare tali settori non separatamente ma come sistemi tra loro interagenti. Per questa ragione Prigogine è considerato uno dei pionieri della cosiddetta scienza della complessità. Negli ultimi anni Prigogine lavorò alla matematica dei sistemi non-lineari e caotici e propose l’uso dello spazio di Hilbert allargato in meccanica quantistica come possibile strumento per introdurre l’irreversibilità anche nei sistemi quantistici. . (Da Wikipedia).

(2) Per approfondimenti si veda anche il mio articolo precedente “I domini di coerenza dell’acqua”.

(3) Per riuscire a liberare un elettrone dall’atomo di idrogeno (cioè fornire 13,6 eV) per effetto termico occorre scaldare di ben 158.000 K !!!. Per approfondimenti si veda anche il mio articolo precedente “I domini di coerenza dell’acqua”.

(4) Devo accennare a due fenomeni naturali apparentemente strani. I fulmini non riescono a formarsi se l’umidità relativa dell’aria non è sufficientemente elevata (a parte i casi di concomitanza con tempeste di sabbia, bufere di neve, nuvole di polvere vulcanica, “fulmini a ciel sereno”). Ma se l’acqua, come l’aria è un ottimo isolante come fa a consentire la propagazione del fulmine ? La differenza di potenziale fra superficie terrestre e ionosfera è di ben 200/500 kV a cui corrisponde una densità di corrente di soli 2 pA/m2 (2 millesimi di miliardesimo di Ampere al m2). La differenza di potenziale è garantita da un’attività temporalesca 30/100 fulmini/secondo (circa 5.000.000 di fulmini al giorno). Nessuna delle due attuali ipotesi sul meccanismo dei fulmini (teoria convettiva e teoria gravitazionale) è in grado di spiegare adeguatamente il meccanismo dei fulmini. Magari la spiegazione a entrambe queste problematiche può essere trovata ipotizzando che l’attrito dell’acqua dovuto alle forti correnti ascendenti/discendenti favorisca la configurazione degli elettroni “quasi liberi”.

Altra questione non sufficientemente spiegata: se noi (e più in generale tutti gli esseri viventi) siamo fatti d’acqua e l’acqua è un ottimo isolante perché prendiamo la scossa ? Magari perchè i domini di coerenza oscillano fra una configurazione non eccitata e una di elettroni quasi liberi.

Approfondiremo questo argomento più in là quando parleremo di legame a idrogeno, acqua interfacciale, quarta fase dell’acqua.

(5) La sovrapposizione di oscillazioni a frequenze (e fasi) diverse è un tipico fenomeno della propagazione delle onde (sonore, marine, elettromagnetiche, quantistiche, sismiche, ecc.). Utilizzando le stesse formule (equazioni d’onda, battimenti, modulazioni, bande laterali, ecc.) e gli stessi strumenti matematici (trigonometria, esponenziali immaginari, serie e trasformate di Fourier) si riescono a studiare in dettaglio anche gli effetti delle simultanee oscillazioni dell’acqua a frequenze diverse.     

(6) Per approfondimenti su questi argomenti si suggeriscono i seguenti testi:

  • R. Benkirane – La teoria della complessità, Bollati Boringhieri ,2007;
  • I. Prigogine – Le strutture dissipative. Auto organizzazione dei sistemi termodinamici di non equilibrio, Sansoni 1982;
  • I. Prigogine – Le leggi del caos, Roma-Bari 1992;
  • J. Al-Khalili, J. McFadden. La fisica della vita– La nuova scienza della biologia quantistica, Bollati Boringhieri 2014;
  • J. Gleick – Caos, BUR Saggi Rizzoli 2016.

(7) Si veda ad esempio il video https://you.be/u73T3FZp7kg; per maggiori approfondimenti si veda anche il mio articolo precedente “Basse energie e risposta inbound”.

(8) Gli evoluzionisti magari potrebbero prendere spunto da queste considerazioni per ricercare teorie alternative a darwinismo, neo-darwinismo, creazionismo …. dato che nessuna di queste teorie si sta dimostrando sostenibile.  

(9) Anche se la frequenza è la medesima, la differenza di fase fa sì che la sovrapposizione di funzioni sinusoidali pur rispettando il principio di sovrapposizione degli effetti da luogo a onde risultanti aventi intensità maggiore ma diversa dalla somma delle intensità, frequenza diversa dalla somma delle frequenze e fasi diverse dalla somma delle fasi. L’energia è proporzionale al quadrato dell’intensità e aumenta anch’essa anche se in modo ancor più complicato.

(10) Per approfondimenti si veda anche il mio articolo precedente “L’energia armoniosa”.

(11) Per approfondimenti si veda ad es. E. Schroedinger, Che cosa è la vita ? – La cellula vivente dal punto di vista fisico, Adelphi 1995

(12) QED Coherence in Matter, World Scientific, 1995 – Giuliano Preparata.

(13) I tempi e le distanze in gioco sono tali da non consentire di spiegare la realizzazione di queste reazioni biochimiche, a meno che non si abbandoni la convinzione che la realtà fisica sia descrivibile come un insieme di eventi localizzati nello spazio e nel tempo; per maggiori approfondimenti su questo punto si veda anche il mio precedente articolo “Superare il pregiudizio ontologico”.

(14) Il dominio di coerenza ha dimensioni dell’ordine di 1/10 di micron, un monosaccaride ad es. ha dimensioni pari a circa 0,5 nm (200 volte più piccola): è come se due corpi di dimensioni di un metro dovessero interagire a 200 m di distanza !!

Basse energie e risposta “inbound” (versione in italiano)

Lo stato di coerenza (1) è facilmente ottenibile a condizione che esista un “mezzo” che consenta agli oscillatori di “comunicare” tra loro. Uno dei tanti esempi interessantissimi di come raggiungere lo stato di coerenza può essere visto in youtube all’indirizzo https://www.youtube.com/watch?v=u73T3FZp7kg dove 32 metronomi sono messi in oscillazione in modo casuale: tutti con fasi diverse fra loro, ma tutti alla stessa frequenza. Dopo circa 4 minuti dal movimento iniziale, oscilleranno tutti in fase e mantenendo rigorosamente la medesima frequenza comune. Ciò è possibile perché i metronomi sono tutti appoggiati ad un ripiano in grado anch’esso di oscillare. È proprio il ripiano a “comunicare” a tutti i metronomi quale deve essere la fase comune della sincronizzazione. Utilizzando l’analogia dei metronomi “auto-sincronizzanti”, nell’universo il vuoto (il vuoto quantistico, non quello classico !!) costituisce il “supporto mobile e oscillante” che consente “l’auto-sincronizzazione” di tutto ciò che esiste (ossia di tutto ciò che oscilla) nell’universo; se si preferisce, il vuoto quantistico è il “mare” (con moto ondoso regolare) su cui l’esistente “galleggia” (oscillando verticalmente come farebbe un tappo di sughero). Negli esseri viventi, il “ripiano” (o se vogliamo il mare) è costituito dall’acqua(1).

Per ottenere un effetto amplificante non solo occorre avere la medesima frequenza di tutti i corpi oscillanti ma, a meno di multipli di 2π, è altresì necessario che oscillino tutti con la medesima fase (concordanza di fase) (2): in parole povere l’amplificazione richiede anche la coerenza perché l’accordatura non è sufficiente. Raggiungere lo stato di coerenza consente scambi energetici ordinati (antientropici) e non dispersivi. Se avessimo momentaneamente la possibilità di eliminare le “alte energie” disordinate e “disordinanti”, percepiremmo un mondo costituito da una moltitudine di oscillazioni di ogni tipo in grado di scambiarsi mutuamente “basse energie” ordinate e “ordinanti”. Il mondo delle basse energie si manifesta armonioso e cooperativo rispetto a quello delle alte energie che premia la competizione e la disarmonia. Oscillazioni a frequenze diverse (ovviamente non multiple di 2π) consentono nello stesso luogo scambi di energia simultanei e non sovrapposti (3).

La fisica di Newton e Galileo ci insegna che il moto di un corpo può essere modificato solo da una forza esterna al corpo (principio di inerzia). Chi avrebbe potuto impartire la forza esterna iniziale capace di animare “in principio” i corpi dell’universo? Da questa semplice osservazione si può facilmente constatare che non c’è molta differenza tra fisici classici e uomini di fede !! I fisici quantistici che accettano di scartare la dichiarazione n. 3 di Bell(4) e che dunque sono disposti a sostenere che la realtà fisica non debba necessariamente essere descrivibile come un insieme di eventi localizzati nello spazio-tempo (e dunque sono disposti a superare il principio di inerzia) accettano l’idea che i corpi possano “auto-animarsi”. In base a questa affermazione, apparentemente, la fisica quantistica sarebbe in grado di fare a meno di Dio, a meno di non trasformare il Dio “esterno ai corpi” in un “Dio interno i corpi” capace cioè di “auto-animarli”; in questo senso, l’affermazione: “Dio è nei cieli, in terra e in ogni luogo” verrebbe meglio specificata: “Dio è nei cieli, in terra e in ogni corpo … .. dentro ogni corpo”. Con questa visione della fisica, la trascendenza “invade” persino l’immanenza “comprendendola”.

I fisiologi tedeschi Weber e Feckner hanno enunciato una legge secondo cui la risposta a uno stimolo non è proporzionale all’intensità dello stimolo, bensì al logaritmo dello stimolo. Ciò significa che se lo stimolo è inferiore a 1, il logaritmo diventa negativo, cioè la risposta allo stimolo diventa negativa ma, ancor peggio, minore è lo stimolo, più la sua risposta tende a meno infinito! (5) Cosa significa “risposta negativa”? Significa “in entrata” (inbound) mentre risposta positiva significa “in uscita” (outbound) – da non confondere rispettivamente con implosione versus esplosione. In base a questa legge, nella fisica delle basse energie sembrerebbe che uno stimolo basso, invece di generare effetti esterni e distruttivi, genererebbe effetti interni, “mutanti”, “costruttivi” ” e ” ordinati”. Mutazioni genetiche? Non so, ma è certo che più entrano in gioco le basse energie, più aumentano le “mutazioni costruttive” (costruttive nel senso di Prigogine, cioè antientropiche)(6). Coloro che operano nel campo delle onde elettromagnetiche sostengono che le energie coinvolte sono minime e quindi innocue: secondo la legge logaritmica di Weber e Feckner, proprio perché sono molto basse potrebbero avere effetti molto grandi !! I vecchi telefoni avevano bisogno di molta (alta) energia che scaldava l’orecchio, ma si trattava di risposta “innocua” e debole “in uscita” (outbound). Non è che ora che consumano meno possono avere una forte risposta “in entrata” (inbound) ?

Torino, 28 agosto 2018

Gianfranco Pellegrini

Note

(1) Per approfondimenti vedi anche il mio articolo precedente “I domini di coerenza dell’acqua”.

(2) Per approfondimenti vedi anche il mio articolo precedente “Tutto oscilla”.

(3) Per approfondimenti vedi anche i miei articoli precedenti “Tutto oscilla” e “L’energia armoniosa”.

(4) In questo nuovo millennio sempre più fisici quantistici accettano questa scelta logica. Per maggiori approfondimenti vedi anche il mio articolo precedente “Superare il pregiudizio ontologico”.

(5) Per approfondimenti vedi anche il mio articolo “Il principio di minimo stimolo”. Chiamando con R la risposta allo stimolo e S lo stimolo, abbiamo R/α = ln(S/So) con α costante di proporzionalità ed So un valore particolare dello stimolo la cui risposta è nulla .

Andamento della risposta allo stimolo in funzione dello stimolo stesso secondo l’ipotesi di Weber e Feckner

(6) Per approfondimenti vedi anche il mio articolo “Il sogno di Prigogine”.

I domini di coerenza dell’acqua (versione in italiano)

In generale tutte le oscillazioni relative alle molecole costituiscono un sistema incoerente(1) e solo in certe condizioni limitate a uno spazio più o meno grande che contiene un certo numero di molecole – detto dominio di coerenza – è possibile ottenere uno stato di coerenza.

Nel caso dell’acqua, l’oscillazione che dà origine allo stato di coerenza si verifica tra una configurazione (non eccitata) in cui gli elettroni sono tutti fortemente legati alla molecola e una configurazione (eccitata) in cui un elettrone per ogni molecola risulta “quasi libero”.  Attenzione perchè “quasi libero” non significa “totalmente libero”, come ad esempio nel caso dei metalli. Nei metalli infatti, gli elettroni si allontanano enormemente dalle molecole di appartenenza originali. Ad esempio, in un cavo elettrico in rame a sezione ridotta, gli elettroni (di valenza) relativi agli atomi all’interno della sezione “migrano” naturalmente verso la periferia della sezione (cioè nell’area di confine tra rame e isolante), quindi, se l’atomo ha le dimensioni di un decimilionesimo di millimetro e il raggio della parte in rame è uguale ad un esempio ad un millimetro, la distanza fra gli elettroni di valenza che appartengono agli atomi situati al centro del cavo è dieci milioni di volte la dimensione dell’atomo di appartenenza; è come se, mentre giochiamo a ping pong, la pallina si allontanasse dal tavolo di gioco di 40 km !!!! Se al cavo viene applicata una tensione alternata(2), gli elettroni si muovono alternativamente avanti e indietro allontanandosi di distanze comprese tra 1 e 10 micron dalla posizione di riposo iniziale. Se la tensione è continua, l’elettrone si sposterebbe sempre di più con una velocità di deriva compresa tra 0,1 mm/s e 1 mm/s; è come se la pallina da ping pong si allontanasse di 40 km al secondo per tutta la durata della tensione esercitata sulle estremità del cavo elettrico !!!.

Diversamente dal caso dei conduttori, nel caso dell’acqua nello stato eccitato a cui ho accennato prima, gli elettroni sono “quasi liberi” e quindi, rispetto al caso dei metalli, sebbene liberi, rimangono molto vicini alla molecola di appartenenza.

Un altro aspetto che voglio sottolineare è che nella configurazione non eccitata della molecola d’acqua rispetto alla configurazione “quasi libera”, per liberare un elettrone ci vuole un’energia pari a 13,6 eV(3), corrispondente a riscaldare l’acqua fino a 158.000°C(4) oppure a bombardarlo con raggi ultravioletti ad alta frequenza (quasi raggi X)(5) !!! Si tratta un’energia enorme e dunque stiamo parlando di una configurazione estremamente stabile. Queste considerazioni ci indicano che l’oscillazione che dà origine a uno stato coerente passa da una condizione di estrema stabilità in cui l’acqua si comporta come un eccellente isolante elettrico a una configurazione completamente opposta (conduttore eccellente).

Qual è la frequenza (e quindi la lunghezza d’onda) corrispondente a questa oscillazione coerente? La lunghezza d’onda è pari a 0,1 micron (pari a un decimillesimo di millimetro) e quindi la frequenza è pari a 300 PHz (300 mila miliardi di cicli al secondo). L’intera banda della radiazione ultravioletta è compresa tra 400 nm e 10 nm (749 THz e 30 PHz) e dunque una lunghezza d’onda pari a 0,1 micron = 100 nm è inclusa nella banda dell’ultravioletto. Pertanto la radiazione di base in grado di creare questo stato di oscillazione coerente sugli elettroni dell’acqua appartiene alla banda ultravioletta.

Che dimensioni ha il dominio di coerenza? È approssimativamente uguale alla lunghezza d’onda del campo elettromagnetico che dà origine alla fluttuazione, ovvero 0,1 micron. Quindi tutte le molecole d’acqua contenute in uno spazio avente un raggio di circa 0,1 micron, se attivate dalla radiazione ultravioletta con una frequenza di 300 PHz, oscillano in modo coerente. Poiché la molecola d’acqua ha un diametro medio dell’ordine di 1 Ängstrom (un milionesimo di millimetro) e la dimensione del dominio di coerenza è 0,1 micron (un decimillesimo di millimetro), un dominio di coerenza è pari a circa mille volte la dimensione della molecola d’acqua; per fare un confronto, se la molecola d’acqua avesse un diametro di un metro, il dominio di coerenza avrebbe un raggio di 1 km.

Infine, un’ultima domanda: quante molecole d’acqua ci sono in un dominio coerente? Un dominio di coerenza contiene circa 20 milioni di molecole(6).

A questo punto abbiamo tutti gli ingredienti che ci permetteranno di approfondire gli effetti dell’interazione tra la radiazione ultravioletta e gli elettroni delle molecole d’acqua e meravigliarci per le sue incredibili conseguenze.

Gianfranco Pellegrini

Torino 30/08/2018

Note

(1) Significa che le molecole oscillano con diverse fasi coprendo, nell’insieme, statisticamente e mediamente l’intera gamma di possibili sfasamenti. Sappiamo che gli spostamenti di fase multipli di 2π risultano in fase con i corrispondenti spostamenti di fase tra 0 e 2π; per esempio, spostamenti tra oscillazioni uguali a α, α + 2π, α + 4π, α + nπ sono tutti in fase tra loro, quindi l’intervallo di spostamenti di fase che sono di interesse per l’analisi è solo quello tra 0 e 2π.

(2)   Per le considerazioni che seguono si consideri una velocità media di deriva degli elettroni compresa tra 0,1 e 1 mm/s e una frequenza di rete pari a 50 Hz (cioè una semi-frequenza pari a 100 Hz).

(3)   Questa energia può essere calcolata facilmente partendo dal principio di Eisenberg.

                     

Da questo principio si evince che l’ordine di grandezza della quantità di moto sarà approssimativamente uguale a p≈h/r.

L’energia cinetica dell’elettrone sarà quindi uguale a mv2/2= p2/2m = h2/2mr2 mentre il l’energia potenziale sarà uguale a -qpqe/4πε0r. Quindi l’energia totale sarà uguale a

dove:

– h è la costante di Planck pari a 6,626 x 10-34 J • s

– m è la massa elettronica pari a 9.109 x 10-31 kg

– qp e qe sono rispettivamente le cariche di elettrone e protone pari a 1.602 x 10-19 C

– r è la distanza dell’elettrone dal nucleo incognita.

Per trovare la distanza più probabile ricaviamo l’energia rispetto alla distanza e la uguagliamo a 0 per trovare la distanza minima di energia:

Ponendo dE/ dr = 0 otteniamo r0 = 0.528 x 10-10 m = 0.528 Ängstrom (chiamato raggio di Bohr) che rappresenta il raggio della superficie sferica di massima probabilità in cui trovare l’elettrone dell’atomo di idrogeno. A questo punto è sufficiente sostituire questo valore nell’equazione dell’energia e otteniamo E0 = -13,6 eV (1 eV = 1,602176565 x 10-19 J).

(4)   Considerando che 1 eV è uguale a 1.6 * 10-19 J e che la costante di Boltzman è uguale a Kb = 1.38 * 10-23 J/K, 13.6 eV corrisponde ad un incremento di temperatura uguale a circa 158.000 K ≈ 158.000 °C (visto l’elevato valore di temperatura in gioco, possiamo trascurare la traslazione di 273.15 K fra scala Kelvion e scala Celsius perché del tutto irrilevante).

(5)  Per la radiazione incidente l’energia corrispondente a 13.6 eV è uguale a hν essendo “ν” la frequenza della radiazione e “h” la costante di Planck uguale a 4.136 * 10-15 eV. La frequenza necessaria per rilasciare questa energia corrisponde a 13.6 / 4.136 * 10-15 = 3.29 * 1015, cioè circa 3 PHz. Tenendo conto che la banda dei raggi X inizia a 30 PHz vediamo che, pur essendo ancora nella banda degli ultravioletti, siamo molto vicini ai raggi X. Questo semplice calcolo ci fa osservare che gli UV non sono tutti uguali. Quelli naturalmente filtrati dall’atmosfera sono più vicini a λ = 400 nm (vicino alla banda visibile e quindi con energie non troppo elevate) ma è sufficiente scendere a soli 250 nm (la lunghezza emessa dai vapori di mercurio utilizzati per le lampade a vermicida è uguale a 254 nm) e tale radiazione è già in grado di distruggere i legami molecolari del DNA di microrganismi, producendo dimeri di timina nel loro DNA e distruggendoli, rendendoli innocui o impedendo la loro crescita e riproduzione. Nel nostro esempio stiamo parlando di 3 PHz corrispondenti a λ = 100 nm, quindi ben al di sotto dei 254 nm di vapore di mercurio.

(6)   Approssimando un dominio di coerenza con una sfera avente un diametro di 0,1 micron, il suo volume è pari a circa 5,2 * 10-22 m3; la massa molecolare dell’acqua è pari a 18 kg / mole, quindi ogni m3 di acqua contiene 55.556 moli; ogni mole contiene 6,02 * 1023 molecole, quindi ogni m3 di acqua contiene 3,34 * 1028 molecole e quindi un dominio contiene circa 1,75 * 107 molecole.

Le anomalie dell’acqua (versione in italiano)

L’acqua è una sostanza straordinaria e mostra comportamenti anormali sotto molti punti di vista. Nel 2003 Martin Chaplin ha creato un sito che aggiorna costantemente dove descrive più di 70 comportamenti anomali dell’acqua suddividendoli in fase, densità, materiale, termodinamica, anomalie fisiche(1).

Le piccole dimensioni della molecola d’acqua, la sua leggerezza, l’elevata differenza di elettronegatività dei suoi atomi costituenti e l’angolo asimmetrico tra l’atomo di ossigeno e i due atomi di idrogeno spiegano quasi tutto il comportamento anomalo dell’acqua. L’apparente semplicità della molecola d’acqua non sembra giustificare l’incredibile capacità di favorire strutture e interazioni a un livello molto più articolato di organizzazione della materia molecolare.

La molecola d’acqua è composta da un atomo di ossigeno e due atomi di idrogeno. La distanza tra ciascun atomo di idrogeno e l’atomo di ossigeno è in media 0.9585 Ängström e i due atomi di idrogeno formano con l’atomo di ossigeno un angolo medio di 104,45 °. Parlo di valori medi perché nella molecola in realtà ci sono vari tipi di oscillazioni (allontanamento / avvicinamento degli atomi di idrogeno da/a quello di ossigeno, variazione dell’angolo tra l’atomo di ossigeno e i due di idrogeno, torsioni nelle tre direzioni dello spazio) che ci danno angoli e distanze in continua evoluzione. Per meglio inquadrare il problema, il diametro medio dell’atomo di ossigeno è di circa 1,2 Ängström e quello dell’idrogeno è di circa 1,06 Ängström (1 Ängström equivale a un decimilionesimo di millimetro o anche a un decimillesimo di micron).

Gli atomi che costituiscono la molecola d’acqua raggruppano due coppie di elettroni per formare una molecola di dipolo (questo perché l’attrazione esercitata dall’ossigeno è maggiore di quella esercitata dall’idrogeno). Questa dipolarità rende l’ossigeno elettronegativo e l’idrogeno elettropositivo e ciò consente l’esistenza di un legame covalente ad un angolo stabile (asimmetrico e oscillante attorno a 104,45 °). Inoltre questa dipolarità rende possibile il legame (chiamato legame “ponte idrogeno”) tra gli atomi di idrogeno di una molecola e gli atomi di ossigeno delle molecole adiacenti. Essendo un dipolo di dimensioni abbastanza grandi, la molecola d’acqua può essere influenzata da campi elettromagnetici esterni e molte anomalie dell’acqua sono attribuibili a queste caratteristiche, specialmente ai legami idrogeno che si formano e distruggono continuamente.

Sarebbe troppo lungo descrivere dettagliatamente uno per uno ogni singolo comportamento anomalo dell’acqua e spiegare le ragioni chimiche e fisiche di questo comportamento, per cui in questa sede accenniamo solo ad alcuni comportamenti anomali rimandando al lavoro di Martin Chaplin per ulteriori approfondimenti.

L’acqua ha proprietà idratanti uniche verso importanti macromolecole biologiche (in particolare proteine ​​e acidi nucleici) che determinano in soluzione le loro strutture tridimensionali e quindi le loro funzioni biologiche. Questa idratazione forma gel che possono subire reversibilmente le transizioni di fase gel-sol che sono alla base di molti meccanismi cellulari.

Sostanze come idrocarburi e grassi, essendo non polari, sono poco solubili o totalmente insolubili (sostanze idrofobiche) mentre altre (proteine, polisaccaridi, DNA indispensabili per il funzionamento cellulare) sono invece molto solubili (idrofile).

L’elevata velocità di rottura / ricostituzione continua dei legami idrogeno rende l’acqua meno viscosa.

L’alta costante dielettrica consente all’acqua di interagire facilmente con i campi elettromagnetici e di solubilizzare facilmente composti ionici o molto polari.

A causa delle sue piccole dimensioni che consentono alle molecole d’acqua di entrare tra uno ione e un altro o tra una molecola e l’altra, l’acqua è uno dei migliori solventi. Per fare solo un esempio, la costante reticolare di un cristallo di cloruro di sodio è pari a 0,564 nanometri (cinque decimilionesimi di un metro = cinque decimillesimi di micron); questo significa che la molecola d’acqua essendo cinque volte più piccola, può facilmente entrare nel reticolo cristallino del cloruro di sodio. Inoltre, a seconda della polarità degli ioni coinvolti, è in grado di interagire elettrostaticamente (o di formare legami idrogeno) generando forze che rompono la struttura cristallina (nel lessico chimico questo “assedio” degli ioni soluto da parte delle molecole d’acqua è chiamato solvatazione).

L’acqua è permanentemente presente sulla terra sia allo stato liquido, sia allo stato solido, sia allo stato gassoso (rendendo così possibile la vita sulla Terra così come la conosciamo).

È inodore, incolore e trasparente (quindi consente la fotosintesi delle piante acquatiche).

Il calore specifico dell’acqua è veramente molto alto (solo l’idrogeno, l’elio e poche altre sostanze hanno un calore specifico così elevato; ciò è dovuto al fatto che l’energia fornita alle molecole d’acqua quando viene riscaldata, oltre ad aumentare l’agitazione delle molecole, serve anche a rompere i legami a idrogeno (a partire dalla temperatura di liquefazione, quando la temperatura sale, i legami idrogeno iniziano a rompersi e si riducono man mano che la temperatura aumenta fino a scomparire totalmente quando l’evaporazione è completa). Questa caratteristica è molto utile per garantire una termoregolazione ottimale degli esseri viventi; inoltre sempre grazie a questa proprietà, la grande quantità di acqua presente nella superficie terrestre consente una buona termoregolazione climatica della terra.

Il calore latente di vaporizzazione dell’acqua è molto elevato a causa del fatto che, una volta raggiunta la temperatura di evaporazione, il 75% dei legami idrogeno è ancora presente; per gli stessi motivi, anche il calore latente di fusione è molto alto. Queste peculiarità sono importantissime per il clima sulla terra; infatti l’acqua grazie a questo alto calore latente può termoregolare le fluttuazioni di temperatura attenuandole.

Il ghiaccio è meno denso del 9% rispetto all’acqua ed è un ottimo isolante; grazie a queste proprietà il galleggiamento del ghiaccio nell’acqua consente la vita anche nelle zone polari della terra.

La molecola d’acqua è così piccola e così leggera che a conti fatti dovrebbe evaporare a -80°C e invece sulla terra, a seconda della pressione atmosferica, evapora tra 68°C e 100°C; per le stesse ragioni dovrebbe congelare -100°C e invece solidifica a 0°C; stranamente raggiunge la massima densità e il massimo grado di agitazione a 3,98 °C(2).

Torino, 31 luglio 2018

Gianfranco Pellegrini

Note

(1) http://www1.lsbu.ac.uk/water/water_anomalies.html

(2)   Per maggiori informazioni si veda: Viktor Schauber – Anomalous point and state of indifference.