Tecnologia Vortex – Parte terza

Analizziamo ora alcuni fenomeni fisici che avvengono grazie ai vortici quali il trasferimento di energia e i loro movimenti causati ad es. dalla variazione di salinità o dalla rotazione terrestre.

Partiamo dai vortici che si formano negli oceani (eddies) di grande attualità in questi ultimi anni per via della formazione delle isole di plastica negli oceani. Prima dell’avvento dei satelliti questi vortici erano difficili da studiare perché ci si basava esclusivamente sulle osservazioni fatte dai naviganti. Ora è possibile studiarne la forma, la formazione, l’evoluzione e la dinamica. I vortici che si formano nella superficie degli oceani (gli unici osservabili dai satelliti) hanno una forma pressochè circolare, un diametro variabile fra 20 e 300 km ed una persistenza di qualche mese (a volte anche più di un anno)(1). A seguito delle osservazioni satellitari, dopo gli anni settanta del secolo scorso, studi più approfonditi fatti mediante navi attrezzate hanno dimostrato l’esistenza di vortici anche a centinaia di metri sotto il livello del mare. Un caso interessante è quello dei cosiddetti “meddies” (Mediterranean eddies) che si formano nello stretto di Gibilterra a causa della differenza di salinità fra acqua del mar mediterraneo e acqua oceanica(2). I Meddies sprofondano fino a circa mille metri sotto il livello del mare (cioè dove l’acqua oceanica ha la medesima salinità di quella mediterranea) e, dopo una prima fase di assestamento si appiattiscono assumendo una forma lenticolare avente spessore di circa 400 metri e diametro di circa 200 km. Questi vortici bidimensionali, a causa della rotazione della terra viaggiano per uno o due anni raggiungendo le Bahamas (passando per le Bermuda). Il fatto che permangano per così tanto tempo senza dissolversi riuscendo a percorrere migliaia di km è indice di grande stabilità e soprattutto di bassissima perdita di energia(3).

Nelle cascate quelli che si formano sono vortici tridimensionali(4) e, oltre ad essere molto disordinati, si spostano nelle tre direzioni dello spazio; i vortici bidimensionali sono invece dotati di una struttura coerente e privi di movimento nella terza dimensione. Questa trasformazione dei vortici da tridimensionali a bidimensionali è uno dei tanti esempi che la natura ci regala in cui si assiste ad un fenomeno anti-entropico, con passaggio da un sistema incoerente (tipico dei vortici tridimensionali) ad un sistema coerente (tipico dei vortici bidimensionali): una transizione dal caos all’ordine.      

Nei vortici tridimensionali si assiste ad un processo di formazione di vortici sempre più piccoli fino a micro-vortici in grado di dissipare la loro energia sulle molecole dell’acqua (agitandole termicamente): questo fenomeno è chiamato tecnicamente “cascata di energia”. Al contrario, nei vortici bidimensionali si parte da vortici microscopici e via via si formano vortici coerenti sempre più grandi con trasferimento di energia dalle molecole verso i sistemi macroscopici: questo fenomeno è chiamato “cascata inversa di energia”. Nel caso dei vortici bidimensionali la dissipazione di energia è molto più bassa di quella dei vortici tridimensionali: questa è la ragione che consente ai vortici bidimensionali di resistere per lungo tempo e di riuscire a percorrere grandi distanze prima di dissolversi(5).     

I vortici tipo “meddies” sono detti “monopolari” e, pur avendo un momento cinetico non nullo, hanno quantità di moto nulla e dunque non sono in grado di muoversi spontaneamente. Però capita che due vortici monopolari si incontrino fra loro dando forma a vortici cosiddetti “bipolari”  il cui momento è nullo ma la quantità di moto è invece non nulla e dunque sono in grado di muoversi spontaneamente lungo il loro asse di simmetria. I vortici bipolari sono stati studiati sia in laboratorio(6), sia con simulazioni al computer(7). Il fatto a mio avviso molto interessante è che nella collisione fra due vortici bidimensionali  le forme dei due vortici originari si mescolano mentre invece le masse non si mescolano(8).  

Gli esperimenti di laboratorio e le simulazioni al computer(9) indicano la possibilità di formazione di vortici tripolari, ossia tre vortici affiancati di cui uno centrale affiancato da due vortici più piccoli che ruotano in direzione contraria(10).

Recentemente alcuni ricercatori dello IET(11) hanno approfondito le applicazioni pratiche teorizzate da Viktor Schauberger(12) sui vortici. I vortici possono essere distinti in “liberi” o “forzati”: nel primo caso l’acqua si muove liberamente nella parte esterna del vortice e in modo forzato all’interno, mentre nel secondo l’acqua si muove rigidamente come se fosse un corpo solido. I ricercatori dello IET hanno realizzato in laboratorio uno strumento in grado di simulare un vortice libero ed hanno messo in sospensione nell’acqua caffè di varie granulometrie. Il risultato dell’esperimento mostra un forte aumento della concentrazione nella zona centrale del vortice (75%) ed una corrispondente forte diluizione nella zona periferica del vortice (25%). In particolare la concentrazione delle particelle con densità inferiore a quella dell’acqua ha superato il 95%. I risultati ottenuti fanno pensare ad una modificazione delle caratteristiche dell’acqua da parte dei vortici. Per verificare la veridicità di questa ipotesi è stata valutata la qualità dell’acqua(13) in base all’evaporazione delle gocce(14), all’analisi spettrofotometrica nelle bande del visibile e dell’ultravioletto(15) e al fattore di crescita delle piante.

Il metodo di evaporazione delle gocce ha evidenziato nell’acqua vorticosa la formazione di strutture dentritiche più complesse rispetto a quella non vorticosa.

Le analisi dei campioni d’acqua sottoposta a vortice e successivamente analizzate con spettrofotometro UV-VIS evidenziano un assorbimento anomalo a lunghezze d’onda attorno ai 270 nm (come vedremo in un articolo successivo sulla “Exlusion Zone” questa anomalia si verifica anche per l’acqua EZ).

Infine è stato valutato l’effetto dei vortici sulla crescita di un campione di semi di trifoglio; le prove hanno mostrato un fattore di crescita (quantitativo di biomassa secca prodotta) maggiore di oltre l’11% dell’acqua sottoposta a vortice rispetto a quella non sottoposta. Inoltre le piante innaffiate con acqua sottoposta a vortice sono risultate più resistenti di quelle trattate con acqua normale di rubinetto.

Torino (Italia), 01 dicembre 2019

Gianfranco Pellegrini

Note

(1) Per maggiori dettagli vedi “La danse des tourbillons” – La recherche, febbraio 1990, n. 218, pag. 224-227 o anche P.Consigli – L’acqua pura e semplice, Tecniche Nuove – 2005

(2) S.E. Mc Dowell e H.T. Rossby – Science, 202, 1085 – 1978.

(3) Per approfondimenti si veda G.J. Van Heijst e J. B. Flor – Nature, 340, 212 – 1989.

(4) In realtà anche i “meddies”, nella prima fase di formazione, cioè nella “cascata sottomarina” iniziale verso il raggiungimento dello stesso livello di salinità, sono di tipo tridimensionale.   

(5) Rif. J.C. Mc Williams – J. Fluid mechanics, 146, 21 – 1984 e B. Legras e altri – Europhys / Lett. 5, 37 – 1988.

(6) Ad es. gli esperimenti realizzati a partire dal 1988 presso l’Istituto di meteorologia e di oceanografia dell’università di Utrecht (Olanda).

(7) Rif. J. C. Mc Williams e N. J. Zabusky – Geophisics, Astrophisics, Fluid dynamics, 19, 207 – 1982.     

(8) Studi di laboratorio hanno mostrato che le acque dei due vortici non si mischiano pur compenetrandosi fra loro. Facendo collidere frontalmente due vortici ciascuno additivato di un colorante differente, si nota la formazione di un vortice avente due distinti centri di rotazione animati da moto rotatorio inverso. Un fatto interessante è che il vortice bipolare che si forma ha la stessa forma e simmetria dei due vortici singoli al momento del contatto fra loro; ma il fatto ancor più interessante è che i filetti fluidi dei due vortici originari non si mischiano mai pur compenetrandosi fra loro nel senso che metà dei filetti del primo vortice si intrecciano elicoidalmente senza mescolarsi a metà dei filetti del secondo vortice a formare il primo polo elicoidale e le altre due metà fanno lo stesso a formare il secondo polo elicoidale.

(9) I vortici tripolari sono stati ipotizzati teoricamente a seguito di simulazioni al computer (rif. G. J. Van Heijst e R.C. Kloosterziel, Nature, 338, 569 – 1989). Quasi contemporaneamente sono stati realizzati in laboratorio dai ricercatori dell’università di Utrecht (vedi nota 6 precedente).

(10) Nel 1993 P. Richardson (Woods Hole Oceanographic Institute of Massachusetts) ha censito circa un migliaio di vortici oceanici tutti aventi diametro di circa 80 km e ha riscontrato che, pur mantenendo la loro individualità, a volte si uniscono in vortici dipolari e, più raramente in vortici tripolari.  

(11) IET (Institute of Ecological Technology) di Malmo (Svezia).

(12) Famoso naturalista e inventore austriaco (1885 – 1958); vedi precedente articolo “Tecnologia Vortex – parte prima”.

(13) Nella moderna concezione della qualità dell’acqua, oltre alle classiche condizioni chimico-fisico-organolettiche, si è aggiunta l’analisi cosiddetta “energetica” consistente nella verifica delle condizioni di vitalità e della struttura intramolecolare. Sulle qualità energetiche dell’acqua ci soffermeremo diffusamente in prossimi articoli dedicati a questo argomento specifico; in questa sede si anticipa solo che i parametri più analizzati sono la tensione superficiale, la dimensione delle gocce, il contenuto energetico, la struttura intermolecolare, l’assorbimento della luce, l’attività dei biofotoni e le forze di compressione.

(14) Uno dei metodi per valutare complessivamente la qualità dell’acqua è quello basato sull’evaporazione delle gocce dove si analizza il “pattern” del soluto a seguito dell’evaporazione dell’acqua. Rif. H: Hu e R.G: Larson – Marangoni effect reverses coffee-ring deposition, J. Phys. Chem., 2006; B 110, 7090-7094 e J. Zhang, S.K. Kim, X. Sun e H. Lee – Ramified fractal-patterns formed by droplet evaporation of a solution containing single-walled carbon nanotubes. Colloid. Surface 2007 – A 292, 148-152.     

(15) Un altro metodo per valutare complessivamente la qualità dell’acqua è quello basato sulla spettroscopia vibrazionale (soprattutto NIR e Raman) che consente di valutare i cambiamenti dei legami intermolecolari a seguito di assoggettamento a radiazioni UV-visibile. Rif. www.aquaphotomics.com . Vedi anche Roumiana Tsenkova (Kobe Univeristy of Shindai – Faculty of agriculture) – Terzo simposio di Aquaphotomics – Explorating Water Molecular System in Nature – 2 – 6 dicembre 2018 – Awaji (Japan).

Complesso o complicato ?

I concetti “com-plessi” sono molto diversi da quelli “com-plicati”. La parola “com-plicato” deriva da “plico” e identifica qualcosa che è stato “piegato” alla rinfusa, cioè accartocciato (“in-tricato”), ovviamente diverso da “piegato” ordinatamente come si fa per realizzare una barchetta a partire da un foglio di carta, o come si “piega” un indumento appena stirato, ma comunque, anch’essi “piegati”. Ecco perchè un concetto “com-plicato” può essere “s-piegato”, cioè “dis-tricato” finchè non torna a diventare un foglio piano. Chi “s-piega”, “s-piegando” “com-prende” e fa “com-prendere” mettendo così in “co-mune” (cum munis = mettere in comune un “munis” = dono) l’unico significato “com-preso” da chi “s-piega”. 

“Com-plesso” è tutt’altra cosa: deriva al latino “complexus” (part. pass. “complecti”) che significa cose o concetti di diversa natura messi insieme fra loro e dunque già “com-presi” (nel senso di già messi insieme) che non è possibile “s-piegare” se prima non li si separa(1).

Le spiegazioni “chiudono” sistemi (concetti) “aperti” togliendo gradi di libertà che consentirebbero alla mente di spaziare in una gamma di altri significati possibili. E’ come quando si legge un libro e poi si vede un film; normalmente si resta delusi proprio perché la descrizione nel libro lasciava molta più libertà alla fantasia rispetto al film che, attenzione, non solo fa la sintesi del libro ma soprattutto, introducendo la visione (che tra l’altro è corrispondente all’interpretazione del regista), toglie allo spettatore gran parte della fantasia di quando era ancora solo lettore del libro. Omero lo vogliamo immaginare cieco proprio perché la poesia dell’Iliade e dell’Odissea siano evocative ancor più che descrittive. La sordità ha consentito a Beethoven di “sentire” interiormente le note ancor prima di scriverle sullo spartito dandogli la possibilità di superare la percezione sensoriale.       

La fisica newtoniana e galileiana, ma ancor prima anche molta filosofia (aristotelica, tomista, ecc.), avendo da risolvere problemi complessi hanno dovuto dapprima separarli in problemi più semplici in modo da studiare ogni corpo separato dagli altri e ogni fenomeno afferente quel singolo corpo separato dagli altri fenomeni concomitanti. Questo anche perché tutta la matematica disponibile è capace di modellizzare sistemi chiusi e non sistemi aperti. Quando diventa giocoforza studiare sistemi aperti (come ad esempio nel caso della termodinamica) per poter studiare il sistema come “chiuso” è necessario associare al corpo il suo complemento, cioè l’universo, da immaginare quest’ultimo, inevitabilmente chiuso; ma in questo caso occorre avere la fortuna di identificare quelli che sono effetti (o cause) afferenti al solo corpo da studiare da quelli che sono invece afferenti al non-corpo e non sempre vi si riesce.  

Una delle teorie attuali è quella cosiddetta delle “simmetrie”. Sembra anti-intuitivo ma in fisica, ogni volta che si toglie un grado di libertà (si aggiunge un vincolo) si dice che si “rompe una simmetria”. Secondo questa convenzione, il cosiddetto “vuoto classico” avrebbe simmetria zero; fortunatamente è solo una idealizzazione ritenuta consistente fino alla prima metà del secolo scorso, perché ora sappiamo che quello che esiste è solo il “vuoto quantistico” con simmetria non nulla. Più in generale più aumentano i gradi di libertà e più il sistema diventa simmetrico.   

Oggi, anche se ancora insegnato nelle scuole e praticato dagli scienziati della cosiddetta “retroguardia”, l’approccio newtoniano-galileiano è superato dall’approccio cosiddetto “olistico”. Questo perché la “separazione dei corpi” e la “separazione degli effetti” sono ormai da considerare approssimazioni troppo grossolane per le esigenze di precisione del mondo moderno. Oggi occorre studiare i fenomeni nel loro insieme, cioè nella loro “com-plessità”. Questa strada porta inevitabilmente alla perdita di due semplificazioni importanti: la “linearità” e la “chiusura”.

Riguardo alla “linearità”, chi ha fatto un po’ di matematica sa che quasi sempre le equazioni differenziali sono risolvibili analiticamente solo se sono lineari(2). Siccome tutti i fenomeni fisici vengono modellizzati mediante equazioni o sistemi di equazioni differenziali (al più integro-differenziali ma il concetto non cambia), fino alla prima metà del secolo scorso, si studiavano solo sistemi lineari, anzi si pensava ad un universo organico e meraviglioso perché governato da modelli lineari. Una delle conseguenze dell’approccio olistico è quella della non linearità dei modelli che non rende di certo l’universo meno meraviglioso, anzi !!! Fortunatamente a partire dal secondo dopoguerra l’avvento dei computer, grazie al cosiddetto “calcolo numerico”, ha consentito la risoluzione di equazioni differenziali anche non lineari aprendo così la strada allo studio di fenomeni più “com-plessi”.

Ma l’approccio olistico, oltre che alla non linearità porta anche allo studio di sistemi aperti e soggetti a molti gradi di libertà. Anche in questo caso il calcolo numerico ci viene in aiuto nello studio di modelli “com-plessi”(3). Ma qui purtroppo si incontra una difficoltà supplementare, che è quella della difficile riproducibilità sperimentale. In poche parole, mentre da un lato è diventato facile fare la simulazione dei modelli al computer è diventato molto più “com-plesso” verificarne la veridicità per via sperimentale. Un esempio di cui ci occuperemo diffusamente in prossimi articoli è il modello continuo e quello discontinuo dell’acqua. Quello prediletto dai fisici ipotizza l’acqua liquida costituita da piccolissimi grumi di ghiaccio che si costituiscono e si disgregano continuamente e che aumentano al diminuire della temperatura; questo modello, pur avendo il pregio di essere verificabile sperimentalmente non è in grado di “s-piegare” molti comportamenti “anomali” dell’acqua. Quello prediletto da chimici e biologi prevede invece un’acqua polimerizzata che anche oltre i 100°C, allo stato di vapore continua ad essere un dimero e man mano che scende la temperatura è costituita da insiemi di diemeri, trimeri, fino a pentameri ed esameri con la forma esamerica, tipica dei cristalli di ghiaccio presente in modo percentualmente rilevante anche nell’acqua liquida (anzi, fra 0°C e 4°C le forme pentamerica ed esamerica sono predominanti). Questo modello, oltre ad essere facilmente simulabile al computer, purtroppo non è verificabile sperimentalmente ma ha il grande pregio di riuscire a spiegare molti dei comportamenti anomali dell’acqua.       

Torino (Italia), 17 novembre 2019

Gianfranco Pellegrini

Note.

(1) Gli insegnanti hanno il ruolo di “s-piegare” i concetti “com-plicati”; i Maestri invece hanno il ruolo di evocare possibili soluzioni a problemi “com-plessi” in modo da “inoculare” dubbi anzichè “somministrare” certezze come fanno gli insegnanti con lo  “s-piegare”. 

(2) In matematica, una equazione differenziale è lineare sue soluzioni possono essere ottenute da combinazioni lineari altre sue soluzioni.

(3) Molto conosciuto a tal proposito è l’insieme (o frattale) di Mandelbrot perché, oltre ad essere rappresentato visivamente mediante immagini multicolori molto belle, è alla base della teoria del caos ed è legato alla serie di Fibonacci ed alla sezione aurea.  

Tecnologia Vortex – Parte seconda

Proseguiamo il nostro approfondimento sui vortici nei mezzi acquosi insistendo sugli studi più recenti che si stanno svolgendo in molti laboratori nel mondo, soprattutto su quelli che indagano sui fenomeni che ancora sfuggono alle misure fatte con le più sofisticate apparecchiature di laboratorio attualmente disponibili. Per proseguire in questa strada è giocoforza affrontare di petto il bastione da noi più ferocemente difeso: quello delle nostre strutture mentali.

Come noto l’acqua possiede un momento polare ed una polarizzabilità entrambi elevati(1) nonché una certa anisotropia (essenzialmente dovuta alla sua struttura pseudo-cristallina), entrambi in un equilibrio dinamico momentaneo. Riprendendo quanto discusso nei precedenti articoli sulle oscillazioni a cui sono soggetti anche gli atomi costituenti l’acqua, possiamo in questa sede generalizzare il concetto considerando le oscillazioni casi particolari di moti vorticosi nei quali vi è una composizione di rotazioni e traslazioni. E’ questa la chiave di lettura che ci consente di intravedere l’influenza dei moti vorticosi nella materia vivente(2). Questa proprietà consente all’acqua strutturata (seppur mobile) di controllare e soprattutto di consentire l’aggregazione nella materia vivente di sostanze molto diverse fra loro. Gli organismi viventi non possono essere considerati nè isolanti, nè conduttori; nè fluidi, né semi-fluidi; né plastici, né flessibili; si tratta di un miscuglio “impuro” dal quale la sostanza organica ha tratto spunto per disegnare l’essere vivente. E’ dunque plausibile pensare che la materia organica prediliga la logica ottimizzante rispetto a quella massimizzante: non gli serve che i conduttori siano i migliori conduttori possibile o gli isolanti i migliori isolanti possibile, bensì predilige un insieme di semi-isolanti e semi-conduttori. Il fenomeno della condensazione è agevolato da questa sorta di eterogeneità. L’utilizzo di trasferimenti di carica e degli effetti di condensazione con scarsi mezzi a disposizione potrebbe sembrare una sfida ma non lo è proprio perché l’essere vivente non utilizza l’energia in modo continuo, bensì intermittente. L’intermittenza garantisce la perdita di energia negli isolanti (con conseguente minimo utilizzo di energia) e nel contempo la dissipazione discontinua dell’energia assorbita (con conseguente garanzia di durata dell’organismo vivente). Questa condizione di intermittenza consente alla materia vivente di operare al disotto dei parametri termodinamici classici. Se da un lato la vita è in ultima analisi contenimento e lotta contro la diffusione(3), è importante sottolineare che è anche diffusione e contenimento, flusso e freno al flusso, e dunque sia morfologia di diffusione, sia morfologia di contenimento.

Già dagli anni ‘50 del secolo scorso si era diffusa l’idea che le galassie fossero generate da un fenomeno turbolento partendo da una teoria di turbolenze omogenee. Oggi, a distanza di settanta anni occorre ripensare il tutto sulla base di una teoria di turbolenze disomogenee. Oggi è unanimemente riconosciuto che una caratteristica essenziale della turbolenza è proprio l’intermittenza e dunque, per studiarla adeguatamente occorre ricorrere ad una geometria “intermittente” come quella frattale(4).  In particolare, la turbolenza naturale è descrivibile da insiemi geometrici regolati da una frazione circa uguale a 2,5 (per poter definire un flusso turbolento la frazione deve essere compresa fra 2 e 3). L’intermittenza nel moto turbolento diventa particolarmente evidente allorquando il numero di Reynolds diventa molto grande (come accade ad esempio negli oceani e nell’atmosfera).

Anche la teoria delle catastrofi permette di descrivere i parametri geometrici che influenzano i flussi turbolenti(5). Questa teoria, superando i principi newtoniani, predilige la forma alla forza e riduce ogni struttura alla sua morfologia e ogni morfologia a sistema di discontinuità focalizzando l’attenzione sulle singolarità locali della morfogenesi (catastrofi elementari) che vengono classificate in modo più generale possibile. La teoria delle catastrofi mette a fuoco il fatto che la natura obbedisce ai principi della forma, della sua generazione e della sua evoluzione e in particolare realizza sempre la forma meno complessa compatibilmente con le condizioni al contorno entro cui detta forma si genera e in cui evolve.     

Torino (Italia), 10 novembre 2019

Gianfranco Pellegrini

Note

(1) Il momento dipolare dell’acqua è pari a 1,85 D (Debye); fra le molecole polari più comuni l’acqua è una di quelle che presenta il momento dipolare più elevato (a parte HF che ha un momento dipolare superiore e pari a 1,91 D e CH3OH che si avvicina con un valore pari a 1,71 D, altre molecole polari comuni hanno valori sensibilmente inferiori: ad es. HCL=1,08 D, HL=0,42 D, CO=0,12 D, CHCL3=1,01 D).

(2) Per approfondimenti si veda C. Laville – Mécanismes biologiques – De l’atome a à l’etre vivant – Ed. Dunod, 1942.

(3) Per approfondimenti si veda R. Thom – Morfologia del semiotico – ed. Moltemi, 2006.

(4) Per approfondimenti si veda B. Mandelbrot – Gli oggetti frattali – Forma, caso e dimensione – Einaudi, 1987

(5) Per approfondimenti si veda R. Thom – Stabilità strutturale e morfogenesi. Saggio di una teoria generale dei modelli – Ed. Einaudi, 1980

Tecnologia Vortex – Parte prima

Dopo aver trattato alcuni argomenti propedeutici che costituiscono ingredienti basilari per questa seconda fase di approfondimento, con questo articolo cominciamo ad entrare nel dettaglio delle proprietà emergenti dell’acqua; l’osservazione del suo comportamento in natura sta consentendo agli studiosi dei giorni nostri di cogliere aspetti e proprietà fino a pochi anni fa del tutto sconosciuti.

Theodor Schwenk, già nel lontano 1967 ci mostra con bellissime foto e disegni che “l’acqua è qualcosa di più di un semplice flusso di energia e di una sostanza utile al trasporto”(1); con approccio rigoroso e scientifico, egli indaga comportamenti poco conosciuti e soprattutto poco indagati dell’acqua e delle sue forze formative.

Da un’osservazione nuova da parte di scienziati e naturalisti contemporanei, stanno emergendo numerose proprietà dell’acqua a dir poco sorprendenti (interazione con campi elettromagnetici, raggi e, più in generale con l’energia radiante). E’ bene precisare che l’odierna ricerca sull’acqua, soprattutto l’acqua allo stato liquido, è pressochè ancora sconosciuta dal pensiero scientifico dominante perché distante da esso e indirizzata su discipline distanti da quelle ortodosse. Questa nuova esplorazione dell’acqua sta seguendo percorsi fluidi e non lineari, che consentono la sinergia di conoscenze e ambiti anche molto distanti tra di loro(2). Linus Pauling(3) definisce l’acqua “il deserto della chimica”, ciò a sottolineare che l’elemento naturale “acqua” è ancor oggi pressochè sconosciuto anche se nel 2019 è difficile da ammettere; in questi ultimi decenni, nonostante la si stia studiando a fondo, i misteri anziché diminuire aumentano. Non è tanto la singola molecola d’acqua ad essere misteriosa, ma piuttosto l’interazione tra singole molecole d’acqua e tra molecole d’acqua e altre molecole. Ma non perdiamoci d’animo e vediamo un po’ meglio i filoni in cui si sta indirizzando la ricerca cominciando con l’approfondimento del fenomeno dei vortici. 

E’ importante ricordare che in questa fase di approfondimento è fondamentale un approccio mentale di tipo “olistico di secondo livello”(4).

I più grandi studiosi olistici dell’acqua, con in testa Viktor Schauberger(5), John Wilkes(6) e Theodor Schwenk, affermano che l’acqua che si muove lungo tubazioni rettilinee perde le sue proprietà vitali e quando arriva ai rubinetti non serve ad altro che a bagnare(7).

Schauberger già nei primi decenni del secolo scorso sviluppò una teoria sui vortici, realizzò la famosa macchina a implosione “Repulsine”, sperimentò la produzione di energia dall’acqua attraverso l’azione del vortice in un ciclo chiuso e inventò altri dispositivi basati sulla vortex technology, tra cui i tubi a spirale che sperimentò collaborando con l’università di Stoccarda. In particolare Schauberger studiò la rete della vita sottoforma di relazioni e sistemi ben prima che fosse formulata la Teoria Generale dei Sistemi. Ma, ancor più sorprendentemente, anticipò quanto sta dimostrando l’elettrodinamica quantistica applicata al comportamento delle molecole d’acqua allo stato liquido. Ecco perché i suoi studi stanno trovando importanti conferme scientifiche solo in questi ultimi decenni.

La teoria di Schauberger mette in netta contrapposizione l’uso dell’energia mediante tecnologie escogitate dall’uomo rispetto all’uso fatto dalla natura. In particolare l’uso umano è esclusivamente di tipo entropico, mentre la natura utilizza questo sistema solo nei processi distruttivi quali la putrefazione, la decomposizione, la dissolvenza, la fermentazione, la lievitazione, l’auto-distruzione, mentre nei processi costruttivi (meglio dire creativi), la natura è antientropica. Nella fattispecie, vi è una continua competizione fra processi entropici (putrefativi, fermentativi, dissolutivi) e processi antientropici (costruttivi e stabilizzanti): se prevalgono i processi entropici l’organismo vivente risulta indebolito e, se non si provvede adeguatamente, esso va verso il dissolvimento e la distruzione; se a prevalere sono i processi antientropici, l’organismo vivente evolve e si trasforma, ma non è detto che l’evoluzione avvenga verso una direzione accettabile dalla natura; infine, l’equilibrio fra processi entropici ed antientropici è l’unico a garantire il non invecchiamento e la salubrità.

Cosa c’entrano i vortici con i meccanismi entropici/anti-entropici ? I vortici possono essere destrorsi oppure sinistrorsi: quelli sinistrorsi portano le particelle dal centro verso l’esterno del vortice secondo un meccanismo centrifugo ed esplosivo che riscalda ed espande mentre quelli destrorsi portano le particelle verso l’interno del vortice secondo un meccanismo centripeto ed implosivo (risposta inbound) che raffredda e condensa: il primo è utilizzato dalla natura nei processi distruttivi mentre il secondo è quello utilizzato nei processi costruttivi (creativi).    

Queste considerazioni si prestano a interessanti considerazioni in vari campi ma, per non essere dispersivi vediamo questi concetti applicati esclusivamente all’acqua.

Recenti esperimenti stanno dimostrando che l’acqua che scorre in modo tumultuoso (vorticoso), all’interno dei vortici si raffredda, si purifica, si energizza e si rigenera(8).

L’energia utilizzata dalla natura si muove a spirale nella forma di un vortice diretto dall’esterno verso l’interno: la molecola del DNA, le trombe d’aria, i cicloni, le galassie che collassano nei buchi neri, i gusci delle conchiglie, le corna degli animali, l’acqua scaricata dal lavandino di casa, sono tutti esempi di spirali di questo tipo.

Schauberger considera i vortici longitudinali fondamentali perché si formano nella parte centrale e dunque più veloce dei corsi d’acqua garantendo una pulizia continua(9). I vortici trasversali rallentano la velocità del flusso dell’acqua, mentre quelli verticali trasferiscono i corpuscoli in sospensione verso il fondo.

Gli esperimenti dimostrano che l’acqua disposta nella parte interna dei vortici è pura. L’ipotesi di alcuni scienziati (Bartholomew, 2003) è che l’acqua “viva” sia composta da molti strati con sottili variazioni di carica elettrica, di temperatura e densità, che influenzano il suo modello di movimento e le sue proprietà fisiche. Questa ipotesi di lavoro collima con la sperimentazione che si sta facendo sulla cosiddetta “exclusion zone” di cui parleremo diffusamente più avanti.

In ogni caso la sperimentazione sta dimostrando che il vortice costituisce un metodo che la natura utilizza per rigenerare e potabilizzare l’acqua, ma anche per produrre energia “inbound”. Alcune società di acque potabili stanno sperimentando la cosiddetta “Vortex technology” come metodo alternativo e naturale per potabilizzare l’acqua (ad es. la SMAT di Torino).

Naturalmente la natura fa uso anche dei vortici sinistrorsi, ad esempio per la decomposizione dei cadaveri e la loro rimessa in ciclo eventualmente sottoforma di nuove forme organiche(10).

Niels Werdenberg ha riscontrato fenomeni di termoluminescenza e bio-magnetismo generati dai vortici (che aumentano la velocità di rotazione e la densità dell’acqua) grazie alla natura dipolare dell’acqua e degli ioni in essa sospesi(11).

Torino (Italia), 6 Ottobre 2019

Gianfranco Pellegrini

Note

(1) Nel suo famoso libro “Il Caos sensibile” – Ed. Arcobaleno, Collana scientifica, 2012 – Theodor Schwenk ci presenta scientificamente alcuni fenomeni naturali mostrandoci come l’acqua, grazie alle sue forze formative, sia determinante per il funzionamento del pianeta terra (non solo per gli organismi viventi).

(2) Per approfondimenti si veda il volume di Philip Ball “H2O – Una biografia dell’acqua” Ed. BUR Univ. Rizzoli, Collana SUPERBUR Scienza, 2003.

(3) Linus Pauling, Premio Nobel per la chimica nel 1954 e per la pace nel 1962 è considerato uno dei più brillanti scienziati del ‘900.

(4) Distinguiamo quello che io definisco “olismo di base” da quello che invece chiamo “olismo di secondo livello”. “Olismo di base” è quello di un meccanico di automobili che per imparare bene a ripararle studia approfonditamente i manuali di uso e manutenzione prestando particolare attenzione all’automobile nel suo insieme e alle interazioni (relazioni) fra i vari componenti, fra i vari sistemi/sottosistemi (impianti), fra sistemi/sottosistemi, fra componenti e sistemi/sottosistemi. “Olismo di secondo livello” è quello invece di un meccanico che, dopo aver studiato approfonditamente i manuali di uso e manutenzione, per capire meglio, ha necessità di smontare l’automobile pezzo per pezzo per poi rimontarla. Nella peggiore delle ipotesi la rimonta esattamente come prima senza che gli avanzi nessun pezzo: è il caso in cui non c’è stata alcuna evoluzione (per l’automobile). Se, al contrario il meccanico rimonta l’auto in modo diverso da come era prima e/o gli avanza qualche pezzo, significa che c’è stata evoluzione (cioè significa che la macchina sarà diversa da prima, non che sarà migliore di prima). Leonardo da Vinci non si accontentava di studiare il corpo umano sui testi dell’epoca, ma aveva bisogno di trovare (sottobanco, abusivamente) cadaveri per poterli vivisezionare. I fondamentalisti (ecologisti, animalisti, ambientalisti, ecc.) tendono a boicottare un certo tipo di sperimentazione fondamentale per quei ricercatori che vogliono approfondire con approccio “olistico di secondo livello”.   

(5) Viktor Schauberger (Alland 1885 – 1958) è stato un esperto di implosione. Ha studiato a fondo la teoria dei vortici e, più in generale dei movimenti tipici della natura. E’ stato anche inventore di varie tecnologie fra le quali la più famosa è il motore a implosione “Repulsine”; ma ha ideato anche macchine per la depurazione dell’acqua e per “raffinarla”, cioè per riportare l’acqua alle condizioni di purezza dell’acqua di sorgente. Le sue teorie in questi ultimi anni stanno trovando importanti riscontri scientifici, anche se non sono ancora accettate dalla comunità scientifica ortodossa. In merito alla teoria dei vortici è importante la sua pubblicazione “Die zykloide Spiralraumkurve” Salzburg 1948.

(6) A.John Wilkes nel 1970 ha scoperto Il principio intrinseco alla “Flowforms” creando vasche di diverse dimensioni aventi forme organiche che, grazie alle proporzioni fra di esse, sono in grado di trasmettere ben precisi ritmi all’acqua che scorre all’interno delle vasche. Le Flowforms si applicano funzionalmente, tecnologicamente o anche solo esteticamente in ogni luogo dove c’è acqua e possono essere utilizzate per il recupero, per la rigenerazione e per la rivitalizzazione dell’acqua e, come sostiene Wilkes, anche per aumentare le forze vitali intrinseche: ad es. dinamizzare le acque  irrigue, migliorare e velocizzare la depurazione delle acque reflue, incrementare la capacità energizzante dell’acqua…. Per approfondimenti si rimanda al volume di John Wilkes  – “Flowforms – La potenza ritmica dell’acqua”- Ed. Arcobaleno, 2015.

(7) “ ……. solo quando si prenderà seriamente questa questione le persone si accorgeranno che l’acqua che esce dal rubinetto può sì bagnare la loro pelle, ma non sta facendo molto di più per loro. Quando questo lato energetico della qualità dell’acqua diventerà noto e apprezzato, inizieremo a mettere da parte del denaro per sviluppare tecnologie che supportino l’acqua e, in questo senso, credo che la tecnologia Flowform diventerà quella principale”. (Wilkes, 2003)

(8) Sono molti gli studi e le sperimentazioni in corso su questi argomenti; in particolare lo IET (Institute of Ecological Technology) di Malmo (Svezia) sta sperimentando e approfondendo gli studi sui vortici cominciati da Schauberger. Questi studi stanno dimostrando sempre più chiaramente che a energizzare l’acqua sia la sua agitazione fatta secondo tecniche ben precise. E’ questo il motivo per cui sono personalmente convinto che nella preparazione dei farmaci omeopatici, l’unica operazione utile ai fini terapeutici sia la dinamizzazione mentre penso che sostanza base e iperdiluizione siano del tutto inutili.  

(9) In particolare secondo Schauberger, se l’acqua a 4°C (punto anomalo) manifesta non solo la sua massima densità ma anche la massima vitalità e salubrità. Si tratta di condizioni facilmente riscontrabili nei ruscelli e nelle sorgenti d’acqua di montagna.

(10) Anche la forza di demolizione, mediante la scomposizione degli organismi morti e la loro integrazione in nuove forme di vita organica attraverso una continua azione di riciclo, ha in natura un carattere positivo.

(11) Niels Werdenberg – Executive Master of Environmental Technology and Management NDS/FH Master’s Thesis 2006 – “Handling water An approach to holistic river rehabilitation design” -University of Applied Sciences Northwestern Switzerland, FHNW

De Aqua (versione in italiano)

Per riuscire a comprendere gli attuali studi sul ruolo primario dell’acqua e sulla sua importanza per la vita è fondamentale adottare un approccio olistico. Attualmente la scienza sta affrontando lo studio dell’acqua mettendo insieme elettrodinamica quantistica, biologia, chimica fisica, biochimica, microbiologia e ciò sta consentendo di scoprire nuove frontiere finora inesplorate. 

Dopo aver affrontato alcuni aspetti fisici e chimico-fisici, iniziamo ora un approfondimento con approccio olistico.

Mi sembra importante cominciare con un po’ di storia.

Per Leonardo da Vinci l’acqua è la forza motrice della natura; più in generale, l’acqua ha un’importanza fondamentale in tutto il progresso dell’uomo. L’irrigazione e l’invenzione dell’agricoltura, la ruota idraulica e la lavorazione dei metalli, il mare e l’arte della navigazione e, più in generale, quasi ogni grande svolta nella storia dell’umanità ha avuto l’acqua come protagonista.

Gli egizi conoscevano molto bene l’acqua (Amenem-et nel 1800 A.C. fece sbarramento con dighe di un lago intero); in 3 millenni hanno fatto dighe, canali, bacini, chiaviche che rimasero in funzione fino ai tempi di Cleopatra. In alcune piramidi sono stati ritrovati componenti come tappi, anelli, giunti a bicchiere, tubi in rame, ecc. Gli Egizi avevano grandi capacità nell’individuare le falde sotterranee. Il famoso “pozzo di Giuseppe” (3000 a.c.) vicino alla piramide di Ghizeh è profondo 90 m.

I Cretesi erano famosi per la grandiosità degli impianti. Tra il 3000 e il 1500 A.C. realizzavano sofisticati sistemi di trattamento delle acque reflue. Dopo essersi ristorati alla locanda, i cittadini minoici si preparavano ad entrare nella reggia, nei pressi della quale, per chi veniva da lontano per conferire a corte, c’era una pubblica locanda, alla quale si poteva accedere solo dopo aver sostato in un’ampia stanza adibita a pediluvio conviviale.

La popolazione della civiltà ricca e fiorente di Olinto (348 A.C.) amava concedersi il lusso delle grandi e piccole cose, tra le quali, ad esempio la vasca da bagno, ignorando che era stata inventata 1000 anni prima a Creta.

All’epoca di Ippocrate (400 A.C.) in ogni palestra c’erano le docce (fredde, naturalmente), nelle residenze c’erano le tazze e le latrine e gli impianti di approvvigionamento idrico erano di grande valore. Ippocrate ha indicato precisamente come dovevano essere fatti i sistemi a doccia dove l’acqua sgorgava da mascheroni montati su colonne situate tutto attorno.

Esiodo condannò l’uso dell’acqua calda perché effeminato.

Sulla base delle testimonianze di Diodoro Siculo e di Ateneo la còclea (detta per l’appunto vite di Archimede) è un dispositivo elementare usato per sollevare liquidi (o anche materiale sabbioso, ghiaioso, o frantumato); oggi viene anche utilizzata per produrre energia elettrica. Recenti studi indicano però che essa potrebbe essere addirittura molto anteriore ad Archimede in quanto utilizzata per irrigare i giardini pensili di Babilonia. Archimede, durante la sua permanenza ad Alessandria d’Egitto per motivi di studio, avrebbe così importato in Italia lo strumento già conosciuto in area medio-orientale; la testimonianza di Ateneo potrebbe supportare questa ipotesi.

Anche a Gerusalemme vennero realizzate importanti opere idrauliche. Nell’VIII sec. A.C. Ezechìa realizzò due gallerie di cui una è un esempio di ingegneria fra i più arditi dell’antichità: attraversa la montagna da parte a parte e, a metà percorso c’è scritto in ebraico il giorno in cui gli spaccapietre si incontrarono. A Gerusalemme c’è uno scavo con scala a chiocciola ed un tunnel che consentivano l’accesso ad una grotta sotterranea  naturale fuori le mura dove c’era e c’è ancora l’acqua che sgorga. Queste precauzioni servivano durante gli assedi; la necessità di acqua “pura” li costringeva  a realizzare due impianti separati. Erode il Grande realizzò un’impresa idraulica sbalorditiva costituita da complessi canali sotterranei ed enormi bacini e cisterne. Inoltre fece costruire altre cisterne esterne riempite giornalmente da migliaia di schiavi e animali da soma. C’era inoltre un importante stabilimento termale esattamente come quelli romani.

Il “Civis romanus” dopo una partitella a pallacorda nello sphaeristerium, accedeva accaldato al “tepidarium” dove sudava vestito; poi entrava nello “apodysterium” e, nudo, veniva massaggiato dai servi con i suoi oli ed unguenti. Se sudicio veniva lavato e raschiato. Dopo il bagno raggiungeva il “calidarium” dove sudava e conversava. Un’ulteriore sudata al “laconicum” (torrido perché sopra lo “hypocaustum”) dove veniva lavato con brocche di acqua riciclata calda, tiepida e fredda. Poi veniva raschiato con lo “strigilis” e infine sciacquato con una soffice spugna. Infine massaggio con olio profumato, eventuale bagno freddo nel “frigidarium” e chiacchierata con gli amici fino al tramonto.

“… La causa di ciò è da attribuire alla disonestà dei fontanieri, che ho scoperto derivare acqua dai bacini per usi privati. Ma anche un gran numero di proprietari terrieri nei cui campi corre l’acquedotto perfora le condutture, per cui avviene che gli acquedotti rallentano la loro corsa a vantaggio dei privati o per irrigare i giardini. Su trasgressioni di questo genere non si saprebbe dire di più o di meglio di quanto ha esposto Celio Rufo nel suo discorso …” “…. Per questo si è stabilito di separare tutti gli acquedotti e riclassificarli singolarmente, in modo che prima di tutto l’Acqua Marcia per intero fosse utilizzata per uso potabile, gli altri, secondo la specifica qualità fossero assegnati agli usi loro adatti. L’Anio Vetus, per vari motivi e dato che è captato più in basso ed è meno limpido, servisse per irrigare i giardini e per gli usi più modesti della città……”

“De aquaeductu urbis Romae” (Sesto Giulio Frontino)(1)

Vitruvio(2) nel libro ottavo di De Architectura riporta:

“Uno dei sette sapienti, Talete di Mileto, indicò nell’acqua il principio di ogni cosa ….

… Quelli che esercitano la dignità sacerdotale secondo il rito egizio danno una dimostrazione del fatto che a fondamento di ogni cosa c’è la forza dell’elemento acqua. E’ per questo che, quando in una brocca l’acqua viene portata nel recinto sacro e nel tempio con sacrale venerazione, allora essi si prostrano a terra e sollevando le mani al cielo rendono grazie alla generosità divina per questa invenzione……

…..Nessuno dei soffitti a volta che si trovano nelle stanze per il bagno può avere sopra di sé una fonte, ma la superficie concava della volta, che là è surriscaldata dal vapore infocato proveniente dalle stanze calde, attira l’acqua del pavimento, la trasporta con sé nelle curvature delle stanze e la trattiene in virtù del fatto che il vapore caldo si spinge sempre verso l’alto…… 

……Esistono alcune vene acide di sorgente …. che hanno il potere, se bevute, di dissolvere i calcoli che nel corpo umano si formano nella vescica…..

…..In Italia e nelle Alpi, nel paese dei Meduli, esiste un tipo d’acqua che fa gonfiare la gola a coloro che la bevono”.

Il Medioevo non ha reso onore all’acqua e proprio per questo fu caratterizzato da secoli puzzolenti, famigerati per le numerose malattie contagiose, epidemiche e virulente per le piaghe immonde, le invasioni di pulci, mosche e ratti, inondazioni di escrementi, rifiuti, sporcizie d’ogni genere, da acque stagnanti e contaminate da qualsivoglia tipo di morbo. Tuttavia, conventi e abbazie erano dotati di impianti di approvvigionamento idrico e di scarico. Si tramanda che un monaco dai bollenti spiriti, ad esempio, poteva essere punito con un bagno gelato, oppure sedere di propria volontà con le terga in una tinozza colma d’acqua fredda. Il bagno era previsto non più di 3 – 4 volte l’anno. Agli infermi era consentito qualche bagno in più. Il non utilizzo dell’acqua e degli impianti ha portato malattie, invasioni di insetti e di ratti che arrivavano a ondate. Panico, morte e disperazione furono il pane quotidiano soprattutto del volgo ignorante. L’unica via era la fuga caricandosi a spalle i cadaveri dei figli morti per gettarli in fosse comuni a cielo aperto dalle quali emanava un fetore talmente insopportabile da impedire alla gente di avvicinarsi. Purtuttavia i primi gabinetti (fino al secolo scorso si chiamavano ancora ritirate) sono proprio di quest’epoca.

I bagni turchi, soprattutto nella licenziosa Costantinopoli, divennero centri di attrazione in cui splendide fanciulle danzavano piacevolmente nude in giochi d’acqua che preludevano a incontri libertini…. infatti successivamente si trasformarono in bordelli.

Nel 1527, a causa del sacco di Roma, Clemente VII giunse a Orvieto. Temendo di restare senz’acqua fece realizzare un pozzo di 61 m e largo più di 13 m. A memoria di quello più celebre (ma più piccolo) che si trova nella cattedrale di Dublino, fu chiamato pozzo di San Patrizio. Su questo pozzo c’è l’iscrizione: “Quod natura movimento inviderat, industria adiecit” (laddove la natura è carente, occorre l’intervento dell’impiantista).

Questo periodo fu fertilissimo di invenzioni di macchine di ogni tipo fra cui molte adatte allo sfruttamento dell’energia idraulica ed eolica come forza motrice.

In questo periodo compaiono i primi lavabi e le prime vasche da bagno di lusso (comode), mentre c’è stata un’avversione nei confronti del bidè che tuttora permane in larghe frange dei popoli anglofoni.

A mio avviso il più bel monumento che l’uomo ha dedicato all’acqua è Villa d’Este a Tivoli (Italia)(3)  

“… dovunque tu volga il guardo ne zampillano polle in sì varie maniere e con tale splendidezza di disegno, da non esservi luogo su tutta la terra che in tal genere non sia di gran lunga inferiore…” (4)

Gianfranco Pellegrini

Torino, 10 marzo 2019

Note

(1) Sesto Giulio Frontino è nato attorno al 40 D.C. in Gallia Narbonense. Il suo cursus honorum è caratteristico di un pre-eminente esponente dell’oligarchia senatoriale, e ciò confermerebbe la sua parentela con il cavaliere Aulo Giulio Frontino, che sposò Cornelia Africana, l’unica figlia di Publio Cornelio Scipione. Dopo una lunga carriera in cui fu “prector urbanus”, console “sufectus”, governatore, ma soprattutto “praefectus fabrum” (comandante del genio militare), nel 97 a.C., sotto limperatore Nerva divenne “curator aquarum” a Roma(sovrintendente degli acquedotti di Roma). Scrisse due libri: “De aquaeductu urbis Romae”, “Stratagemata” (commentario quest’ultimo di “De re militari”). In particolare, nel libro “De aquaeductu urbis Romae”, Frontino descrive dettagliatamente la grave situazione della distribuzione dell’acqua a Roma prima del suo mandato nonchè tutti gli interventi da lui attuati per risolvere tutti i problemi. In tale occasione ha inventato i calibri e il pollice (inch). Per impedire il furto di acqua, fece costruire dei calibri in bronzo con stampigliato lo stemma dell’imperatore (di diversi diametri misurati in frazioni della misura del pollice del suo imperatore Nerva); dopo circa 50 anni i furti dell’acqua ripresero perché cominciarono a costruire calibri clandestini con stampigliati stemmi dell’imperatore falsificati (da allora sembra non sia cambiato proprio nulla). Comunque all’epoca di Frontino Roma richiedeva tantissima acqua perché, oltre a terme, fontane, latrine ecc. sempre più ville patrizie erano dotate di piscina; nonostante il sistema di adduzione di acqua a Roma fosse imponente, i furti d’acqua ed un sistema distributivo disordinato e irrazionale cominciava a rendere insufficiente l’acqua a Roma. Ecco che per sistemare le cose si rese necessario l’intervento di un grande geniere come Vitruvio che, avendo dimostrato la sua perizia in ambito militare, sicuramente avrebbe risolto anche il problema dell’acqua a Roma. La scelta fu azzeccatissima perché in effetti risolse tutti i problemi in modo mirabile e, ancor oggi rimangono i segni dell’intervento di Vitruvio.           

(2) Marco Vitruvio Pollione (in latino: Marcus Vitruviius Pollio, circa 80 aC – circa 15 aC circa) era un architetto e scrittore romano, attivo nella seconda metà del I secolo aC, è considerato il più famoso teorico dell’architettura di tutti tempi.

(3) La Villa d’Este a Tivoli è un capolavoro del Rinascimento italiano ed è elencata nella lista UNESCO dei siti del patrimonio mondiale. https://www.youtube.com/watch?v=iAItDwPJY5g

(4) Lettera di Uberto Foglietta a Flavio Orsino, 1569.

I fenomeni collettivi (versione in italiano)

La fisica affronta lo studio dei fenomeni utilizzando diversi approcci. In molti casi gli stessi fenomeni vengono affrontati con approcci diversi alternativi fra loro, altre volte si sceglie un certo specifico approccio perché ritenuto il più adatto allo studio di quel determinato fenomeno, altre volte ancora non si conoscono approcci alternativi a quello utilizzato da tutti. Per proseguire i nostri ragionamenti abbiamo la necessità di approfondire le metodologie utilizzate dalla fisica per affrontare i cosiddetti “fenomeni collettivi” tipici del microcosmo di cui ci stiamo occupando. Per far ciò è inevitabile partire da alcuni concetti di base.

La fisica divide la natura in statica e dinamica e studia entrambe quantitativamente rispetto a ciò che fa la filosofia in merito alle equivalenti nature di “essere”(1) e “divenire”(2).

La fisica attribuisce alla materia proprietà immutabili o mutabili (da misurare quantitativamente) così come la filosofia tratta di “categorie” e “accidenti”(3).

La materia per la fisica ha un contenuto energetico che può essere potenziale o cinetico e può trasferirsi così come in filosofia si parla di “potenza” e “atto”(4).  

La fisica, esattamente come la filosofia, fa uso di analisi e di sintesi(5).

La fisica richiede una visione:

  • binoculare, dinamica e tridimensionale (dinamica + tridimensionale = quadrimensionale)
  • sia microscopica, sia macroscopica dall’immensamente grande verso l’immensamente piccolo fino allo “svuotamento dello spazio” e viceversa
  • sia scientifica (esterna all’uomo), sia umanistica (interna all’uomo)
  • sia di sistema (collettiva), sia di componente (individuale)(6)
  • sia deterministica, sia indeterministica (es. principio di indeterminazione di Eisemberg)

Anche in fisica le verità sono incapsulate(7); fenomeni come l’”effetto tunnel” dimostrano che la teoria classica è incapsulata in quella quantistica; gli esperimenti come quelli fatti con l’uso di acceleratori di particelle, dimostrano che la teoria classica è incapsulata in quella relativistica.

In fisica l’eccezione non conferma di certo la regola; solo per fare un esempio, è grazie alla scoperta del comportamento anomalo dell’elio a temperature inferiori a 2 K che sono cominciati gli studi sui superfluidi. Attualmente i fisici stanno mettendo in dubbio la costanza della velocità della luce postulata da Einstein; indipendentemente dall’esito di questi studi, la sola messa in dubbio del postulato di Einstein chissà quali interessanti scoperte genererà !!!  

Nonostante la termodinamica indichi la tendenza naturale dell’universo al disordine, il mondo delle oscillazioni mostra incredibili fenomeni antientropici(8). In fisica i dubbi sono i benvenuti. 

I fenomeni collettivi sono quei fenomeni che avvengono grazie alla con-partecipazione di un gran numero di componenti e quindi il cui problema non è quello del comportamento del singolo isolato dal contesto, ma il comportamento dell’insieme. Si tratta di spiegare come fa un gran numero di componenti a cooperare in modo da dar luogo al sistema nel suo complesso. L’organismo vivente è un tipico esempio di sistema complesso.

La fisica classica concepisce tutta la materia come inerte (cioè per muoverla occorre imprimergli una forza) mentre sappiamo benissimo che quella vivente non lo è. Se lascio cadere un orologio esso tocca terra e la cosa finisce lì; se lascio cadere un animale, una volta che ha toccato terra la cosa non finisce così perché l’animale può decidere di aggredirmi, di scappare, brontolare, ecc.. La differenza sta nel fatto che l’orologio (pur essendo un oggetto che si muove) è un oggetto passivo, mentre l’animale è un oggetto attivo. L’orologio al contrario dell’animale, pur muovendosi, ma non è capace di comportamenti spontanei. La fisica quantistica ha fatto molti passi avanti nel cercare di spiegare la fisica degli oggetti in grado di comportarsi spontaneamente proprio perché è in grado di studiare la cooperazione fra i vari corpi presenti nell’universo. Con lo studio dei fenomeni collettivi e dei sistemi complessi, tutti i fenomeni isolati tipici della fisica classica di Galileo e Newton grazie alla fisica quantistica perdono di significato. Con l’avvento della fisica quantistica diventa impossibile isolare i corpi dal resto dell’universo(9). In questo senso è improprio affermare che la fisica quantistica è la fisica del mondo atomico e subatomico dato che è nata proprio per rispondere a questioni inerenti il mondo macroscopico e per spiegare come gli atomi si aggregano e generano sistemi complessi.

Gianfranco Pellegrini

Torino, 20 gennaio 2019

Note

(1) Quello dell’Essere è un concetto che attraversa tutta la storia della filosofia fin dai suoi esordi. Per quanto già posto dalla filosofia indiana sin dal IX secolo a.C., è all’eleate Parmenide che si deve l’aver dato inizio in Occidente a questo lungo dibattito che percorre i secoli e le diverse culture fino ai nostri giorni. L’Essere è quindi uno dei concetti fondamentali, se non il concetto fondamentale, tra quelli elaborati dalla tradizione del pensiero filosofico occidentale. ”L’Essere è e non è possibile che non sia … il Non Essere non è ed è necessario che non sia” (Parmenide).

(2) Il Divenire, inteso come mutamento, movimento, scorrere senza fine della realtà, perenne nascere e morire delle cose, è stato uno dei concetti più importanti su cui si sono contrapposte visioni ontologiche di tipo statico (come quella eleatica) e di tipo dinamico (come quella eraclitea e dell’atomismo leucippeo). Il Divenire è, secondo Eraclito, la sostanza dell’Essere, poiché ogni cosa è soggetta al tempo e alla trasformazione. Anche quello che sembra statico alla percezione sensoriale in verità è dinamico e in continuo cambiamento.

“ … poiché tutto muta, meno la legge del mutamento”. (Eraclito).

“ … poiché tutto muta, meno la legge del mutamento”. (Eraclito).

(3) Per Aristotele le categorie sono i gruppi o i generi sommi che raccolgono tutte le proprietà che si possono predicare dell’essere. Sono i predicamenti dell’essere, che si riferiscono a qualità primarie (le essenze immutabili degli oggetti), o secondarie (gli accidenti che possono cambiare).

Le categorie sono in tutto dieci:

– essenze:           la sostanza, la qualità, la quantità, la relazione

– accidenti:         il dove, il quando, il giacere, l’avere, il fare, il subire

Ogni elemento della realtà può essere fatto rientrare in una di queste categorie.

Ne consegue che le categorie di Aristotele hanno un valore oggettivo, perché si riferiscono a degli enti concreti. I nostri giudizi le adoperano non soltanto secondo un rapporto puramente logico tipico del sillogismo, ma riunendole grazie alla capacità intuitiva di cogliere le relazioni effettivamente esistenti tra gli oggetti reali. Ma oltre a ciò, ad ognuna delle categorie si riferisce una parte di quei costrutti semantici del discorso che hanno a che fare con il mondo reale: ad esempio, un nome o un sostantivo si riferisce alla categoria di sostanza; gli aggettivi qualificativi alla qualità, quelli indefiniti alla quantità, o alla relazione ecc.

(4) I due concetti di materia e forma sono riportati in Aristotele a quelli di potenza ed atto. Infatti la materia di per sé esprime solo la possibilità, la potenza, di acquisire una forma in atto nella realtà: perché si realizzi questo passaggio per cui ciò che è possibile diventi attuale, occorre che ci sia già una forma in atto, un essere attuato.

È chiaro che il passaggio dalla potenza (materia) all’atto (forma), che costituisce il divenire, è tale da poterlo concepire come senza fine, poiché ogni atto diviene potenza per un atto successivo o meglio, sostiene Aristotele, avrà come termine ultimo un atto che ha realizzato tutte le potenze, tutte le potenzialità materiali e quindi non avrà più in sè nessun elemento materiale (potenza) e sarà allora un atto puro, Dio.

(5) Per Cartesio l’analisi e la sintesi effettuano una operazione di scomposizione e composizione che riguarda la conoscenza.

L’analisi permette di identificare gli effetti dipendenti dalle loro cause, mentre la sintesi procede ripercorrendo e restaurando i rapporti identificati dall’analisi: in termini più generali l’analisi consiste nel dividere il problema conoscitivo nelle sue parti componenti più semplici, con l’avvertenza di non procedere troppo con la scomposizione per non perdere il senso complessivo del problema (il che accadrebbe se lo si frantumasse in parti troppo piccole);

La sintesi consiste nel rimettere assieme le parti analizzate identificando in questo modo la giusta struttura e composizione del problema da risolvere. In Cartesio l’analisi procede con fini euristici mentre alla sintesi è affidata l’esposizione.

Il procedimento euristico è un metodo di approccio alla soluzione dei problemi che non segue un chiaro percorso, ma che si affida all’intuito e allo stato temporaneo delle circostanze, al fine di generare nuova conoscenza. L’euristico è un procedimento antitetico a quello algoritmico.

(6) Collettivo sta a individuale come altruista sta a egoista.

Su questo tema è famoso il “diavoletto di Maxwell”, un esperimento mentale ideato da Maxwell circa la possibilità teorica di un congegno capace di agire a scala microscopica su singole particelle allo scopo di produrre una violazione macroscopica del secondo principio della termodinamica. Questo esperimento ha sicuramente contribuito all’avvio di nuovi interessanti studi nel campo dell’informazione quantistica. In particolare il principio di Landauer prevede che l’eliminazione di bit di informazione produce energia termica non azzerabile in alcun modo confermando così sperimentalmente quanto previsto dal secondo principio della termodinamica inizialmente messo in forse dal “diavoletto”.

(7) Ci sono due proprietà della materia completamente diverse fra loro: infatti la massa gravitazionale, ossia la capacità di una corpo di attrarne (o di essere attratto da) altri, non ha niente a che vedere con la massa inerziale, ossia con la riluttanza di quello stesso corpo a cambiare il suo stato di quiete o di moto rettilineo uniforme. Eppure quantitativamente la massa inerziale coincide “misteriosamente” con quella gravitazionale e trasferendo un corpo dalla terra alla luna la sua massa gravitazionale (cioè la sua capacità di essere attratta e di attrarre la luna) si riduce notevolmente ma anche la sua massa inerziale (cioè la sua riluttanza a muoversi diversamente) si riduce notevolmente, anzi si riduce esattamente nella stessa proporzione !!! Solo con la teoria della relatività è diventato chiaro che si tratta della stessa proprietà che si manifesta in due diverse forme. Altro esempio di superamento della fisica classica è la possibilità di trasmettere dati mediante l’utilizzo di onde gravitazionali anziché elettromagnetiche come recentemente pubblicato in “Classical and quantum gravity” da un gruppo di scienziati della RUDN university di Mosca.  

(8) A tal proposito è famosissimo l’esperimento mentale denominato “Il gatto di Schroedinger”. Si rinchiuda un gatto in una scatola d’acciaio insieme ad una macchina infernale (che occorre proteggere dalla possibilità d’essere afferrata direttamente dal gatto): in un contatore Geiger si trova una minuscola porzione di sostanza radioattiva, così poca che nel corso di un’ora forse uno dei suoi atomi si disintegra, ma è altrettanto probabile che nessun atomo si disintegri; se ciò succede, allora il contatore lo segnala e aziona un relais di un martelletto che rompe una fiala con del cianuro. Dopo avere lasciato indisturbato l’intero sistema per un’ora, se nel frattempo nessun atomo si fosse disintegrato è plausibile che il gatto sia ancora vivo altrimenti la prima disintegrazione atomica lo avrebbe avvelenato. La funzione “PSI” (proporzionale al quadrato della probabilità) dell’intero sistema porta ad affermare che in essa il gatto vivo e il gatto morto non sono stati puri, ma miscelati con uguale peso. Dopo un certo periodo di tempo, quindi, il gatto ha la stessa probabilità di essere morto quanto l’atomo di essere decaduto. Visto che fino al momento dell’osservazione l’atomo esiste nei due stati sovrapposti, il gatto resta sia vivo sia morto fino a quando non si apre la scatola, ossia non si compie un’osservazione.

(9) La questione del corpo inerte in natura è stata oggetto di speculazione filosofica già dal tempo dei pensatori greci. Democrito in linea con la fisica classica concepiva la materia come inerte e il movimento dei singoli atomi generava collisioni (incontri) casuali e caotiche che davano origine agli aggregati. Gli atomi di Epicuro erano invece in grado di muoversi autonomamente (il “clinamen “ di Lucrezio) dando origine ogni tanto a dei “sussulti” e si incontrano; il “Clinamen” (oggi diremmo la fluttuazione) per Epicuro, altro non era che la manifestazione dell’amore di ogni atomo nei confronti di tutti gli altri. Sussultando, un atomo va verso gli altri, li incontra e genera gli aggregati (molecole). Per Democrito la creazione dell’universo necessita di un Dio che provoca una prima spinta a uno o più atomi affinchè collida(no) con altri atomi dando origine agli aggregati. In altre parole per Democrito e per la fsica classica le cose non possono nascere da sole ma hanno bisogno di un Dio. La fisica classica è dunque solo apparentemente laica, perché in realtà ha bisogno di un Dio. Per Epicuro e per la fisica quantistica la materia si muove da sola e non lascia spazio al Padre Eterno a meno di non immaginare un Padre Eterno intimamente amalgamato con la materia (ossia immaginato come attributo della materia).         

Bolzmann&Gibbs Vs Weber&Fechner (versione in italiano)

In base a quanto detto finora abbiamo precisato che l’universo è permeato da energie di tipo violento, disordinato e disordinante, ma anche di energie soft di natura oscillante, ordinata e ordinante(1).

Tutto lascia pensare che la materia vivente, per rimanere in vita si “nutra” di questo tipo di energia soft e abbiamo ipotizzato che la attinga dai raggi ultravioletti ad una data frequenza(2) per il tramite della stragrande maggioranza delle molecole d’acqua di cui è costituita la materia vivente stessa(3).

In generale tutti sappiamo che nell’universo vi è un continuo e irreversibile aumento del grado di disordine: in fisica si dice che l’entropia aumenta; tuttavia sembrerebbe che l’essere vivente, per rimanere in vita abbia necessità di contrastare continuamente questo processo entropico generando in qualche modo “entropia negativa” in grado di controbilanciare l’entropia positiva che porterebbe progressivamente e inesorabilmente al degrado e alla morte. L’ipotesi che stiamo facendo è che l’energia “disordinata” contenuta nei raggi ultravioletti presenti nell’ambiente circostante venga “ordinata” dagli elettroni dell’acqua mediante la sua capacità di organizzarsi in domini di coerenza.

Già il grande fisico Erwin Schrödinger(4) nel 1944 aveva dedotto che la materia vivente dovesse operare un processo “ordinante”. In questa sede non mi è possibile affrontare tutte le argomentazioni da lui adotte per dedurre ciò(5) ma, anche se richiede un piccolo sforzo, desidero approfondire almeno alcuni punti perché indispensabili nel proseguo dell’analisi. Ci sono varie definizioni del secondo principio della termodinamica tra cui quella che dice che l’entropia è data dal rapporto fra la variazione di calore in un corpo e la temperatura assoluta alla quale avviene questa variazione di calore (Entropia = ∆Q/T) ma, chi si occupa di termodinamica statistica, di chimica-fisica, di cinetica chimica, sa molto bene che una definizione alternativa al secondo principio della termodinamica è quella data dalla formula di Boltzmann e Gibbs:

Entropia = k·log D

Dove k è la costante di Boltzmann (3,2983·10-24 cal/°C) e D è un parametro che tiene conto del grado di disordine atomico(6).  Per cercare una via percorribile che consenta di ottenere valori negativi di entropia, Schrödinger ha ipotizzato processi vitali che, anziché evolvere secondo D evolvano secondo 1/D: in questo modo effettivamente il logaritmo assume valori negativi(7).

La domanda spontanea è: Perché Schrödinger non ha pensato a valori di D inferiori all’unità ? Anche valori di D inferiori a uno fanno sì che il logaritmo – e dunque l’entropia – diventino negativi. In effetti nel 1944 non era possibile ipotizzare valori di D inferiori a uno perché ciò avrebbe implicato che un corpo, portato ad una temperatura pari a 0 K avesse ancora residui di energia oppure avrebbe reso possibile andare al disotto dello zero assoluto(8). Ebbene, nel 2013 un team di ricercatori della Ludwig-Maximilians-Universität di Monaco e del Max-Planck-Institut di Garching, hanno portato una nuvola di potassio al disotto dello zero assoluto dimostrando che il limite non era invalicabile(9).

Visto dal punto di vista microscopico un valore di temperatura più o meno elevato indica un grado di agitazione termica più o meno alto; in particolare, al raggiungimento dello zero assoluto cessa qualunque agitazione termica. Però l’energia di cui sono dotate le particelle non è solo quella relativa all’agitazione termica, perché ci sono ad esempio le energie vibrazionali che, tra l’altro, sono proprio quelle che ci interessano. Quindi sembrerebbe che un modo per “liberarsi” delle energie “forti” lasciando solo quelle “soft” sia quello di abbassare la temperatura(10).

Comunque sia, per ottenere dalla formula di Boltzmann e Gibbs valori di entropia negativi è possibile pensare a valori di D inferiori a uno. Questo è un fatto assai importante perché ci consente di mettere in relazione la formula di Gibbs con il “principio di minimo stimolo” di Weber e Fechner(11). Solo come promemoria il “principio di minimo stimolo” dice che la reazione ad uno stimolo non è proporzionale allo stimolo, bensì al suo logaritmo. L’analogia con la formula di Boltzmann e Gibbs è palese. A questo punto osserviamo che, per valori di D inferiori ad uno, l’entropia negativa aumenta al diminuire del grado di disordine e più è basso il valore di D più aumenta l’entropia negativa. Si tratta della risposta “inbound” di cui abbiamo ampiamente discusso in precedenza(11). Ecco che l’estensione del dominio di una formula fisica ben conosciuta anche a valori di D inferiori a uno ci consente di ottenere l’entropia negativa di cui ha bisogno la materia vivente per mantenersi in vita.  

Gianfranco Pellegrini

Torino, 19/08/2019

Note

(1) Per approfondimenti si veda anche il mio articolo precedente “L’energia armoniosa”.

(2) Riprendendo la nota 5  del mio articolo precedente “I domini di coerenza dell’acqua”, la frequenza necessaria per attivare questo processo è pari a circa 3 PHz; tenendo conto che la banda dei raggi X inizia a 30 PHz vediamo che, pur essendo ancora nella banda degli ultravioletti, siamo molto vicini ai raggi X.

(3) Per approfondimenti si veda anche il mio articolo precedente “I domini di coerenza dell’acqua”.

(4) Erwin Schrödinger (1887 – 1961) ha insegnato a Breslava, Berlino, Oxford, Dublino, Graz e Vienna. E’ il padre della meccanica ondulatoria e nel 1926 ha pubblicato la famosa equazione che porta il suo nome. Ha dimostrato che la meccanica ondulatoria è equivalente alla meccanica quantistica sviluppata da Heisemberg. Schrödinger, pur essendo un fisico teorico, nel 1944 ha scritto un libro di genetica “What is life ?”; quasi a volersi scusare per aver invaso un campo in cui egli non è specialista, nella prefazione scrive: “Ciò che si suppone di un uomo di scienza è che egli possieda una conoscenza completa e approfondita, di prima mano, di “alcuni” argomenti: ci si aspetta quindi che egli non scriva di argomenti in cui non è maestro. Se ne fa una questione di “noblesse oblige”. Per lo scopo presente, io chiedo di rinunciare all’eventuale nobiltà, per liberarmi dall’obbligo che ne deriva”.

(5) Per gli approfondimenti si rimanda al volume E. Schrödinger – “Che cosa è la vita ?” – Adelphi 1995.

(6) In questa sede sarebbe arduo spiegare con maggior dettaglio il significato di “D”. E’ comunque opportuno specificare che il grado di disordine a cui ci si riferisce è molto generale, nel senso che può riferirsi non solo alla più o meno elevata agitazione termica, ma anche al grado di omogeinizzazione di un miscuglio o di una soluzione (a partire dal momento in cui si mettono in contatto i componenti fino al momento in cui il miscuglio o la soluzione diventano omogenei), al grado di reazione chimica raggiunto (a partire dal momento in cui si mettono in contatto i reagenti fino al momento in cui la reazione si può considerare completata, anche se si tratta di processo asintotico), alla % di imperfezione del reticolo in un cristallo, ai cambi di stato (es. la fusione dei cristalli di ghiaccio o l’evaporazione dell’acqua), ecc.

(7) Si veda E. Schrödinger – “Che cosa è la vita ?” – Adelphi 1995 – Cap. VI, par. 7.

(8) Questi sono concetti di chimica-fisica che stanno alla base della formulazione di Lewis e Randall del Terzo Principio della Termodinamica: “Se a T = 0 è giustificato assumere uguale a zero l’entropia di tutti gli elementi nel loro stato cristallino più stabile e perfetto, allora qualunque sostanza pura possiederà un’entropia positiva che, a temperatura uguale a zero, può anch’essa annullarsi se la sostanza (composto chimico puro) si trova in uno stato cristallino stabile, microscopicamente ben definito e strutturalmente perfetto.”

Senza voler entrare troppo nel dettaglio accenniamo sinteticamente quale è il ragionamento che ci sta sotto.

Il fatto che l’entropia allo zero assoluto valga zero non è una assunzione convenzionale o “di comodo”, ma è un’assunzione che ha una sua ampia giustificazione scientifica (III Principio della Termodinamica).   Infatti, procedendo per punti:

– a –  Partiamo dal teorema di Nernst (o teorema del calore) che dice che “ad ogni processo fisico e/o chimico è associata una precisa variazione entropica DE e questa DE –> 0 quando T –> 0.” Pertanto, anche la variazione standard, o DtrasfS0, associata ad una qualsiasi trasformazione deve –> 0 se T –> 0. E questo è dimostrabile, non in via teorica ma su base statistica e/o da dati sperimentali.

La Termodinamica Statistica dice che l’entropia è associata al grado di incertezza (legata al disordine) che si ha nel definire lo stato di un sistema, ovvero al grado di conoscenza che si ha del sistema stesso. Questo concetto è esprimibile con la formula di Boltzman e Gibbs, Entropia = k ln D, dove D indica il “peso statistico” di un sistema, ovvero il numero di modi microscopici in cui posso costruire/realizzare un unico stato macroscopico (vedi nota 6 precedente).

Allo zero assoluto tutti i sistemi “reali” sono, ovviamente, allo stato solido;  consideriamo gli elementi nel loro reticolo cristallino stabile allo zero assoluto e supposto perfetto: non ci sono incertezze di tipo composizionale, strutturale o motorio (il moto è nullo).   Quindi, essendo nulla l’incertezza (ovvero, il peso statistico D è unitario), ne segue che:

b – in base alla formula di Boltzman e Gibbs per tutti gli elementi allo zero assoluto l’Entropia è uguale ed è verosimilmente nulla.  E da ciò, infine, consegue che:

c – quando la temperatura è 0, anche l’entropia di tutte le sostanze pure allo stato cristallino (perfetto) è eguale a 0 perché, in virtù del teorema di Nernst,  per T à 0 DfS0 –> 0.

(9) Il report, pubblicato dai ricercatori tedeschi nel gennaio 2013 sulla rivista Science, potrebbe aiutare a comprendere la cosiddetta “energia oscura”. Il successo raggiunto da questo team di ricercatori è di fondamentale importanza in quanto obbliga l’intera comunità scientifica a rivedere in parte il concetto di temperatura. Quando infatti in fisica si parla di temperatura si utilizzano i gradi Kelvin, una scala che non prevede temperature al di sotto dello zero. Prima di questo esperimento, lo zero assoluto rappresentava il limite al di sotto del quale non aveva più senso parlare di materia; tale temperatura rappresentava infatti la quantità di energia cinetica posseduta dagli atomi di cui è costituita la materia: più la materia è fredda, tanto più gli atomi sono ‘lenti’, fino a fermarsi completamente in corrispondenza appunto dello zero assoluto. 
La temperatura è data dalla media dei valori di tutti gli atomi, quindi anche dai valori relativi alla loro distribuzione. Come previsto dal III° Principio della termodinamica (vedi nota precedente), se la temperatura è molto bassa (ossia se gli atomi sono molto lenti) il disordine è molto basso, quasi nullo.
Sfruttando questa doppia definizione di temperatura, i ricercatori tedeschi sono di fatto riusciti a creare una nuvola di potassio molto fredda, nella quale la maggior parte degli atomi – ma non tutti – si muove molto lentamente. Evitando che gli atomi potessero scambiarsi energia, come avviene normalmente, i ricercatori sono riusciti a mantenerli in una sorta di anomalia definibile matematicamente come temperatura negativa.

(10) Il grande fisico tedesco Max Planck (1858 – 1947) in un lavoro intitolato “Leggi dinamiche e leggi statistiche” (Dynamische und statistische Gesetzmäßigkeit – Rede, gehalten bei der Feier zum Gedächtnis des Stifters der Berliner Friedrich-Wilheims-Universität am 3. Aug. 1914) distingue i fenomeni che seguono leggi di tipo “dinamico” da quelle che invece seguono leggi di tipo “statistico” (noi nel caso di fenomeni “dinamici” parliamo di “passaggio dall’ordine all’ordine”, mentre nel caso di quelli “statistici” parliamo di “passaggio dal disordine all’ordine”, ma i concetti sono i medesimi).

A seconda del grado di precisione richiesto, del fenomeno che interessa analizzare e del tipo di materiali in gioco, un fenomeno può essere considerato “dinamico” anziché no. Ad esempio, il movimento di un robot, se si trascurano le dispersioni termiche dovute all’attrito e altri tipi di “perdite” energetiche di tipo elettromagnetico, può essere considerato con ottima approssimazione un fenomeno “dinamico” e il teorema di Nerst (vedi nota 8 precedente) è in grado di indicarci quali sono le temperature al disotto delle quali il fenomeno continua a poter essere considerato “dinamico”. E’ intuitivo constatare che fino a temperature alle quali il metallo del robot fonde, il movimento del robot possa essere con buona approssimazione considerato “dinamico”.

In realtà la temperatura ambiente (attorno ai 300 K) è da considerare ancora molto bassa ai fini dell’entropia nel senso che per molte reazioni chimiche, l’entropia alla temperatura ambiente è insignificante; ciò è vero in particolare per le innumerevoli reazioni biochimiche che avvengono in continuazione nella materia vivente finchè rimane viva. Le temperature tipiche che troviamo sulla terra garantiscono ai fini della vita livelli di ordine molto elevati (valori di entropia del tutto trascurabili).   

(11) Per approfondimenti si veda anche i miei precedenti articoli “Il principio di minimo stimolo” e “Basse energie e risposta Inbound”.  

Il principio di minimo stimolo(1)

Tornando agli argomenti del blog avevamo chiarito che nelle interazioni fra la radiazione elettromagnetica e le molecole d’acqua presenti nella materia vivente, il “principio del minimo stimolo”impone che l’eccesso di energia risulti non solo inutile, ma persino penalizzante. A partire dai tempi di Marconi e Bell a oggi l’atmosfera terrestre è stata sempre di più inondata di onde elettromagnetiche di varie frequenze. E’ opinione comune che i segnali elettromagnetici dei nostri strumenti non possano essere dannosi perché hanno un basso contenuto energetico; il principio di minimo stimolo sembrerebbe indicare l’esatto contrario: potrebbero essere particolarmente dannosi proprio perché sono poco energetici !!!  Certamente se i segnali elettromagnetici fossero troppo intensi(2) generebbero aumenti di temperatura intollerabili per l’organismo vivente. I primi cellulari immessi sul mercato, oltre a scaldare l’orecchio in modo fastidiosissimo, erano anche nocivi per la salute umana. I cellulari odierni non scaldano e non danno fastidio all’orecchio perché ricevono segnali a bassa intensità: siamo sicuri che non siano nocivi(3)?     

Dopo aver chiarito che i meccanismi di interazione chimica dipendono dalle concordanze di fase, c’è un altro argomento che consolida l’ipotesi delle “basse energie” (piccole dosi). Recentemente è stato scoperto che tutte le acque cosiddette “terapeutiche”(4) (cioè che sembrano avere effetti benefici per la salute) sono caratterizzate da un elevato numero di nano-aggregati(5). Esperimenti recenti hanno mostrato che in prossimità di pareti contenenti cariche elettriche oscillanti, si può generare una concordanza di fase fra gli elettroni “quasi liberi” dei domini di coerenza dell’acqua e le cariche superficiali oscillanti che danno luogo ad una coerenza comune estesa che si attiva alla stessa frequenza delle cariche superficiali oscillanti presenti nella parete(6). Dato che gli elettroni dell’acqua “quasi liberi” presenti nei domini di coerenza hanno la proprietà di riuscire ad oscillare a numerose diverse frequenze, ogni volta che assumono la stessa frequenza delle cariche superficiali oscillanti il segnale diventa coerente. Le pareti superficiali possono essere costituite anche dalle superfici esterne di granuli elettricamente carichi dispersi nell’acqua. In questo modo l’effetto delle cariche superficiali oscillanti, anziché averlo nelle zone di confine come nel caso di recipienti contenenti l’acqua, è omogeneamente distribuito in tutto il volume occupato dall’acqua. Questo effetto è secondario e si aggiunge alla coerenza preesistente nell’acqua stabilizzandola, rendendola totalmente coerente e tutta oscillante(7) alla stessa frequenza delle cariche oscillanti nella superficie dei granuli.  

Alla luce di quanto descritto, molti fenomeni che prima risultavano incomprensibili ora diventano più chiari. Ad esempio diventa comprensibile l’attività dei rabdomanti. Intanto è bene precisare che i rabdomanti non riescono a rilevare l’acqua stagnante o con flusso laminare ma esclusivamente l’acqua con flusso turbolento o vorticoso. Se si chiedesse ad un rabdomante di rilevare il flusso dell’acqua circolante nei pannelli radianti a pavimento, non rileverebbe nulla perché il flusso è laminare. Questo è un fatto abbastanza sconosciuto ma che i rabdomanti sanno molto bene. La ragione sta nel fatto che le cariche statiche (presenti nell’acqua stagnante) e quelle che si muovono a velocità costante (correnti continue presenti nel flusso laminare) non generano alcun campo elettromagnetico. I rabdomanti sono particolarmente sensibili ai campi elettromagnetici e rilevano quelli generati dai vortici che “contagiano” l’acqua ad oscillare in fase con detti campi elettromagnetici. I primi vortici comunicano all’acqua la frequenza di oscillazione che si trasmette a tutto il resto dell’acqua (anche a quella che non è soggetta ai vortici). Sono in corso numerose ricerche e si concentrano sui principi che rendono attiva la materia vivente e sulle relazioni intercorrenti fra materia e psiche. In futuro sarà probabilmente possibile trovare azioni terapeutiche di carattere esclusivamente psichico. Supponiamo ad esempio che le oscillazioni coerenti dell’acqua corrispondano a ciò che chiamiamo “emozioni”. A quel punto, se si riuscisse a governare queste oscillazioni in maniera da produrre particolari emozioni che diano luogo a ben precise attrazioni molecolari, si potrebbe pensare di guarire le malattie non più con i farmaci (nemmeno quelli omeopatici), ma con i “miracoli”, cioè con fenomeni emotivi che diano luogo a ben precise oscillazioni benefiche per l’organismo vivente(8).    

Gianfranco Pellegrini

Torino, 2 dicembre 2018

NOTE

(1) Sul “principio di minimo stimolo”, per maggiori approfondimenti, si rimanda agli studi di Eva Reich e a quelli di Margherita Tosi; si veda anche il mio articolo precedente del 28 luglio 2018 “Tutto oscilla”.

(2) Le onde non trasportano materia ma trasportano energia. L’energia trasportata dalle onde è proporzionale al quadrato dell’intensità dell’onda.

(3) Il dubbio è che possano interagire in modo imprevedibile disturbando le concordanze di fase, distruggendo i domini di coerenza e variando alcune delle frequenze di sintonìa che garantiscono le corrette reazioni biochimiche. Ciò potrebbe modificare le sequenze di reazioni biochimiche portando a reazioni (o a sequenze di reazioni) diverse da quelle previste (ad esempio evoluzioni cancerogene, mutazioni genetiche, evoluzione biologica, …).

(4) Lo scienziato francese L. C. Vincent, fra i massimi esperti di bioelettronica e di Medicina Ortomolecolare, nel 1956 è stato incaricato dal governo francese di giustificare la differente incidenza di  tumori nelle diverse regioni della Francia; le sue ricerche hanno dimostrato che vi è una relazione tra incidenza dei tumori e qualità dell’approvvigionamento di acqua potabile; nella fattispecie, le città con minor incidenza di tumori facevano uso di acqua con caratteristiche fisiche/chimiche molto diverse da quelle relative alle città a maggior incidenza di malattia. Successivamente, nel 1972, Vincent effettuò una sperimentazione sulla saliva e sull’urina di oltre 60.000 malati di tumore francesi e tedeschi aprendo la strada allo studio del terreno biologico con un approccio di tipo energetico.  Da questi studi è emersa l’importanza di idratare il corpo non solo in abbondanza, ma soprattutto con acqua di ottima qualità “fisiologica”. L’acqua è sempre stata considerata fondamentale per la salubrità del corpo. Varie acque sono considerate terapeutiche come ad es. le acque termali, le acque considerate sacre (di Lourdes, del Gange), le acque curative come quelle bevute da popolazioni particolarmente longeve come gli Hunza (vedi studi in merito da parte del Nobel, H. Coanda). Tuttavia, nonostante le credenze popolari e le testimonianze storiche, gli studi scientifici non sono finora riusciti a dimostrare la veridicità di tali convinzioni. In ogni caso torneremo più avanti su questo argomento e parleremo dei numerosi recentissimi studi in corso su questi argomenti.

(5) I nano-aggregati possono essere costituiti da molecole d’acqua “aggregate” fisicamente fra loro in domini di coerenza, oppure da altre molecole, o anche dall’insieme dei due. 

(6) La frequenza di attivazione della coerenza comune estesa non può che essere quella delle cariche superficiali oscillanti in quanto sono le uniche che non possono cambiare; al contrario, come abbiamo visto in precedenza, la frequenza degli elettroni “quasi liberi” dei domini di coerenza cambia. Questo argomento verrà approfondito meglio quando affronteremo i temi dell’“acqua interfacciale”, della “exclusion zone” e dei vortici.

(7) Per maggior precisione è meglio dire che sono gli elettroni “quasi liberi” dell’acqua ad oscillare alla stessa frequenza delle cariche superficiali oscillanti.

(8) Per chi è razionale, l’irrazionale altro non è che ciò che non ha ancora avuto una spiegazione razionale, e dunque il vero ricercatore, se è razionale e se vuole essere un vero ricercatore, deve indagare per forza di cose esclusivamente nell’ambito dell’irrazionale (che per lui è solo temporaneamente irrazionale in attesa che lui ed altri razionali come lui non lo facciano diventare razionale; per le persone irrazionali, al contrario, l’irrazionale corrisponde all’impossibile). Tutte le persone razionali, davanti a fenomeni da loro considerati irrazionali, piuttosto che andare a cercare maliziosamente la truffa partendo dal preconcetto che sotto sotto ci sia la truffa, perché non studiano questi fenomeni pensando che ancora non vengono capiti ma che, una volta capiti, non saranno più da considerare irrazionali ?   

Oltre i confini dei campi vettoriali (versione in italiano)

Questo articolo esula dal tema che sto portando avanti nel blog; ho deciso comunque di pubblicarlo perché l’argomento mi è sembrato interessante da divulgare.

E’ noto che tutti i campi vettoriali che dipendono esclusivamente dalla coordinata radiale ma che sono indipendenti dall’angolo solido ammettono un potenziale e il lavoro fatto dal campo in uno spostamento da un punto qualunque ad un altro punto qualunque nello spazio risulta indipendente dal tipo di percorso scelto per tale spostamento.

Se inoltre la variabilità del campo non solo è radiale ma, in particolare, lo è in ragione del quadrato inverso, il campo diventa conservativo(1).

Faccio alcuni esempi semplici.

Immaginiamo una nuvola di milioni di moscerini che ronzano nell’aria. Immaginiamo di disegnare una superficie chiusa di forma qualunque che racchiude una porzione della nuvola di moscerini. Sia che la nuvola di moscerini si muova verso una determinata direzione, sia che resti mediamente nella stessa posizione dello spazio, il numero di moscerini che entrano nella superficie chiusa eguaglia il numero di moscerini che escono dalla superficie. Questo concetto è valido solo se i moscerini non vengono disturbati in qualche modo nel loro ronzare oppure se all’interno della superficie chiusa che racchiude il volume che stiamo osservando non nascano o muoiano moscerini.

Il primo caso corrisponde a creare una differenza di potenziale. Ad es. se all’interno della superficie introduciamo un uccellino i moscerini volano via allontanandosi radialmente e in questo caso i moscerini saranno tutti uscenti. O ancora, se all’interno della superficie iniettiamo un gas velenoso che uccide i moscerini, il numero di moscerini che attraversano la superficie nell’unità di tempo (inteso come somma algebrica di quelli che entrano meno quelli che escono) eguaglierà il numero di moscerini che muoiono nell’unità di tempo. Si tratta di concetti intuitivi e ragionevoli. L’unico piccolo sforzo da fare è quello di pensare i campi vettoriali come se fossero moscerini svolazzanti.

Il calcolo differenziale ed integrale dei campi vettoriali(2) costituisce un modo elegantissimo di trattare questi argomenti talmente affascinante che rischia di deviare la nostra concentrazione sugli aspetti squisitamente matematici facendoci talvolta perdere di vista il significato fisico dei fenomeni.

Fatte queste premesse, possiamo comunque affermare in estrema sintesi che la teoria dei campi dipende dal tipo di campo e dalle modalità di diffusione nello spazio istante per istante: entrambe queste entità sono suscettibili di estensione e di astrazione.

Ad esempio lo spazio zero-dimensionale (il punto) può essere esteso all’unidimensionalità (retta), estensibile alla bidimensionalità e tridimensionalità (coordinate cartesiane nel piano e nello spazio)(4). Matematicamente è possibile aumentare il numero di coordinate fino a farle diventare infinite (spazi di Hilbert e Banach).

Sono possibili anche estensioni extradimensionali come nel caso spazio-temporale dove, oltre ad aggiungere una coordinata temporale “contaminata” dalle variabili spaziali, anche le coordinate spaziali vengono “contaminate” dalla coordinata temporale.  Per inciso, con l’estensione alla dimensione spazio-temporale il campo elettrostatico diventa elettromagnetico ed elettrodinamico(5) e il campo gravitazionale diventa relativistico. Questo processo di estensione/astrazione ci consente di immaginare una possibile descrizione dei campi in “spazi” di natura completamente diversa da quelli usualmente trattati dalla teoria dei campi.

Anche sui campi è possibile immaginare un processo di astrazione. Ad es. perché non pensare ad un campo “pensiero”, un campo “amore”, un campo “informazione”? Ovviamente il loro domini sarebbero “spazi” particolari come lo “spazio del pensiero”, lo “spazio dell’amore”, lo “spazio dell’informazione”.

A questo punto, in analogia a quanto avviene per altri campi già studiati dalla fisica, si potrebbe immaginare la validità di principi quali la sovrapposizione degli effetti, la “conservazione del pensiero”, ecc.

Con queste ipotesi sarebbe possibile applicare la teoria dei campi anche ad altri “campi” non studiati dalla fisica come ad esempio quelli sopra citati.

La mia ipotesi è che per questa via diventi possibile passare da una descrizione qualitativa (filosofica, sociologica, psicologica, ecc.) ad una descrizione quantitativa (fisica, scientifica) di entità quali pensiero, amore, informazione, ecc. La “forza del pensiero”, il “colore” dell’amore, “l’energia” dell’amore, ecc. diventerebbero quantità misurabili.

In analogia a quanto si fa per i campi studiati dalla fisica, ad es. per lo “spazio del pensiero” lo si può immaginare inizialmente omogeneo e isotropo e si può immaginare una sua trasmissione radiale o addirittura radiale quadratica inversa. Partendo da questi presupposti si analizzerebbero i risultati rettificandoli in base alle incongruenze riscontrate sperimentalmente fino ad arrivare ad una trattazione congruente.

 Gianfranco Pellegrini

Torino, 1 novembre 2018

(1) Come ben noto due esempi di campi conservativi sono il campo elettrostatico e quello gravitazionale. Sul campo elettrostatico sono state eseguite misure che dimostrano che la variabilità dal quadrato inverso della distanza è valido fino a distanze dell’ordine di 10-15 metri (distanze nucleari). Per distanze inferiori sembra che la legge di Coulomb venga meno; in particolare i risultati sperimentali indicano valori circa 10 volte più deboli rispetto a quelli calcolabili con la legge di Coulomb. Una delle ipotesi è che elettroni e protoni non siano cariche puntiformi bensì cariche diffuse. Su questo tema vedasi anche E. Williams, J.Faller, H. Hill, New Experimental Test of Coulomb’s Law: A Laboratory Upper Limit on Photon Rest Mass, in Physical Review Letters, vol. 26, n° 12, 1971, pp. 721-724, Bibcode:1971PhRvL..26..721W, DOI:10.1103/PhyRevLett.26.721. 

(2) In un articolo successivo entreremo in dettaglio sul campo elettrostatico dipolare della molecola d’acqua e sulla teoria VSEPR (Valence Shell Electron Pair Repulsion).  

(3) La teoria dei campi fa uso di derivate spaziali prime scalari e vettoriali (gradiente, divergenza, rotore) e seconde (laplaciano) e si basano sulle regole del calcolo vettoriale e sui teoremi di Stocks e di Gauss. Nell’estensione spazio-temporale, il laplaciano diventa il Dalembertiano.

(4) La trattazione bi/tridimensionale è indipendente dal tipo di coordinate scelte, che esse siano cartesiane, polari, cilindriche, geodetiche o di altro tipo (nel caso ad es.  di utilizzo di geometrie non euclidee). 

(5) In elettrostatica/magnetostatica le equazioni di Maxwell sono separabili: due afferenti alla sola elettrostatica e due alla sola magnetostatica. 

L’acqua “conosce” (versione in italiano)

Abbiamo visto che nelle sequenze di milioni di reazioni biochimiche è fondamentale che i processi siano estremamente veloci e “pressochè” esenti da errori. Abbiamo anche visto che a garantire l’esistenza di queste condizioni sono i domini di coerenza dell’acqua e il teorema di Preparata.

Considerando che oltre il 99%(1) delle nostre molecole sono di acqua, come mai quando siamo vivi mostriamo una certa consistenza solida ? Evidentemente perché le molecole d’acqua quando si trovano nel nostro corpo sono legate fra loro più di quanto lo siano le stesse molecole d’acqua raccolte in un recipiente. Evidentemente per gli esseri viventi e per il resto della natura, anche se la chimica dell’acqua è la stessa, la fisica dell’acqua è diversa. L’acqua “inorganica” è “incoerente” mentre l’acqua “organica” è “coerente”. Entrando a far parte di un essere vivente l’acqua si auto-organizza in modo coerente e riesce così, oltre a diventare più “consistente”, soprattutto a generare un tipo di “informazione” di tipo particolare e responsabile della sussistenza della vita e dell’evoluzione.

Forse è il caso di approfondire meglio il concetto di “informazione”. I computer sono oggetti inanimati che per poter funzionare hanno necessità di energia elettrica e di “informazione”. Sono dunque incapaci di auto-funzionare autonomamente perché necessitano di continua energia elettrica e di istruzioni dettagliatissime(2). Inoltre il computer per operare ha necessità di input è non è in grado di agire spontaneamente. L’input deve essere molto preciso altrimenti va in errore. Se chiedo ad un robot di portarmi la pallo, non capisce che volevo dire “palla” e non me la porta ma mi risponde di ripetere perché non ha capito. Nel caso di sistemi in grado di auto-animarsi (come l’acqua) tutto ciò non è vero, ecco perché occorre non equivocare il concetto di “informazione”. Per chiarire meglio questo concetto trovo importante ricordare il famoso esperimento “acqua e DNA” eseguito dal premio Nobel per la medicina Luc Montagnier. Il DNA nella sua attività emette segnali elettromagnetici. Fornendo questi segnali ad un recipiente pieno d’acqua contenente elementi di DNA ed enzimi che ne attivano la composizione, il DNA si forma spontaneamente. Montagnier, dopo aver captato segnali elettromagnetici di DNA presente in un laboratorio di Parigi, ha trasmesso questi segnali ad un laboratorio di Benevento in cui vi era una provetta contenente, acqua distillata, componenti di DNA ed enzimi. Questi segnali elettromagnetici hanno consentito, grazie all’acqua distillata, la formazione a Benevento dello stesso DNA di Parigi. In questo caso la definizione di “informazione” secondo la teoria informatica è impropria in quanto il contenuto informativo intrinseco (cioè la ricchezza del segnale elettromagnetico inviato) è molto piccolo rispetto alla complessità del DNA. Questo sta a significare che l’acqua, partendo dalla poca informazione ricevuta dal segnale elettromagnetico, è in grado di apprendere e trasferire da sola la quantità di informazione supplementare necessaria a consentire la formazione del DNA. Dovremmo dunque utilizzare il termine “conoscenza” piuttosto che il termine “informazione” e l’acqua piuttosto che “informata” viene “istruita”.

E’ come quando ad un concerto il cantante accenna le prime note di una canzone e il pubblico comincia a cantarla senza aver avuto la necessità che gli venisse cantata dall’inizio alla fine. Così l’acqua: basta darle il “LA” e costruisce da sé tutta la sequenza di reazioni biochimiche o, addirittura è in grado di realizzarne di nuove (quindi, oltre che “conoscere”, “crea”). Tutto ciò spiegherebbe non solo il mantenimento della vita, ma anche la sua evoluzione(3).       

Si potrebbe pensare di usare quest’acqua impropriamente chiamata “informata” a scopo terapeutico; cioè dare ad un essere umano in cui la sua rete di segnali sia “rovinata”, in tutto o in parte, un campione d’acqua che contiene tutti i segnali in modo che questi segnali rimettano in moto tutto il meccanismo. Il fatto è che comunque questi segnali interagiscono in un ambiente che ha già i suoi segnali (“rovinati” o meno) che dunque possono interagire positivamente o meno con nuovi segnali introdotti. Questo spiegherebbe perchè si tratta di processi non deterministici(4). Si tratta di “consigli” piuttosto che di “comandi” e in quanto “consigli”, possono essere accettati o meno dall’ambiente.

La sequenza di reazioni biochimiche avviene solo se si raggiunge la concordanza di fase (ossia la coincidenza delle frequenze di oscillazione dei reagenti) mentre la quantità di energia scambiata è ininfluente anzi se fosse troppa diventerebbe nociva perché porterebbe alla modifica delle frequenze di oscillazione rischiando di perdere la concordanza di fase attesa e scombinando così la corretta sequenza di reazioni biochimiche(5).

Affinchè il processo sia ottimale, occorre che i flussi di energia siano inferiori a quelli che potrebbero generare discordanza di fase o, in altri termini, la temperatura non si deve alzare troppo generando variazioni tali da superare la tollerabilità della concordanza di fase. E’ evidente che ci troviamo di fronte a meccanismi completamente diversi da quelli che si verificano alle alte energie. Qui vale la regola esattamente contraria nota col nome di “principio del minimo stimolo”. Terapeuticamente lo stimolo è tanto più efficace quanto meno è intenso(6).

Gianfranco Pellegrini

Torino, 27 settembre 2018

(1) E’ vero che misurando la percentuale in peso la percentuale d’acqua è solo del 60/70% ma questo perché le molecole organiche sono molto più pesanti di quelle dell’acqua, ma se ragioniamo in termini di numero di molecole la percentuale di molecole d’acqua arriva appunto a superare il 99%. Se consideriamo che ad esempio l’acqua marina è una soluzione al 96%, scopriamo che il corpo umano è una soluzione acquosa molto diluita.

(2) Facciamo un esempio pratico. Se vogliamo che un computer disegni una parabola sullo schermo devo utilizzare un linguaggio di programmazione evoluto (Pascal, C, Fortran, Java, ecc.) che consente di scrivere un listato di istruzioni che consentono di disegnare una parabola a partire da un certo numero di input dati con la tastiera. Agni istruzione utilizzata dal linguaggio di programmazione è costituita a sua volta da una lista di istruzioni elementari che si tramutano in una sequenza di “1” e “0” (vero o falso). Ad es. la programmazione in “Assembler” è molto vicina al cosiddetto linguaggio macchina, ossia la programmazione mediante l’utilizzo di una sequenza di “1” e “0”. Chi ha domestichezza con l’algebra booleana sa che ogni espressione logica complessa è semplificabile in una sequenza di condizioni elementari (“vero” / “falso”) legate fra loro da parentesi e operatori logici “and” e “or”. Basta che manchi una istruzione o che essa sia errata e il computer anziché disegnare una parabola va in errore. Allo stesso modo il computer, se non riceve uno o più input da tastiera non disegna di certo la parabola. Infine, il computer se non è alimentato elettricamente non è in grado di operare.

(3) Cioè, se ci dovessero essere ulteriori possibilità (ad es. nuove molecole), il processo può andare avanti in direzioni nuove e questo può far capire come avviene l’evoluzione nel corso del tempo. Il processo di evoluzione non è un processo chiuso ma aperto.

(4) L’esempio è quello di molte cose scritte in questo blog: se esse arrivano all’attenzione di alcuni followers magari vengono rigettate, mentre se arrivano all’attenzione di altri followers esse vengono accettate.  Allo stesso modo i segnali elettromagnetici provenienti dall’esterno possono trovare ambienti contenenti altri segnali “confusi” che “accettano” i nuovi segnali esterni e altri ambienti che li rifiutano.

Gli studi fatti da Benveniste sulla memoria dell’acqua, non sono riusciti a dimostrare la bontà degli esperimenti proprio a causa della loro non ripetibilità (il cosiddetto metodo galileiano). Le sue teorie (che, tra l’altro, hanno portano allo sviluppo della omeopatia), anche dopo averle approfondite non mi hanno convinto, tuttavia contesto il fatto di essere state scartate per il solo fatto che non garantivano la ripetibilità.  

(5) In caso di eccesso di energia essa porta ad un innalzamento della temperatura corporea (febbre). A livello microscopico significa che come forma di protezione, il surplus di energia anziché generare maggiori frequenze di oscillazione genera maggior agitazione termica (spostamenti più veloci delle molecole). 

(6) Per maggiori dettagli su questo punto si vedano anche i miei precedenti articoli “Low energies and inbound response” e “The soft energy”.