lunedì 29 ottobre 2012

28 LA CRITICITA' AUTORGANIZZATA



  28       LA CRITICITA’ AUTORGANIZZATA 





Osservare i fenomeni e cercare di dare loro una spiegazione sul come e sul perché si sviluppano: capire quello che osserviamo è l’atteggiamento proprio dell’Uomo. 



All’inizio della nostra storia quando 700 milioni di anni fa un Ergaster o un discendente del primitivo ceppo dell’Habilis, che si era allontanato dal crocevia nord africano e medio-orientale, ed era riuscito ad accendere uno dei primi fuochi in Cina, strofinando due pietre focaie, il fuoco, scoperta immensa per lo sviluppo del genere Homo, era già conosciuto e temuto ed inizialmente mantenuto dopo un incendio causato da un fulmine o da un’eruzione vulcanica. 

Allora gli umani avevano giustamente associato l’idea che il sole fosse un’entità che riscaldava il mondo: un grande fuoco! E ovviamente formularono l’idea che un qualcuno possedesse o fosse in grado di arrivare, giorno dopo giorno a riscaldare e ad infiltrarsi tra i rami e le fronde degli alberi, dopo aver scavalcato le montagne e vinto la notte del buio! L’Uomo era affascinato anche dalla luna, che gli appariva ancor più grande di quella che splende ora, troppo spesso opacata dallo smog dei nostri giorni: una luna che illuminava le notti d’amore e che di giorno in giorno, spesso fuggendo e scomparendo, inseguiva o era inseguita dall’astro di fuoco! Anche lei antropomorfizzata e considerata la donna del Sole. Questa una mia banale supposizione è un’ovvietà, e a questo proposito ricordo spesso un articoletto su Lancet di una trentina d’anni fa che recitava: ”Quando senti il calpestio degli zoccoli di un animale sulla strada, pensa all’asino o al cavallo e non alla zebra!” Questa amenità, che ho ripetuto per anni agli studenti, era indirizzata ai futuri medici, che generalmente, di fronte ad una sintomatologia accusata dal paziente non pensano ad una patologia frequente e comune, ma spesso sono indotti a prospettare una malattia che dimostri la propra preparazione e profonda cultura agli occhi dell’ammalato, in modo da apparire possessori di un ricco bagaglio culturale e pertanto maggiormente importanti! (E’ la strategia d’impatto che di solito i grandi clinici fanno risaltare). Io non posseggo un bagaglio culturale sopra la media e non sono importante, mi metto solo nei panni di un uomo primitivo nel considerare il sole e la luna! 

Siamo immersi nella quarta dimensione: la freccia del tempo, alla stregua di tutte le strutture e di tutte le dinamiche dell’universo; il tempo è un’entità, facilissimo da intuire, ma difficile da definire; per Platone era l’immagine mobile dell’eternità; Eraclio [1] lo faceva intuire affermando che non ci si può bagnare nello stesso fiume, mentre il matematico Mincowski [2] lo abbinava contestualmente allo spazio: “Nessuno ha mai fatto esperienza in un luogo, se non in un tempo, e in un tempo, se non in un luogo”. Tranne per i tanti connazionali adusi a timbrare i cartellini di presenza, mentre si occupano beatamente delle loro faccende non lavorative! L’affermazione più drastica e riduttiva è quella data dal fisico Feynman [3]: “Il tempo è ciò che avviene quando non avviene null’altro”. 

Come detto il tempo è una dimensione associata alla dimensione spaziale della materia ed alla sua trasformazione. Il tempo di una testuggine è proprio il tempo della testuggine. Il tempo della mosca appartiene al mondo della mosca. Se noi calcoliamo il tempo dell’Universo lo calcoliamo col nostro tempo e ci appare enormemente dilatato, ma anche il tempo dell’Universo è proprio ed appartiene all’Universo. Se calcoliamo il tempo degli atomi o ancora quello dei quark o delle stringhe o delle loops, ci appare con una velocità per noi inimmaginabile. Perché il tempo degli atomi e dei quark è proprio quello degli atomi e dei quark. Sono indotto a dedurre che anche il tempo come lo spazio sia un frattale. 

Ma diamo per scontato che ciascuno di noi avverta cosa sia il tempo. 

Anche la complessità è immersa nel tempo, avendo tratto origine nei primi istanti dell’universo col dissolversi della simmetria e portando con sé di conseguenza il germe della sua fine. Ed in questo capitolo verrà trattata la sua regola inderogabile: la sua scadenza: la criticità auto-organizzata, definita ubiquitaria da Buchanan [4], perché accompagna e si estrinseca ad ogni livello dinamico. 

La complessità prende forma e si sviluppa in quella zona che Langton [5] ha chiamato “limite del Caos”, zona misteriosa ed allo stesso tempo affascinante, al confine tra la cristallizzazione e la frantumazione, tra la nascita e la morte, dove l’innovazione, la formazione e la creazione possono aver luogo, dando origine a situazioni emergenti. Le reti al confine tra ordine e caos presentano un certo grado di stabilità, ma anche di disordine, fattori entrambi che permettono la flessibilità per l’adattamento rapido alla realtà esterna, rispondendo in modo omeostatico all’ambiente ed in definitiva consentendo l’evoluzione di qualsiasi sistema e l’emersione di novità, perché, come sappiamo, le dinamiche caotiche non sono lineari, dipendono dalle condizioni iniziali e sono soggette a meccanismi di retroazione, elementi tutti essenziali all’autorganizzazione. Sia i sistemi non biologici che biologici: fisiologici, epidemiologici, popolazionistici sono governati da dinamiche non lineari; questo dato di fatto ci induce a considerare il caos e le dinamiche caotiche intrinseche alle dinamiche naturali [6], tanto da avermi indotto ad affermare che la complessità é il motore della vita [7]

Pertanto la complessità, propria di qualsiasi dinamica e di qualsiasi struttura evolutiva, determinando l’emergenza di nuovi elementi, che si estrinsecano nell’autorganizzazione, deve essere valutata nel tempo, con caratteristiche proprie di un qualcosa di vitale: la Complessità nasce, la complessità produce i suoi frutti, la complessità muore. 

In questo capitolo verrà trattata la sua fine, definita criticità autorganizzata, come in un qualsiasi organismo le cui strutture e le dinamiche vengono accompagnate gradatamente con l’atmosfera della morte incipiente, sino alla sua fine assoluta. 

La fine, la dissoluzione, il termine di qualsiasi struttura è inevitabile, ma porta con sé il germe del rinnovamento e del progresso. Dal crollo di qualsiasi struttura emerge la possibilità dell’autorganizzazione, che é condizionata da due elementi fondamentali: dal supporto strutturale intrinseco fisico-matematico e dalla contingenza; fattore estrinseco, che, associandosi al primo condiziona l’evoluzione dinamica del sistema. 

La rete preesistente, che riusciva con la sua distribuzione connettiva a rendere unitaria la propria struttura ed a mantenerla dinamicamente in forma metastabile, viene meno nella criticità autorganizzata, e ogni nodo, ogni elemento, che con i nodi vicini fungeva da supporto alla stabilità tramite connessioni ordinate (rete ordinate) e con le connessioni lontane (reti piccolo mondo) idonee a rinforzarle e sicuramente a rendere la struttura sensibile anche a distanza; ogni nodo si libera dalle reti rimanendo isolato per poter stabilire nuove eventuali connessioni. In tal modo si spiega come una minima perturbazione esogena possa determinare il crollo e come autonomamente l’autorganizzazione si manifesti sempre seguendo le regole fisiche che si accomunano alla contingenza. 

La complessità è stata collocata da Christopher Langton [8] cibernetico dell’istituto Santa Fé nel New Mexico al limite del caos, nella zona nella quale coesistono l’ordine ed il disordine e nella quale emergono funzioni e strutture capaci di autorganizzazione e foriere di nuovi stati fisici e dinamici. Langton ha paragonato l’ordine al ghiaccio, il disordine al gas e, al limite del caos: il liquido alla complessità. 

Le molecole che compongono i gas sono libere, troppo libere, si urtano e vagano in tutte le direzioni. I cristalli sono l’esatto contrario: immoti, rigidi, costituiti da un reticolo di molecole ordinato e stabile. Tra questi due estremi c’è il regno della complessità: le molecole di un liquido, ad esempio, sono sì attratte le une alle altre, ma non stabilmente: si aggregano, si disgiungono continuamente e liberamente, ciò non ostante hanno un ordine dettato dal recipiente; ma quando oltrepassa il limite il latte trabocca dal bricco: la libertà è sempre foriera di novità! 

Al diminuire della temperatura, le molecole dell’acqua, forse per il freddo (!) tendono ad avvicinarsi e, allo scadere dello zero, improvvisamente si aggregano a formare un cristallo ordinato ed esse stesse si trasformano in una bara. Spontaneamente emerge una struttura ordinata: il ghiaccio, algido, perenne. Questo è l’esempio più significativo di transizione di fase, cioè di una trasformazione di un sistema termodinamico da una fase all’altra (dalla fase liquida a quella solida), caratterizzata per l’appunto da un brusco cambiamento delle proprietà fisiche al variare della temperatura. 

Le transizioni di fase sono di due tipi: di primo ordine, in cui il sistema passa da uno stato all'altro bruscamente e completamente, e di secondo ordine, nel quale il sistema combina dinamicamente ordine e caos, trovando un punto di equilibrio dinamico, dove nel punto di transizione le quantità di strutture ordinate e di quelle caotiche sono uguali (al margine del caos) e dove i mutamenti più rilevanti accadono più raramente di quelli piccoli che, come vedremo, si comportano secondo la legge dell'elevamento alla potenza. 

Una singola molecola o un singolo atomo non è né caldo né freddo: il calore infatti è una condizione che riguarda l’insieme delle molecole e il loro movimento! Orbene, quando la temperatura diminuisce o aumenta, i movimenti propri delle singole molecole subiscono un rallentamento e nel caso contrario un’accelerazione dinamica. Ciascun insieme di molecole, in corrispondenza di specifiche temperature, subisce una transizione di fase passando da uno stato di disordine ad uno ordinato proprio del suo stato strutturale. E’ come se le molecole cadendo da un “gradino termico” ad un altro più basso, si bloccassero ferite o nel caso contrario all’aumento della temperatura riuscissero a saltare nel gradino superiore acquisendo una libertà disordinata! Indagini sull’emergenza dall’ordine al disordine, effettuati in tutti i sistemi fisici, hanno dimostrato che il passaggio da uno stato strutturale all’altro non coinvolge contemporaneamente la totalità delle molecole; ma il passaggio avviene in tempi brevi e con un certo ordine: dapprima il salto è fatto da una singola molecola, poi da un gruppetto più intraprendente, come avviene all’apertura di un recinto in campagna, quando tutte le altre “pecorelle” approfittano dell’apertura del recinto! Durante la transizione di fase, che si attua nel tempo, possiamo esporre su un asse cartesiano il numero delle pecore che varcano la staccionata ed evidenzieremo non una curva a campana (gaussiana), propria della realtà statica, ma una curva alla potenza che esprime la dinamica evolutiva. 

Per arrivare a comprendere appieno questo passaggio, tra l’ordine ed il disordine, e giustificare in prossimità del punto critico le leggi di potenza, occorre inizialmente considerare l’intuizione del fisico Leo Kadanoff [9], che immaginò gli atomi non separati, ma riuniti in pacchetti. L’intuizione rappresentò il primo passo importante per la risoluzione del problema; poi, dopo anni di inutili tentativi da parte di uno stuolo di fisici, nel 1971, fu pubblicato un lavoro di fisica statistica scritto da un classico professore “geniale”: Kenneth Wilson, associato al dipartimento della Cornell University, poco produttivo dal punto di vista accademico e che, in fretta e furia, assemblò un’elegante teoria sulla transizione di fase, sollecitato dal comitato per la sua progressione accademica e messo alle strette pur di non concludere anzitempo la sua carriera universitaria! Nel lavoro propose la teoria con una rigorosa struttura matematica, che sviluppava i concetti di Kodanoff e che gli valse il premio Nobel per la fisica nel 1982. In parole povere, Wilson ebbe una visione complessiva del fenomeno transizione di fase, perché considerò matematicamente le leggi della fisica in modo identico a tutte le scale di misurazione, come fossero, perché lo sono, dei frattali; abbandonando perciò la visione geometrica euclidea ed utilizzando quella della geometria della natura, la geometria frattale. 

I matematici riassumono la transizione di fase definendola emersione di una “componente gigante”, cioè l’insieme di un aggregato molecolare, e, poiché questa transizione di fase – termine troppo scientifico che potrebbe spaventarvi, vi espongo un semplice giochetto, che necessita di una ventina di bottoni e di tanti segmenti di filo, che serviranno per connettere i bottoni. Il gioco consiste nel sollevare un filo: se il filo connette due bottoni, due bottoni saranno sollevati, se le connessioni uniscono più bottoni, tutti questi bottoni saranno sollevati. E qui subentra la matematica: se le connessioni superano il cinquanta per cento del numero dei bottoni, basterà sollevare un filo e si avrà l’emersione della cosiddetta “componente gigante”: tutti i bottoni dell’esperimento saranno di colpo sollevati. Il significato e l’insegnamento che dobbiamo trarre da questo semplice giochetto, esempio di transizione di fase – termine ripeto troppo scientifico – è che si attua comunemente nei più svariati contesti naturali, umani, comportamentali, nella storia del pensiero e nel pensiero stesso, dimostrando di essere una regola costante delle dinamiche della natura; si evidenzia, ad esempio, in sociologia in cui si ha l’emersione di una comunità o in pubblicistica in cui si ha l’emersione di una moda o in neuroscienze in cui si parla di aggregazione neuronale, capace di determinare l’emersione di nuovi engrammi e l’ideazione stessa. 

Da piccolo ero un pattinatore [10] abbastanza bravo; frequentavo la pista del “Giardin Pubblico”, quasi a ridosso della statua del Verdi, tra via Giulia e via Volta dove abitavo a Trieste. In un pomeriggio di fine estate tra una giravolta e l’altra scivolai ed il mio ginocchio ne subì le conseguenze. Il trauma per la velocità della caduta ed il peso della mia “ciccia” – avevo allora iniziato ad essere sovrappeso – determinò la frattura del condilo mediale del femore sinistro. 

Quando, dopo anni, né io né il mio femore ricordavamo l’evento, all’inizio del mio internato in Clinica Medica restai meravigliato nell’ascoltare il professor Chini che illustrava la radiografia di un femore fratturato di un ammalato affetto da Mieloma multiplo, definendo la frattura: “frattura patologica”. Istantaneamente pensai che anche la mia era patologica (rimasi ingessato per quasi due mesi!). In effetti consideravo la mia frattura e quella dell’ammalato simili, ma i due femori certamente non lo erano: il primo, quello dell’adolescente di dodici anni per rompersi subì una forza viva consistente, mentre il secondo quello di un settantenne, che si fratturò nell’atto usuale di sollevarsi dal letto, era intrinsecamente “tarlato” per la malattia, tanto da non poter sopportare il peso sostenuto migliaia e migliaia di volte nei lunghi settant’anni! Ogni femore sempre per cause esogene può subire una frattura: violente il più delle volte o causate dal semplice peso dell’individuo (peso che comunque rappresenta sempre una forza esogena); la diversità risiede nella struttura ossea che, nel caso del settantenne era arrivata a trovarsi in uno stato critico, tale da fratturarsi da un momento all’altro per cause usualmente non traumatiche. Pertanto la frattura è definita patologica. 

Vi ho raccontato questo mio ricordo per iniziare a parlarvi della più consistente scoperta riguardante il tema della complessità: la criticità autorganizzata. 

Inizio col dirvi che non avrei mai supposto che le fratture delle ossa, le frane dei pendii ed i bianchi ghiaioni delle Alpi e, a scala ridotta, i coni di farina durante la preparazione della pasta fatta in casa o le montagne finte di sabbia, realizzate sulla spiaggia dai bambini, potessero essere associate a tragiche vicende storiche, economiche e sociali, perché tutte sono espressione di un’unica legge naturale sottesa, che è alla base di tutte le situazioni fisiche, di tutte le guerre, di tutte le crisi nervose, economiche e di tutte le rivoluzioni sociali: la criticità autorganizzata. 

Fu un semplice esperimento programmato nel 1987 da Bak, Chao Tang e Kurt Weisenfel [11] nel Brookhaven National Laboratory, a rappresentare la prima concreta scoperta riguardante la teoria della complessità: l’ubiquità dello stato critico [12], che costituisce l’esempio sperimentale di quanto succede in tutte le situazioni del mondo. L’esperimento è estremamente semplice [13]: si fa cadere dei granelli di sabbia su di un piano e si osserva il formarsi di un cono, che progressivamente cresce in altezza, mentre lateralmente si evidenziano piccole frane lungo il pendio del mucchietto; ad un certo punto si verifica una frana che porta al crollo dell’intero cono; continuando a far cadere altri granelli di sabbia si assiste ad una nuova crescita ed agli stessi fenomeni sino a determinare un’ulteriore crollo di grosse dimensioni. Il cono di sabbia di volta in volta si auto-organizza, sino a raggiungere un nuovo punto critico, che al liberarsi delle forze accumulate è causa di una nuova frana catastrofica. 

In questo “gioco del mucchietto di sabbia” un granello cade accidentalmente in un punto: il mucchietto cresce su quel granello “cristallizzandolo” al proprio interno e risulterà sempre sensibile al fatto che quel granello è caduto in quel punto e non altrove. Per questo motivo, ciò che è accaduto in quel particolare momento, non può più essere cancellato e incide sull’intero corso del futuro del mucchietto di sabbia. Del resto la storia non rivela mai quel che accadrà nel futuro, perché non si ripete mai; nulla al mondo accade due volte con le stesse identiche premesse e nello stesso identico modo [14]

Il cono di sabbia rappresenta pertanto un sistema che si auto-organizza in uno stato metastabile, che può venir modificato da minime variazioni estrinseche. La prima impressione che potremo dedurre è che il numero delle valanghe minime è certamente maggiore di quelle più consistenti, e se contiamo analiticamente il numero delle frane, rapportandolo all’entità delle stesse, e costruiamo un diagramma su cui, sulle ordinate, indichiamo il numero dei crolli e sulle ascisse l’entità del crollo corrispondente, documenteremo che l’entità del crollo è in funzione inversa dell'elevamento a potenza del numero dei crolli. La stessa analisi statistica fu condotta da Beno Gutenberg [15] e Charles Richter [16], che contarono i terremoti elaborando il relativo grafico: sulle ordinate il loro numero e sulle ascisse la magnetudo corrispondente [17]. La curva ottenuta non era la classica curva gaussiana a campana, ma una retta, che indicava che quanto più violento è il sisma, tanto più è raro. E’ cognizione comune – è un dato storico – che i terremoti catastrofici sono per fortuna molto più rari di quelli che avvengono più frequentemente e noi dovremmo sapere, ed i sismologhi lo sanno, che giornalmente esistono sciami di micro-vibrazioni della nostra terra, segnalate solo dai sismografi; ed è anche vero che le stesse micro-scosse presentano la stessa distribuzione “alla potenza” [18]

I terremoti sono certamente le calamità naturali più disastrose e da sempre si è cercato qualche indizio capace di poterli prevedere. Nel ’99 su Nature si svolse un dibattito "on line" dal titolo: “E’ possibile prevedere i terremoti”? Al forum parteciparono i maggiori sismologhi del mondo: alcuni affermavano che il 10-30% dei sismi sono preceduti da scosse premonitrici nella settimana precedente, altri negli anni precedenti, altri ancora senza segni di qualsiasi attività! In precedenza Geller [19] aveva riunito i risultati di 700 relazioni scientifiche sull’argomento nelle quali gli autori affermavano di aver individuato un segno premonitore, ma nel lavoro conclusivo si affermò che nessuno di questi “segni” era valido ed attendibile. 

L’unico dato certo, per quanto si sapeva sino a pochi anni fa sui terremoti, era derivato dallo studio statistico di Gutenberg e Richter, che riguardava i sismi verificatisi nel passato. E’ questa l’unica legge della dinamica tellurica, valida per tutti i terremoti in qualsiasi regione si manifestino. Dall’analisi del grafico emerge un solo dato certo: i sismi più disastrosi sono – ed è misera consolazione – i più rari. Accanto a questa triste verità, se valutiamo la frequenza dei terremoti sino a quelli che solo strumenti sensibilissimi sono in grado di rilevare, noteremo sulla destra del diagramma uno sciame infinito di microsismi, anche giornalieri. 

Emerge anche in questo caso dallo studio della terra una seconda verità: il grafico ottenuto a scala di rilevazione diversa esprime l’auto-somiglianza caratteristica dei frattali. 

La previsione dei terremoti rappresenta il Santo Graal della sismologia, da secoli è il sogno di poter riuscire a prevedere dove e quando un terremoto avrà luogo. Nel corso della storia umana, sono stati osservati alcuni fenomeni particolari in corrispondenza dell’evento sismico. Tra questi, il fatto che i terremoti talvolta presentano un comportamento ciclico, avvengono in corrispondenza con le fasi lunari e a volte, prima del verificarsi del terremoto, si osservano variazioni del livello dell’acqua nei pozzi o si riscontrano cambiamenti del tempo atmosferico, nuvole particolari [20] e uno strano comportamento degli animali e di noi umani. 

L’evento sismico genera diversi tipi di onde: quelle primarie sono dovute all’alternanza di compressione e dilatazione longitudinalmente alla direzione di propagazione e perfettamente assimilabili alle onde acustiche. Riferendoci alle onde primarie possiamo dire che in generale un evento sismico provoca anche delle onde elettromagnetiche di frequenza uguale a quella dell'onda sismica per un processo di trasferimento di energia da oscillazioni meccaniche a oscillazioni elettromagnetiche. Quindi il volume di roccia interessato dalla scossa sismica si comporta come un'antenna. Probabilmente tante “strane” manifestazioni concomitanti al sisma potrebbero trovare spiegazione da queste manifestazioni elettromagnetiche. 

Dopo secoli di tentativi fallimentari per prevedere i terremoti, recentemente, un team dell’Università del Colorado e del Jet Propulsion Laboratory di Pasadena, utilizzando un programma di previsione sismica, pare sia riuscito ad individuare il luogo dove si sarebbero verificati i quindici terremoti di magnitudo più elevata, che interessarono la California dall’inizio del secolo. Il modello informatico si basa sulle registrazioni dei sismi precedenti che avevano interessato la California dal 1932, cercando poi di stabilire i siti ove si sarebbero verificati quelli più violenti. Il metodo Rundle ha funzionato al 98%. Ora il team propone di associare lo stesso metodo al progetto Quake Sim della Nasa, sviluppando un sistema di monitoraggio satellitare per prevedere quando e dove si potrebbero verificare i più disastrosi sommovimenti tellurici. 

In questi ultimi anni, utilizzando numerosi studi con immagini all’infrarosso dai satelliti si riesce anche a prevedere quando, ma, allo stato attuale, non il dove, l’evento tellurico si manifesterà lungo una faglia di scorrimento; perchè circa una settimana prima dell’evento, si registra un incremento della temperatura a livello di un tratto della faglia, lontano anche centinaia di chilometri dall’epicentro. 

Queste osservazioni [21], a cui partecipano attivamente anche gruppi di ricerca italiani, rappresentano certamente elementi, che in un futuro non lontano potranno risolvere questo “devastante” problema [22] [23]. Ci sono inoltre diverse ricerche che misurano l'incremento di Radon [24] dal sottosuolo come precursore sismico [25], infatti forti variazioni delle concentrazioni di questo gas sono state riscontrate in numerose zone a rischio sismico qualche giorno o addirittura mesi, prima di un forte terremoto. Recentemente due geofisici cinesi Guangmeng Guo e Bin Wang dell’University di Henan hanno pubblicato [26] una loro ricerca durata più di un anno e relativa ad un’area fortemente sismica nell’Iran merdionale, in base alla quale coltri nuvolose persistenti erano caratterizzate da “strappi” in alcuni punti per una lunghezza di centinaia di chilometri e precedevano di alcuni mesi sismi del 5° - 6° grado della Scala Richter. Questi “buchi o strappi” non sono spiegabili in termini di dinamica atmosferica, perché restano fermi sopra le faglie per diverse ore, mentre nelle parti periferiche si spostano continuamente. Le ipotesi formulate per spiegare il fenomeno sono o l’evaporazione di parte delle nubi per l’emissione di gas bollenti provenienti dalla faglia o per perturbazioni elettromagnetiche dovute all’alta pressione che si genera nello strato roccioso prima del sisma. Una straordinaria ripresa video, girato a Tianshui, trenta minuti prima del sisma catastrofico che causò più di settantamila morti è visibile sul sito [27] ed è la prova delle “strane nuvole” osservate da più di 70.000 persone nei cieli cinesi prima del terribile sisma del 2008. 

Alvaro Correl [28] dopo aver studiato la distribuzione temporale dei terremoti in una data area, ha proposto un ulteriore metodo di previsione che si basa sull’intervallo di tempo tra due scosse successive, che presentano a scale di valutazione temporali diverse, l’autosimilarità. Il sisma deve venir considerato come un cambiamento di fase, che si evidenzia come la “criticità auto-organizzata”, cioè causato da eventi esterni anche minimi, che sono in grado di liberare le tensioni auto-organizzate e accumulate in precedenza. Sappiamo che cambiamenti di stato in natura sono numerosissimi: l’acqua, a temperature prefissate si trasforma in vapore o in ghiaccio, o la calamita, che a 770° C perde la sua proprietà magnetica. E come in seguito approfondiremo, poco prima dell’istante in cui si attua il cambiamento di fase, i “granuli magnetici” (responsabili del campo magnetico) sono tutti orientati nella stessa direzione. All’aumentare della temperatura ogni granulo perde “la bussola” (l’uniformità direzionale) ed esibisce un comportamento caotico. All’inizio i granuli si raggruppano in piccoli “clusters” ( = raggruppamenti) e, a scala di osservazione ingrandita, i piccoli raggruppamenti si organizzano in raggruppamenti di dimensioni gradualmente maggiori, espressione dell’auto-similarità a scala di osservazione diversa, tipica dei frattali. Con queste premesse Correl, conoscendo in una data area, quando si sono verificati i terremoti, durante un lungo periodo di tempo, li considererà come fossero raggruppati in clusters, e lo studio delle correlazioni temporali potrà forse essere predittivo del loro estrinsecarsi. 

A dimostrazione che le leggi della natura si nascondono nei più svariati contesti sono rimasto meravigliato che anche le patate si comportano come la madre terra: se, ad esempio, congeliamo una patata, rendendola dura e fragile come una roccia, e la scagliamo contro un muro, la patata si romperà in una miriade di pezzi e di frammenti polverulenti [29]: noteremo un frammento grande, due di minori dimensioni, tre o quattro ancora più piccoli; praticamente la grandezza ed il numero dei frammenti, se riportati su un asse cartesiano, ripeteranno la curva di Gutenberg e Richter ed anche i frammenti polverulenti che obbediscono alla stessa legge, si comportano in modo analogo. Nessuno avrebbe mai sospettato l’esistenza di una stretta similitudine tra terremoti e patate! Similitudine esistente perché entrambe sottostanno a identiche correlazioni matematiche. 

In algebra la legge della potenza è qualunque curva in cui l’ordinata varia proporzionalmente all’ascissa elevata ad una data potenza, ovvero moltiplicata per se stessa un dato numero di volte: 

Ordinata = Ascissa al quadrato. X = Y 2 

La legge della potenza in algebra esprime una regolarità, ovverosia un’invarianza di scala che rappresenta la caratteristica essenziale dei frattali [30]. Pertanto possiamo concludere che la curva di potenza esprime una dimensione frattale. 

Questo comportamento è proprio di tutti i sistemi che manifestano raramente cambiamenti rilevanti e frequentemente cambiamenti minimi. La tendenza di questi sistemi a porsi nello stato critico equivale a riportarsi spontaneamente in equilibrio al margine del caos, senza alcun ruolo svolto dalla selezione e senza alcun apporto esterno al sistema, perche é esso stesso che si auto-organizza, come i chicchi di riso che sono stati utilizzati per studiare la criticità auto-organizzata con gli stessi risultati [31] dell’esperimento di Bak, Chao Tang e Kurt Weisenfel eseguito con la sabbia e poi ripetuto da Held Glenn A. e Coll. [32] con un’apparecchiatura sofisticata che versava i granelli di sabbia lentamente: granello dopo granello, in modo uniforme, su una superficie piana e circolare; i granelli inizialmente si distribuiscono accanto al punto di caduta, poi si sovrappongono formando un mucchietto con una minima pendenza; quando la pendenza aumenta i granelli scivolano sul pendio e producono piccole valanghe; col passare del tempo la pendenza aumenta e i crolli aumentano di dimensione, facendo cadere la sabbia oltre il bordo circolare. Il cono cessa di crescere quando la quantità della sabbia aggiunta è più o meno la stessa di quella che si versa oltre il bordo: a questo punto il sistema “mucchietto di sabbia” ha raggiunto lo stato critico; ed è il momento che il singolo granello può o rimanere alla sommità o rotolare sul pendio, determinando una piccola valanga oppure far crollare catastroficamente tutto il mucchietto di sabbia. Da questo comportamento si deduce che tutti i sismi, anche quelli catastrofici sono causati da minime cause, che rappresentano l’evento capace di liberare le immani forze telluriche accumulate dall’incontro delle smisurate spinte delle zolle tettoniche. Le placche della crosta terrestre esercitano una trazione continua con una tensione che si accumula fino a quando non oltrepassa una certa soglia. A quel punto critico ha luogo il rilascio esplosivo dell’energia accumulata. 

John Hopfield, biofisico del Caltech, in tutt’altro contesto si stava occupando all’aumento graduale della differenza di potenziale di un neurone e la sua improvvisa scarica ed ha evidenzato l’analogia esistente tra il comportamento dei neuroni ed i terremoti [33]: come lo scivolamento di una placca può innescare lo scivolamento di altre con effetto domino, così la scarica dell’impulso neuronale può provocare una reazione a catena di scariche elettriche nel cervello ed essere causa di attacchi epilettici [34]

Il particolare fenomeno del magnetismo, che nei secoli é sempre stato considerato intriso di magia, è la proprietà di attrarre il ferro, il nichel e il cromo, che sono materiali ferromagnetici. 

La calamita presenta due poli: uno attrae e quello opposto respinge. Nel 1600 il medico-scienziato William Gilbert [35] studiò questo fenomeno e scrisse un trattato: il “De Magnete”, cercando di chiarire la proprietà che le calamite posseggono ad attrarre i chiodi ed i ferri di cavallo, che possono essere anche respinti mutando il verso della calamita. Scoprì anche che la calamita arroventata, quando oltrepassa i 770° C, perde la sua capacità magnetica, che si ripresenta al raffreddamento, al di sotto della soglia di 770° C. 

Sin dall’antichità era chiaro che la capacità attrattiva di un polo e quella repulsiva dell’altro erano sempre conservate nei singoli frammenti del magnete, che rappresentano tante micro-calamite. Anche le molecole, che possiamo immaginare come lance orientate di un ordinato esercito, quando sono immerse in un ambiente riscaldato, iniziano ad essere disordinate sino a perdere del tutto l’orientamento, evidenziando cioè una transizione di fase. Anche in questo caso ci sarà una prima molecola che perderà la bussola (!), poi poche altre e via via tutte, facendo emergere la legge di potenza, che rappresenta il timbro di tutti i fenomeni evolutivi. 

Enrico Fermi [36] il 2 dicembre del 1941 a Chicago mise in funzione il primo reattore nucleare: era formato da un enorme blocco di grafite a cui erano stati praticati dei fori che contenevano barre di uranio arricchito. In precedenza lo scienziato aveva scoperto che quando i nuclei di uranio erano colpiti da neutroni potevano scindersi e liberare altri neutroni, dando origine ad una reazione a catena – una reazione nucleare autoalimentante. Per ridurre il pericolo di una massiva disintegrazione nel blocco di grafite, erano state inserite delle barre di cadmio allo scopo di assorbire i neutroni per impedire la reazione a catena. In quel fatidico giorno, martedì, Fermi estrasse lentamente le barre di cadmio, mentre il contatore Geiger aumentava il ticchettio documentando l’aumento dei neutroni liberati, fino ad un passo dal punto critico (prestabilito teoricamente), che avrebbe dato inizio ad una reazione inarrestabile. Questo esperimento dimostra che nessun sistema raggiunge da solo il punto critico: sia che si tratti di un magnete o di un reattore nucleare, la causa è sempre determinata da un evento anche di minima entità, che scatena uno sconvolgimento inaudito (una transizione di fase). Per arrivare al punto critico occorre intervenire dall’esterno: nel caso dell’uranio riducendo l’assorbimento dei neutroni, cioè estraendo le barre di cadmio dalla pila atomica e nel caso del ferro, riscaldando il magnete a 770 C°. Nell’esperimento di Bac, Tang e Weinfeld il sistema del mucchietto di sabbia si era invece organizzato da solo indipendentemente da interventi esterni al sistema, perciò il fenomeno fu definito criticità auto-organizzata. 

In un acceleratore di particelle gli elettroni percorrono a velocità prossima a quella della luce l’anello dell’esperimento e spesso deviano, perché i campi magnetici che li guidano non sempre riescono a trattenerli nel loro percorso obbligato. La deviazione degli elettroni è caotica e fu riprodotta in un modello matematico ideato indipendentemente da Brian Taylor e Boris Ciricov [37], alla fine degli anni ’70: esistono aree sagittali al flusso degli elettroni ordinate e circondate da aree caotiche e, all’interno di queste ultime, vi sono isole di aree ordinate: il tutto con la caratteristica dei frattali, cioè dell’auto-somiglianza a scala di grandezze diverse, esprimibili anch’esse con una curva di potenza. 

Nel 1881 l’astronomo, matematico Simon Newcomb [38], aveva notato che le prime pagine degli elenchi dei logaritmi nelle biblioteche, utilizzati come pane quotidiano dai matematici per i loro calcoli – come le calcolatrici ai giorni nostri – erano consumate, mentre quelle finali erano quasi nuove, perché meno utilizzate. Se il manuale fosse stato un romanzo il consumo delle prime pagine rispetto al resto avrebbe potuto significare una storia poco interessante, ma nel caso dell’elenco dei logaritmi il consumo era sicuramente dovuto alla maggior frequenza dell’osservazione delle prime cifre. Il matematico ideò una formula con la quale calcolare la probabilità che un numero scelto a caso presenti una sua frequenza: la cifra uno risulta essere presente nel 30%, la due nel 17,6%, la tre nel 12,5%, la quattro nel 9,7%, la cifra cinque nell’8%, la sei nel 6,7%, la sette nel 5,8% la otto nel 5% e la cifra nove nel 4,6%. 

La matematica è come una ragnatela; seguendo il filo riesce a far emergere relazioni insospettate tra strutture matematiche. Una di queste relazioni è anche la legge individuata da Newcomb, riscoperta indipendentemente dopo 57 anni da Franck Benford e che in seguito da lui prese il nome. 

La legge di Benford fino a pochi anni fa era avvolta nel mistero [39], ora ha evidenziato che le cifre di diversissimi elenchi presentano la stessa frequenza: i numeri delle superfici fluviali, delle statistiche sportive, delle vittime dei terremoti e degli incidenti aviatori, dei dati demografici e di qualsivoglia elenco. La distribuzione prevista non è sempre presente in tutti gli elenchi, ma incrementando il numero delle osservazioni o riunendo diversi raggruppamenti dello stesso fenomeno la cifra e la sua relativa frequenza rispetta la legge di Benford [40]. La cifra indicativa della convergenza indica che più dati numerici si raccolgono, più le cifre di questi dati rientrano nelle frequenze previste. Ed è intrigante che la distribuzione delle frequenze numeriche della legge di Bedford rispecchiano fedelmente la progressione numerica di Fibonacci! 

In seguito negli anni trenta l’insegnante di tedesco ad Harvard George Kingsley Zipf[41] aveva notato che il numero delle parole più comuni di un testo, disposte in ordine decrescente di frequenza, erano in funzione della loro posizione in graduatoria. Questa osservazione è alla base della legge di Zipf [42]: la quantità in una qualsiasi graduatoria risulta inversamente proporzionale al livello ove è collocata: 1, 2, 3, 4, o meglio risulta proporzionale a 1, ½, 1/3, ¼, rispettivamente. Anche in questo caso emerge la legge di potenza, che ritroviamo in numerosissimi contesti. 

Le città, ad esempio, che sono simili, ma diverse perché sono frutto della loro storia: della loro fondazione, ubicazione, della loro crescita e del loro sviluppo, sono tutte espressioni di situazioni contingenti, che nulla hanno a che fare con la matematica. 

Questa è un’affermazione esatta, tuttavia se analizziamo il numero degli abitanti delle città di un dato territorio, vedremo emergere la legge di potenza a dimostrazione dell’esistenza di una regolarità matematica nell’aggregazione di una popolazione. La ricerca [43] riguardante il numero degli abitanti di 2400 città americane – studio condotto sulla falsariga di quello di Guttenberg e Richter sui terremoti – ha rivelato che per ogni città di quattro milioni di abitanti esistono quattro di due milioni, per ogni città di due milioni esistono quattro di un milione e questa regolarità matematica continua sino ai centri con centomila abitanti! Questa regolarità matematica nell’aggregazione di una popolazione americana è stata riscontrata anche nelle 270 città più popolose del mondo ed in 1300 centri urbani della Svizzera! 

La distribuzione delle popolazioni sul nostro pianeta sicuramente ha seguito il modello della criticità auto-organizzata come ha suggerito John Vandermeer [44], docente di ecologia e di biologia evoluzionistica dell’Università del Michigan, che ha studiato la diffusione delle colonie di formiche: quando una colonia della specie Azteca instabilis nelle coltivazioni di caffè del Messico raggiunge una certa dimensione, si divide, e una colonia satellite si trasferisce su una pianta vicina con uno schema che sembra seguire proprio il modello della criticità auto-organizzata [45]

Anche la distribuzione delle ricchezze dei “Paperoni” del mondo segue la legge di potenza [46]. Una curva simile a quella di Gutenberg: un super miliardario, poi in decrescendo due miliardari, poi ancora altri, via via più “poveri”, sino ad arrivare ai veri poveri, polvere dell’economia mondiale, dove il diagramma si comporta come quello dei micro-terremoti. 

I mutamenti repentini della borsa, secondo il modello finanziario più usato nel XX secolo: “il lancio della moneta o modello browniano di Bachelier [47]” non dovrebbero mai verificaresi. Il modello cerca di massimizzare i profitti per un dato livello di rischio e ritiene improbabili o addirittura impossibili le grandi variazioni di mercato, per essere prese in considerazione. E, qualora questi tonfi si manifestassero, e purtroppo si manifestano, sono determinati ad eventi eccezionali (“da cause di forza maggiore”) e pertanto non inseribili nel contesto “normale”, non possedendo alcuna regolarità concepibile. Bella scoperta! Non ricordano o non vogliono ricordare i funesti lunedì neri della finanza mondiale del 1929 e quello recente del 19 ottobre del 1987, ma speriamo che in futuro quello attuale, che sta travolgendo la finanza mondiale, serva finalmente da lezione! 

Se ragioniamo in termini matematici e non da approfittatori economici dobbiamo considerare e ricordare che la caratteristica dei mercati è di non essere in stato di equilibrio: le forti fluttuazioni delle quotazioni in borsa, come gli improvvisi crolli sono determinati dal loro naturale funzionamento, anche in assenza di fragilità strutturale o di interferenze malavitose criminali. Lo stato di non equilibrio è uno stato metacritico. 

Già nel 1961 Mandelbrot [48] aveva documentato che le variazioni dei prezzi dei titoli azionari presentano una variabilità caotica, e proprio da quei diagrammi aveva evidenziato il primo esempio di autosimilarità, caratteristico della geometria frattale. 

La recente caduta di schianto della banca d’affari - il caso Bear Stearns – ha meravigliato anche la maggior parte degli addetti ai lavori. Questi supercervelli dell’analisi economica non sanno ancora o fingono di non sapere che un sistema instabile ed in continuo cambiamento come il mercato azionario presenta necessariamente cambiamenti improvvisi ed inspiegabili, che fortunatamente sono rari, come rari sono i terremoti catastrofici. 

In effetti il mercato è organizzato in uno stato metacritico per cui le gigantesche e rovinose crisi finanziarie, anche se rare (e più rare sono, più si manifestano nefaste) sono eventi ordinari del tutto naturali e seguono le stesse leggi fisiche dei terremoti! Affiora a chiare lettere la criticità auto-organizzata, che i signori dell’economia avrebbero dovuto conoscere: bastava “un mucchietto di riso” sulla loro scrivania piena di dollari, per evitare l’attuale crisi mondiale, che certamente non sarà l’ultima! A proposito dei “soloni” economisti, devo qui ricordare un concetto scritto su “The Guardian” il 5 ottobre 1983: “Peggiore è l’economia, migliori sono gli economisti”; ho da aggiungere per analogia e simmetria:” Migliore è il sistema universitario, peggiori sono gli insegnanti”; ma c’è un’eccezione in Italia: “Peggiore è il sistema universitario e peggiori sono gli insegnanti”! 

L’impronta della criticità autorganizzata è emersa negli anni novanta in fenomeni che giornalmente osserviamo e che, solo ora possiamo dire di conoscere compiutamente nelle loro intime dinamiche responsabili delle loro fenomenologie apparentemente inspiegabili; la criticità è stata individuata in una miriade di fenomeni naturali: nelle dinamiche capricciose degli incendi boschivi [49]. La legge di potenza è apparsa anche analizzando i dati statistici riguardanti le invasioni delle cavallette [50], che nelle praterie e nei campi rigogliosi del nord-est degli Stati Uniti rappresentano ciclicamente veri flagelli biblici; fenomeni tutti che dimostrano la presenza dello stato critico anche nei fenomeni causati dagli insetti e che si manifestano con effetti disastrosi sull’ambiente. Anche la distribuzione spaziale dei nidi delle formiche della specie Azteca instabilis nelle coltivazioni di caffè del Messico evidenziano il modello della criticità autorganizzata [51]: quando una colonia fondata dalla regina raggiunge una certa dimensione si divide e una colonia satellite si forma su una pianta vicina; gli schemi di distribuzione spaziale delle formiche seguono proprio il modello di criticità autorganizzata. 

Roy Anderson e Chris Rhodes dell’Università di Oxford condussero una ricerca [52] sulle epidemie di morbillo dal 1912 al 1969 tra gli abitanti delle isole Faer Oer, tra l’Islanda e la Norvegia e dimostrarono che la distribuzione delle epidemie di morbillo è valutabile con la legge di potenza analoga a quella dei terremoti e degli incendi boschivi. 

La legge di potenza, appannaggio della criticità auto-organizzata, non appartiene solo al nostro mondo, è stata individuata anche nella dinamica di comparsa delle macchie solari, che tanti disturbi creano ai sistemi elettromagnetici che utilizziamo, oltre a determinare stati di malessere con conseguente incremento di incidenti di vario genere, anche se non ancora non compiutamente indagati, ma è stata osservata anche nelle lontane stelle a neutroni, le Pulsar, stelle estremamente dense e compatte, residui delle supernove, che nella loro vorticosa rotazione emettono radiazioni elettromagnetiche con frequenza periodica simili a fari astronomici; la frequenza dei loro segnali saltuariamente risulta maggiormente veloce e questo saltuario incremento, chiamato Glitch [53], si manifesta con una frequenza che evidenzia la legge di potenza [54]

Partendo da un mucchietto di riso siamo arrivati a evidenziare che le stesse leggi che regolano i rapporti ed le dinamiche dei chicchi sono state evidenziate in tutte le reti fisiche sino ad ora indagate in tal senso. La stessa legge ubiquitaria è dimostrabile ad esempio sul modo con cui si accartoccia un foglio di carta o quando, imbestialiti, siamo vittime dei frequenti ingorghi del traffico; questa è una legge che sta a monte della stessa fisica, tanto da poter prospettare che “rappresenta lo spirito ordinatore di gran parte del mondo [55]”. 

Possiamo ora inoltrarci nelle dinamiche umane, nelle dinamiche della storia, nelle dinamiche della conoscenza, ricordando quel che espresse Einstein: “Imagination is more important that knowledge”[56]. Quello che riferirò non è comunque immaginazione: i dati sono reali e dimostrano dinamiche con una analogia corrispondente a quelli che si riscontrano nei sistemi fisici più facilmente studiabili. Comunque la ricerca matematica in numerosi casi esaminati ha evidenziato la presenza della criticità auto-organizzata e della legge di potenza, che rappresenta la sua firma, nelle dinamiche politiche, nei conflitti e nelle rivoluzioni del passato, permettendoci di valutare in modo scientifico le vicende storiche estremamente complesse e nelle quali finora è sempre prevalso lo studio analitico, la considerazione dell’elemento particolare, spesso individuale o tutt’al più inerente l’ideologia di fondo delle masse indottrinate e di per sé situate in uno stato critico; ora la matematica inizia inserirsi nella trama degli avvenimenti rappresentando essa stessa la trama reale degli eventi. 

Tutti questi elementi analitici sono sempre stati l’oggetto delle ricerche storiche per la loro consistente validità oggettiva, che tuttora sussiste, perché rappresentano i pilastri interpretativi delle vicende storiche; attualmente la loro visione complessiva può essere valutata in senso strettamente fisico comparandola all’esperimento del mucchietto di riso della criticità auto-organizzata; é come se, sino ad oggi, fosse stato studiato il tipo di riso, se più tondo e maggiormente rotolabile, o il suo peso o la forza con la quale il chicco è stato lanciato, ma finora non sono state valutate le dinamiche complessive in senso fisico, considerandole come reti di rapporti, che, seppur umani, soggiacciono alle stesse leggi della transizione di fase. 

La curva di potenza simile a quella emersa dallo studio dei terremoti é stata evidenziata dal fisico Lewis Richardson [57] che ha quantificato i conflitti in base al numero dei caduti nelle duecentottantadue guerre tra il 1820 e il 1949. Il fisico inglese ha misurato e quantificato la grandezza di un conflitto con il logaritmo in base 10 del numero totale dei morti corrispondenti. Con questa classificazione ha misurato e stabilito che la grandezza di un combattimento con 10 vittime è uno, quelle con 100 morti è due, con più di 1.000 vittime è tre, 63 conflitti con più di 10.000 morti è quattro, cinque guerre di grandezza sei e due di grandezza sette, le due guerre mondiali, in cui morirono decine di milioni di persone! Come la legge di Guttenberg e Richter: i terremoti di minima intensità sono tanti e pochi quelli con intensità catastrofica. Le guerre vengono espresse con la classica curva alla potenza [58]

Pertanto la criticità può essere studiata non solo nelle vicende e nelle dinamiche storiche, ma in qualsiasi contesto costituito da reti come nelle dinamiche individuali. 

Perché ogni individuo agisce in base alle proprie convinzioni; e le decisioni, che derivano dalle abitudini, dagli umori del momento e dalle emozioni, ci rendono certamente uomini liberi; tuttavia siamo comunque nebulosamente ed individualmente influenzati, chi più chi meno, dall’ambiente in cui operiamo. 

E’ indubbio che sia la storia dell’umanità, che l’evoluzione della nostra vita, siano caratterizzate, anche, e purtroppo, da comportamenti anomali, che da secoli sono stati studiati e analizzati per arrivare ad una interpretazione razionale dei fenomeni e delle cause che le determinano. Il metodo è certamente valido, ma ha chiarito solamente che queste anomalie comportamentali sono espressione di fattori particolari ed atipici: come ad esempio le crisi psicotiche, che interessano l’individuo, definito malato, o quelle dei mercati, o le guerre e le rivoluzioni, che sconvolgono le società e vengono considerate avvenimenti ineluttabili. Lo studio è stato riduttivo ed attuato con la solita visione dell’analisi dei particolari e del “post hoc, ergo propter hoc”; studio valido, ma certamente non completo. Anche in questi campi del sapere sarebbe opportuno ed augurabile avvalersi di una visione a largo spettro. Visione che consideri ovviamente i particolari, ma ponga l’osservatore a considerare il panorama complessivo, utilizzando diversi piani valutativi, tanto più che ogni fenomeno si esplicita con le stesse leggi matematiche. 

Le cronache e la storia sono colme di episodi apparentemente inspiegabili; come può un popolo, e intendo col termine popolo la totalità di una nazione, acquisire e professare idee fanatiche ed aberranti che portano alle conquiste, alle guerre, alla distruzione, alle atrocità ed all’eliminazione di gruppi, popoli, che fino a poco tempo prima e per secoli erano considerati amici e con loro vivevano integrati? I libri di storia sono colmi di esempi il cui paradigma si ritrova nell’episodio di Caino e Abele della Genesi [59]. I documenti di eccidi riempiono filmati e documentari televisivi; e ci meravigliamo delle folle plebiscitarie oceaniche alla stregua dell’orrore che proviamo nel vedere le fosse comuni e i campi di sterminio, il recupero delle salme degli infoibati ed i racconti dei milioni di vittime dei gulag bolscevici. Per spiegare queste nefandezze si adducono concetti politici, filosofici e psicologici, che certamente possono in parte dare una parvenza di giustificazione; in minima parte vi può essere anche una spinta ideologica; ma questi episodi spesso accadono tra gruppi, che per secoli hanno pacificamente convissuto, come accade a volte tra i pacifici scimpanzè, capaci anch’essi di eccidi improvvisi e definiti giustamente bestiali. Gli studiosi parlano di psiche, ma la psiche è dell’individuo; esiste sì l’imitazione, esistono i neuroni specchio, ma esiste altresì quell’autorganizzazione della folla, che rappresenta un sistema emergente, che altro non è che un cambiamento di fase: il gruppo acquisisce un’individualità simile allo sciame delle api o al branco di lupi, acquisisce una “mente alveare”! E, nell’attuare questo cambiamento di fase, fa capolino la legge di potenza! Altra legge che inaspettatamente emerge in tutti i cambiamenti e in tutti i contesti. Il primum movens, il famoso battito d’ali, in questo caso dell’avvoltoio, risiede nel singolo individuo, che vede nell’altro il diverso o considera se stesso diverso dagli altri e questo è il caso dello studente solitario che proprio per la sua non integrazione e per la sua sofferta solitudine, ritenendo i propri compagni di scuola entità diverse, li elimina. O quel sentimento che a piccole dosi sprona l’individuo a prevalere, ma che a dosi massicce è capace di indurre l’eliminazione del suo simile. Nel caso delle comunità questa segregazione, molte volte o spesso, è catalogata e considerata come razzismo, ma sembra essere una regola, del resto evidenziata anche da una simulazione al computer: basta appartenere ad un gruppo di numero inferiore al 30% della comunità complessiva, che autonomamente scatta quel meccanismo nefasto di non appartenenza o di appartenenza ad una minoranza [60], con tutte le sequele eventualmente possibili. 

Da secoli la sociologia ha affrontato, utilizzando teorie diversissime, il problema di poter prevedere scientificamente il comportamento collettivo, che non è, anche se può sembrare, la semplice somma dei tanti comportamenti individuali, tutti teoricamente egualmente derivanti dal libero arbitrio di ciascuno, perché è un sistema complesso emergente. Le cui caratteristiche sono sicuramente diverse di quelle dei singoli individui. 

Lo studio della complessità in questi sistemi emergenti permette di individuare le leggi delle dinamiche esistenti tra gli elementi di una qualsiasi rete strutturale, aprendo panorami interpretativi anche nel campo della sociologia. La fisica, con i suoi modelli matematici ha fornito elementi scientifici anche nel campo delle cosiddette scienze umanistiche, tanto da far intravvedere di fatto il tanto sperato dialogo dei saperi. 

Da pochi decenni, la fisica, con i suoi modelli matematici e le sue intuizioni sulle dinamiche di grandi gruppi di atomi e molecole, sta fornendo ai sociologi maggiori elementi di riflessione e può cominciare a far prospettare qualcosa di definitivo sulle modalità con le quali le nostre vite evolvono, e recentemente farci interpretare modalità quantitative atte a valutare le dinamiche collettive. Si è sempre detto e raramente attuato che è opportuno ed utile affrontare i problemi non dal particolare, ma con una visione complessiva; questa modalità di porsi di fronte alla realtà che si vuole comprendere, ha rappresentato l’inizio dello sgretolamento del riduzionismo e costituisce il filo conduttore di una nuova modalità per affrontare i problemi sociali considerando le dinamiche emergenti della rete costitutiva interindividuale. Sino ad oggi la sociologia ha studiato l’individuo, elemento centrale della sua realtà complessiva, analizzando i suoi comportamenti, la psicologia, la storia, le emozioni, con la giusta visione deterministica, ma necessariamente riduttiva. L’attuale evoluzione culturale del pensiero, che affronta la realtà che i registi definirebbero “in campo lungo”, fa emergere somiglianze e similitudini in settori scientifici diversi e sino ad ora assolutamente non convergenti, facendo emergere le analogie e le similitudini, ad esempio, tra la sociologia e la fisica strutturale dei materiali. L’individuo può essere considerato alla stregua di un atomo e la sociologia come una rete strutturale che gli atomi acquisiscono tra loro. Per analogia consideriamo le diverse caratteristiche che la molecola del carbonio presenta: può assorbire tutte le radiazioni luminose e farlo apparire nero, di consistenza friabile e tenero da rappresentare da 447 anni [61] l’anima delle matite, oppure può essere luminoso, duro e cristallino come il diamante. Queste diverse proprietà e caratteristiche sono in relazione alla diversa organizzazione strutturale delle molecole: se disposte ordinatamente o disordinatamene, e, per similitudine anche la sociologia può essere valutata studiando la struttura e l’organizzazione collettiva delle reti individuali. 

Con queste premesse Mark Buchanan [62], scienziato e scrittore americano, ex collaboratore di Nature e New Scientist, recentemente al Festival della Scienza di Genova ha suggerito l’utilizzazione di metodiche scientifiche proprie della fisica per lo studio dei fenomeni sociali. 

La teoria di Buchanan elimina il muro degli schemi della ricerca tradizionale: tra ”l’atomo” e “il sociale”, termini che usualmente non vengono mai associati. Il primo è proprio delle scienze chimiche e fisiche, mentre il secondo si riferisce alle persone e alle loro interazioni. C'è una certa riluttanza ad associare questi due termini, ma l’idea è che il modo col quale si studiano sistemi composti da atomi può essere utile anche per comprendere i sistemi formati da persone, pur considerando che gli individui agiscono certamente in modo più complesso di una particella. Ma dobbiamo considerare che entrambi sono sistemi collettivi e possono seguire le stesse leggi della fisica, anche se ciò risulta meno evidente e più sfumato. Leggi che si evidenziano dopo la transizione di fase da quella individuale a quella “sociale”. 

Sia in natura, che nelle società, per esempio, si è notato che alcuni sistemi collettivi tendono a raggiungere un ordine apparentemente spontaneo. Ricordiamoci dell’autorganizzazione che si evidenzia in ambito fisico: i rulli di Benard, le reazioni chimiche a tempo, il fenomeno di Farday, ed altri fenomeni che soggiacciono alle stesse leggi di cui abbiamo accennato precedentemente [63]. Lo stesso sembra valere per il comportamento delle persone: se banalmente osserviamo come i pedoni camminano sui marciapiedi affollati, notiamo, anche in questo caso, che il flusso pur essendo casuale, segue un ordine spontaneo e preciso, che dipende unicamente dall’evitare scontri sgradevoli, per cui ogni pedone si dirige nello spazio libero per camminare più facilmente, seguendo un altro pedone che svolge il ruolo inconsapevole di apripista. 

L’attrazione verso il proprio simile equivale ritrovare se stesso nell’altro ed è il primum movens del fenomeno universale dell’aggregazione sociale. Ed egualmente, laddove esistano due sistemi, due gruppi distinti o dissimili di individui, questi si aggreghino preferenzialmente, quasi automaticamente in un unico contesto di appartenenza. 

Il comportamento di un gruppo non è determinato dalla volontà dei singoli componenti come si supponeva, ma dall’autorganizzazione del sistema, dalla “mente alveare”. Sino ad ora lo studio era volto ai fattori individuali psicologici, comportamentali, culturali e sociali che caratterizzavano l’individuo ed il gruppo era considerato solamente la somma dei componenti. Ma come aveva intuito giustamente Anderson: “More is different”! 

E’ il momento, come suggerito da Schilling, premio Nobel 2005 per l’economia, di focalizzare la ricerca non tanto sugli individui come parti, ma soprattutto sulla struttura complessiva da loro formata. Gli individui si comportano come tali, ma le loro manifestazioni, quando costituiscono un insieme, sono determinate soprattutto dalla comunità cui sono partecipi, e sono espressione cumulativa dell’organizzazione strutturale cui fanno parte. Ed il risultato non è la semplice somma delle volontà singole, ma è la “volontà emergente” del gruppo. Non si tratta di eliminare il libero arbitrio, ma di considerare l’autorganizzazione del sistema e l’emersione di comportamenti, di nuove regole e di nuove manifestazioni, che esulano dalla diretta volontà dei singoli individui e mostrano cambiamenti analoghi ad una transizione di fase perché si manifestano con comportamenti emergenti dissimili e difficilmente comprensibili se inquadrati con l’ottica individuale; come gli atomi che presentano caratteristiche intrinseche indeterminate a livello subatomico dimostrandosi onde o particelle e che una volta aggregati ad un livello organizzativo superiore sono capaci di presentare caratteristiche diverse come la precisione delle leggi di moto o quelle della termodinamica. Anche in questo ambito la visione prescinde dal particolare, ma si estende nella considerazione della totalità, dell’insieme e dell’aggregazione dei singoli componenti. Non solo, ma anche gli atomi stessi a seconda della loro aggregazione strutturale mostrano qualità e caratteristiche differenti. 

La psicologia e la sociologia si avvalgono attualmente dell’utilizzo di simulazioni al computer ed i problemi sociali possono essere studiati nella loro complessiva e intrinseca e pertanto reale estrinsecazione, valutando le dinamiche complessive determinate dalla loro organizzazione strutturale, che rappresentano in definitiva l’evoluzione della società. 

Dopo decenni dagli studi sperimentali pionieristici di Thomas Schelling [64] riguardanti la segregazione razziale, la sociologia inizia ad essere studiata sotto l’aspetto fisico-matematico. I risultati non possono essere definite leggi, ma considerazioni dinamiche strutturali, che comunque portano a risultati molte volte prevedibili. 

I sociologi iniziano a considerare la loro disciplina con un approccio diverso da quello sino ad ora utilizzato; lo studio non è più solamente rivolto all’individuo col suo bagaglio psicologico individuale, ora si valuta l’organizzazione complessiva degli individui alla stregua dei fisici che trattano la realtà con la precisione della termodinamica e della dinamica celeste, pur consapevoli della realtà del caos atomico sottostante, che ne rappresenta la base, ma non è influente. Perciò nell’ultimo lavoro di Buchanan viene stigmatizzata in sociologia la necessità di considerare e valutare gli elementi strutturali e non i singoli individui ponendo diversi modelli, come ad esempio l’autorganizzazione del flusso autostradale in cui si determina il cosi detto “ingorgo fantasma”, non dovuto ad alcun incidente, individualmente considerato, ma conseguenza della dinamica strutturale, cioè solamente al flusso veicolare, che rende sovra satura la struttura autostradale. 

L’autorganizzazione è frequente in ambito fisico, ma è estremamente particolare il caso degli anelli concentrici di sassi nell’isola norvegese di Spilberg nell’arcipelago delle Svalbard a 1000 chilometri dal Polo Nord. Si pensava che quegli anelli fossero strutture realizzate dall’uomo, invece si formano per il ritmico gelo e disgelo, che agendo diversamente sul terreno umido e sui sassi, determina la loro separazione; è una forma particolarissima di autorganizzazione alla stregua del “la mano invisibile” [65] di Adams Smith [66] o del “l’ordine spontaneo” di Friedrich von Hayek [67] in economia. 

Dobbiamo considerare inoltre che il comportamento umano, in base alle recenti scoperte della psicologia contemporanea, è primariamente istintivo e gioca un ruolo fondamentale nelle azioni abituali e che la razionalità subentra solo ad un livello successivo, più elevato [68]

Quando scoppia un incendio in una sala, l’istinto porta gli individui a raggiungere l’uscita più in fretta possibile, anche se è dimostrato che la calma, evitando l’affollamento, riduce le vittime dovute allo schiacciamento dei più veloci! Anzi, se nella sala ci sono dei tavoli ed alcuni sono situati proprio in prossimità della via di fuga, il flusso urlante è maggiormente ordinato, e il numero delle vittime inferiore [69]

La componente “istintiva” degli individui è fondamentale per comprendere il comportamento di un gruppo sociale; gli individui sono fortemente influenzati dal sistema collettivo, che si viene a creare ed alla fine si allineano [70]. Anche in quest’occasione i neuroni specchio hanno la loro importanza ed inoltre fa sicuramente capolino la criticità autorganizzata e conseguentemente la classica legge di potenza! Ad esempio in un’assemblea, la persona maggiormente recettiva al discorso del relatore, forse perché in possesso del sistema di neuroni specchio maggiormente funzionale ed attivo, è il primo a dare sostegno battendo fragorosamente le mani, poi gradatamente, come nel cambiamento di fase di tanti fenomeni fisici, il numero delle persone applaudenti incrementa, sino a determinare il consenso generale. Il fenomeno ricorda l’inizio di un incendio, o in termini neurologici una crisi epilettica. E dimostra come il sistema “umano” è condizionato dalle stesse leggi dei sistemi fisici, che in precedenza sono stati esposti. Lo stesso fenomeno avviene anche in sistemi molto più complessi, come nel caso dei mercati finanziari. L'andamento delle borse è il risultato delle azioni degli investitori, ma anche delle loro aspettative o delle loro paure, che spesso, sono istintive ed irrazionali. Tutti vogliono comprare spendendo poco e vendere a un prezzo più alto. E’ una regola fondamentale. Ed è la stessa variabilità del mercato, che poi a sua vota influenza le scelte degli investitori, come le loro scelte influenzano il mercato stesso. È un sistema dinamico caotico, che si autoalimenta e che, come detto, presenta usualmente, anche se per fortuna raramente, cadute catastrofiche. 

Quando in un’assemblea si vengono a creare delle controversie, il buonsenso (raro appannaggio dei rari uomini rari (!) ), induce a modificare gli atteggiamenti, gli eventuali abusi ed il profitto della classe dirigente, e contemporaneamente ad aprirsi al vento della novità, in tal modo modificando gli attriti, che, se non ridotti, determinano, volenti o nolenti, mutamenti dell’intero assetto assembleare. Lo stesso discorso può essere fatto in ambito politico o ancora tra nazioni di diverse culture, tradizioni ed economie. Tali diversità sono sempre il risultato di fattori contingenti, che possono modificare lo status delle Nazioni; ricordiamo i contrasti, le tragiche vicende epocali e le sanguinose guerre per accaparrarsi le fonti energetiche, l’acqua, i valichi delle montagne, i porti sicuri delle lontane e ricche terre d’oltre mare. Le modifiche estemporanee che inducono i cambiamenti della politica dei governi, sono appannaggio dei rari politici lungimiranti, come le direttive calibrate, che riducendo i disaccordi frenano le dinamiche e le società verso la loro dissoluzione, allontanandole dal loro punto critico. 

Sono tutti fattori contingenti, che si sovrappongono ai complessi elementi la cui struttura finale è costituita dalla matematica. Iniziamo a comprendere che le dinamiche gestionali e burocratiche e, al limite, le strutture governative possono influire sulle dinamiche contingenti, ma sono anche condizionate da fattori che trovano la loro essenza nella matematica. 

La complessità rappresenta il motore della vita non solo in senso biologico, ma anche individuale e sociale, perché permea tutte le vicende umane: da quelle personali e familiari a quelle nazionali. 

Gli storici per interpretare, ad esempio, i motivi delle dissoluzioni degli stati, considerano le vicende dei popoli, puntualizzando giustamente le cause, gli aspetti politici, analizzando l’evoluzione sociale: tutti fattori che accomunano generalmente il divenire degli avvenimenti. Ma gli storici non tengono ancora conto dell’aspetto cumulativo – della visione complessiva fisica - che accomuna globalmente gli stessi fenomeni, per me, da considerare espressione della criticità autorganizzata. 

In tutti i casi il fenomeno dissolutivo, il crollo, è un fenomeno al caso temuto, ma mai annunciato, perché è sempre repentino e improvviso. Nella Vienna, che stava per assistere e vivere la fine dell’impero Austro-Ungarico [71], il tre ottobre 1918 si discuteva di chi dovesse assumere l’incarico di direttore del Burgertheatre! E similmente, pochi giorni prima del collasso zarista del ’17, l’ambasciatore britannico partì da Pietroburgo in vacanza per la Lituania non sospettando minimamente quello che tre giorni dopo – il 24 ottobre – avvenne nella “notte dei massacri” [72]. L’avvenimento casuale può essere espressione di una dinamica imprevedibile o sembrare imprevedibile, ma invece è l’espressione del manifestarsi delle tensioni accumulate in precedenza e liberate da un fattore esterno anche minimo, anche insignificante, che agisce su una condizione preordinata metastabile all’evento catastrofico. 

In piena guerra, nel 1944 in Inghilterra il maggiore Parkinson si ritrovò, per l’assenza del capo della base militare e per le ferie del sostituto, ad essere il responsabile del quartier generale congiunto dell’esercito e dell’aviazione, dovendo gestire la marea – come lui la definì – di scartoffie burocratiche, si accorse contestualmente che le attività che da svolgere erano semplicemente, e soprattutto, inutili. 

Dopo undici anni, nel novembre del 1955, scrisse sull’Economist un divertente articolo prendendo in giro la burocrazia del governo ed enunciò la sua legge “la legge di Parkinson”: Il lavoro si espande in modo da riempire il tempo che sarebbe necessario per svolgerlo. Studiando gli annali della marina militare Parkinson aveva messo in risalto che tra il 1914 ed il 1928 i funzionari della marina militare erano aumentati dell’80% benché i marinai fossero diminuiti del 33% ed il numero delle navi addirittura del 66%! Giustificò questa discrepanza considerando che in ogni struttura gerarchica le persone con posizioni di responsabilità hanno conseguentemente bisogno di subordinati a prescindere del reale lavoro da svolgere. 

Del resto già all’inizio del secolo scorso Max Weber [73] aveva descritto le caratteristiche della burocrazia ideale e contemporaneamente le storture burocratiche che si vengono a determinare quando la progressione della carriera non si basa solamente sul merito. 

Alla fine del secolo scorso il consigliere del presidente Ronald Reagan, l’economista William Niskanen [74], fece notare che i funzionari per poter giustificare i loro aumenti salariali cercano sempre di far lievitare i bilanci del loro settore e utilizzano queste argomentazioni per giustificare un governo più attivo e maggiormente incisivo. 

Tre fisici dell’università di Vienna Klimek, Hanel e Thurner hanno recentemente ricreato virtualmente la stessa dinamica burocratica con modelli matematici; un sistema di equazioni basato sia sul tasso di promozioni che di abbandono lavorativo riuscendo ad estrapolare un “diagramma di fase”, che dimostra l’incremento burocratico e la dinamica gestionale, già chiarita decenni prima dal Parkinson. Il modello proposto riflette la tendenza aggregativa per raggiungere o non raggiungere un accordo, mentre se il numero dei nodi della rete incrementa, vengono automaticamente a formarsi dei sottogruppi, che restano solitamente in disaccordo. Il Maggiore navale Parkinson del resto aveva messo in risalto che nella storia dell’Inghilterra (dal 1257 al 1955) quando in cinque diverse occasioni il consiglio dei Ministri era costituito da un numero superiore a venti unità, si adottavano delle sottocommissioni per l’espletamento del lavoro lento e “brontosaurico” [75] a causa dell’incapacità a raggiungere accordi decisionali. Parkinson suggeriva che il numero dovrebbe essere costituito da 13 unità a meno di 20, considerando che maggiore è il numero dei Ministri più il paese è politicamente instabile ed arretrato; ed il nostro ben amato Paese purtroppo può essere annoverato come esempio significativo! 

Recentemente all’Istituto Interscambio scientifico di Torino sono state eseguite delle simulazioni al computer [76] che hanno evidenziato la mancanza decisionale del gruppo di lavoro formato da otto membri; dato analogo era stato già evidenziato nel 1955 dal Parkinson, che aveva evidenziato che mai nella storia un consiglio dei Ministri era composto da otto componenti, tranne quello istituito da Carlo I, consiglio ricordato per l’assoluta mancanza di risoluzioni, tanto da far impazzire il povero Re! 

Noi della “terra di mezzo” [77] che viviamo nella realtà al confine dell’universo di Einstein ed al limite del microcosmo della dinamica quantistica siamo condizionati dalle stesse regole e dalle stesse dinamiche delle strutture della materia condensata, cioè della nostra realtà fisica. Assoggettati dalle leggi, che dipendono più che dagli atomi  e dalle molecole, che rappresentano i nodi delle rete strutturale, dai loro rapporti e dalla loro organizzazione. 

Questa nuova modalità per analizzare gli avvenimenti umani rappresenta un punto di contatto tra la scienza e la storia dell’uomo e rappresenta una risposta reale all’unità prospettata dal dialogo dei saperi. 


                                                   I saperi e la storia dei saperi

               I saperi erano tanti, ma di volta in volta, il primo ad assemblare le conoscenze è stato il saggio, il filosofo, che riuniva le varie fonti di conoscenza: quelle del pensiero, del comportamento delle stelle e dell’etica umana, condensate nei racconti di epopee e tramandate di piazza in piazza come le interpretazioni della realtà, del cosmo, adducendo ritmo, grandezze e le assonanze con la musica. La parola greca gnosis (il sapere - la verità) indica la conoscenza della verità su cui convergono diversi rivoli filosofici, poetici, scientifici, politici ed anche tecnologici; inizialmente unitario, appannaggio del filosofo, poi, con il progressivo incremento dei saperi, pur conservando una condivisione culturale con i diversi flussi paralleli, i rami disgiunti della conoscenza si sono separati dal contesto umanistico coesistendo sino all’illuminismo. Forse Liebniz [78] fu l’ultimo assemblatore dei saperi e, in seguito, unica eccezione [79], Robert Oppenheimer [80], padre della bomba atomica.
          L’attuale dicotomia tra il sapere scientifico e quello umanistico è radicata nella natura umana e trova un esempio e spunti di riflessione tra la divergenza interpretativa della realtà esistita sin tra i due massimi pensatori dell’antica Grecia: tra la visione atomistica di Democrito [81] e quella ontologica [82] di Platone [83]. Consideriamo che i testi di Democrito e pertanto il suo pensiero ci sono giunti solo per l’intercessione dei pitagorici Amicla e Clinia che li risparmiarono dalle fiamme; i due, infatti, convinsero Platone, che avversava a tal punto Democrito da non averlo mai nominato in vita, a non eseguire il suo ordine di eliminare con le fiamme il pensiero del filosofo convincendolo che il gesto non avrebbe sortito il danno voluto, perché i testi erano già diffusi e da molti conosciuti [84]. Democrito, il maestro di Abdera, fu il primo filosofo-scienziato ad elaborare il metodo dimostrativo basato sull’esperienza diretta dei fenomeni osservati, intendendo la realtà composta da atomi qualitativamente simili: spazialmente e temporalmente. Pertanto dobbiamo considerare Democrito il precursore del pensiero razionalista, che Galileo, Newton e Descart nel rinascimento hanno seguito, dando conseguentemente l’impulso straordinario e significativo al moderno sviluppo scientifico. All’inizio dell’era moderna il Sapere dell’uomo, col progressivo sviluppo delle conoscenze scientifiche, da storico, umanistico e religioso, si è via via dicotomizzato, rendendo separate le due culture: quella umanistica e quella scientifica, rendendole non dialoganti, spesso ostili per motivi settari e religiosi.
            Sul finire degli anni cinquanta del secolo scorso, a Londra si avviò un acceso dibattito, sollecitato dal libro di Charles Snow sulle cosiddette due culture, vale a dire sull'ostilità tra scienziati e letterati; il testo [85] arrivò in Italia nel 1964 accompagnato da un breve articolo di Ludovico Geymonat [86], che da anni perorava la causa della scienza all'interno dell'Accademia «inquinata» dal pregiudizio idealistico e crociano. In quelle poche pagine, che presentavano allora al lettore italiano un'eccezionale novità nel panorama intellettuale non solo inglese, ma di tutto l'Occidente, il padre della filosofia della scienza nel nostro paese indicò l'urgenza di rispondere anche in Italia alle questioni sollevate da Snow nel suo testo. Geymonat era d'accordo con Snow che l'eccessiva e precoce specializzazione dei programmi scolastici avrebbe rischiato di far perdere l'orizzonte complessivo del sapere, condividendo la necessità, sottolineata da Snow, di educare i futuri scienziati anche attraverso un sapere umanistico.
            La cultura scientifica e quella umanistica da secoli si sono reciprocamente allontanate e vengono valutate e considerate separatamente per motivi storici, culturali e, solo da pochi decenni ci si sforza occasionalmente perché possano ritornare in un unico contesto e si possa attuare l’unione dei saperi, dopo che da tempo il problema e la possibilità di questa unione è stata dibattuta e prospettata. Le cause di questa dicotomia sono molteplici e complesse ed hanno trovato e trovano nel riduzionismo un humus favorevole, che, pur avendo portato le singole discipline a vette altrimenti non raggiungibili, ha fatto innalzare il sapere oltre le nuvole, impedendo la visione unitaria della montagna e delle vallate sottostanti; la scienza, quella vera, si è allontanata dall’uomo, dal suo sentire, dalla sua meraviglia e conseguentemente il sapere umano, anche se i suoi frutti pratici e tecnologici ci condizionano riuscendo anche ad aiutarci, ci ottundono la mente, e la scienza risulta sempre più arida, fredda e settoriale. Inoltre attualmente il sapere ed anche la scienza hanno subito ulteriori suddivisioni dando origine a tanti rivoli, che rappresentano le varie discipline, anch’esse frammentate in specializzazioni, tanto da non far ricordare, neppure vagamente, l’origine unitaria della materia a cui appartengono. Un cespuglio con rami certamente specifici e pieni di frutti da cui è difficile a volte avvertire anche una semplice assonanza con i rami e rametti vicini temporalmente, ma distanti e quasi irriconoscibili dal tronco comune, anche per la diversità del linguaggio utilizzato. E’ arrivato pertanto il momento di comprendere che il sistema Uomo deve possedere, perché possiede, quella capacità di valutare l’insieme, anche delle culture. La storia, le vicende nazionali, le guerre e le reti diplomatiche se studiate con “il metro della complessità” sono rappresentabili da un insieme che può assumere la connotazione di un traguardo per quanto fu espresso ed augurato qualche anno fa da Ilya Prigogine quando prospettò: “è tempo di nuove alleanze”.
            Utilizzando un freddo schema riduttivo, potremmo evidenziare il dialogo dei saperi indicando la cultura umanistica come (A) e la cultura scientifica come (B) per raggiungere il traguardo indicato come A ­­+ B, studiando A integrato con B o viceversa. Credo che lo studio della cultura umanistica (sistema A) con uno studio derivante dall’insieme B (cultura scientifica) e che potremmo definire C, possa comprendere entrambi, rendendo attuabile l’unione; l’insieme di questo sistema C è, guarda caso, lo studio della Complessità, perché rappresenta l’integrazione reale tra le due culture, essendo intrinsecamente compreso nello studio del sapere umanistico A e allo stesso tempo scientificamente derivante dallo studio del sapere scientifico B. In parole non schematiche ed esprimendo il concetto in termini discorsivi: tutte le dinamiche umane, sociali: dalla psicologia alla sociologia, dall’estetica alla poesia, ripeto: tutte, sono studiabili con il metro della complessità, che essendo intrinsecamente ammantata e commista alla matematica, rende effettiva l’unione tra le due culture, non imposta, né ricercata, ma solamente sperata e raggiunta utilizzando questo nuovo panorama culturale. Paragono questa nuova fase come  attraversare una valle ancora misteriosa, ma con una vegetazione dai frutti ricchi come nella favola delle melarance d’oro! Ed inoltre dovremmo fare una considerazione di fondo, forse non pratica, ma filosofica: la realtà della scienza per sua natura é quantitativa, numerica; il particolare la caratterizza e la delimita. L’altra realtà, quella umanistica, pervade l’animo umano, i sentimenti ed è per sua natura sfuocata ed indistinta come il profumo, che indica l’esistenza di un lontano unico fiore e lo rappresenta. Pare che le due realtà vengano elaborate dai due distinti emisferi! La considerazione di fondo è sintetizzata invece dalla breve frase di Philip Anderson [87], che ha rappresentato il germe degli studi sulla Complessità: “More is different” [88]. Le differenze quantitative trasformano un insieme qualitativamente: é la quantità che determina la differenza e rende possibile l’esistenza di una nuova realtà, che pur comprendendo i singoli costituenti, fa risaltare ed evidenzia l’emersione della poesia, della diversità e di ciò che chiamiamo anche umanesimo.
    La storia, il suo fluire, le sue dinamiche con le improvvise accelerazioni ed i periodi di apparente immobilismo sono tutte espressioni di fattori contingenti, delle necessità dei popoli, della volontà e del determinismo dei capi, elementi tutti che possono e devono essere considerati nodi di una rete dinamica espressione stessa della storia.
       Gli avvenimenti rappresentano la struttura della storia e costituiscono i nodi di una la rete che esiste e si evolve con dinamiche a lei congeniali; quando poi gli avvenimenti divengono oggetto di conoscenza, la storia si inserisce nuovamente in un contesto che oggettivamente non è altro che informazione. E noi sappiamo che l’informazione è anch’essa una rete, a sua volta condizionata da dinamiche proprie, caratteristiche, che la evidenziano, la modificano, la misconoscono, facendola apparire a volte anche difforme dalla realtà oggettiva. Credo di non poter essere contraddetto se affermo che la storia, così come comunemente la si intende, rappresenta il risultato di una rete interpretativa, che si inserisce, a volte purtroppo modificandola, in quella evolutiva oggettivamente avvenuta.
            I singoli episodi della storia rappresentano “il battito d’ali di farfalle o meglio di aquile” che preparano lo scatenarsi di turbini epocali, che si abbattono su popoli ignari o, a volte, partecipi delle atrocità del passato e del presente, simili a tsunami devastatori; rappresentando l’ubiquità della criticità autorganizzata. Esistono una marea di episodi da ricordare: quello dell’assassinio dell’Arciduca Francesco Ferdinando e di sua moglie Sofia, uccisi da Gavrilo Princip a Saraievo il 28 giugno 1914: episodio che rappresentò l’evento scatenante e l’inizio della prima guerra mondiale, simile a quell’ultimo fiocco di neve, che fa sprofondare il tetto pesantemente innevato.
            Anche i cambiamenti sociali, che possiamo definire epocali, possono essere determinati da episodi di per sé irrilevanti, ma che assumono il loro significato se inseriti nel contesto storico, in prossimità del punto critico. Ricordiamo ad esempio l’episodio di Rosa Parks a Mongomery in Alabama nel dicembre del 1955, che si rifiutò di cedere il suo posto sull’autobus ad un bianco, come sino ad allora la legge prescriveva; episodio [89], che rappresentò il classico chicco di riso che produsse l’inizio dello sdoganamento dei neri dalla oppressione razziale, oppressione che ancor oggi, dopo un secolo, non è ancora del tutto completato, benché gli Stati Uniti d’America siano attualmente guidati da un afro-americano, che sta interpretando il respiro pulito della società americana e mondiale!  Possiamo pertanto considerare la storia come una rete con una struttura simile a quella diffusa nel mondo fisico e possiamo interpretare gli avvenimenti devastanti espressione della criticità auto-organizzata, sui quali si inseriscono le stesse  regole matematiche, che sottostanno alle dinamiche naturali. Anche in ambito storico la matematica fa capolino e precorre la sua associazione con la contingenza.
              
                       Come si forma la criticita’ autorganizzata.

            La criticità autorganizzata è una sorta di equilibrio dinamico che si sviluppa nel tempo e che viene meno quando il sistema raggiunge il punto critico per una forza esogena anche impercettibile. Mentre nel caso dell’acqua la quantità di una goccia si espande uniformemente in tutte le direzioni, in un mezzo granuloso la distribuzione delle forze non è uniforme, ma differenziata a secondo dei rapporti che si creano tra i granuli. Dato per acquisito che qualsiasi sistema é costituito da reti e che presenta la criticità autorganizzata, il problema che ci si pone è quello di stabilire come e quando questa si evidenzierà. L’unico metodo é quello di studiare la storia, il divenire passato, che ha formato il sistema ed i tempi in cui si sono disposti i nodi e le loro relazioni. Non credo esistano altre possibilità.
      Se il mezzo é omogeneo la rete é ordinata e le forze si distribuiscono egualmente nelle varie direzioni, come, ad esempio, in un liquido: una goccia potrà determinare il traboccamento del vaso, essendo la parte superiore il limite omogeneo  del sistema. Se il mezzo non é omogeneo ed è granulare, la rete é aleatoria e le forze si ricombinano in una rete “come é piccolo il mondo” scaricandosi in punti anche lontani, come nel gioco dello Shangai dei bastoncini cinesi. Questa situazione ci fa comprendere, ad esempio, la possibilità, fortunatamente rara, dello scoppio dei silos ripieni di materiali granulari [90]; in questo caso l’equilibrio statico della rete si concentra su nodi isolati, che facendosi carico della dinamica complessiva, sviluppano una forza capace di superare i normali e previsti limiti contentivi e, parimenti al crollo della criticità del cono di riso, causano la rottura delle pareti.
         L’evoluzione, del formarsi la criticità organizzata, é identica a quella evolutiva delle reti. Infatti a monte della criticità autorganizzata vi è la loro evoluzione rapsodica (frammentaria). Ogni nodo si colloca in un contesto, che presenta contatti e legami di stabilità con i nodi vicini, legami di diversa stabilità, che si consolidano e cristallizzano un rapporto di diversa consistenza: unione essa stessa che costituisce un nodo emergente con caratteristiche dinamiche analoghe, ma diverse, e che in sé conserva la storia dei precedenti legami. Si viene a creare pertanto una sequenza di legami, un intreccio di forze statiche, che riescono a conservare una stabilità (tipica della fase di stabilità), sino ad un certo punto, dove e quando il sistema combina dinamicamente ordine e caos, trovando un punto di equilibrio dinamico nel punto di transizione; nel momento in cui la sommatoria dei legami e delle forze insite nel gruppo dei nodi viene superata da quella minima perturbazione esterna aggiuntiva, il chicco di riso determina la rottura dell’equilibrio e lo scatenarsi della frana, che libera le forze stabilizzate e determina l’estrinsecarsi della criticità autorganizzata; in quel momento si determina una transizione di fase di secondo ordine nelle quali si evidenzia la legge dell’elevamento a potenza [91]: i mutamenti più rilevanti accadono più raramente, mentre quelli minimi frequentemente. Nel mucchio di riso è un chicco sottoposto alle forze dei vicini (che cumulativamente contribuiscono all’incremento e alla tensione dinamica e alla distribuzione delle forze) che cede e spostandosi contribuisce al movimento e alla propagazione del crollo della struttura. E’, mutatis mutandis, la classica goccia che fa traboccare il vaso.
          La formazione della rete rappresenta la storia del sistema, la fotografia del passato ed é il fondamento che giustifica lo sviluppo dell’evento catastrofico; in poche parole è l’humus della criticità autorganizzata. Il cambiamento di fase di primo ordine che si verifica, si estrinseca in modo autosimilare a scala di grandezze diverse, rendendo la criticità autorganizzata espressione di un frattale nella sua più elevata dimensione, per quello specifico sistema.
          Se analizziamo pertanto il fenomeno scomponendo le forze che contribuiscono alla estrinsecazione del fenomeno crollo, possiamo figurare una rete di forze che si distribuiscono ad una moltitudine di nodi. Ogni chicco è, in misura diversa ed imprevedibile, il responsabile della propagazione delle forze; come ogni chicco è a sua volta sottoposto a forze che si equilibrano, determinando la sua stabilità e quella del mucchio. Se consideriamo il singolo chicco di riso nell’ambito dell’insieme dei chicchi del mucchietto, quando è fermo è soggetto ad una forza intrinseca nulla, che elide le forze su di lui convergenti: determinata da quella possibile forza dinamica dipendente dal suo peso e dal suo possibile percorso e da quelle estrinseche causate dall’attrito, cioè dalla presenza dei chicchi vicini. Il chicco rappresenta il nodo della rete che, sottoposto alle forze contigue, accumula nella sua staticità una forza “cristallizzata”, che, quando si libererà, sicuramente seguendo la legge di potenza, coinvolgerà gli altri nodi che potranno far parte di una rete “piccolo mondo”. Il chicco di riso, che è situato in relazione agli altri nel mucchietto, per un impercettibile spostamento, dovuto a cause estrinseche, restituisce al sistema sia la forza che lo aveva posizionato, sia quella dipendente dal suo peso e contribuisce con queste allo spostamento dei chicchi vicini, formando una catena che rappresenta una rete dinamica di tipo frattalico analoga, ma differita nel tempo e di verso contrario, a quella che in precedenza aveva determinato la sua posizione durante la formazione del mucchietto di riso. Poiché non conosciamo la distribuzione delle forze che  rendono stabile ed unitaria la rete, la minima aggiunta di un solo chicco potrà essere responsabile dell’inizio del fenomeno. Della dinamica complessiva conosciamo solamente il momento iniziale e quello finale, ma nulla di tutte le connessioni intermedie, che dipendono dalle organizzazioni iniziali delle singole parti, cioè dalla sequenza storica. Sequenza storica di mille e più di mille battiti d’ali di nuvole di farfalle; é come se nel mondo macroscopico facesse la comparsa l’indeterminazione della realtà del mondo dei quanti. E’ un’analogia tra la realtà delle reti e la realtà quantistica che può essere prospettata, tanto più che già esistono prove della sua esistenza e mi riferisco a quella evidenziata da Ginestra Bianconi a proposito della formula riguardante la fitness delle reti ad invarianza di scala identica a quella dell’elio superfluido del condensato di Bose-Einstein. (vedi il capitolo: “Le diversità delle reti”).
          La struttura della rete, cioè l’essenza della criticità autorganizzata può essere paragonata a quella dell’ammasso a diffusione limitata perché egualmente è un frattale, ma a differenza di questo che è stabile, si trova in forma metastabile, inoltre la differenza tra aggregato e criticità consiste nel senso dell’evoluzione: nella prima è positiva (appositiva), perché è l'espressione del suo accrescimento, mentre nella criticità è negativa, perché giunta al punto critico, si traduce con il crollo del sistema. Ad ogni azione corrisponde un’azione uguale e contraria. Ad esempio l’inerzia, forza che dicono negativa ad una forza positiva, ma positiva perché riesce ad identificarsi  con quella statica. Se consideriamo il chicco di riso del classico esempio della criticità aut organizzata: quando è fermo, è soggetto ad una forza intrinseca nulla: determinata da quella possibile forza dinamica dipendente dal suo peso e dal suo possibile percorso e da quelle estrinseche causate dall’attrito cioè dalla presenza dei chicchi vicini. Le forze si equivalgono. Ad ogni azione corrisponde un’azione uguale e contraria, solo che in questo caso la reazione contraria è differita nel tempo.
          Il chicco di riso, che è situato in relazione agli altri nel mucchietto, per un impercettibile spostamento dovuto a cause estrinseche, restituisce al sistema sia la forza che lo aveva posizionato sia quella dipendente dal suo peso e, contribuendo allo spostamento dei chicchi vicini, forma una catena che rappresenta una rete dinamica di tipo frattalico analoga - ma differita nel tempo e di verso contrario - a quella che in precedenza aveva determinato la sua posizione nella struttura durante la formazione del mucchietto di riso. Penso che questo sia il meccanismo, parola d’altri tempi, ma idonea a chiarire l’idea, per spiegare intimamente il fenomeno della criticità autorganizzata.
          Per quanto detto la criticità autorganizzata non è altro che una sorta di Feed-back cumulativo che per esplicarsi necessita di un forza estrinseca iniziale, che rappresenta il battito d’ali, rendendo possibile il crollo e la successiva autorganizzazione del sistema. E’ una sorta di onda dinamica: consistente in una fase negativa foriera di una successiva positiva. A questo punto dobbiamo considerare cumulativamente le dinamiche del mondo, con una visione d’assieme non riduttiva, che è stata più volte ricordata. E ci può essere utile la tabella già riportata ed uguale a quella stampata a pagina venticinque, nella quale in neretto a destra è visualizzata la fase catabolica della criticità autorganizzata, la fase negativa, speculare e di segno opposto a quella della fase auto poietica autorganizzativa.
·                        Nel mondo della Simmetria predomina la Curva gaussiana 
(al di fuori del tempo).
·               Nel mondo dell’Assimetria predomina la curva alla potenza   espressione del divenire (nel tempo)
         Tabella            Schema simmetrico dell’Autorganizzazione
                                                                                                                                                                     
                                         Prima             AUTORGANIZZAZIONE                   Dopo
POSITIVO
NEGATIVO
RETE AUTOPOIETICA
CRITICITA’ AUTORGANIZZATA
INCREMENTO DI CONNESSIONI
RIDUZIONE DI CONNESSIONI
A chi ha a quello sarà dato
A chi non ha a quello sarà tolto anche quel poco che possiede
LEGGE DI POTENZA
LEGGE DI POTENZA
               RETE AUTOPOIETICA
               CRITICITA’ AUTORGANIZZATA
FORMAZIONE COSTRUZIONE
RIDUZIONE DANNO DISTRUZIONE
SVILUPPO CRESCITA VITA
MALATTIA MORTE

Alla fine, dopo il tempo, il Mondo dinamico nel complesso 
raggiunge la  Simmetria.


 Da quanto detto nel libro della realtà è scritto che ogni dinamica

presenta il suo termine, ma noi potremmo sforzarci di ritardare il 

momento in cui la criticità si manifesta e potremmo essere in grado di 

influire sul tempo dell’evento finale allestendo un sistema che riesca a 

modificare i rapporti dei nodi rendendoli più stabili tra loro.

       L’idea mi è venuta osservando un ragazzino che giocava su una 

spiaggia in riva al mare mentre versava una mistura di sabbia ed acqua 

riuscendo a creare formazioni simili alle stalagmiti, alte e strette che si 

ergevano irte simili ai pinnacoli delle cime dolomitiche. Definirei queste 

strutture, in base alla considerazione della loro criticità: intra-meta-

organizzata (organizzata all’interno e posticipata) e mi auguro che 

analogamente potrebbe essere possibile ritardare i crolli che interessano 

l’economia, i rapporti conflittuali tra le nazioni e le fratture di qualsivoglia 

struttura, rendendo stabili o maggiormente stabili i rapporti tra i nodi 

della loro rete strutturale.

______________________________________________________________


[1] E’ stato un imperatore bizantino dal 5 ottobre 610 alla morte (11 febbraio 641).

[2] “D'ora in poi lo spazio di per se stesso o il tempo di per se stesso sono condannati a svanire in pure ombre, e solo una specie di unione tra i due concetti conserverà una realtà indipendente. »Hermann Minkowski, 1908

[3] Amava definirsi Nobelist Physicist, teacher, storyteller, bongo player, ovvero Fisico premio Nobel, insegnante, cantastorie, suonatore di bongo.

[4] Mark Buchanan fisico teorico è stato redattore di ”Nature” e del “New Scientist”.Autore di numerosi best seller, tra cui: “Ubiquità”, “Nexus”e il recente “L’Atomo sociale”.Editi da Mondadori.

[5] Christopher G. Langton Componente di spicco dell’Istituto Santa Fe (Automi cellulari, vita artificiale, margine del caos e criticità aut organizzata).

[6] Robert  M. May “I  ritmi caotici della vita.” in“Caos. Una scienza per il mondo reale.” Franco Muzio Editore. 1992

[7] P. Izzo “la Complessità è il motore della vita. Introduzione allo studio delle dinamiche caotiche in biologia e medicina”.Capone Editore. Cavallino. Lecce. 2001.

[8] He coined the term in the late 1980s when he organized the first "International Conference on the Synthesis and Simulation of Living Systems" (otherwise known as Artificial Life I) at the Los Alamos National Laboratory Biologo americano iniziatore dello studio della via artificiale; coniò questo termine alla fine del 1980 quando organizzò la prima "Conferenza internazionale sulla simulazione e la sintesi dei sistemi viventi" (noto come Artificial Life I) presso il Los Alamos National Laboratory nel 1987.

[9] Leo Kadanoff  professore di fisica (Emerito dal 2004 presso la facoltà di Chicago), attuale presidente della American Physical Society. Nel 1960 ha studiato l’organizzazione della materia durante la transizione di fase; con questa ricerca ha rivoluzionato il modo con il quale i fisici considerano il cambiamento di fase. Presso. Nel suo studio più importante ha dimostrato che i cambiamenti strutturali che avvengono durante la magnetizzazione di un magnete o nel punto di ebollizione di un fluido, potrebbero essere intesi in termini di scala e di universalità. With his collaborators, he showed how all the experimental data then available for the changes, called second order phase transitions, could be understood in terms of these two ideas. He is widely acknowledged for his contributions to statistical physics , chaos theory , and theoretical condensed matter physics.

[10] Termine preciso: schettinatore, cioè pattinatore su pattini a rotelle.

[11] Bak Per, Tang Chao e Weisenfeld Kurt. Self-organised criticality. An explanation of 1/f noise. Physical Rewiew   Letters 59, 381-84, 1987

[12] Bak Per, Tang Chao e Weisenfeld Kurt. Self-organised criticality.  Physical Rewiew A, 38, n1, 1 luglio, 1988 
                 
[13] Le verità sono sempre semplici.

[14] Richard Evans in “Defence of History”. Ed. Granta. 1997.

[15] Beno Gutenberg sismologo di origine ebraica, leader in Germania ha dato alcuni importanti contributi alla scienza; fu collega di Charles Francis Richter al California Institute of Technology collaborando allo sviluppo della  scala Richter per la misurazione della magnitudo dei terremoti.

[16] Charles Francis Richter sismologo e fisico americano lavorò presso il laboratorio sismologico di Pasadena sotto la direzione di Beno Guttenberg. Nel 1932 Gutenberg e Richter svilupparono la scala standard per la misurazione della magnetudo dei terremoti, chiamata scala Richter.

[17] In sismologia la legge di Guttenberg-Richter esprime il rapporto tra la grandezza e il numero totale dei terremoti in una determinaa regione.
 
[18]Tutti i terremoti da quelli catastrofici a quelli impercettibili sono causati dallo stesso evento (come il premere il grilletto di un cannone) o l’aggiunta di un granello di sabbia nell’esperimento di Bak, Tang e Weinselfeld. E’ un dato matematico che contrasta col nostro senso comune, ma non ora che conosciamo appieno l’evento!

[19] Geller, RJ Earthquake prediction: a critical review. Geophys. J.Int . 131, 425-450 (1997) . Int. 131, 425-450, 1997.

[20] Guangmeng Guo e Bin Wang del Remote Sensing Center della Nanyang Normal University di Henan, specializzati nell'individuazione di segni precursori dei sismi, hanno osservato negli ultimi anni le formazioni nuvolose sopra l'Iran (che è una delle aree sismiche più attive del pianeta ed è percorso da almeno sei faglie) e hanno messo in relazione due terremoti verificatisi in quel P aese (il 22 febbraio 2005 e il 25 gennaio 2006) con il comportamento di alcune nubi (chiamate Eqc, Earthquake clouds) e nebbie (le Eqf, Earthquake frogs), che avevano studiato sulla base dei rilevamenti dei satelliti metereologici. La coltre nuvolosa presente sull'Iran meridionale nel dicembre 2004, dunque un paio di mesi prima del devastante terremoto, risultava «strappata» in alcuni punti per una lunghezza di centinaia di chilometri. I buchi, che non sembravano spiegabili in termini di dinamica atmosferica, rimasero visibili per ore, apparentemente immobili al di sopra della faglia mentre intorno le formazioni nuvolose si muovevano.

[21] “Nuove prospettive per la previsione dei Terremoti”. Seminario 17 Marzo 2005. Aula Magna del Palazzo delle Scienze della Terra. Capus. Bari.

[22] Monelli F. Centro Interdipartimentale di Ricerca per la Valutazione e Mitigazione del Rischio Sismico e Vulcanico e del Dipartimento di Geologia e Geofisica Università di Bari.

[23] Tramutoli V. Dipartimento di ingegneria e Fisica dell’Ambiente dell’Università degli Studi della Basilicata e dell’ ”Istituto di Metodologie per l’Analisi dell’Ambiente (IMAA) del CNR di Potenza-Tito Scalo.

[24] Il Radon è un gas nobile e radioattivo inodore ed insapore estremamente tossico che si forma dal decadimento del radio, generato a sua volta dal decadimento dell'uranio;  fu scoperto nel 1898 da Pierre e Marie Curie.

[25] Richon, P.; Sabroux, J.-C.; Halbwachs, M.; Vandemeulebrouck, J.; Poussielgue, N.; Tabbagh, J.; Punongbayan, R. (2003). Radon anomaly in the soil of Taal volcano, the Philippines: A likely precursor of the M 7.1 Mindoro earthquake (1994). Geophysical Research Letters 30 (9): 34–41.

[26] New Scientist aprile 2009

[28] Alvaro Correl Universitat Autonoma di Barcellona. Phisical Rewiev Letters Giugno- luglio 2005

[29] Oddershede L., Dimon P., Bohr J. Self organized critically in fragmenting Phys. Rew. Letters 1993, 71, 3107-10

[30] I frattali sono forme geometriche autosimilari.

[31] Frette e Coll. Avalanche dynamics in a pile of rice. Nature 379, 49-52, 1996

[32] Experimental Study of Critical-Mass Fluctuations in an Evolving Sandpile in Phisical Review Letters 65, n.9, 1120-23, Agosto 1990

[33] Herz A.V.M. and Hopfield J.J. Heath-quake cycles and neuronal reverberations: Collective oscillations in systems with pulse-coupled threshold elements. Phys. Rewiew Letters 1995, 75, 1222-25

[34] Hopfield J.J. Neuron, dynamics and computation. Pysics Today 1994, 47, 40-46

[35] William Gilbert fisico britannico, medico di Elisabetta I e di Giacomo I, studiò l'elettricità ed il magnetismo. Fu lui ad inventare il termine elettricità. Il suo pricipale lavoro fu il De Magnete, Magneticisque Corporibus, et de Magno Magnete Tellure Physiologia Nova. L'unità di misura del potenziale magnetico prende il nome di Gilbert in suo onore.

[36] Enrico Fermi fisico italiano riconosciuto come uno dei più grandi scienziati di tutti i tempi ricevette il Premio Nobel per la fisica nel 1938 per l’identificazione di nuovi elementi della radioattività e la scoperta delle reazioni nucleari mediante neutroni lenti.   In suo onore venne dato il nome ad un elemento della tavola periodica, il Fermio (Fm), ed un'unità di misura, il Fermio (fm). Progettò e guidò la costruzione del primo reattore nucleare a fissione, che produsse la prima reazione nucleare a catena controllata. Fu inoltre uno dei direttori tecnici del Progetto Manhattan per la realizzazione della bomba atomica.

[37] Cirikov B.V. A universal instability of many dimensional oscillator systems. Physic Report 53, 265-79, 1979

[38] American J. Of  Mathematics 1881
[39] Ralph  A. Raimi  matematico dell’Università di Rochester in  Scientific American 1969
[40] Til Hill della Georgia Ist of tecnology 1995

[41] Linguista e filologo statunitense che studiò per diverse lingue la frequenza con la quale compaiono le parole, proponendo nel 1949 in "Human Behaviour and the Principle of Least-Effort" una relazione oggi nota come legge di Zipf.

[42] Viene detta legge di Zipf una legge empirica che descrive la frequenza di un evento Pi facente parte di un insieme, in funzione della posizione i (detta rango) nell'ordinamento decrescente rispetto alla frequenza stessa di tale evento.

[43] Zanette D. e Manrubia S. Role of intermittency in urban development. A model of large-scale city formation Phys. Review Letters 79, 523-26, 1997

[44] Docente di ecologia e di biologia evoluzionistica dell’Università del Michigan.

[45] Vandermeer, J., I. Perfecto, and S. M. Philpott. Clusters of ant colonies and robust criticality in a tropical agro eco   system. Nature, 451:457-459, 2008.

[46] Bouchard J.P. e Mezard M. Wealth condensation in a simple model of the economy. Los-Alamos e-print. 24.02.2000

[47] Il moto browniano (o cammino casuale) è un concetto fisico molto semplice, che ricorre anche nell’ambito della matematica finanziaria. Senza entrare nei dettagli tecnici possiamo dire che  il movimento di una particella atomica immersa in un fluido segue un moto assolutamente disordinato la cui dinamica appare indipendente dalla natura della particella stessa. Fu Bachelier che propose un approccio puramente statistico al processo e lo utilizzò come modello matematico adatto a descrivere la continua successione di incrementi e decrementi di un prezzo. Se pensiamo di applicare tali ipotesi a un diagramma reale commettiamo un errore evidente poiché ogni giorno gli operatori di borsa comprano e vendono in base a previsioni che partono dallo studio di serie storiche, perciò è impossibile che i prezzi non siano influenzati da ciò che è successo nel passato.

[48] Il diagramma che era simile a quello di Houthakker dei prezzi del cotone e gli permise anche di sviluppare il concetto delle leggi di potenza in economia. In “Fractals and Scaling in Finance: Discontinuity, Concentration, Risk.” Springer N.Y.1997. Il mistero del cotone in “Il disordine dei mercati. Una visione frattale di rischio, rovina e redditività.” Einaudi Ed. 2005
[49] Malamud B., Morein G e Turcotte D. “Forest fires. An exemple of self-organized critical behaviour.” Science 281, 1840-42, 1998

[50] Lockwood D. e Lockwood J. “Evidence of self-organized critically in insect populations”. Complexity 2, 49-50, 1999

[51] John Vandermeer e Coll. Clusters of ant colonies and robust criticality in a tropical agroecosystem Nature 451, 457-459, 2008


[52] “Power laws governino epidemies in isolated popuplations” Nature 381, 600-02, 1996

[53] Il termine Glitch è usato in elettrotecnica per indicare un picco breve ed improvviso in una forma d'onda.

[54] Garcia-Pelayo R., Morley P.D. “Scaling Law for Pulsar glitch”.Phys. Rew. Leters 71, 3107-10, 1993

[55] Mark Buchanan. “Ubiquità” pag. 105,  Mondadori Ed. 2001

[56] “L’immaginazione è più importante della conoscenza
”.
[57] Richardson (1881-1953), fisico inglese, si interessò alle applicazioni della matematica in casi concreti: è stato un pioniere della moderna meteorologia ed in seguito si interessò a questioni legate alle guerre ed alle relazioni internazionali sistemando e modellizzando i dati con opportune equazioni al fine di poter essere in grado di fare previsioni. Fece ampio ricorso alla matematica, ed in particolare alla statistica, per inquadrare il fenomeno bellico nell'intento di sradicarlo. I risultati più importanti del suo lavoro in questo campo si trovano in due opere, pubblicate postume, dai titoli “Arms and Insecurity; a Mathematical Study of the Causes and Origins of War”( By Lewis Fry Richardson, Published by Boxwood Press, 1960).
727 Statistics of Deadly Quarrels (By Lewis Fry Richardson, Contributor Quincy Wright, C. C. Lienau, Published by Boxwood Press, 1960). Si accorse inoltre che il risultato delle misurazioni è in relazione alle dimensioni del regolo, sostanzialmente suggerendo l’idea fondamentale a Benoit Mandelbrot per lo sviluppo della teoria dei frattali.

[59] Nella pagina della Genesi 4, Caino e Abele sono i prototipi dell'umanità considerata nelle sue relazioni fraterne; gli uomini, creati fratelli, si oppongono l'uno all'altro fino a darsi la morte. Caino è il figlio primogenito di Adamo ed Eva.

[60] Thomas Cromie Shilling. Journal of Mathematical Sociology 1, 143-86, 1971

[61] La matita è invenzione relativamente recente: la grafite che ne è la base fu infatti scoperta solo nel 1564.

[62] “L'atomo sociale. Il comportamento umano e le leggi della fisica”. 2008 Arnoldo Mondadori Ed. Milano.

[63] Vedi  a pag. 116

[64] Journal of Mathematical Sociology 1, 14-186, 1971

[65] Metafora creata da Adam Smith per rappresentare la Provvidenza, grazie alla quale nel libero mercato la ricerca del proprio interesse gioverebbe tendenzialmente all'interesse dell'intera società.

[66] Considerato unanimemente il padre della scienza economica (dell'economia politica classica).

[67] Esponente storico del liberalismo, premio Nobel per l'economia nel 1974.

[68] Daniel Kahneman, Premio Nobel per l'Economia nel 2002 alla Lectio Magistralis al Festival della Scienza di Genova nel 2006

[69] Nature 407, 487-490. 2000

[70] Mark Buchanan in “L'atomo sociale. Il comportamento umano e le leggi della fisica”. Arnoldo Mondadori Ed. Milano. 2008

[71] Paolo Macry “Gli ultimi giorni di Stati che crollano nell’Europa del Novecento” Il Mulino in stampa.

[72] Paolo Macry “Gli ultimi giorni di Stati che crollano nell’Europa del Novecento” Il Mulino in stampa.

[73] Max Weber é considerato uno dei padri fondatori dello studio moderno della sociologia e della pubblica amministrazione.

[74] Niskanen, William Arthur  Il suo studio più apprezzato è il "Bureaucracy and Representative Government", scritto nel 1971 per analizzare il settore pubblico e i costi della burocrazia nella pubblica amministrazione.  Secondo la tesi di Niskanen la burocrazia ha interesse a spingere la spesa pubblica ben oltre il suo livello ottimale, causando di conseguenza una pressione fiscale maggiore del dovuto.

[75] Termine che ho utilizzato nella Facoltà Medica di Bari, nel 1998, per chiarire la lentezza delle funzioni assembleari e delle attività gestionali della Facoltà: “Senza feedback non si cambia. La crisi della Facoltà di Medicina”., stampato sul notiziario del CIMEDOC. A cura del centro Interdipartimentale di Servizi per la Metodologia della Sperimentazione e la Documentazione Biomedica. Università di Bari. Anno II Numero 1, Pag. 1- 3.

[76] Studio di Santo Fortunato

[77] E’ la leggendaria regione di Arda, il mondo fantastico di stampo medievale creato dalla mente dello scrittore britannico John Ronald Reuel Tolkien.

[78] Pensatore "genio universale" nel vero senso della parola : é stato grande matematico , fisico , scienziato e filosofo . Sua è tra l’altro l'introduzione del sistema numerico binario, oggi utilizzato in Informatica. Questa idea, all'epoca priva di applicazioni, dovette attendere l'800 per essere ripresa e sviluppata da George Boole.

[79] Gorge Steiner ne “I Classici della Scienza. Gli Antichi, i Moderni e Noi”. RCS Libri S.p.A. Milano 2007

[80] Oppenheimer fisico statunitense diede importanti contributi nel campo meccanica quantistica, ma la sua fama è legata soprattutto alla costruzione della prima bomba atomica e alla crisi di coscienza che lo indusse a rifiutare di contribuire alla realizzazione della bomba all'idrogeno.

[81] Democrito elaborò una cosmologia nella quale l'universo è formato da mondi che devono la loro origine all'incessante moto vorticoso degli atomi nello spazio: gli atomi infatti si scontrano e ruotano, formando aggregazioni di materia più vaste.

[82] Il testo fondativo di questo aspetto del pensiero platonico è senza il celebre "mito della caverna" del libro VII de “La Repubblica”. In esso, il mondo sensibile è dato come immagine evanescente e imperfetta del mondo delle idee, inteso invece come "mondo vero" e fondamento di tutto ciò che è.

[83]La conoscenza razionale viene separata da quella sensibile con il primato della prima. E tale conoscenza non è superiore in valore relativo, perché funziona meglio e quindi è più sicura, ma perché essa è assoluta, con un valore metafisico del suo oggetto che è il mondo delle idee, contrapposto al misero mondo della conoscenza sensibile che è il mondo materiale. Si sopravvalutò il pensiero e si sottovalutò l’elemento empirico.

[84] Armando Torno. Corriere della Sera 8 maggio 2007
[85] Snow Charles. “Le due culture”; prefazione di Ludovico Geimonat. I Edizione. Feltrinelli. Milano. 1964
[86] Ludovico Geymonat (Torino, 11 maggio 1908Rho, 29 novembre 1991) è stato un filosofo, matematico e epistemologo italiano, uno tra più importanti del Novecento.

[88] P. W. Anderson Science, New Series, Vol. 177, No. 4047 (Aug. 4, 1972), pp. 393-396.

[89] Rosa Parks figura-simbolo del movimento per i diritti civili statunitense. Nel 1956 il caso della signora Parks arrivò alla Corte Suprema degli Stati Uniti d'America, che decretò, all'unanimità[1], incostituzionale la segregazione sui pullman pubblici dell'Alabama. Nel 1999 la figura-simbolo del movimento per i diritti civili  ha ottenuto la medaglia d'oro al merito del Congresso.

[90] Marini Bettolo e Coll. La forza dei granelli. Le Scienze. Agosto 2002 74-79. Jaeger H. M. e Coll. Granular Solids, Liquids and Gases.  «Review of Modern Physics», 68, pp. 1259-1273, 1996. De Gennes P.G., Reflections on the Mechanics of Granular Matter. «Physica A», 261, pp. 267-293, 1998. Puglisi A. e Coll. Clustering and Non-Gaussian Behavior in Granular Matter. «Physical Review Letters», 81, pp. 3848-3851, 1998. Duran J.  Sands, Powders, and Grains, Springer Verlag Ed, Berlino, 2000.

[91] Nelle transizioni di secondo ordine si riscontra la legge dell'elevamento a potenza

Nessun commento:

Posta un commento