30 Prevedibilita’ nelle scienze naturali
Il passato ed il presente rappresentano il futuro della conoscenza, perciò la prevedibilità degli eventi, che è insita nella natura umana, è il sogno dell’uomo sin dall’inizio della sua storia ed è il germe del suo apprendimento; la prevedibilità è la speranza, il lato luminoso dell’incerto futuro del mondo e del cammino nebbioso dell’uomo.
Sin dall’antichità i veggenti, gli indovini, i vati erano le autorità che ricoprivano un ruolo importante nel contesto delle società; Delfi, Numana e mille altri siti famosi erano frequentati in tempi normali e prima di eventi e decisioni critiche ed essenziali per le comunità antiche.
Conoscere il futuro è un sogno dell’uomo che si è rivolto ai maghi, alle religioni, ai lestofanti e che ancor oggi, nel terzo millennio, si confronta giornalmente con gli oroscopi e l’astrologia! Ad indicare una certa propensione fideistica per una sfumata, anche se ingannevole conoscenza del divenire col desiderio di colmare l’incertezza ed allontanare la paura.
Karl Popper [1], il famoso filosofo del novecento, chiamava dottrina storicistica lo studio che un domani, era il 1948, le scienze sociali avrebbero potuto prospettare delle previsioni storiche al fine di poter fornire elementi utili ai governi ed agli stati per uniformare le proprie condotte al raggiungimento dei miglioramenti previsti. In quell’anno, nel saggio “Previsioni e profezie”, prendeva ad esempio le eclissi che potevano essere previste conoscendo i moti dei pianeti e degli astri: ci si atteneva al lato positivo del determinismo e della conoscenza di newtoniana memoria.
Anche le previsioni scientifiche possono essere raggiunte in base ai dati precedentemente ottenuti e riassunti statisticamente dai risultati ottenuti; in questo caso il punto cruciale è la raccolta ed il numero delle osservazioni.
Il problema della prevedibilità delle dinamiche metereologiche fu affrontato da Lorenz, che ha comunque avuto l’indiscusso merito di iniziare il capitolo scientifico della complessità con la formulazione del concetto del “battito d’ali di una farfalla……” che sanciva la regola fondamentale dell’effetto farfalla, cioè della dipendenza sensibile dalle condizioni iniziali; la prima regola di qualsiasi dinamica della complessità. E ripeto la complessità ammanta il mondo.
La prevedibilità comunque dipende in linea di massima dal numero dei dati e dalla loro elaborazione statistica, problema, quest’ultimo non del tutto risolto con l’uso degli elaboratori elettronici.
La curiosità è il sale della conoscenza e ognuno di noi, nel proprio ambito professionale utilizza le regole che possano aiutarci ad attuarla per espletare al meglio le proprie attività. In Medicina la "predicibilità" è rappresentata dalla prognosi [2], che é raggiunta classicamente attraverso la metodologia clinica eseguendo: l’anamnesi [3] e l’esame obiettivo per poter arrivare alla diagnosi [4] e poter prevedere con un margine accettabile la prognosi.
La possibilità di elaborare modelli predittivi attendibili anche per arrivare alla diagnosi rappresenta un obiettivo sicuramente utile, lungi da voler ridurre l' "Ars Medica" ad un mero esercizio di regole deterministiche.
Vero è, tuttavia, che l'analisi in termini statistici dei dati riguardanti le varie patologie nei loro aspetti caratteristici di insorgenza, sintomi, decorso, esito, è sicuramente valida per la elaborazione dei cosiddetti "algoritmi diagnostici" e dei "pattern" (quadri clinici): modelli che aiutano il Medico nelle varie fasi delle sue attività, ottimizzando la gestione del Paziente., che ricordo, comunque, è sempre unico!
Tra l'altro il Medico deve certamente tener conto delle linee guida, delle flow charts (alberi decisionali), arricchendoli sempre di un elemento assolutamente insostituibile e non codificabile, cioè della propria esperienza clinica, che orienterà il suo agire per rendere unica e assolutamente idonea e personalizzata la cura del Paziente. Questi modelli rappresentano sicuramente un valido strumento per la formazione del futuro Medico, che in tal modo strutturerà le sue conoscenze organizzandole in modo ottimale, tuttavia il Medico nell'applicare questi modelli, deve ovviamente tener conto dei loro limiti, a volte significativi, che derivano da una caratteristica innata in qualsiasi fenomeno complesso: dall'imprevedibilità, dovuta, nello specifico ambito medico, alle estreme differenze individuali di tipo genetico, psicologico, ambientale, che tutte influiscono sorprendentemente sul mutevole decorso di ogni patologia. E’ assolutamente vero che esiste l’Ammalato, non le malattie! Tnto più che la malattia è il risultato dell’incontro tra la noxapatogena e l0rganismo del paziente.Queste sono le ragioni per cui la storia dell’ammalato da un lato e l’esame obbiettivo dall’altro, devono essere assolutamente conosciute abbandonando l'attuale tendenza riduzionistica della medicina supertecnologica, favorendo la visione olistica dell'Ammalato nella sua complessità e unitarietà di mente e corpo. Voglio aggiungere che, come in tutti i settori del sapere, l’avvento di nuovi strumenti amplifica la visione della realtà, rendendola più profonda, com’é avvenuto con l’utilizzo del cannocchiale in astronomia; ma questa nuova realtà non deve far dimenticare l’approccio umano all’Ammalato.
Per quanto riguarda la medicina, la diagnostica per immagini ha enormemente ed irreversibilmente modificato l’iter metodologico. Un nodulo neoplastico può, allo stato attuale, essere visualizzato ancor prima che possa determinare manifestazioni apprezzabili dal paziente o segni clinici rilevabili dal medico. L’obiettivo è di conoscere, nelle singole discipline le strutture e le dinamiche e di procedere ad una sorta di unificazione evidenziandone le trasversalità. Orbene questi elementi comuni già esistono e sono stati recentemente chiariti: mi riferisco allo studio delle reti, all’autorganizzazione dei sistemi complessi ed alla criticità auto-organizzata, concetti che ciascuno di noi dovrebbe trasporre nel suo campo di ricerca e utilizzare come strumenti attivi per l’attuazione dei modelli predittivi.
Viviamo ancora nell’atmosfera scientifica del determinismo, che fece dichiarare a La Place la sua nota frase: “Se conoscessimo tutte le infinite cause di un fenomeno, il futuro non sarebbe più nel regno dell’ignoto”. Questa mentalità era il frutto degli studi di Newton [5], della meccanica celeste, del rigore matematico, che permetteva di predire con esattezza il giorno, l’ora ed il luogo dove sarebbero avvenute le eclissi, ma era il tempo che già rivelava i suoi limiti non facendo risolvere il problema dei tre corpi, che non risolto, causò nel 1693 al grande Newton una crisi nervosa, che lo indusse a ritirarsi dalla ricerca e di abbandonare la prestigiosa cattedra di Cambridge! Comunque l’eccelso studioso riuscì a consolarsi assumendo un impiego governativo a Londra, diventando prima Controllore e dopo tre anni Direttore della Zecca Reale! Anche i grandi uomini sono attaccati alla pecunia, ma per Newton si è trattato di consolazione…!
Tuttavia l’Universo culturale di Newton: il determinismo ed il meccanicismo, hanno offerto all’Uomo la possibilità di poter prevedere il futuro, e questa realtà, valida in alcuni campi del sapere, ha contribuito allo sviluppo delle conoscenze in altre discipline, ammantando di fiducia riflessa la sua volontà positiva. L’evolversi del pensiero, l’evidenza della realtà complessa ha poi ridotto i settori nei quali la previsione poteva essere presa in considerazione e studiata in seguito solamente in termini probabilistici con l’aiuto della statistica. Perché la capacità di comprendere i fenomeni non implica necessariamente la capacità di prevederne i comportamenti se non a livello statistico. Nel settembre 2002, dieci anni fa, a Lussino si è svolse un Convegno organizzato dalla SISSA sulla “Predicibilità nelle Scienze Naturali” [6] nell’ambito di un progetto formulato dalle principali Università del centro Europa con la finalità di istituire un centro europeo per la Scienza, l’Arte e la Cultura dal titolo: “Quale ruolo della Matematica nelle scienze fisiche”, per prevedere i fenomeni naturali: terremoti, uragani, tsunami e le alterazioni climatiche con l’ottica matematica.
Galileo nel Saggiatore scrisse:” La Filosofia è scritta in questo grandissimo libro…Egli è scritto in lingua matematica”. Osservare, sperimentare…misurare e con metodo induttivo arrivare a prevedere l’evoluzione dei fenomeni; era il 1600 e d’allora il mondo scientifico ha subito due profonde evoluzioni: la prima dovuta alla relatività speciale in cui il tempo assoluto di Newton è finito nel cestino, e la seconda alla meccanica quantistica, che rende impossibile concepire l’elettrone contemporaneamente come punto materiale dotato di massa o stato di energia.
Queste due rivoluzioni epistemologiche hanno reso impossibile studiare la natura tramite la semplice osservazione della realtà e la via sperimentale. Il primo fu Dirac [7] nel 1930 a specificare che non era più il tempo per formulare in termini matematici i dati ricavati dagli esperimenti; d’ora in poi –aggiunse – il metodo più potente sarà quello di impiegare le risorse della matematica pura e di cercare di interpretare le nuove matematiche in termini di entità fisiche”. Dirac stesso due anni prima (nel 1928) aveva preconizzato l’esistenza del positrone dell’antimateria per via matematica, poi osservata da Anderson [8]. La matematica pura fu anche utilizzata da Einstein per giungere alle leggi della relatività.
Non si deve più leggere “il libro dell’Universo” osservando i fenomeni per individuare le leggi, ma si deve tentare di leggere sul libro dell’Universo la matematica e le leggi, che poi, a posteriori, possono venir confermate dai fenomeni da loro determinati, spesso anche costruendo gli strumenti per controllare gli esperimenti. E’ una rivoluzione epistemologica, che privilegia il pensiero astratto: la matematica pura, che nel caso della ricerca rappresenta lo strumento per scoprire le leggi dei fenomeni, che solo a posteriori possono essere visualizzati, il che sta ad indicare l’assonanza tra la nostra mente e le leggi ancora da scoprire o, ancora, che la realtà è effettivamente intrisa di matematica, tanto da considerare plausibili le argomentazioni di Pitagora, che affermava la realtà essere intrisa di matematica, essenza dell’Universo.
Tornando alla prevedibilità, solo la teoria della probabilità è lo strumento matematico per analizzare le dinamiche governate dal caos e dalla complessità.
Nel XVIII secolo Jacob Bernoulli [9] scoprì la “legge dei grandi numeri” dimostrando che il risultato medio di un evento è solitamente prossimo al valore atteso quando è osservato o si ripete numerose volte: maggiore è il numero delle osservazioni, maggiore è l’approssimazione del valore atteso al valore medio.
Una altro grande della statistica è stato Simeon-Denis Poisson [10], che sin da piccolo si interessava alla matematica – era lettore della rivista paterna “Journal of the Polytechnical School”, ciononostante fu costretto dalla famiglia a seguire i corsi di Medicina, che abbandonò al primo paziente deceduto! Mi spiace per il paziente, ma la Matematica e la Statistica da questo decesso ne hanno beneficiato! La sua vulcanica attività scientifica spaziava dalla matematica, alla fisica, all’astronomia; fu autore di più di trecento importanti contributi. Il suo nome è inciso sulla Torre Eifel ed è stato dato ad un cratere lunare. Il lavoro più famoso, che rappresenta il fondamento degli studi di statistica fu scritto da Poisson tre anni prima di morire e si intitola: ”Recherches sur la probabilitè des jugements en materie criminelle et en materie civile”; nel testo dimostrò la possibilità che la probabilità di errore di un giurato è calcolabile conoscendo il numero dei processi e quello delle condanne che sono state formulate in un anno, utilizzando la variabile casuale poissoniana; la distribuzione di Poisson (o Poissoniana) è una distribuzione di probabilità discreta, che esprime la probabilità per il numero di eventi che si verificano successivamente ed indipendentemente in un dato intervallo temporale, conoscendo che medialmente se ne verifica un dato numero. Questa distribuzione anche nota come legge degli eventi rari. Nel 1937 Harold Kramer [11] intuì che le approssimazioni standard non erano in realtà costantemente affidabili, per la presenza di eventi non prevedibili.
Siamo immersi in una ragnatela dinamica strutturata in forma matematica che continua ad essere compiutamente chiarita; a tal proposito voglio ricordare che 144 anni fa nel 1827 il botanico scozzese Robert Brown servendosi di un comune microscopio osservò lo strano comportamento di granuli di polline immersi nell’acqua: mostravano un movimento turbolento casuale benché il liquido fosse totalmente immoto; il botanico estese le sue osservazioni utilizzando altre particelle e tutte si comportavano nello stesso modo, tanto che Brown definì queste particelle “molecole attive”. Decenni dopo fu ipotizzato che il movimento Browniano fosse dovuto agli irregolari urti delle molecole d’acqua sui granuli sospesi ed Einstein, nel 1905, chiarì con rigorose osservazioni il continuo, incessante moto turbolento, dovuto agli urti delle molecole d’acqua per agitazione termica, dimostrando inoltre che la distanza media percorsa da ciascuna particella era proporzionale alla radice quadrata del tempo di osservazione. Tre anni dopo Jean Baptiste Perrin [12] documentò queste osservazioni filmando con una cinepresa collegata ad un microscopio il moto delle particelle di gomma-resina in sospensione, fornendo la conferma sperimentale delle equazioni di Einstein. I singoli movimenti casuali delle particelle, che furono definiti una “passeggiata regolare”, possono venir cumulativamente riassunti e raffigurati da una tipica curva simmetrica gaussiana. Esistono tuttavia, in altri contesti, dinamiche quasi simili, che differiscono per la presenza irregolare di “salti”, ovvero di spostamenti molto superiori a quelli simili del moto browniano; queste dinamiche chiamate voli di Levy vengono espresse da un diagramma con la nota curva alla potenza, simile a quella che visualizza l’entità dei terremoti (la magnetudo) rispetto al tempo o le dimensioni delle città in un dato territorio o la distribuzione dei redditi in una data società. Nel caso dei voli di Levy i movimenti, ripeto, sono simili a quelli de moto browniano, ma ogni tanto si visualizzano dei tragitti molto lunghi, che vengono segnalati con la curva alla potenza. Paul Pierre Levy [13] scopritore di queste dinamiche era un ebreo francese, matematico, studioso del calcolo probabilistico e fu anche insegnante di Benoit Mandelbrot, che in seguito, negli anni cinquanta, evidenziò il manifestarsi della legge di potenza anche nella teoria dell’informazione di Claude Shannon [14].
Il vero caposcuola di questa dinamica, comune in numerosissimi contesti e che si esprime con la legge di potenza, fu comunque e ne abbiamo parlato, il linguista George Kingsley Zipf [15], che studiò la frequenza delle singole parole in un contesto scritto ed anche la distribuzione del numero degli abitanti nelle diverse città di un dato territorio (Capitolo 28); in qualsiasi regione esiste una città abitata da un maggior numero di abitanti, poi due o tre città con un numero gradatamente inferiore di abitanti, poi gradualmente molte a seguire con un numero sempre minore e tutte in una scala auto similare alla potenza: distribuzione evidente in numerosissimi contesti.
La differenza tra il moto browniano, definito “passeggiata casuale regolare” simile ad un processo di diffusione normale, e il volo di Levy, é pertanto la curva alla potenza, che deriva dai ripetuti “salti” della “passeggiata volante”, espressione di un processo di superdiffusione.
Ma il dato più intrigante è che questa dinamica è universale: si riscontra nel comportamento di numerosissimi animali: dagli albatros [16] alle scimmie, dalle formiche ai bombi, dalle renne ai pescecani [17], dai pinguini ai moscerini della frutta [18] e, guarda caso è evidente anche nel nostro comportamento [19] quando siamo alla ricerca di un oggetto, e la iniziamo in un posto, poi ci spostiamo in un altro continuandola e, se non troviamo quel che ci interessa, imprecando, ci spostiamo nuovamente [20]. E’ questo il comportamento più redditizio in natura, che anche gli squali esibiscono per la ricerca di branchi di ignari pesci o ancora noi stessi, quando andiamo alla ricerca di funghi nel sottobosco in montagna. Ma ancor più strabiliante è che questa dinamica “a scatti” sia presente anche in biologia cellulare [21] quando un fattore di trascrizione deve trovare esattamente il sito preciso sul chilometrico filamento del DNA dove svolgere la sua azione specifica: la proteina si attacca a caso in un punto del filamento e si sposta nelle vicinanze; se non si aggancia compie un salto cercando un altro territorio sino all’ultimo balzo, quando trova finalmente la tripletta specifica su cui agire.
La stessa dinamica è propria delle reti ad invarianza di scala [22],[23], caratteristica delle reti metaboliche, sociali,economiche e che si ritrova in ambito fisico nelle transizioni di fase, nel condensato di Bose-Einstein [24] e nel comportamento dei materiali ferromagnetici e l’evoluzione delle opinioni nelle reti sociali [25] e, ultimamente nel comportamento della superdiffusione della luce in un vetro composto da silicato di sodio e da biossido di titanio, che si diffonde in modo non convenzionale, tale da poter essere utilizzato nei pannelli fotovoltaici aumentando a dismisura l’efficienza della trasformazione dalla luce in energia [26].
Nel maggio di quattro anni fa (il 22 maggio del 2007) Raghu, pseudonimo del matematico indo-statunitense Srinivasan Varadhan [27] del prestigioso Istituto delle scienze matematiche di New-York, ha ricevuto il famoso premio Abel [28] per il suo determinante contributo alla teoria della probabilità ed in particolare alla creazione di una teoria unificata delle grandi deviazioni. E’ questo il frutto di trent’anni di studio sulla teoria delle grandi deviazioni e consiste in formule matematiche, che possono dare una chiave di accesso al chiarimento dell’imprevisto nella fisica delle dinamiche caotiche, identificando i principi della teoria delle grandi deviazioni. Siamo a conoscenza che tutti i fenomeni e tutte le dinamiche non sono deterministiche, ma sono solo rappresentabili con modelli stocastici; le deviazioni che queste dinamiche presentano vengono definite “rumori” (termine forse usato anche perché danno fastidio alle persone abituate al rigore ed al silenzio deterministico!). Le piccole deviazioni sono pertanto eventi da considerare naturali, perché avvengono costantemente. Solo le grandi deviazioni col metodo usuale di misurazione risultano improbabili e di conseguenza non prevedibili.
Quando ci accingiamo ad esempio a fare una gita in alta montagna, prepariamo il nostro abbigliamento in modo da poter affrontare non solo le difficoltà della salita e le pericolosità di alcuni sentieri esposti, ma anche l’eventuale mutamento del tempo. Sappiamo bene che le previsioni meteorologiche - (viste con trepidazione alla televisione) non sono l’ultima possibilità che abbiamo per affrontare tranquillamente la gita sognata durante tutto l’anno e da farsi nello striminzito periodo di vacanze – dobbiamo tener conto anche di quelle che riguardano direttamente l’ambiente montano e che risultano ancor meno esatte, perché risentono di numerosi fattori microclimatici. Certo è che i nostri passi sono in relazione alle diverse caratteristiche ambientali. Ed è essenziale osservare con attenzione il sentiero ed il paesaggio, in modo da poter scegliere il tragitto più idoneo e meno pericoloso; dobbiamo continuamente tener conto dell’ambiente dal nostro punto di vista, muovendoci nell’ambiente in modo da muovere il sistema di riferimento contemporaneamente al nostro movimento. Non dare risalto solo al nostro moto nell’ambiente che cambia, ma considerare le modifiche dell’ambiente che possiamo individuare come punti in relazione degli ambienti. Considerare il moto di un ambiente aleatorio è analogamente complesso rispetto al moto aleatorio in un ambiente, ma certamente apre la via ad una trattazione matematica più verosimile ed idonea. Questo, tradotto in soldoni, è stato il pensiero di Srinivasan Varadhan: l’imprevisto in tal modo può mostrare dei lati non del tutto imprevedibili!
Il ragionamento che Srinivasan Varadhan ha sviluppato è che la diversità tra una deviazione piccola ed una grande è in relazione alla dimensione del sistema. Se osserviamo un oggetto o se calcoliamo un movimento a scala di misurazione più piccola, l’oggetto o il movimento risulterà in primo piano e pertanto sarà maggiormente percepito, ma se l’osservazione utilizza “il campo lungo” [29], l’entità dell’oggetto o del movimento risulterà ridotta. Consideriamo il modello precedente: la deviazione stocastica con una deviazione abnorme. O.K. per misurare la sua probabilità dobbiamo modificare il modello ambientale in modo che la “grande deviazione” divenga un “rumore”, poi misuriamo il rapporto tra la scala di misurazione iniziale e quella del nuovo ambiente, misurando di quanto abbiamo modificato il modello ambientale per raggiungere lo scopo, usando una funzione che indichi quanto serve per produrre un evento anomalo. Il valore minimo stimato viene considerato come la probabilità che l’evento anomalo avvenga.
Immaginiamo ora una particella che si muova casualmente nello spazio: il moto Browniano ne è un esempio classico; la particella traccerà una traiettoria chiamata “cammino di Wiener”; se sostituiamo la particella con una sferetta il movimento traccerà un percorso espresso non da un segmento, ma da un volume simile ad un tubo: la “salsiccia di Wiener”. Per stimare la probabilità del volume del salsicciotto a causa del suo riavvolgimento (che implica la rioccupazione del volume in precedenza già occupato) il problema di fisica statistica è notevolmente complesso. A questo punto è nata l’idea di non analizzare il volume del salsicciotto, ma di studiare il volume dell’ambiente entro cui il salsicciotto si avvolge, ovvero invece di studiare il volume del salume si studia il volume della salumeria. Invece di studiare il moto in un ambiente che cambia, si studia il moto di un ambiente che cambia considerandolo un punto nello spazio degli ambienti: il che è un problema più facilmente affrontabile e gestibile. (Invece di studiare il moto in un ambiente fisso, studiamo il moto considerandolo con il cambiamento dell’ambiente, cioè studiamo il moto con il sistema di riferimento: il moto dell’ambiente, che diviene un punto nello spazio degli ambienti).
Nel 2006 la medaglia Fields [30] è stata assegnata al probabilista Werner [31]; nel 2007 il premio Abel assegnato a Raghu per lo studio della teoria della probabilità: pare sia giunto il tempo nel quale la probabilità inizia ad essere integrata come disciplina nell’ambito della matematica; ed anche in questo caso il determinismo cede, sgretolandosi, verso una concezione più aderente alla realtà, che è governata dalle leggi del caos e della complessità. Verranno gli anni che renderanno la nebbia del futuro meno spessa e più penetrabile.
Ma – in definitiva - il futuro è prevedibile?
Per rispondere a questa domanda dobbiamo innanzitutto chiarire in che campo della realtà e quali sono i quesiti che formuliamo. Certamente poiché la realtà, come abbiamo detto, è condizionata ed è espressa dalla matematica la misurazione degli elementi di cui vogliamo predire il futuro risulta essenziale; ci viene in aiuto l’intuizione ed il lavoro di Albert Lazlo Barabasi che in una recente pubblicazione ci propone una tesi che rigorosamente è risultata efficace [32]. Partiamo dai risultati conseguiti: egli afferma che per noi umani, inseriti nella realtà digitale attuale e nella intricata ed intrigante matassa della rete globale, le nostre attività sono prevedibili al 93% dei casi. Presupposto di questo risultato, che sembra eccessivo, è che ogni nostro movimento, ogni nostra attività sono costellate da una serie di tracce fisiche: foto, filmati, video, registrazioni e soprattutto da tracce elettroniche: siamo costantemente localizzati dai gps, dai nostri telefonini, dalle nostre e-mail e da tutte le possibili e per noi essenziali strumentazioni elettroniche ed anche dalle registrazioni delle telecamere di videosorveglianza, che, a parte i problemi etici riguardanti la privacy (forse poste troppo in evidenza!) documentano oggettivamente i comportamenti di milioni di persone.
Questa realtà telematico-digitale è la base dell’analisi che informatici, fisici, psicologi e sociologhi utilizzano per formulare schemi e meccanismi utili alla prevedibilità delle nostre attività, alla stregua, e con gli stessi criteri che si utilizzano nell’ambito delle ricerche inerenti le scienze naturali. Inoltre i risultati ottenuti evidenziano una valenza economica di tutto rispetto: si tratta di milioni di dollari che derivano dalla conoscenza e dalle conseguenti indicazioni utili per le più disparate attività produttive ed economiche. Nel mercato globalizzato, che rende i singoli componenti di un gregge uniforme e ligio alle mode indicate dai media, questi dati oltre ad orientare i mercati ed essere utilizzati dalle industrie, contemporaneamente posseggono un significato scientifico, messo in luce da Barabasi, riuscendo ad ottenere una valenza predittiva individuale del 93 %. Ovviamente solo per soggetti – e sono la quasi totalità – inseriti nella nostra realtà digitale odierna. Questa prevedibilità si evidenzia nei comportamenti dei singoli componenti dell’insieme sociale.
Ma la domanda che ci poniamo: questa prevedibilità, così valida e consistente, può essere traslata all’insieme di appartenenza? La mia risposta è: No! Perché la dinamica dell’insieme è sì cumulativa, ma è una dinamica emergente, che fa risaltare nuove ed imprevedibili capacità espressive.
La legge di Newton è valida per pianeti, satelliti, comete e stelle, ma non lo è per i singoli componenti che le compongono. A tal riguardo aggiungo una mia considerazione: le dinamiche che interessano i sistemi emergenti sono anch’esse sensibili alla contingenza, che può far modificare la loro dinamica imprevedibilmente. Inoltre per esprimere il mio pensiero paragono i singoli costituenti dell’enorme insieme della società ai singoli chicchi del mucchietto di riso dell’esperimento di Bak, Chao Tang e Kurt Weisenfel (Capitolo 28), esempio della criticità autorganizzata, mucchietto, che voglio considerare alla stregua dell’intera società. Orbene continuando il paragone: la situazione di un individuo, cristallizzata in un dato momento temporale, rappresenta l’espressione delle proprie dinamiche, del proprio conto in banca, dei suoi spostamenti e delle sue molteplici abitudini, parimenti il singolo chicco di riso è localizzato in un posto con un contatto fisico con i chicchi vicini, e la sua statica dipende dall’orientamento del chicco, dal suo peso, e dalla sua particolare forma – sappiamo che i chicchi non sono eguali tra loro, né sono sferici e presentano lati più lisci e altri più ruvidi – ma non solo – di ciascuno dobbiamo considerare la posizione nel contesto del mucchio: se alla base, se all’interno e se situato alla superficie; e poi dobbiamo considerare il tempo necessario alla formazione del mucchio, che crescendo rende le pareti più ripide e maggiormente friabili sino all’evento finale del crollo. Per cui è pur vero che il singolo costituente sia capace di condizionare il mucchio o la società, ma contemporaneamente la sua storia riguarda principalmente il singolo chicco o la singola persona avendo la possibilità di interferire nell’insieme condizionandone la sua evoluzione. Due realtà, due reti separate che possono embricarsi e determinare sia la singola evoluzione sia quella cumulativa dell’insieme.
Essendo la realtà strutturata secondo una ragnatela matematica di base su cui si appone la contingenza, mi sembra ovvio che il lato strutturale possa venir indagato con leggi matematiche, mentre il complesso derivante dalla contingenza, forse solo in un “futuro remoto” potrà essere affrontato e forse risolto dalla dinamica quantistica. Ma questa é pura immaginazione. Dobbiamo ancora ricordare la frase che Einstein spesso ripeteva: “Imagination is more important than knowledge”.
Sappiamo che il mondo dei quanti può
essere valutato solo su base probabilistica derivante dall’indeterminazione di
Heisenberg con le leggi probabilistiche della meccanica dei quanti; nel mondo
macroscopico la meccanica si basa invece su eventi prevedibili. Questa dicotomia
tra micro e macrocosmo da novantadue anni ha rappresentato il problema dei
problemi ed ora dallo studio di Albrecth e Phillips è stata posta in
discussione; gli Autori sostengono infatti che l’incertezza del mondo
macroscopico non sia dovuta alla nostra ignoranza, risolvibile solo su base
statistica, ma rappresenti un riflesso della probabilità intrinsecamente
collegata ai fenomeni quantistici del microcosmo sottostante.
Gli Autori
prendono in considerazione un sistema fisico ideale costituito da molecole
perfettamente elastiche che collidano tra loro senza sosta e che per il
principio di indeterminazione non è possibile nello stesso istante valutare né
la posizione, né il moto (la velocità) delle singole particelle costitutive,
che parimenti risultano intrinsecamente indeterminate. Ad ogni collisione
l’incertezza aumenta amplificandosi a dismisura nel tempo; l’effetto
complessivo del fluido reale viene pertanto influenzato da fluttuazioni
quantomeccaniche. Se ora consideriamo una dinamica a scala maggiore: il lancio
di una monetina per stabilire il “testa o croce”, le conseguenze vengono
ulteriormente influenzate da successive dinamiche: muscolari, neuronali, e
riguardanti anche le sinapsi, il cui flusso ionico presenta un’incertezza
temporale di 1/1.000 di secondo [34]. E se calcoliamo che una monetina lanciata
compie circa mezzo giro, nella stessa frazione temporale, l’incertezza viene
ancora amplificata.
Gli Autori
stessi ammettono che questo esempio è particolare: non tutte le dinamiche
possono venir considerate con una successione così manifesta delle influenze
della sfera quantistica, ciononostante questo studio solleva un problema di
fondo: le indagini sulle diverse dinamiche macroscopiche, che sino ad oggi sono
affidate utilizzando i criteri classici della probabilità, devono essere
comprensive di una valutazione sistemica, cosa che non viene mai attuata.
E aggiungo
ancora la considerazione di Erwin Schrodinger [35]]: Il compito non è tanto di
vedere ciò che nessuno ha ancora visto,
ma quello di pensare ciò che nessuno ha mai pensato a proposito delle cose che
tutti vedono.
A cui
aggiungo: Perché la verità é sempre sotto i nostri occhi, basta cercarla.
Del resto
anche le strutture molecolari del carbonio condizionano le diverse proprietà
della materia macroscopica: la grafite tenera e friabile o il diamante duro e
.splendente.
Ed anche nell’arte: i volti dipinti da Renbrandt, che sfumano dal
buio o la Pietà Rondanini che si confonde col marmo da cui emerge.
_________________________________________________
[1] Karl
Popper (1902 -1994), epistemologo austriaco di nascita, britannico d'adozione è
considerato uno dei più influenti filosofi della scienza del Novecento. Popper
è anche considerato un filosofo politico di statura considerevole, difensore
della democrazia e del liberalismo e avversario di ogni forma di totalitarismo.
Egli è noto per il rifiuto e la critica dell'induzione, la proposta della
falsificabilità come criterio di demarcazione tra scienza e metafisica, la
difesa della 'società aperta'.
[3] Anamnesi:
Ana= indietro e mnastai = ricordo.
[7] Paul
Adrien Maurice Dirac fisico teorico e matematico britannico annoverato tra i fondatori della fisica
quantistica. Nel 1933 ricevette il premio
Nobel assieme aSchrödinger per "la scoperta di nuove forme
della teoria atomica". Descrisse l'elettroneda
un punto di vista relativistico che permise di predire l’esistenza del
positrone, avente la stessa massa e carica dell’elettrone, ma di segno opposto.
Nel 1933 ricevette ilpremio
Nobel assieme a Schrödinger per "la scoperta di nuove forme
della teoria atomica".
[8] Anderson
Carl David nel 1932 riuscì a fornire una evidenza concreta dell'esistenza dell'antimateria.
La scoperta avvenne nel corso di un esperimento volto a studiare la natura dei
Raggi Cosmici, il flusso di particelle provenienti dallo spazio che ogni
istante colpisce il nostro pianeta. Fra tante tracce ordinarie, Anderson ne
identificò una particolare, che corrispondeva al passaggio di una particella
con massa uguale all'elettrone, ma con carica elettrica opposta, cioè positiva:
era il primo segno tangibile dell'esistenza dell'antielettrone, che oggi
chiamiamo positrone.
[9] Jacob
Bernoulli matematico e scienziato svizzero.
La sua opera principale è “Ars Conjectandi” pubblicato postumo nel 1713 e rappresenta un lavoro fondamentale
della teoria delle probabilità.
[10] Simeon-Denis
Poisson (1781-1840) matematico, fisico, astronomo e statistico francese,
docente nell’Ecole polytechnique di Parigi grazie al sostegno di Laplace e
succedette a Fourier. Nel 1816 ottenne la cattedra di meccanica alla Sorbona e
venne eletto Accademico delle Scienze.
[12] Jean
Baptiste Perrin (1810-1942) Fisico francese che per i suoi studi sul moto
browniano ha confermato la natura atomica della materia. Per questo risultato è
stato onorato con il premio Nobel per la Fisica nel 1926.
[13] Paul
Pierre Levy (1886-1971) matematico e statistico francese noto soprattutto per i
suoi contributi alla teoria della probabilità
[14] Claude
Shannon (1916-2001), matematico e ingegnere elettronico statunitense, viene
considerato il fondatore della teoria dell'informazione. Coniò la parola “bit”
per designare l'unità elementare d'informazione. Con la sua teoria
dell’informazione pose le basi per progettare sistemi informatici, partendo dal
presupposto che l'importante era cercare di memorizzare le informazioni in modo
da poterle trasferire e collegarle tra loro. Nella teoria dell’informazione
l'entropia misura la quantità di incertezza in un segnale aleatorio cioè
l'entropia è il limite inferiore della comprensione dei dati senza perdita
d’informazione.
[15] George
Kingsley Zipf (1902-1950) linguista e filologo statunitense studio la frequenza
con la quale compaiono le parole proponendo nel 1949 in "Human Behaviour and
the Principle of Least-Effort" una relazione oggi nota come legge di
Zipf..
“Lévy flight search patterns of wandering albatros” Nature 381, No 6581,
413-415, 1996
[20]
M. Gonzalez, et al. Gonzalez, et al. “Understanding human mobility patterns”.
Nature 453, 779-782, 2008(2008) Understanding human mobility patterns. Nature 453, 779-782.
[21]Valdez,
et al. Valdez F.et al. (2011) An improved evolutionary method with fuzzy logic
for combining particle swarm optimization and genetic algorithms “An improved
evolutionary method with fuzzy logic for combining Particle Swarm Optimization
and Genetic Algorithms”. Applied Software Computing 11, 2625-2632, Applied
Computing Software 11, 2625-2632, 2011
[23] Barabasi A-L .
Albert R., Jeong H. “Mean-Field Theory for Scale-Free Random Networks”. Physica
A 272, 173-187, 1999
[24]
Barabasi A-L., Bianconi G. “Bose-Einstein Condensation in Complex Networks”
Physical Rewiew Letters 86, n.24, 5632-5635, 2001
[25] Chang I. “Sznajd
sociophysics model on a triangular lattice: ferro and antiferromagnetic
opinions” International Journal of Modern Physics C, 12, n. 10, 1509-1512, 2001
[26] Pierre
Barthelemy, Jacopo Bertotti and Diederik S. Wiersma “A Levy flight for light”
Nature 453, 495, 2008 doi: 10.1038/nature06948
[27] Srinivasa
Varadhan premio Abel per il 2007 a Srinivasa S. R. Varadhan Courant Institute
of Mathematical Sciences, New York “per il suo contributo determinante alla
teoria della probabilità ed in particolare alla creazione di una teoria
unificata delle grandi deviazioni.”
[28] Il
Premio Abel, in inglese Abel Prize, è un riconoscimento assegnato ogni anno dal
Re di Norvegia ad un eminente matematico straniero. Nel 2001 il governo
norvegese ha annunciato l'istituzione di questo nuovo premio per i matematici,
denominato Abel, nel bicentenario della nascita del grande matematico norvegese
Nielsen Henrick Abel (1802), stanziando un fondo iniziale di circa 23.000.000
di dollari.
[30] La
medaglia Fields è la massima onorificenza per un giovane matematico di età
inferiore ai 40 anni. Viene assegnata, al massimo, a 4 matematici durante il quadriennale congresso internazionale dei matematici. L'Unione Matematica
Internazionale riunita
a Madrid il 22 agosto 2006 ha conferito quattro medaglie Fields, il più alto riconoscimento in
matematica: al russo Andrei Okounkov, all'australiano Terence Tao, al tedesco
Wendelin Werner e al russo Gregori Perelman. Ma Perelman non si è
presentato a ritirare la medaglia.
[31] Wendelin
Werner (tedesco di nascita, ma vissuto in Francia dall'età di 9 anni) è il
primo probabilista a cui viene attribuito il prestigioso premio.
[32] “Bursts.
The Hidden Partern Behind Everything”. “Lampi. La Trama nascosta che guida la
nostra vita.” Giulio Einaudi ed. Torino. 2011
Andreas
Albrecth e Daviel Phillips. “Origin of probabilities and their application to
the multiverse.” arXiv:q1212.0953v1 [gr-qc] 5 Dec. 2012
Feisal
A.A., Selen L.P.J. and Wolpert
D. M. Nature rewiews Neuroscince 9, 292, 2008
[35] Fisico
e matematico
austriaco
famoso per il suo contributo alla meccanica quantistica, in particolar modo per
l'Equazione di Schrödinger, per la quale
vinse il Premio Nobel nel 1933.
Nessun commento:
Posta un commento