lunedì 10 settembre 2012

20 I Sistemi complessi. L'Autorganizzazione




20     I Sistemi complessi. L'Autorganizzazione



Un sistema é complesso quando è costituito da più componenti indipendenti che, realizzando una rete, interagiscono tra loro in infiniti modi possibili con un risultato finale che non é la semplice somma dei vari elementi, ma é frutto della loro interazione. Uno più uno non fa due, può fare anche mille. Le reti, al margine del caos, presentano un certo grado di stabilità, ma anche un grado di disordine, che permette loro la flessibilità necessaria per adattarsi rapidamente alla realtà esterna, rispondendo in modo omeostatico all’ambiente e in definitiva consentendo l’evoluzione del sistema. 



E questo perché l’evento caotico presenta sempre tre caratteristiche: non é lineare, dipende dalle condizioni iniziali ed é soggetto a meccanismi di retroazione. 



Ma formuliamo qualche esempio esplicativo: le singole esigenze individuali, che sono alla base degli scambi e delle vendite fanno nascere un sistema economico, che presenta caratteristiche fenomenologiche del tutto peculiari. Gli atomi formano, ad esempio, legami chimici con altri atomi raggiungendo in tal modo uno stato di minima energia ed organizzandosi in nuove strutture: le molecole, che posseggono caratteristiche emergenti, non esistenti nei loro singoli costituenti; la molecola dell’acqua possiede delle caratteristiche certamente diverse da quelle dell’atomo d’idrogeno e dell’ossigeno, che pure la costituiscono. 



Se togliamo il tappo dello scarico in un lavandino osserveremo il formarsi di un vortice costituito dall’insieme delle molecole d’acqua che complessivamente formano una struttura emergente. Il gorgo che si viene a creare è un chiaro esempio di autorganizzazione, è contemporaneamente un sistema aperto, perché le molecole che lo costituiscono variano continuamente e, nello stesso tempo, è un sistema chiuso, perché la forma che osserviamo è sempre la stessa ed inoltre è omeostatico, perché modifica la sua forma a secondo degli input esterni; la struttura emergente non dipende sicuramente dalle singole molecole d’acqua, ma dal loro insieme. 



Secondo Prigogine [1] “i sistemi”, da lui definiti, “dissipativi”, perché traggono l’energia dall’esterno del sistema evolvono in contrasto con il secondo principio della termodinamica e sono gli unici capaci di progredire ed in natura sono i più creativi; questi sistemi sono capaci di modificare la loro stabilità potendo evolvere come i sistemi vitali e la vita stessa che ne rappresentano gli esempi paradigmatici. Questi sistemi, secondo me, sono l’espressione completa della realtà: esistono materialmente perché sono ed in più, contemporaneamente, hanno e posseggono pienamente quell’unità che proviene dalla loro base matematica strutturale e dai fattori che in misura più consistente sono inseriti nel tempo ed evolvono nell’ambito della contingenza. 

L’evoluzione dei sistemi complessi sottostà ad una duplice dinamica: quella convergente propria dell’auto-organizzazione e quella divergente, espressa in ambito biologico dall’evoluzione darwiniana [2]; il dato più strabiliante è che la loro evoluzione si manifesta e si attua avendo come supporto una griglia o una rete universale che evidenzia l’autosimilarità insita nel suo divenire e che, poiché si manifesta nel tempo, viene espressa con una curva alla potenza; perciò entrambe, poiché espressione dell’autosimilarità, presentano caratteristiche di un accrescimento frattalico. E la legge di potenza rappresenta il marchio di fabbrica dell’autorganizzazione dei sistemi complessi. 

I diversi e molteplici elementi dei sistemi complessi, a seconda delle tipologie strutturali, possono essere destinati o a non evolvere o ad evidenziare attività auto-organizzative e autopoietiche; i primi presentano una struttura ordinata cristallizzandosi, come nel caso di quelle molecole complesse, che non essendo in grado di attività autopoietiche, non riescono a dar corpo e ad integrarsi in cicli metabolici; la stessa inerzia evolutiva è caratteristica dei sistemi caotici la cui “non struttura” rende impossibile qualsiasi sviluppo. I sistemi intermedi, al confine tra ordine e caos, presentano invece proprietà omeostatiche, ottimali per presentare ed evidenziare capacità auto-organizzative, per essere plasmati dall’ambiente e di conseguenza dall’evoluzione attuata dal filtro selettivo. E così la vita stessa, che trae origine dall’attività autopoietica delle molecole complesse, rappresenta un evento atteso e non, come prospettato da Monod, un evento assolutamente improbabile. Aleggia in questa visione, prospettata da Stuart Kauffman [3], biologo dell’istituto Santa Fé nel New Mexico, l’intuizione di Schopenhauer, che considerava i viventi come oggettivazione della volontà dell’esistenza senza fini prestabiliti, ma come schemi, che li rende partecipi al respiro dell’universo [4]

La frontiera della scienza della complessità è rappresentata dagli studi della struttura e delle dinamiche delle reti che la costituiscono, ed alla cui base vi è l’autorganizzazione, fenomeno che rappresenta il motore e l’essenza evolutiva di tutte le dinamiche: fisiche, biologiche, organiche, genetiche, sociali, interessando qualsiasi tipo di aggregazione: dagli atomi alle galassie. 

La cultura in cui siamo immersi, con l’intento di farci comprendere la realtà di cui siamo partecipi, ha suddiviso ed analizzato il mondo sino ai suoi infinitesimi costituenti e solo da poco l’obiettivo che ci si pone è quello di interpretare la realtà nel suo complesso, in una rinnovata visione integrata dei saperi. 

Da sempre si considerano le organizzazioni come espressione di costruzioni piramidali con una mente dirigente che dall’apice si espande alla base: “up – down”; ma osservando la natura ed avvalendosi degli studi della scienza della complessità, si dimostra l’esatto contrario: l’autorganizzazione emerge come fenomeno “bottom - up”. Il primo a considerare il processo evolutivo in tal senso fu Friedrich von Hayek, vincitore del Premio Nobel nel 1974 per l’economia, che all'inizio degli anni `90 affermò che "il liberalismo è l'unica filosofia politica veramente moderna, l'unica compatibile con le scienze esatte; e converge con le più recenti teorie fisiche, chimiche e biologiche ed in particolare con la scienza allora detta del caos, poi formalizzata da Ilya Prigogine. L'ordine nasce dal caos sia nell'economia di mercato sia nella Natura: milioni di decisioni si assestano spontaneamente e non portano al disordine, bensì ad un “ordine superiore", che comunque non è prevedibile, ma che purtroppo si affianca alla criticità auto organizzata che prima o poi, lo destina al fallimento. 

Secondo Murray Gell-Mann [5], premio Nobel per la fisica nel 1969, l'enorme complessità del mondo e dell'universo deriva dalla reiterazione casuale e ripetuta di regole di base molto semplici; per definire questo tipo di ricerca coniò il termine Plectics, che studia la concatenazione tra le leggi semplici ed i sistemi complessi, riscontrabile non solo nelle dinamiche naturali, ma anche applicabili al linguaggio e all'economia. 

Il mondo evolve, vive e continuamente si rinnova in bilico tra l’autorganizzazione e la criticità autorganizzata, che costantemente lo accompagna. 

Il Sistema Dissipativo o Sistema Complesso Adattativo è un sistema aperto in quanto mantiene al proprio interno un flusso costante di energia e di materia proveniente dall’esterno e, contemporaneamente, è un sistema chiuso in sé stesso, nel senso che tende a mantenere stabile e costante la propria forma; inoltre è un sistema omeostatico, capace cioè di subire dinamiche retroattive e pertanto capace di presentare capacità auto-organizzative. 

La rete conoscitiva convergente, che ha contribuito prima all’individuazione e poi alla comprensione dell’auto-organizzazione, evidenziando elementi cardine per lo sviluppo e l’evoluzione dei sistemi complessi, è emersa da numerosi apporti: quelli storici di Engels [6] e Darwin [7], che avevano fornito alcuni esempi auto-organizzativi senza comprendere l’importanza delle loro osservazioni, ed in seguito quelli più determinanti di Turing, Shannon, Weawer, Jacobs e Segel e di Ilya Prigogine. Ma andiamo per ordine, seguendo l’itinerario esplicativo che Steven Johnson ha evidenziato nel mirabile testo “La nuova scienza dei sistemi emergenti” [8], che qui brevemente riassumo. 

“Il matematico Turing [9] affrontò lo sviluppo biologico in termini matematici col suo lavoro “The chemical Basis of Morphogenesis”, pubblicato nel 1952, prendendo spunto dal classico testo “Nascita e Forma” del biologo D’Arcy Thompson [10] del 1917, e sino ad allora unica trattazione matematica riguardante le strutture biologiche; per Turing quel testo rappresentò il classico battito d’ali di una farfalla, affascinandolo, perché evidenziava lo stretto rapporto esistente tra la matematica e la natura, informandolo, ad esempio, sui rapporti della progressione di Fibonacci sulla filotassi; Alan intuì il profondo significato di quella associazione, considerata sino ad allora nulla di più che una strana coincidenza! La struttura fisica delle strutture viventi rappresentò il nucleo delle sue ricerche e la affrontò dal punto di vista matematico, convinto della relazione esistente tra la natura e la matematica: ad esempio, lo sviluppo delle foglie, era per lui l’espressione di una serie di semplici algoritmi [11], che mimavano e riuscivano a descrivere la loro crescita. Ricordo che per algoritmo si definisce un insieme di calcoli matematici ripetuti in sequenza, che conducono ad un obiettivo prefissato. La risoluzione di un problema deve essere pertanto considerato come un processo, che trasforma i dati iniziali nei risultati finali desiderati, tramite una successione di passaggi elementari. Un programma esplicativo molto elementare è rappresentato dalla descrizione di una ricetta di cucina: gli ingredienti sono i dati iniziali e il risultato viene raggiunto applicando una sequela di precise operazioni elementari del tipo: bollire per 5 minuti, asciugare, tagliare, centrifugare, friggere ecc. Questa sequenza non è altro che un preciso programma, rigoroso e senza ambiguità, che può essere ricordato o scritto su un’agenda nel caso la vostra amica vi trasferisce l’informazione per telefono o, nel caso di un computer, da una precisa sequenza di operazioni matematiche, precedentemente associate e tradotte alle varie azioni programmate nella rete dei circuiti elettronici. 

Ma ritorniamo agli studi di Turing, il cui obbiettivo principale era di chiarire il nucleo progettuale insito nello sviluppo. A quei tempi l’idea dominante e la convinzione prevalente, era che vi fosse un’entità superiore che plasmava tutte le cose viventi. La teoria della selezione naturale di Darwin aveva in parte scosso la dottrina dell’intervento divino superiore, che comunque non fu mai accettata da Turing, perché le forme biologiche erano considerate da lui il semplice risultato dei processi fisici e biochimici della natura; in ciò influenzato dagli scritti del biologo D’Arcy Thompson [12]. La base della sua posizione nei riguardi dello sviluppo può essere riassunta da questa sua espressione: "Invece di chiedereci perché una certa configurazione di foglie è particolarmente vantaggiosa per una pianta, cercò di dimostrare che la configurazione é la conseguenza naturale del processo col quale vengono prodotte le foglie." Usava un approccio matematico al problema, convinto dell’esistenza di una stretta relazione tra la natura e la matematica. Il suo scopo finale era fondere la teoria biologica, già accertata con la matematica, al computer con la finalità di programmare una futura macchina intelligente utilizzabile per risolvere tutti gli interrogativi. Nello sviluppo delle foglie intravvedeva una successione di circostanze simili ad una sequenza temporale che scandivano la loro crescita, nient’altro che una serie di semplici passi, cioé di algoritmi, che successivamente hanno rappresentato la base concettuale della sua nuova apparecchiatura e che da lui prese il nome: la macchina di Turing. 

Dobbiamo sapere e ricordarci che Turing contribuì significativamente alla sconfitta [13] dei tedeschi nella seconda guerra mondiale, risolvendo e rendendo leggibili i loro messaggi elaborati con la loro famosa macchina “Enigma” [14], ma soprattutto per aver contribuito alla progettazione dei primi computer e per aver iniziato gli studi sull’auto-organizzazione. 

Il suo merito fondamentale fu intuire come impostare i problemi da risolvere con gli elaboratori. E’ stato infatti il pioniere della logica dei computer ed il primo a prospettare e ad interessarsi del settore dell’intelligenza artificiale; Alan, mente disordinata, aveva l’abitudine di non ripercorrere mai il lavoro fatto da altri ricercatori, ma approfondiva solamente gli aspetti di un problema che lo interessavano, proponendo sempre nuove ed originali soluzioni. A Princeton costruì il primo elaboratore capace di interpretare una serie numerica: la famosa “macchina di Turing”, utilizzando il semplice modulo binario: lo zero e l’uno. 

Gli elaboratori a quel tempo erano progettati solamente per risolvere problemi specifici, invece Turing concepì la sua nuova macchina non solo per affrontare il singolo problema, ma anche per risolvere tutti i problemi, e, per raggiungere questo obbiettivo, il cosiddetto cervello elettronico, come allora era chiamato, doveva essere semplice ed in grado di avvalersi di istruzioni altrettanto semplici: il si o il no, in modo da affrontare i problemi, non nella loro iniziale complessità, ma dopo averli frammentati in una moltitudine di semplici problemi affrontabili sicuramente in maniera più facile. E’ lo stesso consiglio che per anni ho dato agli studenti: studiare una pagina dopo l’altra, riga dopo riga, perché uno più uno, dicevo, fa mille e aggiungevo che dieci per dieci fa solo cento! 

Nei laboratori Bell di Manhattan, Turing collaborò con Claude Shannon, ideatore e fondatore della teoria dell’informazione, disciplina cardine della scienza del secolo passato, prefigurando un futuro riempito da stringhe numeriche e da macchine intelligenti [15]. Alan era dell’idea che si potesse costruire un dispositivo in grado di mimare i processi cognitivi del cervello umano e scrisse il famoso articolo “Intelligent Machinary”, nel quale propose il concetto di intelligenza artificiale; in seguito immaginò un elaboratore simile al cervello umano, capace di riconoscere le configurazioni musicali, e fu proprio questo rapporto tra configurazioni musicali e la nostra mente a rappresentare il cardine della nascente disciplina dell’intelligenza artificiale [16]. In seguito scrisse il testo fondante: “La teoria matematica della comunicazione”, che esercitò e continua ad esercitare una profonda influenza sulla ricerca scientifica per aver messo in evidenza l’analogia esistente tra i neuroni, la complessità dell’organismo e la struttura delle comunicazioni, gli automi e le quantità delle informazioni [17]. Quel libro conteneva l’introduzione alla sua teoria a firma di Warren Weaver [18], stimato biologo della Fondazione Rockfeller, che fu in seguito condensata su American Scintist, costituendo l’atto fondante della teoria della complessità [19]; in quell’articolo Weaver considerava i problemi scientifici individuati negli ultimi secoli della ricerca, suddividendoli in due gruppi: quelli che avevano affrontato lo studio dei sistemi semplici con due o tre variabili e quelli della complessità disorganica con milioni e miliardi di variabili, affrontabili solamente con metodi della meccanica statistica e con la teoria della probabilità. Quello studio mise in evidenza l’esistenza di una zona intermedia caratterizzata da un numero di variabili ridotto, ma tra loro correlate, che essenzialmente mettevano in evidenzia la caratteristica dell’auto-organizzazione. Queste variabili furono riunite e catalogate da Warren col termine di “Complessità organica”, che, pur essendo espressione di tanti problemi, simultaneamente presentavano numerosi problemi affinie correlabili, che li unificava in un unico contesto organico. Per la loro risoluzione, e soprattutto per risolvere i problemi della complessità biologica, era necessario da una parte avere una visione complessiva (dall’alto) del fenomeno da indagare, ma soprattutto occorreva osservare i singoli elementi costitutivi (dal basso) e le singole parti integrate nel sistema. Era richiesta pertanto una nuova visione per inquadrare i problemi e soprattutto era opportuna una rivoluzione strategica del come porre e nel come formulare le domande, che il fenomeno da affrontare e studiare evidenziava. Per risolvere i problemi della complessità organica, Weawer ovviamente proponeva la necessità di usufruire di elaboratori di notevole potenza allora inesistenti, ma la cui struttura (l’hardware) era già stata intuita e programmata da Turing come inizio per affrontare i problemi dell’software. Infatti Turing ebbe il merito fondamentale di impostare sia il software che l’hardware ed il suo lavoro sulla morfogenesi rappresentò il primo tentativo per risolvere lo sviluppo affrontandolo come un problema di complessità organica. Gli studi sull’auto-organizzazione furono interrotti dalla morte prematura di Turing e la relativa ricerca si bloccò fino a che, dopo un decennio, l’importanza di quelle indagini emersero in un contesto inusuale e del tutto particolare, non compreso nelle cosiddette scienze della complessità, ma nel contesto dell’urbanistica. A dimostrazione che la rete conoscitiva utilizza percorsi apparentemente non abituali, ma che dimostra la dipendenza di una rete strutturale sottostante, che comunque presenta omologie ed analogie in ambiti diversi e che solo secondariamente possono emergere e di conseguenza venir considerate e valorizzate. Così l’auto-organizzazione emergeva nel contesto dell’urbanistica! 

Ogni città è simile alle altre, ma contemporaneamente è unica tra le altre. Ogni città è frutto della sua storia, ogni città esprime la vita dei suoi abitanti e si plasma, si auto-organizza nel tempo per fattori contingenti, per decisioni anche casuali dei suoi abitanti, espressione di mille e mille battiti d’ali. Ogni città esprime un ordine, frutto di mille e mille interazioni locali, coinvolte dall’emergenza delle proprie dinamiche. 

E’ indubbio, ad esempio, che un mercante di gioielli apra la sua bottega nel quartiere dei possidenti, accanto alla banca, come è ovvio che il maniscalco nei secoli passati o il gommista attuale apra il suo laboratorio lungo la strada di transito e gli ipermercati nelle periferie: e, per una serie di ovvie considerazioni, il tessuto urbanistico si evolverà cristallizzando in ogni suo quartiere le sue necessità. Queste considerazioni sono ovvie e fanno emergere un’ovvietà sottesa: l’auto-organizzazione è insita nel divenire e contemporaneamente è l’espressione della storia. 

Quando la Commissione della pianificazione urbana di NewYork decise di demolire la vasta area del West Village, considerata un’area degradata perché abitata da immigrati, artisti, operai, e da gente di malaffare, la sociologa Jacobson [20] bloccò il progetto giustificando il suo diniego con l’intuizione che bisognava imparare dalla città: la città – diceva - non è solamente la somma delle sue parti, ma esprime qualcosa di più della somma delle sue parti. In questa analisi aleggiava il pensiero e le considerazioni di Engels a proposito della città di Manchester, primo agglomerato urbano dell’era industriale. La protesta razionale e valida esposta con veemenza dalla Jacobson sortì l’effetto voluto: il West Village non fu raso al suolo. Questa decisione rappresentò un risultato positivo e la compiacque, soprattutto perché la ristrutturazione del quartiere avrebbe eliminato la sua abitazione in Hudson Sreet [21]! Anche allora i politici erano tendenzialmente degli approfittatori! In seguito la Jacobson scrisse il libro di teoria sociale [22]:“The death of Great American Citis”, entrando di diritto nel novero degli autori, che hanno fatto emergere il concetto dell’auto-organizzazione come fattore essenziale dell’evoluzione. 

I cosiddetti cervelli elettronici negli anni cinquanta erano solamente in grado di eseguire passivamente i calcoli in base a istruzioni programmate e solo in seguito si programmarono “cervelli” capaci di auto-apprendimento. I primi studi in tal senso furono sviluppati da Selfridge, un allievo del Wiener, che in quegli anni aveva iniziato ad occuparsi al programma inerente l’intelligenza artificiale; il suo interesse principale era di comprendere come i sistemi potessero essere in grado di auto-apprendimento. Nel ’58 propose un modello adattativo denominato con un termine abbastanza inusuale: ”Pandemonium, uno schema per l’auto-apprendimento”, capace di evolvere autonomamente e finalizzato al riconoscimento di configurazioni; riguardava un sistema in grado di affrontare i problemi, che si apponeva su una sorta di griglia selettiva costituita da vari livelli, ognuno dei quali capace di interrompere la progressione del riconoscimento di alcune semplici parti dell’insieme. La progressione avveniva dal basso verso l’alto (bottom-up); con questo semplice schema il programma poteva riconoscere, ad esempio, una lettera dell’alfabeto escludendo di volta in volta, ai vari livelli, quelle parti della lettera non confacenti alla lettera intera, la quale, dopo aver superato i diversi filtri selettivi veniva riconosciuta nella sua interezza dal sistema. Questa procedura rappresentò la prima descrizione di un programma di software emergente, capace cioè di evolversi autonomamente, attuando l’apprendimento dal basso verso l’alto. 

John Holland, un altro allievo del Wiener, nel ’60 propose un programma di software con un analogo meccanismo emergente, che prendeva in considerazione la filosofia della selezione naturale; Holland lo trasformò in codice binario dandogli il nome di “algoritmo genetico [23]”, programma che ha rappresentato la pietra miliare per il futuro della programmazione dei programmi. 

Inizialmente gli unici elementi, essenziali per assemblare un software, erano il programmatore e la sua perspicacia, ma da allora, in seguito agli studi di Holland, si è aggiunta al programma stesso la capacità autonoma di essere in grado di comportamenti di tipo vitale, riuscendo a far riprodurre un programma emergente, che evolvendosi presenta qualità e proprietà superiori dei due programmi inizialmente inseriti nel computer e che possiamo definire “genitori”, introducendo capacità riproduttive di tipo sessuale che, con gli scambi del materiale genetico, in questo caso di stringhe numeriche, riesce a determinare innovative e migliorative combinazioni. 

Negli anni ottanta Danny Hillis con la sua potente “Connection Machine [24]” ha reso sfruttabile in pieno le possibilità del suo algoritmo genetico rendendo possibile a David Jefferson e Chuck Taylor dell’Università della California l’allestimento del programma “Tracker”, che simulava il comportamento sociale delle formiche. Questa sorprendente idea era derivata dalla lettura de “Il Gene egoista” [25] che poneva il gene fulcro dell’evoluzione darwiniana: la riproduzione del programma poteva essere lasciata libera, ma a vari livelli vi erano limitazioni riproduttive in modo da determinare una reale e costante competizione, simulando in tutto e per tutto l’evoluzione organica con un idoneo programma. 

L’eliminazione di software non in grado di risolvere una minima funzione, posta come barriera, e la possibilità di progressione di quelli che la superano, permette in tempi rapidissimi di far evolvere il programma variando di volta in volta le barriere, e, in tal modo, riuscendo a fargli raggiungere qualità specifiche migliori. Questi programmi utilizzano la filosofia dei modelli viventi e fanno parte della disciplina della vita artificiale. Ovviamente questi modelli non hanno nulla a che vedere con la realtà fisica o biochimica, ma sono schemi ideali, che presentano solamente quella o quelle caratteristiche ritenute essenziali per l’evoluzione del modello. I programmi così assemblati servono a studiare l’evoluzione dei sistemi, perché si riesce a variare di volta in volta gli stadi evolutivi irripetibili nella realtà al carbonio, perché hanno avuto bisogno di milioni di anni per la loro evoluzione incanalata nel tunnel del tempo e pertanto di fatto irripetibili, per la contingenza che diversifica gli eventi insiti nella storia. 

Nella realtà al silicio invece si riesce a simulare questi processi variando a piacimento le condizioni iniziali e ripetendo l’evoluzione del programma un numero illimitato di volte e in breve tempo.” 

Il più esperto biologo della complessità Stuart Kauffman [26], con un programma analogo, ha dimostrato che aumentando il numero delle connessioni tra i nodi di una rete si determina una transizione di fase tra caos ed ordine, e, al limite del caos, compaiono isole di ordine, che presentano fenomeni auto-organizzativi tipici soprattutto delle dinamiche delle strutture viventi [27]. Questo modello, sebbene privo di tanti dettagli e di tanti particolari, é tuttavia in grado di far risaltare che i fenomeni auto-organizzativi evidenziano un ruolo importante nell’evoluzione biologica al di là della contingenza, che nell’ambiente virtuale al silicio del computer possiamo inserire e variare a piacimento, e della selezione darwiniana, anch’essa facilmente modificabile. 

Il parallelismo che è emerso tra la realtà reale al carbonio e quella virtuale al silicio, è tale che, se inizialmente l’evoluzione darwiniana ha dato lo spunto ad Holland di poter formulare l’algoritmo genetico, ora la realtà virtuale é determinante per la comprensione della realtà al carbonio, e porta contributi sostanziali alla risoluzione degli stessi problemi che l’evoluzione darwiniana ha presentato in passato e presenta tutt’ora. Questo perfetto parallelismo tra la realtà del carbonio e quella virtuale al silicio è la dimostrazione che le dinamiche sono oggettivamente le stesse e che ciascuna rappresenta l’evidenza di un’unica struttura matematica che rappresenta la base delle realtà fisiche sovrapposte. 

Ad esempio: il problema centrale, che la teoria dell'evoluzione darwiniana dimostra, é l’emergenza della complessità e delle strutture complesse. Perché le cellule si sono riunite in “gruppi” intricati e complessi e si sono divise le funzioni? Come si sono sviluppati gli organi? 

Un recente esperimento virtuale, compiuto da alcuni ricercatori statunitensi, guidati da Richard Lenski dell'Università del Michigan, ha suggerito una parziale risposta a queste domande; dopo aver assemblato diversi programmi con complessità variabile, gli Autori dello studio hanno lasciato che si evolvessero nell'ambiente virtuale di un computer. In questo ecosistema al silicio si sono verificati gli stessi fenomeni che i paleontologi e i biologi hanno osservato in natura: all’inizio i programmi hanno subito alcune mutazioni, consentendo loro di variare “struttura” e funzioni, diversificandosi rispetto ai programmi “antenati”, poi sorprendentemente si è osservata la comparsa, sempre all'interno di questi programmi, di mutazioni che hanno modificato il programma in modo tale da renderlo più efficiente nello sfruttare l'energia utilizzata per la sua replicazione. Esattamente come accade nella realtà del carbonio ove una sola mutazione è spesso sufficiente a migliorare, anche in maniera rilevante, l'efficienza del processo selettivo. Nell’esperimento di Lenski col passare del tempo, le varie “popolazioni” di programmi riescono inoltre a migliorare l'abilità ad effettuare funzioni logiche complesse, che non erano presenti nei programmi originali. Questi minuscoli “organismi virtuali” hanno pertanto dimostrato come le funzioni complesse possono evolvere e modificarsi anche con la progressione continua di cambiamenti impercettibili [28]

Esattamente come Darwin aveva predetto circa 150 anni fa. 

L’evoluzione genetica è pertanto simile all’evoluzione dei programmi virtuali, il che sta ad indicare, o almeno ad indurci a prospettare che entrambe sottostanno alle medesime regole, ed a considerare la matematica come il software e l’universo come l’hardwar. E’ questa una dicotomia di cartesiana memoria, a cui io generalmente non sono propenso a ripristinare, ciononostante considero la matematica stessa il software dell’universo e l’universo stesso con l’aggiunta della contingenza come l’hardwar. Questi sono i dati in possesso, quelli che ho esposto, e, volente o nolente, devo razionalmente uniformarmi. 

Quando Newton, osservando la caduta di una mela dall’albero, intuì che le dinamiche dei pianeti attorno al sole erano l’effetto di una stessa forza, ha dimostrato che entrambi i fenomeni, sebbene in contesti diversissimi sottostavano alla stesse leggi dinamiche. Questo concetto può pertanto essere traslato a proposito delle regole evolutive che accomunano il mondo reale al carbonio a quello virtuale al silicio. Entrambe le dinamiche sottostanno ad una regola che le accomuna, espressione di una ragnatela matematica che va al di là di queste due manifestazioni; anche in questo caso emerge un ordine, che possiamo definire sottostante sino a quando non viene percepito, ma che risulta sovrastante, dopo essere stato identificato! 

La complessità, per chi ha familiarità con l’analisi matematica e con l’informatica, corrisponde ad una caratteristica quantitativa di un algoritmo di calcolo, che può determinare la soluzione pratica di un dato problema; nei sistemi dinamici la complessità rappresenta anche una caratteristica qualitativa di un dato sistema. Orbene nei sistemi viventi l’informazione, come sappiamo, è attuata dalle sequenze nucleotidiche, mentre nel modo del silicio l’informazione è attuata da stringhe numeriche. La rete strutturale sembra essere identica nei due mondi e su entrambi si appone la contingenza capace di determinare evoluzioni diverse, ma sempre aventi come base la griglia strutturale preesistente. Le strette analogie tra i due mondi credo rappresentino la loro comune derivazione matematica, che riproduce la griglia, il supporto e la base per la loro emersione. Lo stesso parallelismo, come vedremo nel prossimo capitolo si conferma nelle dinamiche delle reti a proposito del modello fitness (Vedi capitolo 23). 

Se l’autorganizzazione in ambito biologico è facilmente intuibile, perché la vita stessa è un fenomeno evolutivo ed i cambiamenti avvengono diuturnamente sotto i nostri occhi; lo stesso fenomeno in ambito fisico e fisico-chimico è difficilmente intuibile per la staticità dei fenomeni e perché l’auto-organizzazione possiede in sé una sorta di vitalità, che non è caratteristica dei fenomeni fisici relegati nel mondo immoto e inanimato. La presenza dei fenomeni auto-organizzativi nella realtà fisica dimostrano che la forza stessa della natura si esplica dagli stadi più semplici sino a quelli maggiormente complessi suggerendoci lo stesso concetto di “animato”. Il fascino di un ceppo che brucia nel caminetto che dimostra la sua indipendenza a volte fumosa e fastidiosa o l’elegante vortice del pittoresco ruscello o quello che accompagna la fatica del rematore, sono tutti esempi, che menti più profonde e sensibili considerano e avvertono come manifestazioni di un ordine e di una energia universale, avvertita da poeti e musicisti. 

Gli esempi di auto-organizzazione in ambito fisico e fisico-chimico sono numerosi: consideriamo il vortice, esempio che osserviamo giornalmente, il fenomeno di Faraday, i rulli convettivi di Bènard, la combustione, e in chimica le reazioni chimiche a tempo. Sono tutte manifestazioni che da secoli sono sotto i nostri occhi e alcune volte hanno affascinato, ma solo da qualche anno le ricerche sulla complessità le ha analizzate, trovando il loro comune denominatore nell’autorganizzazione. 

-------------------------------------------------------------------------------------------- ESEMPI di AUTORGANIZZAZIONE 
 in ambito FISICO E FISICO-CHIMICO 

• Vortice 

• Rulli convettivi di Benard 

• Figure sonore di Chladni 

• Fenomeno del ferro-fluido 

• Fenomeno di Faraday 

• Combustione 

• Reazioni chimiche a tempo 

---------------------------------------------------------------------------------------------

Analizziamo ad esempio il turbine di un mulinello in una vasca da bagno: le molecole di acqua che lo formano continuamente ci fanno considerare il mulinello un sistema aperto, ma, nello stesso tempo, è un sistema chiuso, perché la sua forma è sempre la stessa ed inoltre è un sistema omeostatico, perché modifica la sua forma a secondo degli input esterni riuscendo poi a mantenere la sua forma originaria al cessare della perturbazione. Il vortice che si è formato all’imbocco dello scarico della vasca da bagno è una struttura emergente, che non dipende sicuramente dalle singole molecole d’acqua, ma dal loro insieme e rappresenta un chiaro esempio di auto-organizzazione, ciononostante sottostà a forze estrinseche; ad esempio nel nostro emisfero, quello nord, presenta il moto in senso antiorario, ma, al di là dell’equatore, nell’emisfero sud, il moto è orario, a dimostrazione della diversa forza centrifuga che si attua sulle singole molecole di acqua a secondo della loro mutua posizione rispetto all’asse terrestre. 

“Non ci si bagna mai nello stesso fiume”: l’entità fiume è la stessa, ma l’acqua che rappresenta la sua essenza, varia continuamente nel tempo. Un altro esempio classico della teoria dei Sistemi è quello della nave di Teseo [29] (metafora del corpo umano); consideriamo che la nave usata da Teseo nei viaggi di andata e ritorno tra Atene e Creta, abbia richiesto, per usura, la sostituzione di pezzi consumati. Dopo un certo numero di anni tutti i pezzi che costituivano originariamente la nave sono stati sostituiti; la domanda che ci poniamo è: “La nave di Teseo è la stessa”? Materialmente, la risposta è negativa, perché non c’è più alcun pezzo della nave originaria, ma concettualmente l’idea di fondo è che la nave sia la stessa. Noi stessi siamo ben diversi dal come eravamo a vent’anni, ma ciascuno di noi è certamente lo stesso! Infatti anche il corpo umano è un sistema in continua evoluzione, che mantiene omeostaticamente la stessa forma: un osso dopo venti anni non è più materialmente lo stesso osso, anzi non lo è più già dopo venti giorni! Ciononostante continua ad essere lo stesso osso [30]

Il sistema complesso adattativo mostra la propria caratteristica dinamica complessiva, pur essendo costituito da un numero elevato di elementi capaci nel loro insieme di determinare l’evoluzione stessa del sistema. Gli esempi del vortice e della nave di Teseo ne sono la dimostrazione più evidente. In questi sistemi c’è il cuore della complessità: la risposta evolutiva all’ambiente, la sua adattabilità agli input provenienti sia dall’esterno che dall’interno del sistema. 

La dinamica intrinseca ed essenziale della complessità è determinata dalla instabilità del sistema, che si evolve in una molteplicità di stati e che, dall’equilibrio iniziale dello stato ordinato, caratterizzato dall’assenza evolutiva, via via si trasforma e cambia, acquisendo le capacità evolutive intrinseche del nuovo insieme; successivamente potrà evolvere in una molteplicità di indirizzi, che si attueranno in base ai fattori inerenti la storia in cui il sistema si esplica e che prende il nome di contingenza. Il dato più strabiliante, come detto, è che l’evoluzione si manifesta e si attua avendo come supporto una griglia o una rete universale, identica per tutte le evenienze ed in tutti i contesti, che esibisce l’autosimilarità [31] insita nel suo divenire e che si attua nel tempo pertanto esprimendosi matematicamente con una curva alla potenza. 

Un ulteriore esempio di come l’instabilità di uno stato stazionario possa dar luogo ad un’autorganizzazione spontanea si ritrova nel fenomeno descritto nel 1901 da Bènard: riscaldando la superficie inferiore di un liquido, per diffusione si determina un flusso di calore dal basso verso l’alto; quando il gradiente di temperatura oltrepassa un valore soglia, lo stato stazionario del sistema diviene instabile e si instaura il fenomeno della convezione. Miliardi di molecole si muovono con coerenza generando i rulli convettivi di Bènard, che formano sulla superficie del liquido un reticolo di celle esagonali a temperatura uniforme. 

Rimanendo ancora in ambito fisico, l’auto-organizzazione può essere osservata esaminando il fenomeno evidenziato da Michael Faraday; ponendo in vibrazione un contenitore pieno di liquido, sulla superficie si formano e si auto-organizzano eleganti strutture costituite da linee, quadrati evanescenti, che nascono dal nulla. Si rimane affascinati dalla repentina variazione tra l’uniformità della superficie del liquido e l’emersione (che alcuni potrebbero definire “creazione?”) di un nuovo ordine, che affiora in accordo con le leggi e le equazioni classiche della fisica, e che, se modificato da fattori contingenti, ad esempio mescolando l’acqua, riappare a dimostrare che la contingenza, la storia, non influisce minimamente sulla nuova organizzazione. Lo stesso fenomeno fu osservato dal fisico tedesco Ernest Chladni [32] ponendo un sottile strato di sabbia su di una superficie liscia di una lastra scossa da vibrazioni indotte dallo sfregamento dell’archetto di un violino. I granelli di sabbia iniziano saltellare e si depositano in corrispondenza delle linee nodali, cioè dei punti che vibrano con ampiezza nulla. Si formano delle singolari figure simmetriche, le “figure sonore di Chladni” [33], nelle quali si distinguono perfettamente le linee nodali, dalle porzioni di lastra che invece sono coinvolte maggiormente dalla vibrazione. 

Lo strofinio dell’archetto del violino sul bordo della lastra determina le vibrazioni: il suono e le figure geometriche che sono in rapporto alla forma, allo spessore del materiale delle lastre: il tutto unito dalla rete matematica, che rappresenta la vera essenza del fenomeno. 

Dopo 180 anni il medico naturalista svizzero Hans Jenny riprese gli studi di Chladni interessandosi agli effetti delle vibrazioni sonore sui fluidi e raccolse dati sperimentali e la documentazione fotografica dei suoi esperimenti nel volume: “Cimatica. Lo studio dei fenomeni ondulatori” e concludeva alla fine del trattato con questa affermazione:”Questo non è un caos disordinato (sic!); ma un pattern ordinato e dinamico”. Il punto centrale dei suoi esperimenti era la visualizzazione del comportamento di particelle, che lui chiamava “colloids” in un contenitore d’acqua posto in vibrazione. Le onde sonore fanno vibrare il contenitore e l’acqua contenuta determinando una rete tridimensionale costituita da particelle che si pongono nelle zone meno sollecitate dalle vibrazioni, analogamente a quanto avviene sulle lastre di Chladni. Le onde infatti producono un effetto morfogenetico dipendente da molteplici fattori che concorrono al determinismo delle figure sonore emergenti e che variano per la consistenza ed elasticità delle lastre, per il loro spessore e per il tono e frequenza delle vibrazioni; le reti emergenti sembrano essere precostituite ed in effetti lo sono perché ripetibili, ma se approfondiamo la ricerca arriviamo all’essenza del fenomeno che si svela nella struttura matematica emergente. Nel corso degli esperimenti di “cimatica” di Jenny la disposizione delle particelle risulta tridimensionale ed è condizionata dalla forma del recipiente, dalla frequenza delle vibrazioni emesse dall’oscillatore. Il medico naturalista svizzero rimase notevolmente impressionato che una vocalizzazione in sanscrito antico OM (Aum), che per i buddisti e gli induisti rappresenta il suono della creazione (corrispondente al Verbo della Bibbia) possiede un effetto morfogenetico rappresentato da un cerchio con un punto centrale, simbolo che per le antiche popolazioni indiane rappresentava lo stesso mantra OM (Aum). La singolarità che emerge da questi fenomeni é la relazione esistente tra le vibrazioni e l’ermergenza, sempre ripetibile di una rete geometrica precostituita a dimostrazione che gli enunciati di Pitagora: “Tutto è numero” e “La geometria delle forme è musica” sono condivisibili perché veri. E' interessante inoltre ricordare che la visualizzazione delle aree vibranti usando piccoli corpi influenzati dal fenomeno descritto è analogo al metodo con il quale Faraday [34] pochi decenni dopo, ricorrendo alla limatura di ferro, riuscì a visualizzare il campo magnetico in situazioni fisiche differenti. A dimostrare che le regole sottese sono le stesse anche per fenomeni diversi. 

Il fenomeno autorganizzativo si manifesta anche nel caso del ferro-fluido [35]: un liquido in cui sono disperse tante microscopiche particelle di magnetite sospese in olio o cherosene, che impedisce la loro aggregazione. Se questa miscela viene posta in un campo magnetico uniforme orizzontale si crea un profilo labirintico, che ricorda le circonvoluzioni cerebrali del nostro cervello o le eleganti figure del “corallo cervello” della meandrina cerebriformis [36]. Se tralasciamo l’aspetto estetico del ferro-fluido consideriamo le proprietà funzionali che investono numerosi campi tecnologici: ad esempio la NASA lo sta utilizzando per la possibilità di usarlo allo scopo di orientare il carburante dei razzi in ambiente privo di gravità, per la separazione di materiali e la fabbricazione di semiconduttori o per ridurre la riflessione radar degli areoplani “invisibili” stheath. 

E’ interessante ricordare che tutti questi fenomeni hanno tratto origine dalle osservazioni di uno dei maggiori scienziati dell’800: Michael Faraday (1791-1867) autodidatta, di umili origini, figlio di un fabbro, che iniziò l’attività lavorativa come apprendista in una legatoria di Londra, fino a raggiungere meriti indiscussi nel campo della fisica e della chimica; col suo nome infatti sono designate due unità di misura: il Faraday per gli elettroni ed il Farad per la capacità elettrica [37]. La sua produttiva attività è l’esempio lampante di come il percorso scientifico si sviluppa anche a livello individuale: dall’osservazione dei fenomeni, al loro chiarimento, seguendo un tragitto analogo a qualsiasi fenomeno auto-organizzativo bottom-up, dal basso verso l’alto, associandosi poi al desiderio di far conoscere le sue ricerche non solo agli scienziati ed agli specialisti del proprio campo di studi, ma anche di diffondere il sapere ai non addetti ai lavori. Dando prova con la sua attività divulgativa di come l’elemento conoscitivo si espande, costituendo un’onda di conoscenza, che possiamo interpretare come una rete stellare a partenza dai nodi rappresentati dalle sue o altrui scoperte. 

L’ordine emerge – come si è visto – in accordo con le leggi e le equazioni classiche della fisica e quando viene alterato da fattori contingenti: il mescolamento dell’acqua con un cucchiaio o lo spostamento disordinato dello strato di sabbia, l’ordine riappare dimostrando che la contingenza, l’ambiente e la storia non influiscono minimamente sull’emersione del nuovo ordine, che comunque si instaura e continua a manifestarsi con una disposizione matematica universale. La stessa progressione temporale la ritroveremo nella criticità auto-organizzata, che sarà trattata in un prossimo capitolo. L’affascinante fenomeno proprio dell’insieme delle molecole d’acqua o dell’insieme dei granelli di sabbia è provocato da forze esterne: dalle vibrazioni meccaniche o, come nel caso dei rulli di Bènard, dall’energia termica; in quest’ultimo caso le forze in gioco sono essenzialmente due: da una parte la viscosità del liquido, che tende a bloccare i movimenti delle molecole e dall’altra il calore, che genera il movimento: nel momento in cui si attua la transizione di fase, emerge la struttura ordinata. Le molecole d’acqua, rete di elementi interreagenti, danno origine ad un ordine spontaneo: dall’uniformità si viene a creare un ordine, una nuova struttura: è un cambiamento di fase, un’auto-organizzazione della rete molecolare. 

Un ulteriore esempio è la semplice combustione o ossidazione determinata e favorita dal richiamo di ossigeno, conseguente alla risalita al di sopra della fiamma delle molecole riscaldate, realizzando in tal modo un fenomeno di retroazione positiva: il calore della reazione accelera la reazione stessa in modo proporzionale. Il fascino che avvertiamo osservando un ceppo di legno che brucia nel caminetto è certamente determinato “dall’autonomia vitale” della combustione: al di sopra di una certa temperatura il tronco può infiammarsi improvvisamente e, a condizioni variate, autonomamente, le fiamme possono cessare improvvisamente. 

Ci hanno insegnato e continuano ad insegnarci (parlo per la mia personale esperienza studentesca) che una reazione chimica é sempre prevedibile; questo assunto a tutt’oggi è ancora purtroppo ritenuto valido da una buona parte dei chimici; in realtà numerosi sono gli esempi di strutture dissipative con autorganizzazione in ambito chimico: la verità è, che, sia in chimica organica, che in quella inorganica, alcune reazioni catalitiche si comportano in modo bizzarro ed imprevedibile. Le reazioni chimiche possono evidenziare dinamiche periodiche e caotiche e dimostrare facilmente la transizione esistente fra l’ordine ed il caos. 

Vi sono delle reazioni chimiche che in condizioni sperimentali variabili possono presentare delle particolarità evolvendosi “a tempo”; una di queste è la reazione di Landolt, nella quale ioni iodati (IO-3) e ioduri (I-) disciolti reagiscono per formare Iodio (I2). Questo metalloide tuttavia non ha vita lunga, perché ossida lo ione bisolfito (HSO32-), (altro elemento fondamentale per la reazione), per formare il solfato (SO42-) ed essere nuovamente ricondotto a ioduro: questa concatenazione dà origine ad una retroazione positiva: la velocità della prima reazione aumenta con l’aumentare degli ioduri; e, man mano che la reazione procede, la concentrazione di Iodio è mantenuta bassa dal bisolfito, fin tanto che sarà consumato; quando il bisolfito è esaurito si ha un incremento dello Iodio. E se alla reazione si aggiunge amido, per rilevare la presenza di Iodio, si osserva la mistura improvvisamente diventare blu, mentre se vi è bisolfito in eccesso, la soluzione presenterà dei lampi blu, ma tornerà incolore. 

Un esempio chimico di struttura dissipativa con consumo energetico e con formazione di uno stato ordinato è quello che si verifica nella reazione di Belousov-Zabotinskij [38], che avviene durante l’ossidazione dell’acido malonico con bromato di potassio in presenza di un catalizzatore; durante la reazione chimica si determina una configurazione ordinata ed elegante simile ad un’onda vagante a forma di spirale. 

Negli anni cinquanta mescolando una mistura di acido solforico, bromato di potassio, solfuro di cerio ed acido malonico Boris Belousov si accorse che si verificavano delle oscillazioni della concentrazione di bromuro. Tuttavia non riuscì a convincere nessun collega di come si comportasse questa reazione chimica, che evidenziava una sorta di instabilità, perché era in disaccordo alla seconda legge della termodinamica, tant’è vero che la redazione di una rivista scientifica gli rispose che “la sua scoperta era impossibile”! 

Dopo sei anni nuovamente il suo lavoro non fu accettato, perché giudicato troppo lungo! Belousov, profondamente deluso, decise di non scrivere più ad una rivista scientifica, ma fortunatamente presentò la sua reazione ad un oscuro convegno riguardante le radiazioni in medicina; e la sua reazione a tempo rimase stampata negli atti di quel convegno. 

Dopo dieci anni, nel 1961, Anatol Zabotinskij riuscì a dimostrare che la reazione di Belousov non solo era esatta, ma poteva essere ripetuta costantemente. In seguito sono state individuate altre reazioni oscillanti [39] e la antesignana reazione di Belousov-Zabotinskij, che rappresenta un esempio classico di struttura dissipativa con autorganizzazione, ha assunto un’importanza storica tanto da essere oggetto sino ad oggi, di decine di trattati rigurdardanti le reazioni chimiche a tempo. 

Belousov con Zabotinskij ricevette nel 1980 il premio Lenin per la chimica: peccato che lo scopritore di questa straordinaria reazione fosse morto da qualche anno! 

Supponiamo di avere due tipi di molecole: quelle rosse e quelle blu; la logica ci induce a pensare che la mistura, per la dinamica caotica, diventi rossa nel recipiente perché le molecole rosse prevalgono in quel momento, poi modificandosi in violetto la mistura vira al blu, fluttuando in seguito irregolarmente. 

La reazione a tempo non manifesta questo comportamento, per noi intuitivo e logico: i cambiamenti di colore avvengono in modo coerente e regolare, perché la mistura cambia colore rapidamente e contemporaneamente in tutte le sue parti a dimostrare che le molecole per questo contemporaneo e repentino cambiamento posseggono la capacità di comunicare tra loro: il sistema agisce come un tutt’uno. Le reazioni oscillanti sono reazioni lontane dall’equilibrio termodinamico e possono essere descritte come sistemi di reazione-diffusione, nel senso che non sono solo le reazioni chimiche a influenzare la quantità di materiale presente in un certo punto dello spazio, ma sono in grado di presentare anche fenomeni di diffusione, ossia di scambio di materiale con le aree circostanti. 

E’ ciò che avviene nella classica reazione di Belousov-Zhabotinsky, che manifesta strutture a cerchi concentrici che si espandono. 

Le reazioni a tempo hanno dell’incredibile. 

Ed é ancor più rilevante è la recente dimostrazione ad opera di ricercatori del Max-Planck-Institut di Potsdam, che questa tipo di reazioni possono avvenire non solo nelle soluzioni, ma anche in sistemi multi-fase e anche nei processi di auto-organizzazione di nanoparticelle, accoppiando una reazione chimica oscillante a processi di cristallizzazione controllata e di auto-organizzazione in polimeri. Pertanto il comportamento auto-organizzativo non è un’eccezione, ma rappresenta una costante manifestazione evolutiva. Questa scoperta è importante non solo per lo studio delle reazioni lontane dall’equilibrio termodinamico, ma anche per spiegare la formazione di schemi biologici. Un esempio di auto-organizzazione biologica è quello degli schemi delle conchiglie dei mitili, creati attraverso un processo di cristallizzazione controllata, del tutto simile a quello riprodotto dai ricercatori del Max-Planck-Institut. Questi risultati hanno inoltre una ricaduta tecnologica, perché potranno essere utilizzati per la produzione di superfici dotate di nuove strutture con nuove proprietà. 

Le molecole comunicano tra loro e la comunicazione evidentemente gioca un ruolo importante, ruolo che si rileva non solo nell’ambito delle strutture chimiche, ma soprattutto per quelle biologiche, neurofisiologiche e comportamentali, ove l’autorganizzazione si manifesta molto più frequentemente. 

Il fenomeno, molto diffuso in ambito biologico e nel regno animale, solo recentemente è stato evidenziato e compreso nella sua dimensione matematica: si pensi al volteggiare di uno stormo di fringuelli o di uno sciame di api o di un branco di pesci. La nuova entità emergente, definita “la Mente alveare” da Kelvin Kelly in Aut of Control [40], non é un sistema piramidale, nessun componente predomina, é l’insieme che presenta caratteristiche particolari, essenzialmente proprie. L’entità emergente è autonoma e presenta indiscutibili vantaggi: è adattabilite, è evolutiva, si autoregola ed è sempre foriera di un nuovo ordine, perché genera novità ed infinite possibilità, perché è sensibile alle condizioni iniziali e soprattutto non fa assegnamento sui singoli componenti e non è lineare. 

D’altro canto l’entità emergente presenta dei difetti: non é ottimale, non é controllabile e soprattutto (sino ad oggi) non é prevedibile. 

Nel film “Il ritorno di Batman” c’é una scena in cui un’orda di pipistrelli sciama attraverso un tunnel. La scena fu allestita al computer; ogni pipistrello era istruito a muoversi autonomamente seguendo solo tre semplici regole riassunte in un algoritmo: non andare a sbattere contro un altro pipistrello, mantenere il passo (si fa per dire – l’ala!) con i vicini e non allontanarsi troppo. Quando i pipistrelli vennero fatti muovere, nella realtà al silicio, si aggregarono comportandosi come quelli veri! Il modello dello stormo informatico, che evidenziava un comportamento di uno stormo reale, era stato ideato da Crayg Reynolds, della Symbolics, produttrice di hardware per la grafica, utilizzando una semplice equazione. Questo modello è stato in seguito studiato dai biologi che, dopo averlo paragonato al comportamento aggregativo di varie colonie animali (pesci, uccelli ecc.), studiato al rallentatore, lo hanno ad esso identificato, tanto da affermare che rappresenta la risultanza di poche e semplici regole. Si pensava che uno stormo che volteggia nel cielo fosse una struttura che solo la vita e più della vita fosse in grado di produrre. Ora sappiamo invece che questo é il risultato di una legge adattativa valida per qualsiasi aggregato vitale o artificiale e che sottostà a dei semplici algoritmi. La parte poetica del nostro animo rimane delusa, ma il fascino della conoscenza del fenomeno ci meraviglia maggiormente ad un livello cognitivo superiore.Ed é oltremodo interessante iniziare ad indagare compiutamente ed in senso scientifico i segreti che fanno aggregare e muovere all’unisono migliaia di uccelli in uno stormo in volo; credo sia essenziale considerare esplicitamente il ruolo dell'interazione tra le singole entità che compongono il gruppo, al fine di individuare i meccanismi che governano l'evoluzione dei comportamenti collettivi. Con questa finalità si è istituito il progetto di ricerca europeo Starflag [41], coordinato dal prof. Giorgio Parisi [42] dell’Infm di Roma, col quale collaborano sette unità di diversi paesi europei (Francia, Germania, Italia, Olanda e Ungheria), tra le quali la Scuola Normale di Pisa, per studiare i comportamenti collettivi del mondo animale associandoli e paragonandoli ai diversi fenomeni aggregativi sociali. 

Recentemente le mirabili evoluzioni degli storni sono state oggetto di uno studio per evidenziarne l’unitarietà e la sincronia con cui lo stormo volteggia nel cielo del tramonto e potrebbe rappresentare un esempio per le regole generali di aggregazione. Che la coesione tra individui sia un fattore essenziale di difesa é facilmente intuibile ed è fuori di dubbio che l’unione fa la forza e determina, come nel caso dei batteri che si aggregano a costituire il biofilm batterico, un sicuro vantaggio evolutivo [43] determinato da una maggiore possibilità difensiva. 

La ricerca praticamente si è basata su immagini stereoscopiche ad alta definizione degli storni in volo, che elaborate poi con tecniche ispirate ai metodi della fisica statistica, ha permesso di ricostruire la posizione tridimensionale dei singoli uccelli nello stormo. Il risultato delle ricostruzioni di migliaia e migliaia di riprese ad alta definizione con tecniche tridimensionali effettuate nel cielo di Roma nei pressi della stazione Termini, ha messo in evidenza che ogni singolo volatile tiene sotto controllo un numero fisso di suoi simili (da sei a sette), indipendentemente da quanto siano distanti [44]; non solo dei volatili vicini, distanti da quaranta centimetri ad un metro, il che renderebbe fragile la struttura dinamica, ma anche di quelli a distanza in modo da permettere all’avvicinarsi di un predatore lo sviluppo delle dinamiche complesse legate alla propagazione della “terror wave” [45] nel gruppo e la fluida, utile ed elegante mobilità difensiva dello stormo. E’ emerso che ogni uccello tiene conto della posizione di sei unità, numero che deriva innanzitutto dal fatto che ogni volatile é capace di discriminare da uno a sette unità ed inoltre da un criterio opportunistico: se io storno mi baso su un solo compagno, l’informazione o è inutile o è troppo individualistica e non tiene conto della “socialità” del gruppo rendendolo troppo omogeneo, fragile ed ingestibile, e se ancora mi affidassi a tante informazioni sarei frastornato, pertanto è verosimile che tenga conto di un piccolo gruppo di individui a loro volta collegati con altri gruppi in modo che la coesione sviluppi l’unitarietà e la sincronia complessiva. La rete coesiva così formata è una rete “piccolo mondo”. 

Qualcuno potrebbe obiettare o ribadire che la conoscenza analitica della dinamica dello stormo potrebbe ulteriormente deludere la parte magica della visione degli stormi, che si sovrappone a quella di per sé poetica del tramonto; io credo invece che la rafforzi, perché i dati analitici sono anch’essi strabilianti, in quanto, documentando la realtà dinamica della rete “volante”, offrono la rappresentazione di un’ulteriore testimonianza della realtà matematica del mondo. 

Le dinamiche di uno stormo di volatili ha sempre incuriosito gli uomini ed ha rappresentato, non solo per gli strateghi militari, un esempio di organizzazione difficile da imitare ed incomprensibile per la sua cronometrica esecuzione; i cambiamenti istantanei di direzione, l’eventuale divisione della formazione e la repentina perdita di quota per in contemporaneo “atterraggio”, tutta questa coesione dinamica è stata ora indagata [46] applicando un gps in uno zainetto sul dorso di alcuni piccioni di uno stormo; gli strumenti inviavano ogni 200/1000 di secondo la posizione ed i cambiamenti di rotta che venivano istantaneamente registrate. Dall’analisi complessiva si è concluso che i volatili seguono i movimenti di un leader, che risulta tale perché situato anteriormente al gruppo. Ma il dato emerso più rilevante è che il leader non è sempre lo stesso, come purtroppo avviene tra noi umani, ma è diverso ad ogni volo. Pare sia un esempio rigoroso di democrazia naturale [47]

Anche i moscerini o i branchi di pesci probabilmente utilizzano le stesse reti di comportamento ed è possibile che modelli analoghi possano spiegare anche i comportamenti umani basati sull'imitazione di quelli altrui (“herding”) [48], come nel caso della moda o quelli umani maggiormente complessi, come quelli elettorali o dei mercati azionari. L'emersione di comportamenti collettivi nel mondo animale mostra interessanti analogie con l'evoluzione delle proprietà aggregative dei sistemi economici, e può essere utile per la comprensione sia delle dinamiche che caratterizzano i sistemi socio-economici [49] che per fornire possibili spiegazioni dei fenomeni sociali, come i comportamenti imitativi nei mercati finanziari, o il comportamento “anomalo” dei prezzi alla base della formazione di bolle speculative, dei “crash” dei mercati e delle fluttuazioni macroeconomiche. 

Dovremmo inoltre sapere che l’auto-organizzazione è una dinamica che avviene anche in molti altri contesti fisici: in corso di frane, di valanghe o durante lo spostamento delle dune nei deserti e aggiungo, senza tema di essere smentito, in tutte le strutture della natura e mi riferisco alla criticità autorganizzata, che, come vedremo, rappresenta la branca discendente, catabolica di quella simmetria dinamica anabolica delle strutture del mondo, che si formano durante la loro fase di accrescimento. 

E tra tutte le strutture del mondo primariamente dobbiamo interessarci della Vita, chiarendo la sua complessità.



 ----------------------------------------------------------------------------------


[1]Prigogine, Ilja (1917 - 2003) Chimico belga di origine russa. Premio Nobel 1977 per i suoi contributi alla termodinamica di non equilibrio, in particolare per la teoria delle strutture dissipative. Autore di saggi di epistemologia: “Dall’essere al divenire” (1978); “La nuova alleanza” (1979); “La nascita del tempo” (1984-87); “La fine della certezza” (1996). 



[2] Pietro Izzo e Maria Letizia Scaramuzzi “L’Autorganizzazione dei sistemi complessi” in “Darwin Day 2004 – 2005” 167-181 Servizio Editoriale Universitario.Università degli Studi di Bari. 2005 



[3] Stuart Kauffman "A casa nell’Universo. Le leggi del caos e della complessità". Ed. Riuniti 2001. 



[4] Federico Focher: focher@igbe.pv.cnr.it (12.03. 2001) 



[5] Murray Gell-Mann, Premio Nobel per la fisica nel 1969, è Professore Emerito di fisica teorica presso il California Institute of Technology. E' fondatore del Santa Fe Institute, dove attualmente insegna e è copresidente del comitato scientifico. Ha scritto “The Quark and the Jaguar: Adventures in the Simplex and the Complex” (Freeman, 1994) 


[6] Friedrich Engels (18201895) economista, filosofo e politico tedesco, fondatore con Karl Marx del Materialismo storico e del Materialismo dialettico

[7]Charles Robert Darwin (18091882) è stato un biologo, geologo e zoologo britannico, celebre per aver formulato la teoria dell'evoluzione delle specie animali e vegetali per selezione naturale di mutazioni casuali congenite ereditarie e per aver teorizzato la discendenza di tutti i primati (uomo compreso) da un antenato comune. Pubblicò la sua teoria “L'origine delle specie” nel 1859

[8] Garzanti Libri s.p.a. Milano 2004 

[9] Alan Mathison Turing (19121954) matematico inglese, considerato uno dei padri dell'informatica. 

[10] D'Arcy Wentworth Thompson (1860 – 1948), matematico e biologo britannico. 

[11]Il termine deriva dal nome del matematico persiano Muhammad ibn Mūsa 'l-Khwārizmī, che si ritiene essere uno dei primi autori ad aver fatto riferimento esplicitamente a questo concetto. La matematica babilonese, quella cinese o del Kerala trasmettevano le conoscenze in forma algoritmica. 

[12] D’Arcy Wentworth Thompson propose di affrontare lo studio strutturale della materia, sia organica che inorganica, e complessivamente delle forme e della loro evoluzione in natura sulla base di precise leggi matematiche. Le sue teorie, pur criticate per la loro rigidità, hanno avuto il merito di evidenziare i principi formali e architettonici che agiscono nella strutturazione degli organismi animali. 

[13] Hodges Andrew. “Alan Turing. The Enigma”.Walker e Co. New York 2000. tradotto in “Storia di un Enigma. Vita di Alan Turing”. Bollati Boringhieri Torino 1991 pag. 272. 

[14]Turing al Department of Communications utilizzò lo strumento “COLOSSUS” riuscendo a decifrare velocemente e con efficienza i codici tedeschi creati con Enigma. 

[15] “Storia di un Enigma. Vita di Alan Turing”. Bollati Boringhieri Torino 1991 pag. 272. pag. 327-28 

[16] in “Godel, Esher, Bach. Un’eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carol”. Adelphi. Milano. 2001 

[17] Robert Viener in “La Cibernetica. Controllo e comunicazione nell’animale e nella macchina”. Il Saggiatore. Milano. 1982. pag. 42 

[18] Matematico statunitense scrisse la teoria matematica della comunicazione (1947) in collaborazione con C. Shannon. 

[19] Weawer Warren. “Science and Complexity”. American Scientist 36, 1948, 536 

[20] Jane Jacobson (19162006) è stata una sociologa e attivista politica statunitense naturalizzata canadese. Le sue teorie hanno influito profondamente sui modelli di sviluppo urbano delle città nordamericane. Autrice del rivoluzionario “Vita e morte delle grandi città nordamericane” (1961), criticò fermamente il modello di sviluppo delle città moderne e fu accesa sostenitrice del recupero a misura d'uomo dei nuclei urbani. 

[21] Steven Jonson “La nuova scienza dei sistemi emergenti”. Garzanti Ed. Milano. 2004. pag.42 

[22] Jacobs Jane “The death of Great American Citis” trad. “Vita e Morte delle grandi città. Saggio sulle metropoli americane” Ed. Comunità. Torino. 2000 

[23] Gli algoritmi genetici sono strumenti di intelligenza artificiale ispirati alla teoria dell'evoluzione di Darwin: la selezione naturale, l'adattamento e la teoria della sopravvivenza vengono utilizzati da questi strumenti per risolvere problemi di ottimizzazione computazionalmente difficili. 

[24] Connection Machine sono una serie di supercomputer sviluppato da Danny Hillis all'inizio degli anni 80 al MIT in contrapposizione alla tradizionale architettura di Von Neumann

[25] Opera più nota di Richard Dawkins in cui l’Autore identifica nel gene, anziché nell'organismo, il soggetto principale della selezione naturale determinante il processo evolutivo 

[26] Stuart Alan Kauffman biologo ricercatore e teorico americano, che si é occupato principalmente dei sistemi complessi e della loro relazione con l'origine della vita. Membro di spicco dell’Istituto di ricerca no profit dedicato allo studio dei sistemi complessi di Santa Fè del New Mexico. È conosciuto soprattutto per aver teorizzato che la complessità dei sistemi biologici e degli organismi derivi non solo dalla selezione naturale Darwiniana, ma anche dall'autoorganizzazione in dinamiche distanti dall'equilibrio, ed inoltre per aver proposto i primi modelli di rete Booleana

[27] Lo stesso fenomeno è presente in numerosi contesti: il primo ad essere individuato fu quello studiato dal matematico Philips Marcus riguardante la turbolenza della superficie di Giove e la stabile macchia rossa che lo caratterizza (citato da Robert Pool in “Is Soomepthing Strange Abut the Weather?” Science 243,1290-1293, 1989 

[28] Zachary D. Blount, Christina Z. Borland, and Richard E. Lenski. “ Historical contingency and the evolution of a key innovation in an experimental population of Escherichia coli” PNAS 105, 7899-7906, 2008 

[29] Teseo Eroe ateniese, protagonista di un vasto ciclo di leggende 

[30] E’ una nozione che il prof. Rodolfo Amprino, mio Maestro di Vita oltre che di Anatomia Umana, soleva ripetere durante le sue mirabili Lezioni. 

[31] Autosimilarità che è una caratteristica peculiare dei frattali. 

[32] Ernst Florens Friedrich Chladni (17561827) fisico tedesco ha contribuito significativamente alla fisica moderna per la sua ricerca sulle lastre vibranti e sul calcolo della velocità del suono attraverso differenti gas, nell'ambito della cimatica (teoria dello svizzero Hans Jenny) riguardante l'effetto morfogenetico delle onde sonore. In suo ricordo nel 1979 è stato intitolato sia l'asteroide 5053 che un cratere. 

[33] Entedeckungen uber die Theorie des Klangges. 1787. 

[34] Michael Faraday fisico chimico britannico, autodidatta, riuscì a visualizzare le linee di forza di un campo magnetico con della limatura di ferro posta su di una superficie, definendo il fenomeno dell’induzione elettromagnetica e fondando le basi dell’elettromagnetismo. 

[35] Un ferro fluido è un materiale che si polarizza in presenza di un campo magnetico ed è composto da particelle ferromagnetiche sospese in un solvente organico o acqua e presenta proprietà paramagnetiche per la loro suscettività magnetica. 

[36] Lamarck 1816 

[37] In “Michael Faraday. La storia romantica di un genio”. Firenze University press. 2007 

[38] S.C. Muller, T.H. Plessner and B. Hess. The structure of the Core of Spiral Wave in the Belousov-Zhabotinskij- reaction. Science 230, 661-63, 1985 

[39] Dewel G., Vidal C. e Borckmans P. Loin de l’equilibre. Hermann. Paris. 1994 

[40] “Out of Control. La nuova biologia delle macchine, dei sistemi sociali e del mondo dell’economia”. URRA Ed. Milano 1996. Traduzione di Aut of Control. Addison-Wesley Publishing Compny 1994. 

[41] Starflag, contrazione di Starlings in Flight: Understanding Patterns of Animal Group Movements, che analizza l'interazione tra una molteplicità di individui attraverso il contributo di discipline quali la fisica, la biologia, l'etologia e l'economia. 

[42] Prof. Giorgio Parisi dell’Università Tor Vergata di Roma è uno dei fisici più autorevoli al mondo secondo la scala h-index ed è considerato uno dei migliori scienziati italiani in assoluto. Noto per gli studi sui sistemi disordinati ed i vetri di spin, per i quali ha ricevuto la medaglia Boltzman nel 1992 e la medagtlia Dirac nel 1999. Nel 2009 ha vinto il premio Lagrange per i suoi contributi allo sviluppo della scienza della Complessità. 

[43] Daniela Cantucci Istituto Superiore di Sanità e Claudio Carere etologo. 

[44] M. Ballerini, N. Cabibbo, R. Candelier, A. Cavagna, E. Cisbani,I. Giardina, V. Lecomte, A. Orlandi, G. Parisi, A. Procaccini, M. Viale, and V. Zdravkovic. Interaction ruling animal collective behavior depends on topological rather than metric distance: Evidence from a field study. PNAS 105, 1232-1237, 2008 

[45] = Onda di terrore. 

[46] Nagi M., Akos Z., Biro D. E Wierek T. Nature 464, 890-893, 2010 

[47] Nei nostri cosiddetti partiti pare sia più facile modificare i gruppi di appartenenza, l’intero stormo, anziché il leader del gruppo, che si radica stabilmente sulla sua poltrona! 

[48] = Aggregazione. 

[49] Marcello De Cecco docente di Storia della finanza e della moneta alla Scuola Normale di Pisa e responsabile del equipe di Starflag.