Barrow il libro sul mondo matematico

 

Il libro racchiude delle lezioni di Barrow (scomparso nel 2020) tenute proprio in Italia. Una breve sintesi del contenuto del libro la potete avere QUI.

Una delle frasi del libro afferma: "Una sequenza è casuale se la sua complessità  equivale alla lunghezza della sequenza stessa..."

E' essenziale comprendere il significato profondo di questa affermazione. Si badi bene che è un'affermazione che traduce in parole povere la computabilità di un sistema (solamente consistente o qualsiasi sistema?), alla luce dei progressi recenti di studi sulla indecidibilità dei sistemi stessi e la loro possibile 'compressione algoritmica'. Una delle frasi del libro dice proprio: "la scienze esiste perchè il mondo naturale sembra algoritmicamente comprimibile.... e le formule matematiche sono riduzioni economiche di enormi sequenze di dati sui cambiamenti degli stati del mondo...dato che il mondo fisico è algoritmicamente comprimibile la matematica è utile per descriverlo: è infatti il linguaggio delle abbreviazione delle sequenze".... Non male soprattutto oggi che si parla molto di intelligenza artificiale, dove questa procedura, grazie anche ai calcolatori, è stata portata 'oltre' il mondo fisico per coinvolgere aspetti ritenuti più vicini alla creatività umana.

A tale proposito si possono fare queste osservazioni, partendo da quello che dice sempre Barrow di una sequenza: "... è casuale nel senso che per risolverla è necessaria una quantità maggiore di informazioni di quanta ne sia contenuta nel problema..."

Da questo si capisce che la casualità è semplicemente il risultato di un'incapacità delle regole, attinenti alla soluzione di un problema, a risolverlo con le istruzioni fornite per lo scopo.

Domanda: e se i sistemi sociali, le istituzioni complesse, ecc. si comportassero proprio così? Ovvero, si sviluppano fino a raggiungere una complessità che supera le sequenze (cioè le regole date) per gestire gli obiettivi preposti alla base della nascita del sistema o istituzione stessa? Si noti che la soluzione non può essere l'aggiunta di informazioni, perchè ad un dato livello la complessità è ingestibile proprio aumentando le informazioni o regole di inferenza: infatti per gestire le nuove informazioni aumenta anche la complessità!

Naturalmente, tutto questo ragionamento lo baso su possibili analogie tra comportamenti di sistemi logici e sistemi che non sono descrivibili come tali, ad esempio la normale realtà. Comunque, le analogie possono anche essere estese (anche il 'vivente' si comporta così?) ad altri campi. Si noti che una tesi consimile è  plausibile considerando Bateson ('Verso un'ecologia della mente'). Infatti come dice: "lo stato di un sistema dipende da relazioni causali in cui il regolatore non ha controllo"!