Archivi categoria: scienze cognitive

A mindful universe?

41Vh1p4YqXL._SX328_BO1,204,203,200_

Il volume di Henry P. Stapp, Mindful Universe: Quantum Mechanics and the Participating Observer, London, Springer 2014 convince e delude insieme.

Se vi si cerca una risposta alla questione degli NCC (i correlati neurali della coscienza), che è l’explanatory gap del mio “sistema”, non si va molto lontano.

 

Supponiamo che quella che chiamiamo “coscienza” non sia altro che la transizione dal possibile al reale (o meglio all’attuale) di un universo che, altrimenti, esiste in sovrapposizione di stati possibili, come ci insegna la meccanica quantistica (MQ) e ci suggerisce una certa versione del principio antropico.
Perché tale transizione richiede, a quanto sembra, un organismo cerebrato di un certo tipo (secondo alcuni non solo un sapiens ma anche un polpo, ma non ad es. un verme o un batterio) in stato di veglia o di sonno non profondo? Perché una “struttura dissipativa” (Prygogine) così complicata perché le “onde di probabilità” quantistiche si “coagulino” in un cosmo ordinato e coerente?

 

La mia intuizione è che la risposta vada ricercata nel fatto che i viventi abbattono l’entropia interna, come se risalissero la corrente del tempo verso l’origine e così, in qualche modo, si prestassero al passaggio da un “disordinato possibile” a un “ordinato reale”.
Ma al di là di queste immagini come concretamente dobbiamo concepire questo passaggio? E perché si richiede presumibilmente un sistema nervoso perché questo sia possibile? E perché uno stato di veglia, contraddistinto da onde beta o gamma? E una neo-corteccia?

 

Insomma cercavo qualcosa che spiegasse perché il collasso della funzione d’onda della MQ, almeno secondo l’interpretazione di Copenhagen (in von Neumann e Wigner ad es.), richiedesse una “coscienza” e perché mai questa a sua volta richiedesse quella complicata struttura cerebrale.

 

Bene, Stapp non risponde assolutamente alla mia domanda che rimane inevasa.

 

Però Stapp, nella sua “ingenuità”, mi ha aiutato a mettere un punto abbastanza definitivo su una questione.

 

In estrema sintesi dal suo libro, molto ripetitivo, molto “classico”, ben poco audace, emerge quanto segue.
  1. La chiusura causale del mondo fisico contraddistingue soltanto il determinismo proprio della fisica classica.
  2. La MQ è una teoria incompleta sotto questo punto di vista.
  3. Il cervello, nelle sue parti “fini” (come le sinapsi, gli assoni ecc.), obbedisce necessariamente alle leggi della MQ e non a quelle della fisica classica.
  4. Non ha dunque senso applicare un modello deterministico-meccanicistico al cervello.
  5. Il libero arbitrio (“free will” o “free choice“), inteso come il fatto che le nostre azioni, in quanto determinate del cervello, non possano essere spiegate deterministicamente sulla base di un certo numero di leggi e di condizioni di partenza, anche se le conoscessimo nel dettaglio, è assolutamente possibile.
  6. A noi sembra di possedere il libero arbitrio, inteso anche come la facoltà di decidere di noi stessi liberamente, p.e. di alzare un braccio senza che tale nostra scelta sia predeterminata e resa inevitabile da qualcosa prima che la decisione sia presa.
  7. Lo sforzo di spiegare questo “libero arbitrio” come puramente apparente e di ricondurlo a catene causali meccaniche è mal riposto: non c’è alcuna necessità di questa riduzione, anzi essa è in linea di principio impossibile.
  8. Tutto lascia credere che l’impressione che abbiamo di essere liberi corrisponda alla realtà: nello stesso modo in cui facciamo della nostra esperienza il criterio per valutare la veridicità di asserzioni che si riferiscono al mondo esterno, non c’è ragione di rifiutare questa esperienza quando si tratta del libero arbitrio.
A me sembra che questo ragionamento sia abbastanza convincente.

 

Purtroppo non ci dice molto della ragione per la quale noi esistiamo (Stapp allude qua e là al principio antropico, ma non sviluppa questo tema).

 

Non ci dice neanche come si forma, nel cervello, altrimenti condannato anch’esso, come ogni altra cosa, a esistere in sovrapposizione di stati possibili, quella “coscienza” che fa collassare la funzione d’onda, riducendo gli stati a uno solo, quello reale.

 

Stapp lega questo collasso al libero arbitrio.
Il processo decisionale è descritto da Stapp facendo riferimento al cosiddetto “effetto Zenone”. In sostanza quando alzo un braccio di fatto decido di far collassare la funzione d’onda “osservando” il mio braccio che inizia ad alzarsi piuttosto che il braccio in sovrapposizione di stati che resta ancora abbassato. Continuando poi a osservare il braccio continuo a far valere quella determinata “scelta”, impedendo al sistema di scivolare verso le altre possibilità. Questa “fissazione” dovuta all’osservazione è paragonata (secondo me in modo un po’ fuorviante) al paradosso della freccia di Zenone (che rimane ferma in ogni istante nello stesso luogo).

 

Questa “interpretazione” quantistica dell’atto deliberato è stata criticata e in effetti mi sembra un po’ forzata e difficile da dimostrare.
“Chi” sarebbe colui che “decide” di alzare il braccio?
E perché lo decide?
Inoltre, posso decidere se alzare o meno un braccio, così come se aprire o meno il box in cui si trova il “gatto di Schroedinger” (di far collassare o meno una certa funzione d’onda), ma non posso decidere se il gatto sia vivo o morto, quando lo osservo.
Chi o che cosa decide quale stato fisico “sopravvive” all’osservazione (e ne viene determinato) e perché?

 

Stapp non si fa scrupolo di rivalutare il dualismo anche se non lo intende proprio come cartesiano.
Ci sarebbe qualcosa (una res cogitans? uno spirito?) che “sceglie” quale stato della “materia” privilegiare approfittando dell’incompletezza della descrizione che la MQ offre del mondo fisico. Ma non ci dice come.

 

Nondimeno la serie di considerazioni che Stapp fa e che ho sopra ricordato sono difficilmente confutabili. Esse aprono uno spazio di manovra per una teoria più completa che “riempia i buchi” sia della MQ sia della stessa teoria di Stapp (egli evoca più volte la teoria filosofica di Whitehead, ma non è chiaro come questa teoria possa aiutarmi ad es. a superare il mio explanatory gap in dettaglio),

 

La teoria più comprensiva dovrebbe rispondere, tra gli altri, ai seguenti quesiti.
Che cosa decide della vita o della morte del gatto di Schroedinger (del modo in cui collassa una funzione d’onda)?
Perché scegliamo una cosa piuttosto che l’altra?
Chi sceglie attraverso il nostro corpo?
Perché, affinché questo processo si verifichi, si richiede un corpo cerebrato di un certo tipo e in un certo stato?

From autopoiesis to consciousness?

occhio

Thompson’s idea in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, is that the explanatory gap (with which he identifies the Chalmers’ hard problem) can be “reduced”, if not solved, on the basis of the analogy between the autopoietic mode of functioning of the living being and that of consciousness. Ultimately it is the problem of understanding why we are conscious (in my view: why is it that certain things that happen in our brain appear to us as conscious experiences? and: why couldn’t our brain be just as effective at whatever it is it does if we were not conscious?).
(On a whole other basis – evolutionary – it also seems the intuition that inspires the Simona Ginsburg and Eva Jablonka’s book The Evolution of the Sensitive Soul: Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in which the markers of the origin of life are treated as “analogous” to the markers of the origin of consciousness).

To understand in what sense Thompson posits this analogy (between the form of life and the form of consciousness) we must remember the meaning of “autopoiesis” (originally defined in the book written by Francisco Varela and Humberto Maturana Autopoiesis: the organization of the living (1972) expanded and integrated with a previous paper on cognition in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): a living being is basically a machine capable of continually regenerating itself. In particular, it is marked by self-organization, that is, it produces the components that, by interacting with each other, produce themselves and the whole of which they are part.

It is an interesting antireductionistic approach (for in the living would operate a downward causation from the whole to the parts, such that the whole is “greater than the sum of the parts”, in a holistic sense), but admittedly deterministic and mechanistic (it is not believed that “final causes”, “morphogenetic fields”, “occult forces”, “souls” or otherwise non-material entities operate as in vitalism).

What interested me in this approach was the fact that even the “boundary” of the organism is determined by the organism itself and, in turn, it determines the development of the organism, as in the paradigmatic case of the cell. According to the authors, the “autopoietic machine”, unlike a computer, does not work with input/output information and information processing, but only tends to reproduce itself: external “inputs” are only “perturbations” not unlike those that might come from inside the machine, to which the living machine reacts by reworking itself to maintain its self-organization. This process is also a form of cognition (we would say: learning or adaptation).  Moreover, not only are the boundaries established by the living being itself while it lives, but also the environment (the ecological niche) as a whole is co-determined by the organism. Each living being has the universe it deserves, we could say (we perceive certain light frequencies and space in a certain way, but an amoeba lives in a completely different environment; moreover each organism, together with the other conspecifics, is not only conditioned by the environment but contributes to define it).

As explained in the book written by Thompson with Francisco and Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in which the concept of autopoiesis mysteriously disappears, in favor of a simple, but synonymous “self-organization” – autopoiesis reappears anyway in Mind in Life) the interaction between organism and environment has “enactive” character. The action is influenced by the perception and the perception by the action in a circle of unceasing feedback in which information would not be processed in a computer sense, but would take place a process that is cognitive and “adaptive” together (and where the environment is also “produced” to some extent). Although with different language it is not a very different approach, in my opinion, of those of Seth and Hoffman: the “mind” would “bayesianly” work projecting on the “world” their own hypotheses or expectations  and would gradually correct the shot based on the feedback he receives (in my opinion the model is the way a young child learns to grasp objects by trial and error without any “gene” having predetermined the exact mode of operation to succeed).

What struck me was this idea of co-evolution or co-determination between organism, with blurred boundaries, and universe. I saw an embryonic form of extreme monism (like that to which I adhere). It is as if the organism were the universe itself that assumes a certain configuration, without clear boundaries between the part and the whole (we must not forget that the boundaries are fixed by the organism itself and apply only to it; in other words they do not have an objective character and do not mark a real external world, as suggested by the fact that the organism cannot really distinguish between inputs from outside and perturbations generated inside it).

This is where it becomes important to understand the difference between “life” (thus or otherwise conceived) and “consciousness”. Mind in Life seemed, in this regard, very promising.

Thompson, who is a philosopher, first of all develops an interesting discussion on the epistemological limits of the cognitive sciences, highlighting the transcendental (my term) function  of consciousness (and, therefore, the epistemological “need” of philosophy and especially of the phenomenology of Husserl, Heidegger, Merleau-Ponty etc.). The cognitive scientist often does not question the fact that, when dealing with consciousness, he puts his own consciousness into play, without having thoroughly analyzed its phenomenological traits (He can get so, e.g. , to demonstrate that, because consciousness has evolved only to promote fitness, it is not at all reliable cognitively; but he does not realize that, in this way, he makes the neuroscientific knowledge itself uncertain). Consciousness is not only an object of investigation, but also a means by which the investigation is conducted. In particular, the subjective consciousness of the researcher operates occultly as a comparison term even in those “objectivistic” approaches that try to limit themselves to the “data” obtained from brain scanning and to reports (which are in turn subjective interpretations!) of test subjects. The researcher must in fact compare what is reported with his own experience to give it a meaning.

Unfortunately, when Thompson comes to talk about consciousness, introducing his “neurophenomenology” (inspired by Varela), that is, a form of naturalized phenomenology, in which phenomenological self-analysis illuminates the experimental data and vice versa, while making very interesting observations, in my opinion, it fails in any way to reduce the explanatory gap.

The vague analogy between the “holistic” functioning of consciousness (which, in turn, as well as the brain, should not be seen as an information processor, but as a system that self-organizes itself homeostatically etc.) and that of the cell does not help us to understand the transition from one systems to another.

Thompson only lashes out against the Cartesian dualism , which also underlies Chalmers’ theory, the “representation” theories like Jerry Fodor’s, Jaegwon Kim’s etc. If you “reduce” nature, even biological, in a deterministic-mechanistic-physicalistic etc. way, you will never be able to derive consciousness. If, however, biological phenomena are understood as irreducible to physical ones, for the former have a capacity for self-organization, the gap with subjective phenomena, characteristically “intentional”, of consciousness would be reduced (it is interesting that Thompson recognizes to Kant the merit, in the Critique of Judgment, to have introduced for the first time the notion of “circular causality” to interpret the living beings and, in Mind in Life, going well beyond Maturana and Varela, admits also the notion of “final causality”, even if detached from any idea of transcendent “design”, as “purposiveness” intrinsic to autopoietic organization).

This strategy seems promising, but in my opinion it is very problematic. It is precisely the analogy between the two types of phenomena (life and consciousness) that makes the problem worse: if life is so “powerful” as a process capable of self-organization even when it is unconscious, why did consciousness evolve at some point?

Among other things it is curious that Thompson “attacks” also the theory of evolution by natural selection. But, so to speak, even if some of his arguments are convincing, he attacks it from the “left” (while the writer, more sensitive to the sirens of intelligent design or, better, a certain interpretations of the anthropic principle, tends to attack it from the “right”). That is, the idea is that organisms evolve spontaneously (it also borders on lamarckism, underscoring the possibility of epigenetic or “cultural” transmission of acquired characters) and that natural selection is limited to eliminating individuals that are irrimediably unfit. There would be no tendency to optimize fitness, but only a tendency to keep in place organisms minimally or sufficiently adapted. The basic thesis is that autopoiesis and not evolution would characterize life. Evolution would be a mere “historical” phenomenon (it is roughly the thesis of Piantelli Palmerini and Fodor in the book What Darwin got wrong, Profile Books Ldt, 2011). Selection, to operate, presupposes life, does not create it.

This kind of criticism, in my opinion, does not go far. Instead of explaining life and intelligence (or consciousness) it dismisses the explanation, giving an excessive role to chance, unless we want to reintroduce something like élan vital, final and formal causes, morphic fields or, finally, again, an intelligent design.

Moreover it seems to me a sophistry to say that selection presupposes life and not vice versa. Of course, in Darwin this is literally true. But what prevents us from assuming that selection operates on chemistry? Indeed, autocatalytic hypercycles, although not yet fully autopoietic structures, could be the precursors of life. Finally, if you want to keep yourself within a materialistic horizon, you must also explain the origin of the first autopoietic cell. If you give up selection, you have to rely on chance.

My criticism “from the right” is based on the fact that, on the contrary, the evident, even if progressive, optimization of the functions of the living beings cannot be the result either of chance or of mere selection, but requires a more “strong” explanation, the need for consciousness to arise. Consciousness, in my model, would be both the ultimate goal of evolution, and, circularly, the condition of “transcendental” possibility (since it introduces time, previously absent) of evolution itself.

But this is me, not Thompson.

Anyway the problem of the transition from life to consciousness remains unanswered. In my perspective, the question is what determines (or reveals) the universe’s ability to observe itself. Is it the fact of owning (or representing) a nervous system (treated by Thompson as a self-organized system) with certain traits, e.g. the neocortex? Or is it the fact of maximally reducing the internal entropy (interesting that Thompson unifies the idea of a closed self-organizational system, to characterize the living being, with that of a dissipative structure energetically open, far from the state of thermodynamic equilibrium, but able to “maintain” in this condition)? In short, what is the correlated (in my opinion not with causal role, but only of trigger) of consciousness?

Dall’autopoiesi alla coscienza?

neurone
L’idea di Evan Thompson in Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press, 2010, è che l’explanatory gap (con cui egli identifica lo hard problem di Chalmers), cioè il problema di capire perché siamo coscienti, cioè perché gli stessi meccanismi cerebrali correlati alla nostra esperienza soggettiva non potrebbero funzionare altrettanto bene senza che noi fossimo consci, possa venire “ridotto” se non risolto sulla base dell’analogia tra il modo di funzionare autopoietico del vivente e quello della coscienza.
(In un certo senso, su tutt’altre basi – evoluzionistiche – , sembra anche l’intuizione che presiede al volume di Simona Ginsburg ed Eva Jablonka. The Evolution of the Sensitive Soul. Learning and the Origins of Consciousness, MIT Press, Massachusetts, 2019, in cui i marcatori dell’origine della vita sono visti come “analoghi” ai marcatori dell’origine della coscienza).

Per comprendere in che senso Thompson intenda quest’analogia (tra forma della vita e forma della coscienza) bisogna ricordare il significato di “autopoiesi” (definito originariamente nel testo  di Francisco Varela e Humberto Maturana Autopoiesis: the organization of the living (1972) ampliato e integrato con uno scritto precedente sulla cognizione in Autopoiesis and Cognition, Dordrecht, Netherlands, Reidel, 1980): un essere vivente sarebbe fondamentalmente una macchina in grado di rigenerare continuamente se stessa. In particolare esso sarebbe contraddistinto dal fatto di auto-organizzarsi, cioè di produrre i componenti che, interagendo tra loro, producono se stessi e l’intero di cui sono parte.

Si tratta di un interessante approccio antiriduzionistico (perché nel vivente opererebbe una downward causation dall’intero alle parti, tale per cui l’intero è “maggiore della somma delle parti”, in senso olistico), ma dichiaratamente deterministico e meccanicistico (non si ritiene che operino “cause finali”, “campi morfogenetici”, “forze occulte”, “anime” o comunque entità non materiali come nel vitalismo).

L’aspetto che mi aveva interessato era il fatto che anche il “confine” dell’organismo risulta determinato dall’organismo stesso e, a sua volta, determina lo sviluppo del medesimo, come nel caso paradigmatico della cellula. Secondo gli autori la “macchina autopoietica”, a differenza di un computer, non riceve in input informazioni, le elabora e restituisce in output informazioni, ma tende solo a riprodurre se stessa: gli “input” sono soltanto “perturbazioni”, non diversamente da quelle che potrebbero venire dall’interno della macchina, a cui la macchina vivente reagisce rimaneggiando se stessa per mantenere la propria auto-organizzazione. Questo processo sarebbe anche una forma di cognizione (noi diremmo apprendimento o adattamento).  Inoltre, non solo i confini sono stabiliti dallo stesso vivente mentre vive, ma in un certo senso anche l’ambiente (la nicchia ecologica) nel suo complesso è co-determinato dall’organismo. Ciascuno ha l’universo che si merita, potremmo dire (noi percepiamo certe frequenze luminose e lo spazio in un certo modo, un’ameba vive in un ambiente del tutto diverso; inoltre ogni organismo, insieme con gli altri conspecifici e non, non è solo condizionato dall’ambiente ma contribuisce a definirlo).

Come si chiarisce meglio nel libro scritto da Thompson con Francisco Varela ed Eleanor Rosch, The Embodied Mind: Cognitive Science and Human Experience, MIT Press, 1991 (in cui sparisce misteriosamente il concetto di autopoiesi, a favore di una semplice, ma sinonimica “self-organization” – l’autopoiesi riappare comunque in Mind in Life) l’interazione tra organismo e ambiente ha carattere “enactive“. L’azione è influenzata dalla percezione e questa dall’azione in un circolo di feedback continui in cui non passerebbero informazioni in senso informatico, ma si svolgerebbe un processo che è cognitivo e “adattativo” insieme (e in cui anche l’ambiente viene in un certo senso configurato). Anche se con linguaggio diverso non si tratta di un approccio molto diverso, secondo me, di quelli di Seth e Hoffman: la “mente” funzionerebbe proiettando sul “mondo” le proprie ipotesi o aspettative “bayesiane” e correggerebbe via via il tiro in base al feedback che riceve (secondo me il paradigma è il modo in cui un bambino piccolo impara a stringere gli oggetti per prova e errore senza che nessun “gene” abbia predeterminato l’esatta modalità operativa per avere successo).

Ciò che mi aveva colpito è quest’idea di coevoluzione o codeterminazione tra organismo, dai confini sfumati, e universo. Ci vedevo una forma embrionale di “uno-tutto”. È come se l’organismo fosse l’universo stesso che assume una determinata configurazione, senza confini netti tra la parte e il tutto.

A questo punto, però, sempre dal mio punto di vista, diventava urgente capire la differenza tra “vita” (così o altrimenti concepita) e “coscienza”. Mind in Life sembrava, al riguardo, molto promettente.

Thompson, che è filosofo, sviluppa innanzitutto un’interessante discussione sui limiti epistemologici delle scienze cognitive, mettendo in luce la funzione trascendentale (termine mio, ma per chiarire) della coscienza (e, quindi, il “bisogno” epistemologico di filosofia e specialmente della fenomenologia di Husserl, Heidegger, Merleau-Ponty ecc.). Lo scienziato cognitivo spesso non mette a tema il fatto che, quando tratta della coscienza, mette in gioco la sua stessa coscienza, senza averne accuratamente analizzato i tratti fenomenologici (si può arrivare così, noto io, a dimostrare che la coscienza, in quanto si sarebbe evoluta solo per favorire la fitness, non è affatto attendibile cognitivamente, senza accorgersi che, in questo modo, si taglia il ramo su cui lo stesso neuroscienziato, in quanto il suo sapere deriva dalla sua coscienza, è seduto!). La coscienza non è solo un oggetto di indagine, ma anche lo strumento mediante cui l’indagine è condotta. Essa (la coscienza soggettiva del ricercatore)  opera occultamente come termine di paragone anche in quegli approcci che si dichiarano “oggettivistici” e cercano di limitarsi ai “dati” ricavati p.e. dalla scansione del cervello e dai reports (che sono a loro volta interpretazioni soggettive!) dei soggetti su cui si effettuano gli esperimenti.

Purtroppo, quando Thompson passa a trattare della coscienza, introducendo la sua “neurofenomenologia” (ispirata a Varela, nel frattempo deceduto per complicanze legate a problemi al fegato), cioè un forma di fenomenologia naturalizzata, in cui l’autoanalisi fenomenologica illumina i dati sperimentali e viceversa, fa interessantissime osservazioni ecc., ma, secondo me, non riesce in alcun modo a ridurre l’explanatory gap.

La vaga analogia tra il funzionamento “olistico” della coscienza (che, a sua volta, come anche il cervello, non dovrebbe essere vista come un elaboratore di informazioni, ma come un sistema che si auto-organizza omeostaticamente ecc.) e quella della cellula non ci aiuta a capire come si passi da questa a quella.

Thompson si limita a scagliarsi contro il dualismo cartesiano, operante anche in Chalmers, nei “rappresentazionalisti” come Jerry Fodor, in Jaegwon Kim ecc. Se si “riduce” la natura, anche biologica, in senso deterministico-meccanicistico-fisicalistico ecc. non si riuscirà mai a derivarne la coscienza. Se, invece, si intendono i fenomeni biologici come irriducibili a quelli fisici, cioè come dotati di una capacità di auto-organizzazione (è interessante che Thompson riconosca a Kant il merito, nella Critica del Giudizio, di avere introdotto per la prima volta la nozione di “causalità circolare” per interpretare il vivente e, nel suo ultimo libro, andando ben oltre Maturana e Varela, “sdogana” anche la nozione di “causalità finale” anche se sganciata da ogni idea di “progetto” trascendente, come “purposiveness” intrinseca all’organizzazione autopoietica), il gap con i fenomeni soggettivi, caratteristicamente “intenzionali”, della coscienza si ridurrebbe.

Questa strategia sembra promettente, ma, secondo me, è assai problematica. Proprio l’analogia tra i due tipi di fenomeni (vita e coscienza) mantiene in essere il quesito: se la vita è così “potente” come processo capace di auto-organizzazione anche quando è inconscia, perché a un certo punto si è evoluta la coscienza?

Tra l’altro è curioso che Thompson & co. “attaccano” anche la teoria dell’evoluzione per selezione naturale. Però, per così dire, anche se certi loro argomenti sono convincenti, la attaccano da “sinistra” (mentre chi scrive, più sensibile alle sirene dell’intelligent design o, meglio, di una certa lettura del principio antropico, tende ad attaccarla da “destra”). Cioè, l’idea è che gli organismi evolvano spontaneamente (si rasenta anche il lamarckismo, esaltando la possibilità della trasmissione epigenetica o “culturale” dei caratteri acquisiti) e che la selezione naturale si limiti a eliminare i casi disperati. Non si registrerebbe una tendenza a ottimizzare la fitness, ma solo a conservare in essere organismi minimamente o sufficientemente adattati. La tesi di fondo è che l’autopoiesi e non l’evoluzione caratterizzerebbe la vita. L’evoluzione sarebbe un fenomeno “storico” non strutturale (è all’incirca la tesi di Piantelli e Fodor nel libro Gli errori di Darwin). La selezione, per operare, presuppone la vita, non la crea.

A pensarci, questo genere di critiche, secondo me, non portano lontano. Invece di spiegare la vita e l’intelligenza (o la coscienza) allontano la spiegazione, conferendo un ruolo eccessivo o al caso o a ipotetiche leggi “autopoietiche” che, però, se le si dovesse veramente prendere sul serio, richiederebbero di reintrodurre l’élan vital, cause finali e formali (campi morfici) o, infine, di nuovo, un intelligent design.

Poi a me sembra un sofisma affermare la selezione presuppone la vita. Certo, in Darwin questo è letteralmente vero. Ma che cosa vieta di supporre che la selezione operi sulla chimica, cioè sugli ipercicli autocatalitici che, secondo alcuni, pur non essendo ancora pienamente strutture autopoietiche, potrebbero essere i precursori della vita? In qualche modo, se ci si vuole mantenere in un orizzonte materialistico, si dovrà pure spiegare l’origine della prima cellula autopoietica. Se si rinuncia alla selezione, ci si deve affidare per forza al puro caso.

La mia critica “da destra” è basata sul fatto che, anzi, l’evidente ottimizzazione delle funzioni dei viventi non può essere frutto né del caso, né della mera selezione, ma richiede una spiegazione più “forte”, Dio o la necessità che scaturisca la coscienza. La coscienza, nel mio modello, sarebbe sia il fine ultimo dell’evoluzione, sia, circolarmente, la condizione di possibilità “trascendentale” (in quanto introduce il tempo, prima assente) dell’evoluzione medesima.

Ma questo è Giacometti, non Thompson.

E comunque rimane inevaso il problema del passaggio dalla vita alla coscienza. Nella mia prospettiva si tratta di ciò che “demarca” la capacità dell’universo di osservare se stesso. Forse è il fatto di possedere (o rappresentarsi di possedere) un sistema nervoso (trattato da Thompson & co. come un sistema auto-organizzato) con certi tratti, p.e. la neocorteccia? Oppure è il fatto di azzerare completamente l’entropia interna (interessante che Thompson unifichi l’idea di sistema auto-organizzativo chiuso, per caratterizzare il vivente, con quella di struttura dissipativa energeticamente aperta, lontana dallo stato di equilibrio termodinamico, ma capace di “mantenersi” in questa condizione)? Insomma quale mai è il correlato (secondo me con ruolo non causale, ma solo di “trigger”) della coscienza?

Is reality an illusion?

rotture

Donald Hoffman’s book, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020) proposes two largely acceptable though revolutionary theories on consciousness and reality, linked together, but not dependent on each other. These are highly speculative theories, but Hoffman exposes them to empirical checks according to the scientific method, which he defends with conviction. Several experiments, cited by Hoffman, seem compatible especially with the first of the two theories.

According to the interface theory of perception (ITP), the world we perceive is not objective, nor does it bear any resemblance to the objective world. Not only the classic “secondary qualities”, such as colors, sounds, flavors, but also the classic “primary qualities”, such as space and time, would depend more on our perceptual system than on “objective reality”. They would be the way we encode our experience. The objects we perceive would be, relative to the underlying reality, like desktop icons are relative to the sequences of bytes they represent, as these sequences actually and physically exist in a computer.

To support this thesis, for which he appropriately refers to Kant, Hoffman resorts to his theorem “Fitness-Beats-Truth” (FBT), proven on the basis of game theory. According to this theorem, the more complex an organism is (in terms of internal “states” corresponding to hypothetical “states” of the external world), the less likely it is that the world it perceives is real. If this were not the case, the organism could not survive and reproduce with the necessary effectiveness. In short, natural selection would favor organisms that perceive the world in a “useful” way rather than in a “true” way. Space and time would thus be “doomed”, in line with certain interpretations of quantum mechanics.

This theory seems to me absolutely convincing insofar as it highlights the subjective character of the world as it appears to us. References to physics are certainly appropriate (and correspond largely to those I make on this website, coming to conclusions similar to those Hoffman’s).

Hoffman’s use of the theory of evolution by natural selection is less convincing. Since natural selection seems to take time, but time is ultimately an illusion, it is unclear “where” and “when” evolution may occur.

Furthermore, Hoffman often alludes to the fact that living beings must consume “energy” to obtain resources. But it is not clear what “energy” (a magnitude corresponding to the product of the force applied to a body by the displacement it undergoes in space) could mean if space and time are doomed.

In my view, Hoffman’s reasoning, taken to its extreme consequences, shows that the theory of evolution by natural selection is ultimately self-contradictory: if the theory were true, we would perceive a false world; but, if the world were false, the theory of evolution that we know would be false, as it presupposes illusory entities, such as space and time.

Hoffman defends his theory by saying that his theory only questions our perception of the world and not, instead, our logical-mathematical skills (on which he bases his theorem FBT). However, if evolution had selected us to identify what is useful for us to survive and to reproduce rather than to understand the truth, it is not clear why this blindness to truth should not also concern mathematical truth. It is true that having a “correct” basic mathematics could be an advantage for our survival, but what’s the advantange of having the advanced mathematics that Hoffman needs for his theory? Our primate cousins would certainly not know what to do with it.

In general, I think the trust that Hoffman rightly has for the scientific method cannot be based on the random evolution of our “mind” (I do not say “of the brain”, because this, in Hoffman’s perspective, is only an icon of the mind). Such evolution would not guarantee the viability of science, not even as a set of fallible, but for the moment convincing hypotheses. I think we must posit that there is a more immediate and direct relationship between our mind and the truth.

With these epistemological limitations, Hoffman’s interface theory of perception appears in any case convincing, at least as a metaphor, and in accordance with my tenet on the subjectivity of space and time.

The second theory that Hoffman introduces, to complement the first, but as a theory not dependent on it, is the theory of conscious realism. Compared with ITP, it is a much more speculative theory, a real research programme that Hoffman is launching. Nevertheless he expects empirical checks on it to be carried out sooner or later.

According to this theory it is impossible to fix the issue of the origin of consciousness by adopting a physicalistic approach, that is, by trying to understand how consciousness can derive from an objective reality, made of quarks, atoms, molecules, neurons etc. pre-existent to consciousness itself. The hard problem (why we are conscious instead of not) cannot be solved this way. On this point I wholeheartedly agree with Hoffman.

Hoffman therefore proposes that consciousness doesn’t derives from “matter”, but it is something original. I fully agree also with this tenet.

But Hoffman affirms that everything consists of a network of “conscious agents”. What puzzles me is that consciousness must be “multiplied” into these countless conscious agents (re-edition of the monads of Leibniz?) that would pervade the universe from the level of the Plank scale up to “God”, a hypothetical cosmic super-consciousness constituted (“instantiated”) by the conscious agents of gradually higher level (up to the Plank scale).

The least we can say is that this theory seems to violate Ockham’s razor, which Hoffman, instead, invokes as a guiding criterion. Why all these “conscious agents”? Hoffman starts from the fact that, if I look in the mirror, behind the icon of my face there is a world of feelings and emotions, expressed, say, by a smile. So also, probably, there is a similar world behind the icon of the face of my beloved, of my friends and so on. Even a chimpanzee can maybe express emotions. If I feel less and less “empathy”, going down the scale of the living beings, according to Hoffman it is not because these living beings are less “conscious”, but because their way of being conscious would be different from my. So quickly we get to the electrons and the Planck scale!

Therefore, if I look at a mountain, what I look at would be a swarm of conscious agents whose “actions” would constitute for me many “experiences”. Hoffman also proposes a mathematical model of how conscious agents would experience and react “freely” to it, while retaining their memory. To this end he assumes that conscious agents work as universal Turing machines and make choices that can be interpreted as transitions through Markovian kernels in measurable spaces (whose fundamental dimensions would be that of the experiences and that of the corresponding actions).

In this way Hoffman tries to bring back the “visible” mechanisms of natural selection to a hypothetical “mathematical” root in the “thing-in-itself”. However, the above perplexities about Hoffman’s use of the theory of evolution remain. In fact, these conscious agents seem to take “time” to operate. Perhaps it is a different time from the illusory one? Yet this time, to work, should be linear and oriented in the past-future direction as well as the illusory one…

The mechanism by which these agents choose is also unclear. Are these random, “improved” choices for trial and error? Does Hoffman intend to reinterpret free will? And why should this mechanism be conscious instead of not? Is the hard problem really solved?

Interesting is that Hoffman distinguishes between experiences by definition conscious and actions that would follow, intrinsically unconscious. However, he states that we would indirectly experience these actions (consciously) for their effects and this make us correct gradually the shot. This gives me some ideas about the “heterogeny of ends” that I could use to improve my model.

In my opinion, if space and time really are “doomed” or better, to be precise, if they are understood as a manifestation of the consciousness itself and not as something antecedent to it, this proliferation of conscious agents that could or could not unite to “instantiate” others of a higher level is something redundant (if not inconsistent, as it seems to assume, if not a space, at least a “time” in which this “network” can develop).

If space and time have no objective character, nothing “really” separates me from you, my reader. It seems to me sufficient to posit that there is only one consciousness, which we can attribute to the universe itself. Looking at my wife I guess behind her smile nothing but a form that the consciousness of the universe has assumed or will assume at a different time from now, when the universal consciousness dwells in me.

It is not at all necessary to attribute consciousness to electrons, nor is it necessary to attribute it to the cells of my body. These are only parts of the icon (to use Hoffman’s terminology) behind which hides, from time to time, the only one consciousness, which takes on the most diverse forms (but not necessarily all possible and impossible forms). Even my body deeply sleeping (or my immune system) is part of the icon. If space and time are subjective, what appears to be separated in space and time can be part of the overall figure that, from time to time, the consciousness assumes, “io dico l’universo” (“I say the universe”, as Galilei wrote), seen as a Moebius strip in which perceptions and emotions are only two sides of the same coin. But this is only my point of view…

La realtà è illusoria?

intelligenza

Il volume di Donald Hoffman, The Case Against Reality. How Evolution Hid the Truth from Our Eyes (2020), che ho letto nella traduzione italiana L’illusione della realtà. Come l’evoluzione ci inganna sul mondo che vediamo, Bollati Boringhieri, Milano 2022, propone due teorie sulla coscienza e sulla realtà, tra loro legate, ma non dipendenti l’una dall’altra, altrettanto rivoluzionarie quanto in gran parte convincenti. Si tratta di teorie altamente speculative, ma che Hoffman espone ai controlli caratteristici del metodo scientifico, di cui è assertore. Diversi esperimenti, evocati da Hoffman, sembrano compatibili soprattutto con la prima della due teorie.

Secondo la teoria dell’interfaccia percettiva (TIP) il mondo che percepiamo non è oggettivo, né ha qualche somiglianza con il mondo oggettivo. Non solo le classiche “qualità secondarie”, come colori, suoni, sapori, ma anche le classiche “qualità primarie”, come le grandezze di spazio e tempo, dipenderebbero più dal nostro sistema percettivo che dalla “realtà oggettiva”. Si tratterebbe del modo attraverso il quale codifichiamo la nostra esperienza. Gli oggetti che percepiamo sarebbero icone sul desktop della nostra percezione e non corrisponderebbero in alcun  modo ad alcunché  di reale. Per sostenere questa tesi, per la quale egli opportunamente evoca Kant, Hoffman invoca il c.d. teorema “fitness batte verità”, dimostrato ricorrendo alla teoria dei giochi. Secondo questo teorema quanto più complesso è un organismo (in termini di “stati” interni corrispondenti a ipotetici “stati” del mondo esterno), tanto meno è probabile che il mondo che esso percepisce sia reale, se l’organismo deve conservarsi e riprodursi con la necessaria efficienza. Insomma, la selezione naturale favorirebbe gli organismi che percepiscono il mondo in modo “utile” piuttosto che in modo “vero”.  Spazio e tempo sarebbero così “condannati”, in linea con certe interpretazioni della meccanica quantistica.

Questa teoria mi sembra assolutamente convincente nella misura in cui mette in luce il carattere soggettivo del mondo come ci appare. I riferimenti alla fisica sono senz’altro pertinenti (e corrispondono in gran parte a quelli che faccio anch’io su questo sito per giungere a conclusioni simili a quelle a cui giunge Hoffman; interessante in particolare il riferimento al cosiddetto QBism, interpretazione “bayesiana” radicale della meccanica quantistica).

Meno convincente appare il modo in cui Hoffman ricorre alla teoria dell’evoluzione per selezione naturale. Poiché sembra che la selezione naturale richieda tempo, ma il tempo risulta alla fine illusorio, non è chiaro “dove” e “quando” l’evoluzione possa verificarsi. Inoltre, Hoffman allude spesso al fatto che i viventi debbano consumare “energia” per procurarsi risorse. Ma non è chiaro che cosa “resti” di ciò che intendiamo come energia (una grandezza corrispondente al prodotto della forza applicata a un corpo per lo spostamento che questo subisce nello spazio) se spazio e tempo sono aboliti.

Nella mia prospettiva il ragionamento di Hoffman portato alle sue estreme conseguenze mostra il carattere in ultima analisi autocontraddittorio della teoria dell’evoluzione per selezione naturale: se la teoria fosse vera, noi percepiremmo un mondo falso; ma, se il mondo fosse falso, la stessa teoria dell’evoluzione che conosciamo sarebbe falsa, in quanto essa presuppone entità illusorie, come lo spazio e il tempo.

Hoffman si cautela in un passaggio affermando che la sua teoria mette in discussione soltanto la nostra percezione del mondo e non, invece, p.e. la nostre capacità logico-matematiche (sulle quali si basa la teoria dei giochi, sulla quale, a sua volta, egli basa il suo teorema “fitness batte verità”). Tuttavia, se l’evoluzione ci avesse selezionati per individuare ciò che ci è utile per sopravvivere e per riprodurci piuttosto che per comprendere la verità, non è chiaro perché questa cecità nei confronti della verità non debba riguardare anche la verità matematica. È vero che possedere una matematica di base “corretta” potrebbe essere vantaggioso per la nostra sopravvivenza, ma non si tratta certamente della matematica avanzata di cui Hoffman ha bisogno per la sua teoria (di cui ad es. i nostri cugini primati non saprebbero certamente che farsi).

In generale la fiducia che giustamente Hoffman nutre per il metodo scientifico non può fondarsi sull’evoluzione casuale della nostra “mente” (non dico del “cervello” che, nella prospettiva di Hoffman, è solo un’icona della mente). Tale evoluzione non garantirebbe la veridicità della scienza, neppure come insieme di ipotesi fallibili, ma per il momento convincenti. Bisogna supporre un rapporto più immediato e diretto tra la nostra mente e la verità.

Con questi limiti epistemologici la teoria dell’interfaccia percettiva di Hoffman appare in ogni caso convincente, almeno come metafora, e consonante con quanto su questo sito argomento circa la soggettività di spazio e tempo.

La seconda teoria che Hoffman introduce, a completamento della prima, ma come teoria non dipendente da essa, è la teoria del c.d. realismo conscio.  Rispetto alla TIP si tratta di una teoria molto più speculativa, di un vero e proprio programma di ricerca che Hoffman lancia, rispetto al quale, tuttavia, egli si attende che possano prima o poi venire effettuati controlli empirici.

Secondo questa teoria è impossibile risolvere il problema dell’origine della coscienza adottando un approccio fisicalistico, cioè cercando di capire come la coscienza possa derivare dalla “materia”, cioè da una realtà oggettiva, fatta di quark, atomi, molecole, neuroni ecc., preesistente alla coscienza stessa. Lo hard problem (perché siamo coscienti anziché no) non può essere risolto per questa via. Su questo punto il mio accordo con Hoffman è totale.

Hoffman propone quindi che non sia la coscienza a derivare dalla “materia”, ma il contrario o, per meglio dire, che tutto sia costituito da una “rete” di “agenti coscienti”.

Pieno accordo sul fatto che la coscienza sia alcunché di originario, ma ciò che mi lascia perplesso è che la coscienza debba essere “moltiplicata” in innumerevoli agenti coscienti (riedizione delle monadi di Leibniz) che pervaderebbero l’universo dai livelli della scala di Plank fino a “Dio”, un’ipotetica super-coscienza cosmica costituita (“istanziata”)  dagli agenti coscenti di livello via via inferiore (fino, appunto, alla scala di Plank).

Il meno che si possa dire è che questa teoria sembra violare quel rasoio di Ockham che Hoffman, invece, invoca come criterio guida.

Perché tutti questi “agenti coscienti”? Hoffman parte dal fatto che, se mi guardo allo specchio, dietro all’icona del mio viso c’è un mondo di sentimenti ed emozioni, tradite magari da un sorriso ecc. Così anche, probabilmente, c’è un simile mondo dietro l’icona del volto della mia amata, dei miei amici. Anche uno scimpanzè può tradire emozioni ecc. Se scendendo nella scala dei viventi, provo sempre minore “empatia”, secondo Hoffman, non è perché questi viventi siano meno “coscienti”, ma perché il loro modo di essere coscienti sarebbe diverso. Si arriva così rapidamente agli elettroni e alla scala di Planck!

Dunque, se guardo una montagna, ciò che guardo sarebbe un brulicare di agenti coscienti le cui “azioni” costituirebbero per me altrettante “esperienze”.

Hoffman elabora anche una matematica del modo in cui gli agenti coscienti farebbero esperienza e reagirebbero “liberamente” alla stessa, conservandone memoria. A questo fine egli suppone che gli agenti coscienti funzionino come macchine di Turing universali e che facciano scelte interpretabili come passaggi attraverso kernel markoviani in spazi misurabili (le cui dimensioni fondamentali sarebbero quella delle esperienze e quella delle azioni ad esse corrispondenti).

In questo modo Hoffman cerca di ricondurre i meccanismi “visibili” della selezione naturale a un loro ipotetica radice “matematica” nella “cosa in sé”. Tuttavia, le perplessità sopra avanzate sull’uso che Hoffman fa della teoria dell’evoluzione rimangono. Infatti, questi agenti coscienti sembrano richiedere “tempo” per poter operare. Forse si tratta di un tempo diverso da quello illusorio? Eppure questo tempo, per funzionare, dovrebbe essere altrettanto lineare e orientato nella direzione passato-futuro di quello illusorio…

Anche il meccanismo con cui questi agenti scelgono non è chiaro. Si tratta di scelte casuali, “migliorate” per prova ed errore? Hoffman intende così reinterpretare il libero arbitrio? E perché questo meccanismo dovrebbe essere cosciente anziché no? Lo hard problem è veramente risolto?

N. B. È interessante il passaggio in cui Hoffman distingue tra esperienze per definizione coscienti e azioni che ne seguirebbero, intrinsecamente inconsce, ma delle quali faremmo indirettamente esperienza (cosciente) per i loro effetti, inducendoci a correggere via via il tiro.  Ciò mi ispira alcune idee sull’eterogenesi dei fini che potrei sfruttare per migliorare il mio modello.

Inutile dire che, secondo me, se davvero spazio e, soprattutto, tempo sono “condannati”, cioè, per la precisione, vengono intesi come manifestazione della stessa coscienza e non qualcosa di antecedente ad essa, questa proliferazione di agenti coscienti che si potrebbero o meno associare per “istanziarne” altri di livello superiore è del tutto superflua (oltre che contraddittoria, in quanto sembra presupporre, se non uno spazio, almeno un “tempo” in cui tale “rete” possa svilupparsi).

Se spazio e tempo non hanno carattere oggettivo, nulla mi separa “realmente” da te, mio lettore. Mi sembra sufficiente postulare che la coscienza sia, di volta in volta, una sola, quella che possiamo attribuire all’universo stesso. Guardando mia moglie indovino dietro al suo sorriso nient’altro che una forma che la coscienza dell’universo assunse o assumerà in una fase diversa da questa, in cui la coscienza universale abita in me.

Non è affatto necessario attribuire coscienza agli elettroni, come non è necessario attribuirla alle cellule del mio corpo. Si tratta di parti dell’icona (per usare la terminologia di Hoffman) dietro la quale si nasconde, di volta in volta, la sola unica coscienza, la quale assume le forme più diverse.  Anche il mio corpo che dorme di sonno profondo (o il mio sistema immunitario) è parte dell’icona. Se spazio e tempo sono soggettivi, ciò che appare separato nello spazio e nel tempo può benissimo essere parte della figura complessiva che di volta in volta la coscienza assume (“io dico l’universo”, visto come nastro di Moebius in cui percezioni ed emozioni non sono che due facce della stessa medaglia).

Being you

Beingyou

Il libro di Anil Seth, Being you. A New Science of Consciousness, Faber & Faber, Londra 2021, propone una ficcante teoria della coscienza che sembra piuttosto convincente, anche se, rifiutando esplicitamente di confrontarsi con lo hard problem della coscienza, come lo chiama David Chalmers, (perché essa esista) elude la questione decisiva.

 

In che cosa, dunque, consistono i motivi principali di interesse del volume?

 

Appare “filosoficamente” convincente l’interpretazione di fondo che Seth fornisce della coscienza: si tratterebbe di un sistema che, sulla base di un approccio predittivo “bayesiano”, “allucina” una realtà “funzionale” e non necessariamente simile alla “realtà vera” (lo stesso Seth nell’epilogo richiama la distinzione kantiana tra fenomeno noumeno e allude alla possibilità che lo stesso tessuto tridimensionale dello spazio – purtroppo non parla del tempo, che mi sta molto a cuore, – possa essere un “effetto percettivo”).

 

Entro certi limiti convince anche l’istanza “naturalistica”  (implicita nella rilevanza che Seth assegna a quello che chiama “real problem” della coscienza rispetto allo “hard problem“): bisogna che qualsiasi interpretazione del funzionamento della coscienza sia coerente con i dati empirici: anche se la coscienza, in quanto esperienza soggettiva, non è il cervello, nulla vieta, anzi tutto suggerisce che vi sia una stretta correlazione tra coscienza e cervello (o corpo), tra “interno” ed “esterno”. Quindi è giusto “naturalizzare” il problema e non limitarsi ad assumere una prospettiva esclusivamente “trascendentale”, pura, sul tema (questa non esclude quella: l’analisi fenomenologica, semplicemente, non può essere incongrua con il dato empirico: ad es. non può essere che io percepisca un gatto se il mio cervello manda le onde tipiche del sonno profondo).

 

Va detto che, nonostante Seth sia un neuroscienziato, la sua teoria appare, in ultima analisi, più speculativa che “scientifica”: Seth prende certamente spunto da osservazioni ed esperimenti suoi e di altri, ma ciò che dà senso al volume è una complessiva interpretazione che è certamente autorizzata dai dati empirici, ma non è l’unica possibile.

 

Il limite, come accennato, è che Seth, nonostante la sua “deriva” speculativa, pretende di eludere lo “hard problem“.

 

Afferma di distinguere quello che chiama real problem  (il problema di spiegare “scientificamente” la coscienza) dagli easy problems” , come li chiama ancora Chalmers, che riguarderebbero il “funzionamento” della coscienza.  Eppure, alla fine, anche Seth spiega la coscienza funzionalisticamente (con la sua teoria bayesiana) dando per scontata quella fenomenologia della coscienza, che è invece esattamente quello che contraddistingue la coscienza come coscienza in prima persona e che si trattava di spiegare (cosa che Seth non fa), se si prende sul serio lo hard problem.

 

Seth non riesce in ultima analisi a “giustificare” l’esistenza stessa della coscienza. Perché il suo efficace funzionamento bayesiano non potrebbe essere implementato da un sistema inconscio, come sono, secondo lo stesso Seth, diverse forme di intelligenza artificiale?

L’approccio riduzionistico, in generale, alla natura è utile ma non esclusivo (come lo presenta Seth con fallacia epistemologica). Consideriamo l’approccio riduzionistico alla vita proprio della biologia moderna, che Seth considera paradigmatico. Esso non fa che spostare lo “hard problem”  (che cosa sia e perché esista la vita), non lo dissolve in una nuvola di fumo metafisico, come pensa Seth. Lo stesso si verifica per il problema dell’esistenza della coscienza (lo hard problem di Chalmers, appunto). Se io sono un sistema che si autoregola per sopravvivere che bisogno ho di essere cosciente? Si possono costruire sistemi che si autoregolano in base agli input che ricevono senza che per questo questi siano vivi e coscienti.

 

La stessa giusta distinzione che Seth fa, nell’ultimo capitolo prima dell’epilogo, tra coscienza intelligenza dovrebbe aiutarlo a comprendere (cfr. le pagine in cui intuisce improbabile che una macchina capace di “predictive processing” sia cosciente) che questo “predictive processing“, che secondo lui caratterizza la coscienza, si adatta a rappresentare anche semplicemente un sistema intelligente capace di autoregolazione, ma inconscio.

 

Passiamo ora a rilievi più specifici.

 

La teoria dell’energia libera di Friston sembra molto intrigante: in ultima analisi vi si argomenta che un organismo sarebbe in grado di limitare drasticamente i suoi potenzialmente numerosi gradi di libertà (alta entropia), che lo porterebbe a una rapida decomposizione.
Non è un altro modo di dire che un vivente è governato da un campo morfogenetico o anche che si contraddistingue come sistema autopoietico (teoria di Maturana e Varela che mi sembra molto ficcante)?
La questione è come il vivente riesca in questa sorprendente riduzione che sembra violare il secondo principio della termodinamica.

 

Non deve avere necessariamente una fisica diversa da quella di un sasso, certo. Eppure una fisica, che, globalmente, arriva a tanto, è forse un po’ diversa da quella c.d. meccanicistica a cui si pensa comunemente. Può darsi che vi abbiamo un ruolo principi nuovi, forze sconosciute, cause finali o attrattori strani.

 

Insomma naturalismo e fisicalismo anche sì, ma “very very enlarged“.

 

Seth discute anche l’interessante paradosso del teletrasporto: se una certa Eva entrasse, qui sulla Terra, in una macchina per il teletrasporto che la disintegrasse per poi ricostruirla altrove, p.e. su Marte,  si potrebbe dire che Eva è sempre Eva, la sua coscienza sarebbe la stessa? E, se per un guasto della macchina, la Eva “terrestre” sopravvivesse e venisse comunque riprodotta una seconda Eva, identica alla prima, su Marte, quale delle due sarebbe Eva? (Seth evoca qua e là anche lo “split brain” e l’interessante caso reale dei gemelli siamesi uniti per il cervello).

 

In tutti questi casi, secondo me, si continua a sfuggire al problema. Non basta dire “entrambe le donne sono Eva”.

 

Tu che sei entrata nella macchina, ti ritroverai su Marte o sulla Terra? La mia risposta è: sulla Terra . Su Marte c’è un clone (con la tua memoria). Non può essere l’identità fisica che determina la continuità della coscienza, semmai il contrario. Tutti quelli che entrano in una macchina del teletrasporto muoiono all’istante anche se nessuno se ne accorge (neanche loro se ne accorgerebbero, se la morte fosse un passare nel nulla, ma non perché si ritroverebbero altrove col proprio corpo, ma appunto perché morirebbero: naturalmente nella mia ipotesi di fondo costoro si troverebbero sì altrove, ma senza il loro corpo).

 

Anche la rappresentazione di una coscienza “diffusa” nel polpo, che Seth presenta nell’ultima capitolo, non mi sembra giustificata. Seth può riconoscere che parti del polpo di muovono con grande autonomia e intelligenza (del resto anche il nostro cuore e il nostro sistema immunitario lo fanno). Ma una coscienza che non sia “una” è impensabile. Qualunque cosa fosse, non sarebbe quello che intendiamo per coscienza.

 

Attenzione: non si sostiene che “chiunque” sia cosciente (nessuno in particolare ovvero l’universo stesso) debba concepire se stesso necessariamente come uno e come un corpo. Questa è senz’altro un’allucinazione. Ci si identifica che questo o con quello, ma si è senz’altro altro da quello che si crede di essere e si percepisce di sé (vedi oltre). Tuttavia questo altro non può che avere UNA coscienza se ha coscienza. Non ha senso dire che ne può avere due. Se le ha simultaneamente (ad es. si percepisce sia a Udine sia in Lussemburgo) ha una sola coscienza con due o più percezioni (come ora io vedo più colori). Se ha queste “coscienze” in tempi diversi, ancora ne ha una sola che, semplicemente, si sposta e diviene riempiendosi nel tempo di contenuti diversi.
Seth radica la coscienza nella vita piuttosto che nell’intelligenza. Interessante e sensato. Ma come dimostrarlo?
È una sua congettura.
Molte attività viventi anche nostre e anche molto complesse si svolgono inconsciamente. Forse la funzione della coscienza è legata alla possibilità di provare piacere e dolore per orientarsi nel mondo tra opportunità e pericoli? Ma anche un meccanismo inconscio emulabile da un robot potrebbe farlo….

 

Arriviamo alla questione epistemologicamente cardine, a mio parere.

 

Se tutto è allucinazione controllata, compresi gli oggetti esterni, anche p.e. il sistema limbico o il cervelletto o la neurocorteccia sono allucinazioni, anche il corpo vivente è un’allucinazione che ai nostri occhi e alla nostra mente sembra occupare uno spazio tridimensionale, anche gli stessi spazio e tempo: Seth assegna a loro un ruolo solo perché ha bisogno di credere che esistano come oggetti esterni al fine di sopravvivere (come neuroscienziato piuttosto che come mistico?). È la “mise en abime” che contraddistingue ogni naturalismo radicale (portato alle estreme conseguenze) che finisce per farne un idealismo.

 

A p. 272 Seth sembra applicare la sua teoria della coscienza a se stessa: come la coscienza funziona in quanto predittiva, non “oggettiva”, così anche una teoria sulla coscienza funziona se obbedisce a un’epistemologia bayesiana. Ma è come dire che la sua teoria può tranquillamente essere anche falsa! Insomma non si cade nel paradosso del mentitore?

 

In questa prospettiva “idealistica” si può essere d’accordo con Seth che il sé sia un’allucinazione, non diversamente dagli altri “oggetti”: l’Uno si identifica erroneamente in me e in te.
Ma, se Seth pensa che “chi” sbaglia in queste identificazioni non sia l’Uno, bensì il mio o il tuo o il suo “corpo vivente”, è perché finisce per commettere lo stesso errore che ha smascherato, assegnando a un fantomatico corpo vivente una realtà fondamentale, mentre sulla base dei suoi stessi criteri e risultati bisogna considerarlo un’allucinazione, un costrutto funzionale alla vita di che se lo rappresenta (nella mia ipotesi l’Uno-tutto, chi altri se no?).

 

Come accennato all’inizio, infine, molte teorie di Seth (ad es. che la coscienza sia legata alla vita o sia predittiva) non sono immediatamente ricavate da esperimenti ma sembrano interpretazioni speculative di esperimenti (il che a me va benssimo, lo trovo inevitabile, ma a te?). Con un gioco di parole si potrebbe dire che la teoria della coscienza predittiva non è a sua volta… predittiva (controllabile mediante esperimenti che potrebbero falsificarla). Troppo bayesianesimo, del resto, può dare alla testa, come argomentava Popper!

Coscienza e causalità

Un articolo interessante, di ispirazione cognitivistica, difende l’ipotesi che gli “eventi causali” arrivino alla coscienza (awareness) più velocemente di quelli “non causali”. Purtroppo questo articolo, a causa delle assunzioni implicite da cui muove, non ci aiuta, se non tangenzialmente, a rispondere alla domanda “Che cos’è la coscienza?”.

Si tratta di Causal events enter awareness faster than non causal events di Pieter Moors, Johan Wagemans e Lee De-Wit.

Intanto un’osservazione sullo stesso titolo dell’articolo.

A rigore non si dovrebbe parlare di “eventi causali”, ma bisognerebbe dire che eventi che simulano una connessione come quelle tipiche di eventi che noi interpretiamo come causalmente connessi (per esempio nel caso di “lanci”) entrano più rapidamente nella coscienza degli eventi che non simulano tale connessione.

Tale risultato non dovrebbe, comunque, stupire. In una prospettiva evoluzionistica sembra abbastanza verosimile che gli uomini, come senza dubbio anche gli animali superiori (Schopenhauer attribuiva anche al suo cane la capacità di interpretare i fenomeni attingendo alla categoria kantiana di “causa-effetto”), abbiano imparato abbastanza presto, per sopravvivere, ad anticipare certi eventi (pericolosi o, viceversa, appetibili) sulla base dei loro “prodromi” abituali. Eventi del tutto casuali non potevano ovviamente rientrare in sistemi previsionali efficienti (informaticamente si potrebbe dire che una sequenza di eventi totalmente casuali non è traducibile in sequenze di bit comprimibili sulla base di algoritmi, mentre, se ogni volta che c’è un lampo, segue necessariamente un tuono, è possibile costruire un algoritmo di compressione dell’informazione che semplifica la vita di chi contempla il duplice fenomeno).

Niente di strano che tale “apprendimento” si svolga a una livello abbastanza “inconscio” o radicato in strutture cognitive “basse”, come la percezione. Né che, per la sua utilità, quando una sequenza “apparentemente causale” si verifica, se ne abbia, in apparente contraddizione con il livello in cui essa viene registrata, più rapidamente coscienza.

Quello che si può trarre da questo articolo riguarda la funzione della coscienza. Tale funzione sembrerebbe proprio connessa a esigenze di sopravvivenza (sono più rapidamente consapevole di certi eventi “apparentemente causali” perché mi potrebbero interessare più di altri a fini di sopravvivenza). Il che propone la questione della “causalità” della stessa coscienza (probabilmente il modello da cui noi deriviamo la nozione stessa di “causalità” che poi proiettiamo sugli altri viventi o, addirittura, sugli esseri inanimati). Se la coscienza ha potere causale (come la sua ipotetica “emergenza” evolutiva sembra suggerire), per esempio mi “fa fuggire” più rapidamente (dell’istinto) da sequenze (pseudo-causali) di eventi interpretate come pericolose, come può reggere una prospettiva fisicalistica?

Da un altro punto di vista, però, gli esperimenti discussi da questo secondo articolo non hanno molto a che fare con la questione “metafisica” della causalità. Hume potrebbe continuare ad avere ragione. Certe correlazioni più frequenti o più “forti” vengono interpretate da qualcosa in noi (si tratti di coscienza o di percezione) come “causali” e arrivano prima alla coscienza. E allora? A meno di non ammettere che siamo noi stessi a generare i fenomeni che interpretiamo (come in una prospettiva idealistica), tutto questo dice ben poco circa la natura effettiva di tali correlazioni.

Si tratta di causalità a tutti gli effetti simulata, nel contesto dell’esperimento.  Si potrebbe fare esperimenti con animali superiori per vedere se la sequenza “lampo-tuono” (che non è a rigore causale, perché si tratta di due percezioni dello stesso evento, non di due eventi causalmente connessi) “arriva prima alla coscienza” di sequenze (in apparenza) puramente casuali. Ma non sono di questo genere i classici esperimenti pavloviani sui (poveri) cani (parenti forse di Atman, il cane di Schopenhauer)? A stimoli associati seguono risposte abbastanza prevedibili. Disgraziatamente non possiamo interrogare i cani per sapere se sono anche “coscienti”!

In generale, se paragoniamo la coscienza a una macchina fotografica, agli autori di questi articoli sembra interessare di più la domanda come sia possibile ottenere immagini degli oggetti esterni, esaminando parametri collegati all’obiettivo della “macchina fotografica” (tempo di esposizione, diametro dell’apertura, inclinazione rispetto alle sorgenti luminose ecc.).

A me, invece, acclarato che l’apparato collegato all’obiettivo in qualche modo funziona, interessa piuttosto sapere dove si formano le immagini: una pellicola o un nastro magnetico o un sistema digitale o qualcosa di simile a un occhio umano ecc.

Fuori di metafora, la mia domanda è “Che cos’è la coscienza?”. Rispetto a questa domanda, una domanda “guida” potrebbe essere, più ancora di “Come funziona?”, “Perché ce l’abbiamo?” (dove si scontrano modelli evoluzionistici e anti-evoluzionistici).

La domanda “Come funziona?” (p.e. “In modo discreto o continuo?”) ha un interesse relativo. Certamente, il funzionamento della coscienza è legato alla sua essenza (p.e. l’ipotesi di Penrose sulla sua natura quantistica – così come le ipotesi di matrice cognivistica – non sarebbe una buona ipotesi di partenza, se si evidenziasse sperimentalmente che la coscienza funziona  – poniamo – come un “continuo”), ma tale funzionamento non è sufficiente a determinare quale tra le ipotesi ontologiche relative alla sua essenza è quella vera (o anche solo più verosimile).

Vige, infatti, quella che in epistemologia si chiama “sottodeterminazione”. Se una certa teoria ha conseguenze compatibili con quello che si osserva (poniamo un funzionamento discreto della coscienza), tale teoria (p.e. il framework degli autori dell’articolo) non è necessariamente più vera dì altre teorie (p.e. l’ipotesi di Penrose o quella olografica), le quali potrebbero “salvare” gli stessi fenomeni (che, quindi, sottodeterminano la teoria in esame).

D’altra parte, anche se un solo fenomeno incongruente sembrerebbe poter smentire una teoria, come sostiene Popper, neppure questo è del tutto vero se ci collochiamo nella prospettiva della cosiddetta “tesi di Duhem-Quine”: la stessa “incongruenza” del determinato fenomeno ” può essere rilevata solo a partire da ulteriori assunzioni e, in ogni caso, non è mai possibile determinare che cosa esattamente tale incongruenza  confuti.

La coscienza funziona in modo discreto?

Nell’articolo Time Slices: What Is the Duration of a Percept? di Michael H. Herzog, Thomas Kammer, Frank Scharnowski, nel quale si prova ad argomentare un presunto funzionamento “discreto” della coscienza.

L’articolo è senz’altro interessante. Le (presunte – vedi oltre -, ma non meno interessanti) evidenze sperimentali relative a un funzionamento “discreto”, piuttosto che “continuo”, della mente, ad esempio, evocano quelle sulla base delle quali il fisico teorico Roger Penrose ha ritenuto di elaborare la sua teoria quantistica della mente (che non faccio mia completamente, perché, secondo me, presenta alcuni problemi, ma che si avvicina alla mia prospettiva).

[Secondo Penrose si registrerebbero singoli, discreti, “eventi” di coscienza mediamente 40 volte al secondo (una frequenza non lontana da quella congetturata dagli autori dell’articolo). Penrose, tuttavia, li interpreta come eventi determinati dal collasso della funzione d’onda (per effetto di gravità quantistica) associata al comportamento di un numero sufficiente di tuboline contenute nei microtubuli che si trovano nei neuroni del cervello. In questa interpretazione la “coscienza” sarebbe una sorta di “interfaccia” tra il campo di punto zero (la schiuma quantistica rilevabile al di sotto della lunghezza di Planck) e l’universo “classico” di cui facciamo esperienza. In virtù di altre assunzioni e ipotesi (che non mi sono del tutto chiare) secondo Penrose questo campo di punto zero (che a noi appare dissipato nello spazio, ubiquo, ma sarebbe, in realtà, per la sua coerenza interna, un’unica entità ben definita, esistente in una dimensione astratta parallela) sarebbe paragonabile a un mondo platonico di enti perfetti. La coscienza “medierebbe” tra questo mondo platonico e il mondo percepito dai sensi…]

Ma quali sono i problemi epistemologici posti da questo articolo?

Gli autori stessi distinguono molto chiaramente  i “recent experiments” sulla base dei quali argomentano le loro tesi e il “conceptual framework” che essi si limitano a proporre (il loro 2-Stage Model).

Al fondo operano con evidenza una serie di assunzioni tipiche dell’approccio cognitivistico, ossia la metafora portante del computer (per cui la “mente” opererebbe come un “computer”, processando informazioni che le provengono da input sensoriali, mediante “moduli” che assolvono funzioni diverse ecc.). Le assunzioni cognitivistiche influenzano anche l’interpretazione degli esperimenti.

Le evidenze sperimentali evocate dagli autori dell’articolo che cosa dimostrano, in effetti?

Esse sembrano dimostrare soltanto che la nostra coscienza è temporalmente “sfasata” rispetto agli eventi di cui è coscienza. Essa, cioè, ha il tempo di rielaborarli e di ricostruirli secondo determinati criteri. Ma questo basta a dimostrare che essa sia discreta, come pretendono gli autori dell’articolo?

La sequenza degli eventi da riorganizzare potrebbe essere continua, quasi-continua (o anche discreta, se consideriamo che il tempo sia fisicamente quantizzato) e le operazioni ricostruttive della coscienza (per cui, p.e. alla “luce” di un determinato disco rosso, percepito nel tempo 2, credo di “aver visto” anche il disco verde, percepito nel tempo 0, cambiare colore, nel tempo 1) potrebbero, a loro volta, essere sia continue (come sembrano) sia discrete.

Infatti, i criteri attraverso i quali una coscienza ipoteticamente continua potrebbe rielaborare  le percezioni potrebbero implicare, ad esempio, che determinate percezioni debbano essere unificate: ciò potrebbe rendere conto del fatto (rilevato durante gli esperimenti descritti nell’articolo) che “we perceive only one, static, fused vernier, which does not change over time”, invece che “first the first vernier offset, then a mixture of the two, and then the second vernier offset”, senza bisogno di postulare che la coscienza funzioni globalmente in modo discreto.

L’interpretazione (degli autori dell’articolo) che vuole che la coscienza funzioni sempre in modo discreto (ad entrambi i livelli previsti dal 2-Stage Model) dipende più dal paradigma computazionale assunto nel leggere gli esperimenti che dai dati sperimentali stessi.

Nulla vieta, ad esempio, di interpretare i dati sperimentali sulla base di altri paradigmi, ad esempio sulla base dell’ipotesi evocata da Karl Pribram (secondo me ancora migliore di quella di Penrose) che la mente operi piuttosto come un ologramma che come un computer. Ciò potrebbe condurre a risultati diversi (come nell’esempio dell’interpretazione di Penrose).

Nella mia prospettiva, la coscienza più che “continua” (il che presupporrebbe che essa “scorra”, in qualche modo, nel “tempo”) è “fissa” (“eterna”), è ciò che fondamentalmente “è”, rispetto a cui il “resto” potrebbe darsi in modo più o meno discreto o continuo. Gli esperimenti effettuati dagli autori dell’articolo non possano né confermare, né smentire questa mia prospettiva.

Certo, un supplemento di indagine dovrebbe essere fatto con riguardo a termini come “consciousness“, “awareness” o, perfino, “awakeness“.

Gli studi empirici non possono che concernere ciò che lo sperimentatore (o un soggetto cavia) può descrivere verbalmente come esperienza vissuta, dopo che essa si è svolta, dunque alcunché di già impastato con la memoria, mentre la coscienza “pura”, in quanto immediata, difficilmente può essere fatta oggetto di sperimentazione in questo modo (mentre sono cosciente di vedere un certo colore non so ancora di doverne rendere conto ad altri o a me stesso; quando ne rendo conto a qualcuno, già non lo vedo più e me lo ricordo).