La centralità della sessualità nel modello pulsionale di Sigmund Freud

La centralità della sessualità nel modello pulsionale di Sigmund Freud

Sigmund Freud propone la teoria psicoanalitica come modello per la psicologia scientifica generale. La sua teorizzazione propone nel corso del tempo diversi modelli fra cui citiamo il modello topografico, il modello pulsionale e il modello strutturale. Il modello pulsionale, formulato nel 1905 e rimasto in auge fino al 1922, descrive la vita psichica come derivata da impulsi biologici primitivi chiamati pulsioni. L’opera “Tre saggi sulla teoria sessuale” del 1905 stabilisce che le pulsioni sono di origine sessuale, dove per sessualità intendiamo un termine con accezione molto ampia, non circoscritto alla sessualità adulta ma a tutte le situazioni che generano piacere a livello biologico, per questo Freud parla di sessualità infantile e da qui si deduce che la sessualità adulta affonda le sue radici in quella infantile. IL COMPLESSO EDIPICO è un evento emozionale che si verifica intorno ai quattro o cinque anni di vita, in cui il bambino o la bambina si innamora del genitore di sesso opposto e prova sentimenti di rabbia e paura nei confronti dell’altro genitore. Secondo Freud, questa complessa situazione emotiva caratterizzata da angosce molto forti, si risolve con l’abbandono delle pulsioni sessuali per il genitore del sesso opposto e con l’identificazione del genitore adulto dello stesso sesso. La pulsione è differente dallo stimolo esterno perché proviene dall’interno dell’organismo, per questo non è possibile sottrarsi ad essa. La pulsione è un concetto archetipico della psicoanalisi, spiega le motivazioni per cui agiamo e il perché della centralità delle idee sessuali nel sogno. Tuttavia non possiamo cogliere la pulsione ma soltanto i suoi derivati, che sono la sua fonte, la sua meta e il suo oggetto. L’oggetto che permette di soddisfare una pulsione non è necessariamente una persona e nemmeno necessariamente un oggetto fisico. Soltanto dopo l’infanzia, le pulsioni si concentrano fisicamente nell’area dei genitali. La libido è l’energia di queste pulsioni. La scarica di questa energia, il soddisfacimento delle pulsioni deve avvenire per avere piacere altrimenti si ha dispiacere. Nello sviluppo delle pulsioni si creano degli argini chiamati difese. Le difese sono interne e non derivano dalla società. Si definiscono quindi i concetti di sintomo nevrotico, in cui c’è conflitto tra pulsione e difesa, e di tratto di personalità che è la caratteristica del nostro normale sviluppo.

Annunci

LE ORIGINI DELLA METAFORA DEL CERVELLO ELETTRONICO E LE RELATIVE IMPLICAZIONI NELLE MODERNE SCIENZE COGNITIVE

Discipline Psicosociali – Origine e storia della psicologia

LE ORIGINI DELLA METAFORA DEL CERVELLO ELETTRONICO E LE RELATIVE INFLUENZE SULLE MODERNE SCIENZE COGNITIVE

Indice

Introduzione

  1. La relazione tra corpo fisico e vita psichica prima e dopo Cartesio (l’uomo concepito come automa idraulico che risponde meccanicamente agli stimoli)
  2. Il contesto storico in cui fu dimostrata scientificamente la relazione tra cervello e vita psichica
  3. Le radici storiche della psicologia cognitiva
    1. Il metodo scientifico della fisiologia e la nascita della psicologia fisiologica sperimentale
    2. I primi studi sulla percezione
    3. La psicologia della Gestalt
    4. Il paradigma HIP (l’uomo concepito come elaboratore di conoscenza) e i suoi limiti nel moderno cognitivismo
    5. Il futuro delle scienze cognitive e il concetto di “teoria ecologicamente valida”

INTRODUZIONE

La metafora del “cervello elettronico” ha ispirato nel XX° secolo numerose produzioni letterarie e cinematografiche in qualche modo relazionate ad argomenti scientifici.

Il termine si è certamente consolidato nell’accezione più simile a quella attuale con l’avvento dei primi grandi calcolatori elettronici, tuttavia, un’esposizione dell’origine storica di questa metafora non può non tener conto della concezione che gli studiosi hanno avuto nel corso della storia del ruolo che hanno corpo fisico, in particolare cervello e midollo spinale, nella realizzazione della vita psichica di qualsiasi essere.

Il concetto secondo il quale il cervello sia responsabile del pensiero, delle emozioni e dei sentimenti può sembrare scontato per noi oggi, ma non lo è sempre stato, sebbene alcune fra le prime grandi intuizioni a tal proposito risalgano al periodo della dominazione politica, culturale e filosofica dell’antica Grecia.

Vedremo, nel corso di questa trattazione, che la prima grande pietra miliare relativa alla comprensione della relazione tra corpo e mente in tempi recenti si debba al contributo del grande matematico e filosofo francese Cartesio, durante la Rivoluzione Scientifica avvenuta principalmente tra il XVII° e il XVIII° secolo.

Nell’ambito della fisiologia, disciplina scientifica in quel tempo già consolidata che si occupa del funzionamento degli organismi viventi, e della neurofisiologia in particolare, vennero fatte le prime grandi scoperte sul funzionamento del sistema nervoso. Fondamentali furono le scoperte del medico e fisiologo Hermann von Helmholtz sulla natura degli impulsi nervosi.

Grazie all’opera di Wilhelm Wundt ed in particolare alla costituzione nel 1879 del laboratorio di Lipsia, il metodo scientifico della fisiologia venne applicato per la prima volta in una nuova disciplina: la psicologia fisiologica sperimentale. Tramite l’utilizzo del Metodo Sottrattivo sviluppato in precedenza dal famoso medico e fisiologo Franciscus Cornelis Donders, Wundt rese attuale il metodo scientifico studiando le co-variazioni del dominio dei processi psichici con il parametro fisico del tempo, rendendo operative a pieno regime le misurazioni dei tempi di reazione dei processi cognitivi.

Possiamo quindi collocare nello spazio e nel tempo la nascita della moderna psicologia scientifica, quindi in Europa Centrale, in Germania, nella seconda metà del XIX° secolo. In questo contesto storico, fino alla seconda guerra mondiale nacquero le grandi scuole della psicologia.

Lo Strutturalismo, si sviluppò negli Stati Uniti ad opera di Edward Bradford Titchener, allievo ed esportatore delle teorie di Wundt, in contrapposizione con un altro allievo e non simpatizzante di Wundt, che rispondeva al nome di William James e diede origine alla scuola del Funzionalismo.

I primi studi sulla percezione della forma, la psicologia della Gestalt e la scuola a impronta cognitiva sviluppata da Jean Piaget negli anni ’30 del XX° secolo, forniscono le basi teoriche per lo sviluppo delle Scienze Cognitive, che costituiscono oggi un ambito comune per tre categorie di scienziati: gli informatici, i linguisti e gli psicologi. In aggiunta, il crescente sviluppo dei sistemi di calcolo elettronico a partire dagli anni ‘50 costituì l’elemento cardine della nascita della metaforacervello elettronico”, dando origine alla concezione dell’uomo come elaboratore di conoscenze     ( paradigma HIP: Human Information Processing ).  Essendo pronta la dimostrazione dell’esistenza dei processi cognitivi, la psicologia scientifica poté incominciare a vantarsi di operare su un dominio più vicino agli interessi delle persone comuni, studiando aspetti vicini alla nostra esperienza del comportamento umano, come i rapporti sociali ed affettivi, l’acquisizione della conoscenza e lo studio delle attitudini e delle forme di intelligenza. Qui si incominciarono a delineare i limiti della metafora del cervello elettronico. In sintesi, la psicologia non era quindi più una forma di studio lontana dalla vita reale e relegata ad applicazioni che poco si discostano dagli esperimenti di laboratorio, altresì divenne una terreno di indagine sulle facoltà superiori e su interrogativi più importanti che hanno a che fare con aspetti culturali e anche spirituali della vita degli esseri umani, e l’uomo divenne molto di più che “un sistema di elaborazione con competenze cognitive ed affettive”. La psicologia scientifica oggi si pone l’ambizioso obiettivo di diventare abbastanza matura da trattare temi come le rivoluzioni sociali, i cambiamenti di costume e i nuovi canoni e criteri della moralità per finire con la nascita di nuovi movimenti culturali, filosofici, spirituali e religiosi.

Con il concetto di “Teoria Ecologicamente Valida” si è oggi delineato con sufficiente chiarezza un nuovo criterio di giudizio di validità e di successo dei contributi scientifici nell’ambiente accademico internazionale.

1

La relazione tra corpo fisico e vita psichica prima e dopo Cartesio

(l’uomo concepito come automa idraulico che risponde meccanicamente agli stimoli)

Possiamo tornare molto indietro nel tempo, per dimostrare come si sia evoluta l’idea dell’uomo sulla relazione tra corpo (in particolare cervello) e vita psichica.

Gli antichi Egizi non nutrivano un particolare interesse per l’anatomia del cervello. L’imbalsamazione dei cadaveri avveniva in un modo che non consentiva di condurre nessuno studio sulla morfologia encefalica, tutto questo nonostante fosse già conosciuta la chirurgia della testa in presenza di traumi.

Ippocrate e altri filosofi greci come Platone collocavano nel cervello la sede del pensiero, a differenza di Aristotele che poneva nel cuore la sede della vita psichica e concepiva il cervello come un meccanismo di raffreddamento del sangue riscaldato dal corpo e pensava che l’uomo fosse più intelligente degli animali in quanto un cervello più grande poteva raffreddare meglio il sangue caldo.

Durante l’Impero Romano, si deve all’anatomista Galeno una prima osservazione della struttura di cervello e cervelletto e una serie di intuizioni circa le funzioni percettive e quelle del movimento muscolare che si avvicinano parecchio alla realtà.

La parola “neurologia” viene introdotta da Thomas Willis nel 1664 nel suo “Cerebri anatome”, opera che fino ad allora era la più dettagliata descrizione del cervello mai comparsa.

Cartesio

In questa ultima epoca, si colloca il lavoro di René Descartes, italianizzato Renato Cartesio, francese ritenuto il fondatore della filosofia e della matematica moderna. Cartesio ci interessa in particolar modo perché sempre a lui bisogna riferirsi per indicare la svolta principale della psicologia scientifica.

Cartesio nacque il 31 Marzo del 1596 a La Haye, in seguito ribattezzata Descartes in una delle famiglie più nobili e in vista della Turenna. Entrò nel 1607 nel collegio di La Flèche, assegnato ai Gesuiti e ne uscì nel 1615, nel 1616 ottiene la laurea in giurisprudenza.  Nel 1618 il desiderio di conoscere cose nuove lo spinse ad arruolarsi nell’esercito. In questo contesto, il 10 Novembre conobbe casualmente il medico Isaac Beeckman ed entrambi si ritrovarono intenti a cercare di risolvere un problema matematico. Il medico suscitò una grande attrazione intellettuale su Cartesio e originò il suo interesse per le scienze matematiche.

I due amici rimasero in contatto epistolare e il 26 Marzo 1619 Cartesio informò Beeckman di avere inventato dei “compassi” tramite i quali formulò le sue più geniali intuizioni sulla geometria analitica. Il 10 Novembre 1619 in una sezione da lui intitolata Olympica di un registro regalatogli da Beeckman, scrisse che “pieno di entusiasmo, stava scoprendo i segreti di una mirabile scienza”.

Sebbene non sappiamo cosa intendesse con precisione con “mirabile scienza”, di certo le successive opere di Cartesio rivoluzionarono il mondo scientifico e filosofico.

Il pensiero di Cartesio

Il pensiero cartesiano della contrapposizione tra res cogitans e res extensa ebbe notevoli risvolti antropologici.

L’esistenza di queste due entità per Cartesio risolve completamente il mistero circa l’esistenza di esseri pensanti.

La res cogitans è la sede della vita psichica degli esseri umani. La coscienza e la consapevolezza e l’assenza di limiti sono proprie dell’anima umana ed in profonda contrapposizione con la realtà fisica che è limitata e inconsapevole. Secondo la metodologia Cartesiana, tutto ciò che è fisico può essere studiato con i modelli matematici della meccanica che descrivono il movimento. In relazione agli uomini, tuttavia, esistono dei concetti come pensiero e linguaggio che non possono essere spiegati con i modelli della meccanica. Esiste quindi un dominio ontologicamente diverso in cui collocare pensiero e linguaggio dove questi due concetti vengono studiati con modelli diversi dalla meccanica. Questo dominio è proprio la res cogitans.

La realtà fisica dell’essere umano è invece studiata con i modelli propri della meccanica ed è chiamata res extensa. Come possono dunque coesistere queste due entità dal momento che i modelli che le studiano non possono comunicare direttamente? In altri termini, come si spiega il libero arbitrio, il pensiero e l’autocoscienza umana se l’uomo che osserviamo è costituito fisicamente da una res extensa?

Cartesio risolve il problema ponendo nella ghiandola pineale la “sede dell’anima umana”. Secondo il filosofo, la ghiandola pineale costituisce il punto privilegiato dove anima e corpo interagiscono. In effetti, si può osservare che per la sua posizione centrale, per l’aspetto calcifico e il disegno creato al taglio anatomico, la ghiandola pineale è da sempre stata al centro di concetti misterici.

Nella concezione di Cartesio la res extensa è una macchina, una sorta di robot idraulico, il cui funzionamento è regolato da una serie di azioni riflesse.  Solo Cartesio, per la prima volta distingue anima da corpo, con un pensiero molto moderno ma non condiviso dai materialisti e dagli idealisti, dove i primi concepivano solo ciò che è materiale e i secondi solo ciò che è spirituale.

Ai tempi di Cartesio, si incominciarono a costruire gli automi idraulici suonatori, con conseguenti grandi progressi. Queste erano macchine dal funzionamento sorprendente che aprirono la strada ad applicazioni pratiche impensabili fino ad allora ma anche a un rinnovato pensiero filosofico intorno alla concezione che l’uomo aveva di se stesso. Per Cartesio, il corpo umano concepito come  robot idraulico non è responsabile del pensiero ma del movimento ed è governato dal sistema nervoso come attività riflesse, non attività psichiche che sono qualcosa di superiore.

Gli animali sono concepiti come esseri non pensanti e incapaci di provare dolore, capaci soltanto di reagire meccanicamente agli stimoli. Questa idea è stata in seguito pesantemente criticata e indicata come responsabile di maltrattamenti agli animali.

Le informazioni scientifiche di Cartesio sono però insufficienti ad andare oltre una pura affermazione di principio. Lo studioso affermava che il corpo era governato dal sistema nervoso, ma non dice proprio nulla su come la volontà influisce sul sistema nervoso. Si limita a porre il centro della vita psichica nella ghiandola pineale.

Il grande pregio del pensiero Cartesiano, è comunque quello di avere intuito la stretta connessione tra mente e corpo. Cartesio si discosta dal pensiero Platonico che lasciava intatte e separate le due sostanze. Infatti, osserva Cartesio, le sensazioni di fame e sete sono proprie dell’intelletto ma hanno relazione con il corpo. In più, esistono corpi a noi esterni che pur non essendo direttamente collegati al nostro fisico possono essere concepiti come benefici o dannosi per la nostra intera persona. Questo dimostra l’unione tra intelletto e corpo. Anima e corpo sono dunque mescolati, ma è ancora possibile definire operazioni inerenti solo all’anima e altre inerenti solo al corpo. All’anima compete la conoscenza della verità, al corpo competono le sensazioni provenienti dalla natura per chiarire all’anima quali cose siano dannose e quali cose siano benefiche.

Il pensiero di Cartesio è fondamentale per la psicologia moderna non solo perché ha stabilito la relazione tra mente e corpo, sia pure nelle sue prime intuizioni non ulteriormente sottoposte ad indagine scientifica, ma anche perché rivoluziona il mondo della matematica e della filosofia e quindi influisce su tutte le scienze e vari altri ambiti del sapere umano.

Cartesio introduce delle novità nel metodo scientifico. Lo scetticismo metodologico rifiuta come falsa ogni idea che possa messa in dubbio. Con questo criterio viene individuato l’insieme dei principi fondamentali che possono essere considerati verità assoluta. Il filosofo diviene quindi il primo pensatore moderno ad avere fornito un quadro filosofico di riferimento per la scienza moderna all’inizio del suo sviluppo.

Soltanto in apparenza, la matematica può sfuggire allo scetticismo metodologico. Esiste infatti un genio maligno che può ingannarci ogni volta che tentiamo di fare un calcolo matematico. Questo genio “si diverte” ad ingannarci, nonostante non ci sia nulla di più sicuro e di più certo della matematica.

I pensieri di cui possiamo essere certi sono evidenze primarie alla ragione. Ne sono prova l’intuito e le regole fondamentali della geometria euclidea, che sono pure dimostrabili con i tanti passaggi della geometria analitica. Il ragionamento non serve a dimostrare le idee ma a memorizzarle ed impararle. Il ragionamento è profondamente soggettivo, l’importante è avere un metodo e seguirlo in maniera produttiva per tutta la vita. Il metodo cartesiano varia quindi a seconda delle circostanze e a seconda dell’uomo, è quindi un criterio di ordinamento unico e semplice che all’interno di ogni teoria e pratica aiuti l’uomo e abbia come fine ultimo il vantaggio dell’uomo.

2

Il contesto storico in cui fu dimostrata scientificamente la relazione tra cervello e vita psichica

I tre più grandi studiosi che diedero origine alla storia della psicologia moderna prima che questa si costituisse come vera e propria disciplina scientifica sperimentale furono Johannes Peter Müller, Hermann von Helmholtz e Franciscus Cornelis Donders.

Müller (Coblenza, 14 luglio 1801 – Berlino, 28 aprile 1858) è stato un anatomista, fisiologo e ittiologo tedesco. Si laureò in biologia all’università di Bonn e rimase nella stessa università ottenendo il dottorato in Zoologia nel 1824. Nel 1826 fu nominato professore associato, e nel 1830 professore ordinario, di fisiologia. Nel 1833 fu professore di anatomia e fisiologia alla Humboldt Universität di Berlino, come successore di Karl Asmund Rudolphi (1771-1832). Alla sua scuola si formarono i maggiori scienziati, fisiologi e anatomisti tedeschi del secolo scorso, come Hermann von Helmholtz (1821-1894).

Helmholtz (Potsdam, 31 agosto 1821 – Berlino-Charlottenburg, 8 settembre 1894) è stato un medico, fisiologo e fisico tedesco. Un vero homo universalis, fu uno degli scienziati più poliedrici del suo tempo e venne soprannominato Cancelliere della fisica.

Donders (Tilburg, 27 maggio 1818 – Utrecht, 24 marzo 1889) è stato un fisiologo e oculista olandese. Studiò medicina ad Utrecht e si laureò a Leiden nel 1840. Nel 1851 a Londra, durante una visita al Great Exhibition, incontrò William Bowman e Albrecht von Graefe. In questa occasione decise di dedicarsi completamente all’oftalmologia. L’anno dopo diventò professore ordinario di oftalmologia all’università di Utrecht e nel 1858 fondò un ospedale oftalmico che successivamente, nel 1888, fu denominato Fondazione Donders. Nel 1866 fondò il suo laboratorio di fisiologia. Donders fu anche il primo a spiegare con le differenze tra i tempi di reazione degli umani le differenze nei processi cognitivi. Questo concetto è, al giorno d’oggi, uno dei pilastri della psicologia cognitiva.

Principio dell’energia nervosa specifica. Secondo uno studio di Muller del 1827,  la natura degli impulsi che un nervo trasmette ai centri nervosi non dipende dalla natura della stimolazione, ma da quella del nervo. Questo vuol dire che se io pinzo o stimolo elettricamente un nervo ottico vedrò sempre un lampo di luce, mentre se stimolo un nervo acustico sentirò sempre un suono.

Questo principio, basato su una semplice constatazione, aprì la strada verso la formulazione di altri due studi:

  • La teoria della percezione del colore e delle altezze tonali
  • L’inferenza inconscia e le costanze percettive

Queste due teorie hanno avuto una notevole importanza nella seconda metà dell’800 nella costituzione della moderna psicologia scientifica.

La teoria della percezione del colore e delle altezze tonali.  Partiamo dalla percezione del colore. Gli studi in ambito fisiologico avevano dimostrato l’esistenza sulla retina dell’occhio umano di diversi tipi di cellule sensoriali: i coni e i bastoncelli. I coni si suddividono in tre tipi che corrispondono ai tre colori primari. Queste cellule sono responsabili della visione diurna e della percezione cromatica.  La percezione del colore è data dalla somma delle sensazioni dei singoli coni, con un meccanismo simile a quello della stampa in trictonia. I bastoncelli sono invece responsabili della visione notturna. La teoria della percezione delle altezze tonali, per essere spiegata esaustivamente necessiterebbe una esposizione dettagliata del funzionamento dell’organo di senso dell’udito, che sarebbe di per sé molto sofisticata. Il tutto si può riassumere in termini piuttosto semplici: il suono è un messaggio dovuto a delle vibrazioni di pressione presenti nell’aria, a frequenza variabile in funzione del tono udito. La combinazione algebrica dei toni, che matematicamente sono descrivibili come delle armoniche, dà adito ad uno qualsiasi dei messaggi sonori da noi udibili. Il timpano reagisce direttamente alle vibrazioni e le trasmette ai “tre ossicini” (martello, incudine e staffa) presenti nell’orecchio medio. Nella coclea, organo straordinariamente complesso responsabile della trasmissione delle onde all’intero apparato uditivo, è presente un liquido e una spirale ossea, nella quale sono presenti delle cellule ciliari sensibili a vibrazioni di tono differente a seconda della posizione relativa nella detta spirale. Le cellule ciliari sono dei trasduttori che trasformano le vibrazioni in segnali elettro-chimici inviati poi al cervello il quale poi li decodifica e li trasforma in suono.

La comprensione della natura della percezione visiva e uditiva in ambito fisiologico, ebbe una pesante influenza nei futuri sviluppi della psicologia sperimentale. Uno di questi, fu certamente la teoria dell’inferenza inconscia ad opera di Helmholtz.

L’INFERENZA INCONSCIA è un fenomeno che ancora oggi affascina e suggestiona il lavoro dei ricercatori. Questo concetto, enuncia la presenza nella mente umana di un fenomeno creativo capace di far capire qualcosa in più circa la realtà direttamente percepita in modo istantaneo, sulla base di ciò che la nostra esperienza ci insegna in relazione a come è costruito l’ambiente in cui viviamo. Ad esempio, se noi osserviamo un oggetto che si allontana da noi verso l’orizzonte, noi percepiamo un oggetto lontano, questo anche se a rigor di termini nella nostra retina sarà presente semplicemente una immagine contenente un oggetto più piccolo. E’ interessante osservare come questo non avvenga in relazione agli oggetti osservati da un’altitudine, i quali ci sembrano più piccoli. Questo è il fenomeno della costanza della dimensione. Che dire poi di un cerchio la cui inclinazione varia, posto davanti al nostro capo? Nella nostra retina è presente la figura di un cerchio solo se questo è esattamente “dritto davanti a noi”, in tutti gli altri casi la nostra retina rappresenterà un ellissoide. Tuttavia, per il fenomeno della costanza della forma, noi sappiamo che si tratta sempre di un cerchio. In ultima istanza un oggetto di un certo colore, ad esempio rosso, presente in una stanza con luce di intensità variabile, potrà apparire di un colore rosso più o meno acceso, ma il rapporto tra la luce assorbita e riflessa da quell’oggetto sarà sempre costante, per il fenomeno fisico della riflettanza. In ambito psicologico, dal punto di vista del nostro percepire parliamo invece di costanza del colore.

Questi tre fenomeni appena enunciati, sono generalizzabili grazie al termine

COSTANZE PERCETTIVE

3

Le radici storiche della psicologia cognitiva

a.

Il metodo scientifico della fisiologia e la nascita della psicologia fisiologica sperimentale

Quando la psicologia fisiologica divenne una vera disciplina scientifica sperimentale. Si  pone la data di questo evento nel 1879, quando nella città tedesca di Lipsia Wundt, allievo e assistente di Helmholtz, ne fondò il primo laboratorio sperimentale in ambito accademico della storia. Ma prima che ciò potesse avvenire, dovevano verificarsi dei presupposti di carattere metodologico.

La psicologia per diventare vera scienza aveva bisogno di andare oltre i suoi antichi legami con la filosofia e la teologia. Una vera scienza, studia le co-variazioni di un dominio della realtà fisica con un altro parametro fisico. Il suggerimento di questo modello, nei suoi dettagli, provenne paradossalmente da un ambito molto lontano dalla psicologia, il quale è l’astronomia. Alcuni aneddoti relativi ad astronomi come Maskelyne e Bessel portarono alla formulazione dell’equazione personale, concetto secondo il quale i tempi di reazione variano da persona a persona e nella stessa persona in funzione dello stato mentale.

Incominciamo col dire che la psicologia fisiologica sperimentale si propose l’obiettivo di studiare le variazioni dei fatti psichici in funzione del tempo. Questo fu una vera pietra miliare, perché costituiva il superamento del limite della filosofia di Kant, il quale in una sua opera del 1786 negava la possibilità di misurare i fatti psichici, come anche in seguito Müller sostenne che i tempi di reazione dell’impulso nervoso fossero infinitamente piccoli e quindi non misurabili. Helmholtz riuscì in seguito a misurare, sia pure in modo impreciso, la velocità degli impulsi nervosi con una tecnica differenziale, cioè sottraendo i tempi di reazione in relazione a diversi punti di uno stesso nervo.

IL METODO SOTTRATTIVO DI DONDERS. Nel 1860, Donders con la sua opera “Cronometria mentale” portò a maturazione uno studio sulla misurabilità dei tempi di reazione. In seguito, tra il 1862 e il 1865 Donders individuò tre diversi tipi di tempi di reazione, riconducibile a questo semplice schema:

  1. Tempi di reazione semplici, una risposta che segue uno stimolo, ad esempio una scossa ad un dito provoca la pressione di un pulsante
  2. Tempi di reazione composi, risposte differenziate a seconda dello stimolo, ad esempio una scossa alla mano destra provoca la pressione di un pulsante destro, una scossa alla mano sinistra provoca la pressione di un pulsante sinistro
  3. Tempi anche questi composti, ma a fronte di due stimoli il soggetto risponde ad uno solo di questi, ad esempio posso ricevere una scossa ad entrambe le mani, ma reagisco solo alla destra con la pressione di un solo pulsante.

La grande intuizione di queste misurazioni, è dovuta al fatto che le tre grandezze, oltre a rispettare la diseguaglianza a<c<b, danno nella misura di c-a il tempo di discriminazione tra stimoli e nella misura di b-c il tempo di discriminazione tra risposte.

Il metodo sottrattivo consiste nell’applicare questa tecnica di misurazione in relazione ai tempi di misurazione di qualsiasi fatto psichico. Il metodo sottrattivo ebbe un grande successo, ma venne abbandonato dopo che Wundt ne fece un cattivo uso per via di una errata formulazione del concetto dell’appercezione.     Si verificò una forzatura: Wundt in particolare, cercò di distinguere PERCEZIONE da APPERCEZIONE spingendo i soggetti a prestare attenzione allo STIMOLO o rispettivamente alla RISPOSTA. Questo ragionamento è sbagliato perché il mutato atteggiamento del soggetto può alterare qualitativamente la serie delle operazioni mentali. Purtroppo, questo portò all’abbandono del metodo sottrattivo, il quale tuttavia ritornò in auge insieme alla ri-valorizzazione dell’opera di Donders a partire dal 1960 nell’ambito della psicologia cognitiva.

b.

I primi studi sulla percezione

Il termine percezione può essere oggi studiato secondo una accezione molto ampia: può infatti riguardare tanto esseri umani che animali, ma addirittura sistemi o automi costruiti dall’uomo, in questo senso si può parlare di raccolta di informazioni provenienti dall’ambiente esterno. Nel caso di sistemi e dispositivi la percezione può essere mediata da strumenti di misura,  nel caso di esseri viventi si parlerà di percezione immediata e realizzata da organi di senso. Vedremo in seguito che, secondo il paradigma HIP, gli organi di senso possono essere paragonati ad unità di input di sistemi di elaborazione elettronica dell’informazione.

Uno dei primi importanti traguardi relativi alla comprensione della percezione, va fatto risalire a un tempo precedente l’opera di Wundt e quindi prima che la psicologia stessa vedesse delineato il suo effettivo metodo scientifico nonché campo di indagine. Precisamente parliamo di due contributi avvenuti in ricerche indipendenti: prima Bell nel 1811 e poi Magendie nel 1822 scoprirono che nei nervi periferici le vie motorie erano separate da quelle sensoriali, come dire che le unità di output sono divise da quelle di input. Questo vuol dire che una sezione delle radici sensoriali non impedisce il generarsi di un movimento, aspetto fino ad allora discusso e non considerato banale. Nell’arco riflesso le fibre sensoriali partono dalla periferia al centro, nelle fibre motorie avviene il contrario e va ricordato molto bene che il centro non è il cervello bensì il midollo spinale.  Si ponevano quindi le basi per l’affermazione e il successivo studio di funzioni specifiche del sistema nervoso in neurofisiologia.

 

Nel punto 2, relativo al contesto storico in cui fu dimostrata la relazione tra cervello e vita psichica, abbiamo già parlato del principio dell’energia nervosa specifica enunciato da Muller  nel  1827, della percezione del colore e dell’altezza tonale,  della  dottrina   dell’inferenza inconscia enunciata da Helmholtz, tutti idee che oggi sono considerate primitive della scienza cognitiva.

Il contributo di Muller diede una spiegazione sulla natura uniforme delle sensazioni, immagini e suoni come anche tutti gli altri sensi danno adito all’informazione sul mondo esterno che il nostro cervello tratta e trasmette sotto forma di energia nervosa, analogamente a come i sistemi digitali trattano e trasmettono l’informazione sotto forma di numeri binari.  La teoria della percezione del colore e delle altezze tonali, oltre a spiegare il funzionamento dei due principali organi di senso, come oggi un ingegnere informatico potrebbe formulare la propria spiegazione tecnica sui formati M-PEG e MP3, ebbe il grande merito di fornire lo spunto per un’importante intuizione quale è la dottrina dell’inferenza inconscia. Questa ultima definisce un concetto chiave: il nostro sistema cognitivo è in grado di inferire e quindi di costruire e aggiungere informazione su un oggetto la cui percezione retinica non è intrinsecamente sufficiente a fornire una relativa esaustiva descrizione. L’inferenza avviene sulla base di ciò che l’individuo già sa di quell’oggetto e dell’ambiente che lo ospita grazie alla personale memoria a lungo termine.

La dottrina di Helmholtz dell’inferenza inconscia si delinea come dottrina empirista in quanto fa riferimento all’esperienza come elemento costitutivo della percezione. Si contrappone alle teorie innatiste gestaltistiche e post-gestaltistiche del tempo dando adito a numerose controversie accademiche in tempi successivi.

c.

La psicologia della Gestalt

Il principale studioso che diede impulso allo studio della percezione fu Max Wertheimer (1880-1943).  Fu uno dei fondatori della psicologia della Gestalt, la scuola psicologica che dominò le ricerche europee della prima metà del novecento.

Il lavoro sulla percezione del movimento stroboscopico del 1912 segna la nascita della scuola Gestaltistica. Nel 1921 fu fondata la rivista PSYCHOLOGISCHE FORSCHUNG che diventa l’organo principale della scuola gestaltistica. Nel 1933 abbandona la germania e si unisce alla New School for Social Research University in exile di New York come fanno anche altri gestaltisti.

I concetti sviluppati di seguito fanno capo alla “PARTE EMPIRICA” di un’opera composta da due parti:

–          Untersuchungen zur Lehre von der Gestalt, II, Psycologische Forschung, 301-350.

Come si intuisce la parte empirica è la seconda dell’opera.

Il termine tedesco Gestalt si può tradurre “buona forma”, e stabilisce il principio fondamentale secondo il quale ci facciamo un’impressione del mondo esterno.  Il principio della buona forma, della bellezza o, se si vuole, dell’eleganza, come direbbe certamente un buon matematico si traduce nella semplicità. Quindi percepiamo la realtà organizzando gli oggetti che la compongono nel modo più semplice ed immediato possibile, utilizzando delle strutture che chiamiamo unità percettive.

Le proprietà della realtà esaminata nella sua totalità, il tutto non sono interamente deducibili dalle parti che la compongono, il mondo non è uguale alla somma di colori e linee che definiscono le forme, come noi esseri viventi non possiamo essere solo la somma degli atomi che ci compongono. La teoria della Gestalt è una teoria Olistica.

Wertheimer tenta, nel corso della sua teorizzazione, di definire una serie di regole fondamentali secondo le quali la mente umana deve organizzare la percezione della realtà. Per fare questo fa uso di una serie di modelli grafici, dove degli oggetti dapprima di estrema semplicità e poi via via più complessi sono utilizzati per inferire queste regole, le quali poi sono opportunamente verificate con dati sperimentali.

Il primo esempio fondamentale, è costituito da una serie di punti raggruppati a coppie a distanze regolari, più o meno come il seguente:

°°  °°  °°  °°

Questo grafico definisce una struttura del tipo : ab cd ef gh.

Cosa mi impedisce di VEDERE a bc de fg h ?

Sottolineo la parola vedere. Io posso anche CONCEPIRE o capire in un successivo momento che ci possono essere delle organizzazioni diverse, che queste siano possibili, ma questo non vuol dire che queste ultime siano direttamente visibili. Quello che vedo non sarà il risultato di una complessa operazione ma è l’organizzazione più immediata, quella più semplice e lineare. Da qui, forse comprendiamo che:

–          Ci sono delle semplici regole per stabilire ciò che è immediato e ciò che non lo è

–          Ci sono delle situazioni di ambiguità che possono mettere in crisi il sistema cognitivo in relazione a ciò che è immediato

–          Le rappresentazioni complesse richiedono uno sforzo cognitivo per essere percepite anche in un breve lasso di tempo

–          Un elevato numero di elementi favorisce la percezione delle rappresentazioni semplici e sfavorisce la percezione delle rappresentazioni artificiose

–          Un basso numero di elementi rende più facile percepire una organizzazione non spontanea, tuttavia il risultato è più instabile.

Non è affatto auto-evidente che un numero di elementi inferiore dia adito a risultati più certi, chiari, sicuri.

La parte empirica dell’opera di Wertheimer, dopo alcuni semplici esempi che si discostano via via dal primo indicato, aggiungendo simboli di forme, grandezze e colori diversi, come anche linee spezzate e curve, le quali rimandano addirittura a semplici grafici di leggi o funzioni matematiche, è finalmente in grado di delineare un tracciato delle principali regole che stabiliscono la formazione delle unità percettive:

–          IL FATTORE DELLA VICINANZA

–          IL FATTORE DELLA SOMIGLIANZA

–          COOPERAZIONE O NON COOPERAZIONE DELLA VICINANZA E DELLA SOMIGLIANZA

–          VICINANZA E MOVIMENTO

–          DESTINO COMUNE

–          PUNTI DI PREGNANZA

–          CONTINUITA’ DI DIREZIONE

–          CHIUSURA

–          METODO DELLE AGGIUNTE

–          ESPERIENZA PASSATA.

Quindi l’unità di percezione si può formare in funzione del fatto che due elementi siano vicini o simili e questi due fattori possono cooperare rafforzandosi o divergere causando ambiguità e quindi configurazioni instabili, il movimento di ogetti dà adito a delle nuove entità sulla base di nuove relazioni di vicinanza nonché del destino comune, cioè del punto di arrivo coerente di un gruppo di oggetti dove alcuni punti particolari sono detti di pregnanza in quanto definiscono un passaggio da una forma ad un’altra, in altre parole alla formazione di diversi oggetti o unità percettive. Le linee dritte, spezzate e curve definiscono una forma piuttosto che un’altra in funzione del tipo di continuità e quindi del modo in cui linee di diversa forma o direzione insieme si raccordano, il tipo di chiusura di una regione del piano definisce un oggetto diverso da un altro, aggiungere un oggetto in una particolare posizione può far comparire una nuova forma o farne scomparire una preesistente, giustapporre due figure precedentemente note può far perdere la percezione di entrambe e crearne una unica nuova.

Tutte regole che si sposano con il comune buon senso, ma che opportunamente studiate possono far pervenire a conclusioni non banali.

In anni recenti, in ambito forense, sono stati realizzati dei sistemi informatici in grado di riconoscere volti sulla base di archivi pre-registrati. E’ forse banale questo? Eppure, non è certo questa l’implicazione più importante della teoria della percezione, questo è l’inizio di una nuova scuola, un nuovo paradigma scientifico che porterà alla formulazione degli studi sui fenomeni e sui processi cognitivi a partire dagli anni ’50. Vedremo che tutto questo risentì anche della riscoperta negli stessi anni dell’opera di Piaget (Scuola di Ginevra) e di Vygotskji (scuola Storico Culturale Russa), capigruppo di due movimenti fondamentali, contemporanei che condividono in parte il campo di indagine, per quel che riguarda lo sviluppo delle strutture di conoscenza del bambino ma pervengono a risultati conclusivi differenti. La riscoperta di queste due scuole, diede adito ad una polemica su alcune interpretazioni che ebbe il merito di riportare l’interesse della ricerca sui processi cognitivi.

4.

Il paradigma HIP (l’uomo concepito come elaboratore di conoscenza) e i suoi limiti nel moderno cognitivismo

A partire dagli anni ’50, vennero realizzati i primi grandi e potenti elaboratori elettronici, che ebbero un notevole impatto dapprima nel mondo scientifico ed accademico. Questo impatto, oggi portato all’estremo grazie a strumenti di amplificazione cognitiva quali il personal computer, Internet, posta elettronica e social network nonché un’infinità di software utilizzati per risolvere problemi gestionali o scientifici o di supporto alla persona come i sistemi mobili basati su GPS, è certamente evidente agli occhi di tutti oggi. Quello che non è immediatamente evidente – perché è materia di studio di relativamente poche persone – è come lo sviluppo di teorie in campo linguistico, matematico, informatico e psicologico abbia trovato una serie di campi di indagine correlati che hanno modificato radicalmente la cultura e addirittura il concetto che l’uomo ha della sua stessa mente e del relativo funzionamento.

Come preannuncia il titolo di questa penultima sezione, il paradigma Human Information Processing ha dei limiti sostanziali sotto diversi fronti. Parliamo di campo di indagine, di paradigma scientifico legato alla metafora della mente umana paragonata ad un elaboratore elettronico. Questi due aspetti hanno limiti fortemente correlati alle seguenti osservazioni:

–          Il campo di indagine HIP ha a che fare con il funzionamento della mente (per decenni bandito dal comportamentismo) e i modelli di processi cognitivi. Questo può presagire lo studio di un corretto funzionamento, ma mai si parla della “ricerca della felicità” concetto del quale invece la psicoanalisi si fa pienamente carico studiando le emozioni e i desideri. Per lo studioso aderente al paradigma HIP, l’essere umano non è ancora ben studiato come nella più moderna psicologia sociale, dove più volte si fa riferimento a un sistema di elaborazione a risorse limitate con competenze cognitive ed affettive.

–          La metafora dell’elaboratore elettronico è quindi oggi più debole che nel passato perché come si può intuire da quanto appena detto tralascia la sfera affettiva-emotiva, la quale costituisce un argomento estremamente complesso e capovolgente. Con questo non si vuol dire che la HIP non tratti temi come emozioni e sentimenti, ma forse lo fa in termini troppo meccanicisti ed associazionisti, per questo se si vuol capire l’animo umano nella sua interezza, allo studio delle parti va aggiunto uno studio di tipo olistico, riprendendo il concetto gestaltistico secondo il quale il tutto non è interamente deducibile dalla somma delle parti.

In aggiunta a queste considerazioni, si osserva che il paradigma HIP è responsabile di una serie di studi a stretto raggio che riguarda aspetti molto circoscritti del funzionamento psichico i quali non portano a grandi conclusioni di carattere teorico come hanno fatto i movimenti delle grandi scuole della psicologia, citando per esempio comportamentismo, psicologia della Gestalt o psicoanalisi.

Ad ogni modo, il paradigma HIP è stato il trampolino di lancio verso l’affermazione delle moderne scienze cognitive. In particolare, si può osservare che lo HIP è nato con un cambio di contesto di indagine da parte della psicologia in direzione del funzionamento della mente, dello studio dei processi cognitivi allorché il compito dello psicologo diviene inferire i processi mentali sulla base dei dati sperimentali, tutto questo sotto lo sfondo della metafora del cervello-elaboratore elettronico.

Kenneth Craik (1914-1945) fu un precursore di questa importante metafora. Nell’opera “Nature of explanation” del 1943, Craik ci spiega che la mente umana crea dei modelli di eventi e azioni di risposta ad eventi, i quali sono finalizzati a rendere più efficiente il comportamento adattandolo all’ambiente.

George A. Miller (1920-) nel 1956 scrive un articolo che fa riferimento ad una ossessione numerologica che risulterà poi un caposaldo di successive teorizzazioni:

“Il magico numero 7 + o – 2: alcuni limiti nella nostra capacità di elaborare l’informazione”.

Questa ipotesi, da affrontare più qualitativamente che quantitativamente, determina un limite approssimativo nella nostra capacità di memorizzazione immediata di oggetti semplici. Il problema fondamentale, risolto nelle successive ricerche è quello di determinare quali siano i fattori determinanti di questo limite. Come vedremo, questo porterà alla formazione di un primo importante costrutto, la memoria iconica.

Noam Chomsky (1928-) nel 1959 muoverà una forte critica all’opera di Skinner (1904-1990), pioniere del comportamentismo. Secondo Skinner il linguaggio è un insieme di complessi eventi totalmente controllato dall’ambiente, un complesso comportamento riconducibile al condizionamento operante di tipo stimolo-risposta sulla base del rinforzo.

Chomsky muove una precisa critica:

–          Il linguaggio ha una fondamentale caratteristica: LA PRODUTTIVITA’. Siamo in grado non solo di riconoscere frasi corrette ma di produrne di nuove. La teorizzazione di Skinner è tautologica in quanto non aggiunge conoscenza pertinente il fenomeno linguaggio.

L’opera “Cognitive Psychology” di Ulrich Neisser si pone l’obbiettivo di spiegare quello che c’è di non manifesto in relazione con la mente umana, ancora ancorando le inferenze ai dati sperimentali acquisiti.

L’opera Uman Information Processing – An introduction to psychology di Lindsay e Norman del 1972, sotto forma di manuale descrittivo in tono meccanicistico di sistemi di percezione, memorizzazione ed elaborazione dell’informazione definisce l’omonimo paradigma scientifico.

Lindsay e Norman definiscono quattro diversi sistemi mnestici:

–          Sistemi sensoriali (i cinque sensi)

–          SIS (sensor information storage, detto MEMORIA ICONICA)

–          STM (short time memory, memoria a breve termine)

–          LTM (Long time memory, memoria a lungo termine).

Nell’acquisizione dell’informazione, I sistemi sensoriali sono direttamente responsabili della percezione del mondo esterno. La memoria iconica è una memoria istantanea che fissa gli elementi percepiti prima che questi possano essere oggetto di categorizzazione. La capacità di categorizzazione determina il passaggio alla memoria a breve termine. Il contenuto di questa viene confrontato con il contenuto a lungo termine creando delle associazioni. Qui avviene il passaggio alla memoria a lungo termine e noi comprendiamo come memorizzazione e apprendimento siano strettamente interconnessi.

Vale la pena di soffermarsi leggermente sul funzionamento della memoria iconica, dal momento che questa costituisce il primo grande costrutto della psicologia cognitiva, la quale è ormai venuta alla luce.

La memoria iconica è studiata con dei semplici esperimenti basati sull’esposizione di gruppi di lettere o numeri per una frazione di secondo, dopo della quale si studia il numero di elementi ricordati correttamente in sequenza e in posizione sullo schermo di un computer. Lo studio avviene tramite due modalità:

–          Il resoconto totale

–          Il resoconto parziale

Nel primo caso si chiede al soggetto di ricordare la totalità degli elementi visualizzati, nel secondo caso di selezionare una riga o colonna di matrice. La selezione avviene tramite un segnale acustico a due frequenze molto diverse, con tempo di ritardo variabile in relazione all’esposizione. La schermata, prima del segnale può essere nascosta per un intervallo variabile da un fotogramma bianco o nero.

Si perviene alle seguenti conclusioni:

–          Il resoconto parziale produrrà un maggior numero di elementi ricordati corretti rispetto al resoconto totale la cui differenza è chiamata SUPERIORITA’ DEL RESOCONTO PARZIALE

–          Un segnale acustico molto in ritardo riduce drasticamente il numero di elementi ricordati

–          Un fotogramma bianco riduce gli elementi ricordati in misura maggiore di un fotogramma nero, in particolare lo fa in maniera drastica dopo mezzo secondo

–          La memoria iconica è un magazzino sensoriale dove l’attributo tipico è il contrasto

–          La memoria iconica è a rapido decadimento

–          La memoria iconica contiene solo informazioni pre-categoriali

–          La differenza lettere numeri non produce superiorità

–          Il mancato trasferimento in stadi di memoria successivi fa perdere per sempre le informazioni

–          La memoria iconica è virtualmente infinita, il vero limite da cui dipende il numero 7 + o – 2 di Miller è nella capacità di pre-categorizzazione, in termini fisici è una velocità di elaborazione

–          Nella mente sono presenti diverse modalità di rappresentazione dell’informazione, tuttavia queste nelle fasi iniziali sono legate a dati semplici, la limitazione di memorizzazione non dipende da un limite di memorizzazione di dati semplici ma dal proprio personale limite di capacità di categorizzazione e organizzazione dell’informazione che Miller chiama chunk di informazione. Un esempio: se memorizzo frasi o gruppi di frasi la quantità di lettere memorizzate sarà decisamente seperiore perché più cospicuo sarà il chunk o raggruppamento di informazione.

5.

Il futuro delle scienze cognitive e il concetto di “teoria ecologicamente valida”

Diversi sono ancora i passaggi che portano al conclusivo concetto di teoria ecologicamente valida. Con questa espressione vogliamo definire una psicologia vicina ai bisogni dell’uomo e consapevole della relazione tra la sua reale natura e l’ambiente naturale che lo circonda, senza forzature concettuali o distorsioni sperimentali dovute al laboratorio.

Per questa ragione il paradigma HIP è oggi considerato superato in una notevole misura.

La teorizzazione di Craik circa la costruzione di modelli di eventi e di azioni è senza dubbio brillante, in quanto precede di molti anni il largo utilizzo di modelli come ad esempio i diagrammi di flusso nella scienza dell’informazione, tuttavia non risolve con gli strumenti adatti problemi relativi all’affettività, all’emotività, al comportamento patologico pur essendo in grado di fornire strumenti di analisi dettagliata di tali fenomeni. Le psicoterapie in ambito di psicologia clinica e dinamica danno invece una risposta a questi problemi.

I presupposti teorici per arrivare a simili strumenti diagnostici e terapeutici o anche a definire i classici manuali comportamentali che hanno fatto tanto successo negli ultimi anni fra il grande pubblico delle persone comuni, vengono dati alla luce nella moderna scienza cognitiva, la quale svilupperà due fondamentali paradigmi contrapposti: il modularismo e il connessionismo.  Contemporaneamente si potrà definire con chiarezza cosa si intende per teoria ecologicamente valida e diffondere questo concetto nel mondo accademico.

Il paradigma HIP che paragona il cervello all’hardware e i processi cognitivi al software di un sistema di elaborazione elettronico dell’informazione ha dato spunto per interessanti riflessioni, ma queste attualmente hanno assunto una connotazione in buona parte figurativa.

Come abbiamo detto il cognitivista studia aspetti a ristretto raggio del funzionamento psichico che non portano a teorie generali, che non tengono conto di più fenomeni contemporaneamente.

Il cognitivismo subisce un primo sorpasso con:

–          La rappresentazione delle conoscenze

–          Le reti semantiche

Con rappresentazione delle conoscenze si intende una struttura cognitiva in grado di contenere tutte le conoscenze acquisite nel corso della vita da un individuo e reperibili tramite un sistema di indirizzamento analogo a quello di una biblioteca.

Le reti semantiche sono dei nodi di conoscenza collegati tra loro da relazioni, dove ogni nodo è una struttura linguistica cioè una semplice frase. Facciamo un esempio:

-Il canarino è un uccello

– Il canarino è un volatile

– Il canarino è un animale col becco

Queste tre frasi costituiscono i tre nodi di una rete semantica, le relazioni fra questi tre nodi definiscono un sistema di conoscenza. Le reti semantiche costituiscono un primo superamento dei micro modelli dello HIP e del cognitivismo.

La prospettiva ecologica si definisce nel 1973 con l’importante congresso tenuto a La Jolla.

Tra i partecipanti ci sono Bransford e Turvey, ma paradossalmente il più influente personaggio è il non presente James Gibson. Gibson muore nel 1979 dopo aver raggiunto da poco un ampio successo di pubblico, e dopo un lungo successo di critica. Fu un uomo dotato di una cultura enciclopedica capace di uscire dal ristretto ambito della psicologia per sconfinare nell’architettura e nella critica d’arte.

Secondo la visione ecologista il nostro sistema cognitivo non fa calcoli per organizzare le strutture di conoscenza esattamente come un planimetro polare non fa calcoli per misurare le irregolari superfici agricole. Aggiungerei un esempio più contestuale alla tecnologia elettronica: un amplificatore logaritmico può avere un’uscita di tensione proporzionale al logaritmo naturale della tensione in ingresso variabile nel tempo, questo per una particolare legge fisica di funzionamento dei transistori a giunzione bipolare, senza che questo implichi la presenza di un sistema di calcolo. Quindi l’essere umano non fa calcoli per acquisire conoscenza, ma sfrutta una rete di strutture schematiche pre-organizzate che ci consentono a priori di organizzare le informazioni acquisite. L’uomo non è dunque un sistema computazionale e va visto nel suo ambiente naturale di vita.

Nel 1977, attorno alla rivista Cognitive Science, nasce la Scienza Cognitiva.

I promotori della scienza cognitiva, Schank, Colins e Charniak definiscono i seguenti problemi comuni a scienziati quali psicologi, informatici, linguisti, e neuropsichiatri:

–          Rappresentazione delle conoscenze

–          Linguaggio

–          Immagini

–          Inferenza

–          Apprendimento

–          Problem Solving

Nel 1979, nuovamente a La Jolla si tiene il primo congresso della Scienza Cognitiva.

Norman, stabilisce dodici aree di ricerca:

–          Credenze

–          Coscienza

–          Evoluzione

–          Emozione

–          Interazione

–          Linguaggio

–          Apprendimento

–          Memoria

–          Percezione

–          Performance

–          Skills

–          Pensiero

Gli skills sono le abilità acquisite. Possono essere ricondotti a schemi d’azioni interiorizzati, strutture di conoscenze, modelli di eventi e azioni. Tutti i giorni acquisiamo nuovi skills che ci permettono di svolgere nuovi compiti e ci rendono più adeguati ad interagire con il nostro ambiente.

Nel 1983 Jerry Fodor scrive “Modularity of mind”, una vera bomba nel campo della scienza cognitiva.

La mente umana è suddivisa in un’area centrale unica indivisa collegata ad aree funzionali verticali o divise dalle seguenti caratteristiche:

–          Specificità per dominio (ogni modulo svolge una sola funzione)

–          Funzionamento obbligato (quando un modulo è sollecitato dall’ambiente deve trasmettere una informazione all’area centrale)

–          C’è un solo accesso centrale per le rappresentazioni, con conseguenti colli di bottiglia

–          I moduli sono dotati di notevole velocità di funzionamento

–          I moduli sono incapsulati informazionalmente, nessun modulo ha accesso ad informazioni di proprietà di un altro modulo

Tutto questo ricorda il lavoro di Franz Joseph Gall, la frenologia. Tuttavia qui si parla di funzioni, non di facoltà.

Gli attuali studi di neuro-imaging, i quali sono in grado di mettere in evidenza le aree del cervello metabolicamente attive istante per istante hanno permesso di effettuare delle osservazioni differenziali del funzionamento di diverse aree del cervello in relazione a diverse funzioni psichiche quali percezione visiva piuttosto che uditiva, memoria ecc. Questi risultati sono chiaramente suggestivi ma finora non hanno permesso di formulare conclusioni scientifiche rilevanti.

Il paradigma scientifico del connessionismo, definisce un modello di funzionamento scientifico dove tutto si connette a tutto. Tutto funziona in parallelo in modo massivo. I modelli connessionisti integrano strutture:

–          Processuali

–          Computazionali

Quindi nella mente sono presenti strutture di calcolo di rappresentazioni ma anche strutture in grado di compiere processi cognitivi.

Al centro del paradigma connessionistico, c’è la mente sotto forma di insieme di reti neurali.

Una rete neurale è una rete feed-forward, con apprendimento per back – propagation. Utilizzando una analogia con la teoria dei sistemi di automazione possiamo definire una rete neurale un sistema retro – azionato negativamente, il che vuol dire un sistema dove l’uscita dipende dall’ingresso iniziale ma anche dallo stato del sistema cioè dalla storia degli ingressi e delle uscite fino ad un dato istante.

Questa ultima considerazione spiega come mai la rete neurale è considerata un sistema dinamico, cioè un sistema dove la legge che regola uscite e ingressi (funzione di trasferimento) si evolve dinamicamente nel tempo.

La rete feed-forward è in grado di apprendere nella direzione uscita-ingresso. Ora capiremo perché.

La rete neurale è formata da unità di input – unità nascoste – unità di output.

Ogni nodo o unità di input è collegato ad ogni nodo intermedio. Ogni nodo intermedio è collegato ad ogni nodo di output. Ogni collegamento o legame è provvisto di un peso che alle condizioni iniziali ha valori casuali e cambia in funzione di una decisione che ora definiamo e che è progressiva nel tempo. Inizialmente la rete ha un ingresso e viene formulato un target che è il valore atteso dell’output. Se l’output è diverso dal target l’output è modificato e per propagazione il valore dei pesi dei legami delle unità di output e delle unità intermedie viene modificato, in cascata retroattiva anche i valori dei pesi dei legami delle unità intermedie e delle unità intermedie viene modificato. La percezione è rappresentata da ogni singolo nodo della rete più ogni singolo peso, non da un elemento in particolare ma quindi dallo stato dell’intera rete. L’apprendimento non è altro che il progressivo e dinamico cambiamento dei valori dei pesi dei legami dei nodi della rete.

Abbiamo detto che una rete è un sistema dinamico, aggiungiamo non lineare. Questo vuol dire che è come uno stereo che aggiunge e toglie componenti nel tempo. E’ un sistema che si comporta in modo diverso nel tempo, con diverse funzioni di trasferimento che variano nel tempo lungo delle traiettorie dette linee di transizioni che rispondono a leggi chiamate equazioni differenziali. Un equazione differenziale è un equazione dove l’incognita non è una variabile scalare ma una funzione. Assumere che un sistema si evolva in un intervallo di tempo secondo una particolare funzione, che deve essere una soluzione particolare dell’equazione differenziale, vuol dire linearizzare il sistema, cioè introdurre un errore al fine di semplificare in calcoli, la cosa va bene in un intervallo di tempo opportunamente piccolo, ma sempre commettendo un errore. Il generico sistema dinamico risponde a questa legge:

dx/dt = -dV(x)dx+rumore, dove x è la variazione del sistema , t è il tempo e V(x) è il differenziale del sistema. Quindi il sistema va in direzione opposta al suo differenziale, sommando il rumore.

Questa è una equazione differenziale. V(x) è una funzione della progressione del sistema. In corrispondenza di punti critici di V(x) (massimi o minimi relativi) ci possono essere:

–          ATTRATTORI (punti che definiscono un particolare funzionamento a cui il sistema tende a uniformarsi

–          ATTRATTORI STRANI (Attrattori dove il passaggio da un funzionamento all’altro avviene in modo caotico)

–          TRANSIZIONI DI FASE (un punto dove il passaggio da un funzionamento all’altro avviene in modo brusco, defininendo nettamente due funzionamenti molto diversi e generando ambiguità)

Lo studio del caos è lo studio di sistemi semplici che si comportano in modo complesso, lungo parecchi attrattori strani. Il comportamento caotico sembra causale ma non lo è, non è calcolabile a piori ma può essere previsto in funzione delle condizioni iniziali, inoltre le linee di transizione hanno sempre traiettorie diverse ma simili in forme.

Lo studio della complessità è lo studio del funzionamento semplice di sistemi complessi. La ricerca della complessità non ha ancora mantenute le sue grandi promesse ed è ancora una fonte di stimoli per i ricercatori.

Queste teorie hanno permesso di dare una definizione formale del comportamento patologico e del comportamento sano. Qui si può inscrivere il pensiero Freudiano circa l’estrema permeabilità delle condizioni di patologia e di sanità. Un sistema dinamico non lineare complesso non ha bruschi passaggi da una soluzione particolare all’altra della equazione differenziale che ne regola il funzionamento nel tempo, e questo conferisce dei comportamenti semplici, non caotici. Ognuno di noi ha un potenziale sano e uno malato,  la condizione del malato può essere studiata tramite leggi matematiche al pari di quella del sano. Il malato ha comportamenti caotici e fuori dagli schemi convenzionali, ma ci sono schemi e leggi che ne regolano il funzionamento sulla base di condizioni iniziali. Quindi il sia il comportamento caotico  dei sistemi dinamici che il comportamento patologico degli esseri umani può essere studiato con rigore tramite precise leggi matematiche.

Una teoria ecologicamente valida tiene conto della vera natura dell’uomo, dei suoi rapporti con l’ambiente, che è fatto prevalentemente di persone. Per questo  nell’ambito della psicologia sociale e delle psicoterapie si trovano degli stimoli molto interessanti.

Vorrei che si delineasse in futuro un piccolo nuovo paradigma, nell’ambito delle psicoterapie:

–          LA PSICOTERAPIA FUNZIONA CON BUONA PROBABILITA’ SE IL TERAPEUTA E’ MOTIVATO DA QUALITA’ UMANE OLTRE CHE DA ASPETTI ECONOMICI NONCHE’ DALL’ASSENZA DI RESISTENZE EMOTIVE DEL PAZIENTE

Tutte le teorizzazioni finora discusse sono utili per curare il disturbo patologico a patto che si sia motivati dall’altruismo nei confronti del paziente. A questo proposito, la formazione del terapeuta non dovrebbe prescindere da un aspetto deontologico, filosofico, motivazionale ed etico. Lo psicoterapeuta deve essere formato prima di tutto umanamente. A questo proposito si possono trovare aspetti utili nelle dottrine originali delle principali religioni, non importa che si tratti di Cristianesimo o Buddismo, qualunque credenza è buona se induce all’umanità, alla compassione, al rispetto della dignità umana e all’altruismo basato non solo su precetti metafisici ma anche su un principio matematico studiato proprio da un malato di mente, John Nash, che con la sua Teoria dei Giochi ha dimostrato matematicamente che il bene di ogni singolo dipende dal bene comune, mentre se ogni singolo punta al massimo l’intero sistema sociale primo o poi andrà in crisi, sulla falsa riga di una qualità che andrebbe studiata (l’egoismo). Spero che un giorno questa tesi venga dimostrata sperimentalmente, più dubbioso sono circa la sua reale applicazione, perché sebbene la teoria dei giochi sia stata dimostrata, l’egoismo ha provocato in ambito economico la crisi che tutti conosciamo. Questa è per me una teoria ecologicamente valida.