
Traduzione di Filippo Pelucchi e Emanuele Martinelli.
Revisione di Valentina Martinis, pagina di Micheal Rescorla.
Versione Inverno 2020.
The following is the translation of Michael Rescorla’s entry on “The Computational Theory of Mind “in the Stanford Encyclopedia of Philosophy. The translation follows the version of the entry in the SEP’s archives at https://plato.stanford.edu/archives/win2020/entries/computational-mind/ . The translated version may differ from the current version of the entry, which may have been updated since the time of this translation. The current version is located at https://plato.stanford.edu/entries/computational-mind/ . We’d like to thank the Editors of the Stanford Encyclopedia of Philosophy for granting permission to translate and publish this entry on the web.
Una macchina sarebbe in grado di pensare? La mente potrebbe essere essa stessa una macchina pensante? La rivoluzione informatica ha rivoluzionato il dibattito intorno a queste domande, fornendo prospettive ottimali per le macchine che simulano il ragionamento, il processo decisionale, il problem-solving, la percezione, la comprensione linguistica, ed altri processi mentali. I progressi nell’informatica suggeriscono la possibilità che la mente stessa sia un sistema computazionale, una posizione nota come teoria computazionale della mente (TCM). I computazionalisti sono ricercatori che sostengono la TCM, almeno per come viene applicata ad alcuni importanti processi mentali. La TCM ha svolto un ruolo centrale nella scienza cognitiva negli anni ’60 e ’70. Per molti anni ha goduto di uno statuto ortodosso. Più di recente, è stata messa in crisi da vari paradigmi avversari. L’obiettivo decisivo per i computazionalisti è quello di spiegare cosa si intende quando si dice che la mente “computa”. Un secondo compito è sostenere che la mente “computa” nel senso rilevante. Un terzo compito è chiarire come la descrizione computazionale si relaziona ad altri tipi comuni di descrizione, in particolare alla descrizione neurofisiologica (che fa riferimento alle proprietà neurofisiologiche del cervello o del corpo dell’organismo) e alla descrizione intenzionale (che fa riferimento invece alle proprietà rappresentazionali degli stati mentali).
- 1. Macchine di Turing
- 2. Intelligenza artificiale
- 3. Teoria computazionale della mente classica
- 4. Reti neurali
- 5. Computazione e rappresentazione
- 6. Teorie alternative al computazionali
- 7. Argomenti contro il computazionalismo
- Bibliografia
- Strumenti accademici
- Altre risorse in Internet
- Voci correlate
1. Macchine di Turing
Le nozioni intuitive di computazione e algoritmo sono centrali in matematica. In parole povere, un algoritmo è una procedura esplicita e dettagliata per rispondere a qualche domanda o risolvere qualche problema. Un algoritmo fornisce istruzioni meccaniche di routine che stabiliscono come si debba procedere in ogni fase. Obbedire alle istruzioni non richiede ingegnosità o creatività particolari. Ad esempio, gli algoritmi a cui siamo abituati dalle scuole elementari descrivono come fare addizioni, moltiplicazioni e divisioni. Fino all’inizio del ventesimo secolo, i matematici si basavano su nozioni informali di computazione e algoritmo senza tentare nulla di simile a un’analisi formale. Gli sviluppi nelle basi della matematica alla fine spinsero i logici a perseguire un trattamento più sistematico. L’imprescindibile paper di Alan Turing “On Computable Numbers, With an Application to the Entscheidungsproblem” (Turing 1936) ha offerto l’analisi che si è dimostrata più influente.
Una macchina di Turing è un modello astratto di un dispositivo informatico idealizzato con tempo e spazio di archiviazione illimitati a sua disposizione. Il dispositivo manipola i simboli, proprio come un agente informatico umano manipola i segni di matita su carta durante la computazione aritmetica. Turing dice molto poco sulla natura dei simboli. Sostiene che i simboli primitivi siano tratti da un alfabeto finito. Assume inoltre che i simboli possano essere inscritti o cancellati in “indirizzi di memoria”. Il modello di Turing funziona nel modo seguente:
- Ci sono infiniti indirizzi di memoria, disposti in una struttura lineare. Metaforicamente, questi indirizzi di memoria sono “celle” su un “nastro di carta” infinitamente lungo. Gli indirizzi di memoria potrebbero letteralmente essere realizzati in vari modi fisici (ad esempio, con dei chip di silicio).
- C’è un processore centrale, che può accedere a una posizione di memoria alla volta. Metaforicamente, il processore centrale è uno “scanner” che si muove lungo il nastro di carta una “cella” alla volta.
- Il processore centrale può entrare in un numero finito di stati della macchina.
- Il processore centrale può eseguire quattro operazioni elementari: scrivere un simbolo in una posizione di memoria; cancellare un simbolo da una posizione di memoria; accedere alla posizione di memoria successiva nella matrice lineare (“spostarsi a destra sul nastro”); accedere alla posizione di memoria precedente nell’array lineare (“spostarsi a sinistra sul nastro”).
- Quale operazione elementare esegue l’elaboratore centrale dipende interamente da due fatti: quale simbolo è attualmente inscritto nella posizione di memoria attuale; e dallo stato corrente della macchina dello scanner.
- Una tavola della macchina determina quale operazione elementare esegue il processore centrale, dato il suo stato della macchina corrente e il simbolo a cui sta accedendo attualmente. La tavola della macchina determina anche come cambia lo stato della macchina del processore centrale, dati gli stessi fattori. Pertanto, la tavola della macchina racchiude un insieme finito di istruzioni meccaniche di routine che governano la computazione.
Turing traduce questa descrizione informale in un modello matematico rigoroso. Per maggiori dettagli, vedi la voce sulle macchine di Turing.
Turing motiva poi il suo approccio riflettendo sugli agenti informatici umani idealizzati. Citando i limiti del nostro apparato percettivo e cognitivo, sostiene che qualsiasi algoritmo simbolico eseguito da un essere umano possa essere replicato da una macchina di Turing adeguata. Conclude che il formalismo della macchina di Turing, nonostante la sua estrema semplicità, è abbastanza potente da catturare tutte le procedure meccaniche eseguibili da un essere umano attraverso le configurazioni simboliche. Gli autori successivi, che hanno discusso questa tesi, sono stati quasi universalmente d’accordo.
La computazione di Turing è spesso descritta come digitale piuttosto che analogico. Non è sempre così chiaro che cosa significhi, ma l’idea di base è che la computazione opera su configurazioni discrete. In confronto, molti algoritmi storicamente importanti operano su configurazioni a variazione continua. Ad esempio, la geometria euclidea assegna un ruolo importante alle costruzioni con righello e compasso, che manipolano le forme geometriche. Per qualsiasi forma, se ne può trovare un’altra che differisce in misura arbitrariamente piccola. Le configurazioni simboliche manipolate da una macchina di Turing non differiscono in misura arbitrariamente piccola. Le macchine di Turing operano su stringhe discrete di elementi (cifre) tratte da un alfabeto finito. Una controversia ricorrente riguarda se il paradigma digitale sia adatto come modello per l’attività mentale o se sarebbe invece più adatto un paradigma analogico (MacLennan 2012; Piccinini e Bahar 2013).
Oltre a introdurre le sue macchine, Turing (1936) ha conseguito diversi risultati matematici fondamentali in cui esse sono state coinvolte. In particolare, ha dimostrato l’esistenza di una macchina di Turing universale (MTU). In parole povere, una MTU è una macchina di Turing che può imitare qualsiasi altra macchina di Turing. Si fornisce all’MTU un input simbolico che codifica la tavola della macchina per la macchina di Turing M. L’MTU replica il comportamento di M, eseguendo le istruzioni fornite dalla tavola della macchina di M. In questo senso, la MTU è un computer generico a scopo programmabile. Da una prima approssimazione, tutti i personal computer sono anche ad uso generale: possono imitare qualsiasi macchina di Turing, una volta che sono stati opportunamente programmati. La limitazione principale è che i computer fisici hanno una memoria finita, mentre una macchina di Turing ha una memoria illimitata. Più precisamente, quindi, un personal computer può imitare qualsiasi macchina di Turing fino a quando non esaurisce la sua limitata disponibilità di memoria.
La discussione di Turing ha contribuito a gettare le basi per l’informatica, che cerca di progettare, costruire e comprendere i sistemi informatici. Come sappiamo, gli informatici possono ora costruire macchine informatiche estremamente sofisticate. Tutte queste macchine implementano qualcosa di simile alla computazione di Turing, sebbene i dettagli differiscano dal modello semplificato che ha proposto.
2. Intelligenza artificiale
Rapidi progressi nell’informatica hanno spinto molti, compreso Turing, a riflettere sulla possibilità di costruire un computer in grado di pensare. L’intelligenza artificiale (AI) mira a costruire “macchine pensanti”. Più precisamente, mira a costruire macchine informatiche che eseguono compiti mentali fondamentali come il ragionamento, il processo decisionale, il problem-solving e così via. Nel corso degli anni ’50 e ’60, questo obiettivo ci concretizzò sempre più (Haugeland 1985).
Le prime ricerche sull’IA ponevano l’accento sulla logica. I ricercatori hanno cercato di “meccanizzare” il ragionamento deduttivo. Un famoso esempio fu il programma per computer Logic Theorist (Newell e Simon 1956), che ha dimostrato 38 dei primi 52 teoremi dei Principia Mathematica (Whitehead e Russell 1925). In un caso ha scoperto una dimostrazione più semplice di quella fornita nei Principia.
I primi successi di questo tipo stimolarono un enorme interesse dentro e fuori il mondo accademico. Molti ricercatori prevedevano che per giungere alle macchine intelligenti sarebbero serviti pochi anni. Ovviamente, queste previsioni non risultarono corrette. Tra noi non camminano ancora robot intelligenti. Anche i processi mentali di livello relativamente basso, come la percezione, superano di gran lunga le capacità degli attuali programmi per computer. Quando queste fiduciose previsioni delle macchine pensanti si rivelarono eccessivamente ottimistiche, molti osservatori persero interesse o conclusero che l’intelligenza artificiale fosse l’impresa di uno sciocco. Tuttavia, nei decenni si è assistito a graduali processi. Un successo sorprendente è stato quello di Deep Blue della IBM, che ha sconfitto il campione di scacchi Gary Kasparov nel 1997. Un altro grande successo è stato quello dell’auto senza conducente Stanley (Thrun, Montemerlo, Dahlkamp, et al. 2006), che ha completato un percorso di 132 miglia nel deserto del Mojave, vincendo la grande sfida della Defense Advanced Research Projects Agency (DARPA) del 2005. Una storia di successo meno appariscente è il grande miglioramento degli algoritmi per il riconoscimento vocale.
Un problema che ha ostacolato i primi lavori nell’IA è l’incertezza. Quasi tutti i ragionamenti e il processo decisionale operano in condizioni di incertezza. Ad esempio, potresti dover decidere se andare a fare un picnic senza essere certo che pioverà. La teoria bayesiana delle decisioni è il modello matematico standard di inferenza e processo decisionale in condizioni di incertezza. L’incertezza è codificata attraverso la probabilità. Regole precise stabiliscono come aggiornare le probabilità alla luce di nuove prove e come selezionare le azioni alla luce delle probabilità e delle utilità. (Vedi le voci sul teorema di Bayes e le teorie normative della scelta razionale: utilità attesa per i dettagli.) Negli anni ’80 e ’90, gli sviluppi tecnologici e concettuali hanno permesso lo sviluppo di programmi per computer efficienti che implementano o approssimano l’inferenza bayesiana in scenari realistici. Ne seguì un’esplosione di intelligenza artificiale bayesiana (Thrun, Burgard e Fox 2006), inclusi i già menzionati progressi nel riconoscimento vocale e nei veicoli senza conducente. Gli algoritmi trattabili che gestiscono l’incertezza sono un risultato importante dell’IA contemporanea (Murphy 2012) e forse facevano presagire progressi futuri ancora più impressionanti.
Alcuni filosofi insistono sul fatto che i computer, per quanto sofisticati, nel migliore dei casi arriveranno ad imitare il nostro pensiero, anziché replicarlo. Una simulazione al computer del tempo non fa piovere per davvero. Una simulazione di volo al computer non fa volare per davvero. Anche se un sistema informatico potesse simulare l’attività mentale, perché dovremmo sospettare che la costituirebbe per intero?
Turing (1950) anticipò queste preoccupazioni e cercò di attenuarle. Egli ha proposto uno scenario, ora detto Test di Turing, in cui si valuta se un interlocutore non visibile è un computer o un essere umano. Un computer supera il test di Turing se non si riesce a stabilire che si tratta di un computer. Turing ha proposto di abbandonare la domanda “Un computer è in grado di pensare?” dato che è irrimediabilmente vaga, sostituendola con “Un computer potrebbe superare il test di Turing?”. La discussione di Turing ha ricevuto notevole attenzione, dimostrandosi particolarmente influente all’interno del campo dell’IA. Ned Block (1981) ha offerto una critica influente. Egli sostiene che alcune macchine possibili superano il test di Turing anche se esse non si avvicinano al pensiero o all’intelligenza degli esseri umani. Vedi la voce sul test di Turing per la discussione dell’obiezione di Block e altri problemi che riguardano il test di Turing.
Per ulteriori informazioni sull’intelligenza artificiale, vedi voce sulla logica e l’intelligenza artificiale. Per molti più dettagli, si veda Russell e Norvig (2010).
3. La teoria computazionale della mente classica
Warren McCulloch e Walter Pitts (1943) hanno suggerito per primi che qualcosa di simile alla macchina di Turing potrebbe fornire un buon modello per spiegare la mente. Negli anni ’60, la computazione di Turing divenne centrale per l’emergente iniziativa interdisciplinare delle scienze cognitive, che studiano la mente attingendo alla psicologia, all’informatica (in particolare all’IA), alla linguistica, alla filosofia, all’economia (in particolare la teoria dei giochi e l’economia comportamentale), all’antropologia e alle neuroscienze. L’etichetta “teoria computazionale della mente classica” (che abbrevieremo come TCMC) è ora abbastanza comune. Secondo la TCMC, la mente è un sistema computazionale simile per importanti aspetti a una macchina di Turing, e i cui processi mentali fondamentali (ad esempio, ragionamento, processo decisionale e problem-solving) sono calcoli simili in alcuni aspetti a quelli eseguiti da una macchina di Turing. Questa formulazione è, tuttavia, imprecisa. La TCMC può essere considerata al più come un insieme di teorie, piuttosto che come un’unica teoria con una singola definizione. [1]
Si usa descrivere la TCMC come se incarnasse la “metafora del computer”. Questa descrizione è fuorviante per due motivi.
In primo luogo, la TCMC si può formulare meglio descrivendo la mente come un “sistema informatico” o un “sistema computazionale” piuttosto che un “computer”. Come osserva David Chalmers (2011), descrivere un sistema come un “computer” suggerisce fortemente che il sistema è programmabile. Come nota anche Chalmers, non è necessario affermare che la mente è programmabile semplicemente perché la si considera come un sistema computazionale simile alle macchine di Turing. (La maggior parte delle macchine di Turing, infatti, non sono programmabili.) Pertanto, l’espressione “metafora del computer” suggerisce fortemente un impegno teorico non essenziale per la TCMC. Il punto qui non è solo terminologico. I critici della TCMC spesso obiettano che la mente non è un computer programmabile per scopi generali (Churchland, Koch e Sejnowski 1990). Siccome i computazionalisti classici non hanno bisogno di affermare (e di solito non lo fanno) che la mente è un computer programmabile per scopi generali, l’obiezione è mal indirizzata.
In secondo luogo, la TCMC non va intesa metaforicamente. La TCMC non sostiene semplicemente che la mente è come un sistema informatico. La TCMC sostiene che la mente è letteralmente un sistema informatico. Naturalmente, i sistemi informatici artificiali più familiari sono realizzati con chip di silicio o materiali simili, mentre il corpo umano è fatto di carne e sangue. Ma la TCMC sostiene che questa differenza nasconde una somiglianza più fondamentale, che possiamo comprendere con un modello computazionale simile alle macchine di Turing. Nell’offrire un tale modello, prescindiamo dai suoi dettagli a livello fisico. Otteniamo una descrizione computazionale astratta che potrebbe essere implementata fisicamente in diversi modi (ad esempio, attraverso chip di silicio, neuroni, pulegge o leve). La TCMC sostiene che un modello computazionale astratto offre una descrizione letteralmente corretta dei processi mentali fondamentali.
È comune riassumere la TCMC attraverso lo slogan “la mente è una macchina di Turing”. Questo slogan è anche un po’ fuorviante, perché nessuno considera il preciso formalismo di Turing un modello plausibile della nostra attività mentale. Il formalismo sembra troppo restrittivo per diversi motivi:
Le macchine di Turing eseguono calcoli simbolici puri. Gli input e gli output sono simboli inscritti negli indirizzi di memoria. Al contrario, la mente riceve input sensoriali (ad esempio, stimolazioni retiniche) e produce output motori (ad esempio, attivazioni muscolari). Una teoria completa deve descrivere come la computazione mentale si interfaccia agli input sensoriali e gli output motori.
- Una macchina di Turing ha una capacità di memoria discreta infinita. I sistemi biologici ordinari hanno una capacità di memoria finita. Un modello psicologico plausibile deve sostituire la memoria infinita con una memoria ampia, ma finita.
- I computer moderni hanno una RAM: indirizzi di memoria a cui il processore centrale può accedere direttamente. La memoria della macchina di Turing non è indirizzabile. Il processore centrale può accedere a un indirizzo solo accedendo sequenzialmente a quelli intermedi. La computazione senza memoria indirizzabile è irrimediabilmente inefficiente. Per questo motivo, C.R. Gallistel e Adam King (2009) sostengono che la memoria indirizzabile fornisca un modello migliore della mente rispetto alla memoria non indirizzabile.
- Una macchina di Turing ha un processore centrale che opera in serie, eseguendo un’istruzione alla volta. Altri formalismi computazionali indeboliscono questa ipotesi, consentendo più unità di elaborazione che operano in parallelo. I computazionalisti classici possono accettare che vengano svolti calcoli paralleli (Fodor e Pylyshyn 1988; Gallistel e King 2009: 174). Vedere Gandy (1980) e Sieg (2009) per i trattamenti matematici generali che comprendono sia la computazione seriale che quello in parallelo.
- La computazione di Turing è deterministica: lo stato computazionale totale determina lo stato computazionale successivo. Si potrebbe invece consentire calcoli stocastici. In un modello stocastico, lo stato corrente non impone un unico uno stato successivo. Piuttosto, c’è una certa probabilità che la macchina passi da uno stato all’altro.
La TCMC afferma che l’attività mentale è “computazione simile alle macchine di Turing”, che consente queste e altre divergenze rispetto allo stesso formalismo di Turing.
3.1 Funzionalismo della macchina
Hilary Putnam (1967) ha introdotto la TCMC in filosofia. Ha messo a confronto la sua posizione con il comportamentismo logico e la teoria dell’identità di tipo. Ogni posizione pretende di rivelare la natura degli stati mentali, inclusi gli atteggiamenti proposizionali (come le credenze), sensazioni (come il dolore) ed emozioni (come la paura). Secondo il comportamentismo logico, gli stati mentali sono disposizioni comportamentali. Secondo la teoria dell’identità di tipo, gli stati mentali sono stati cerebrali. Putnam avanza al contrario una teoria funzionalista, in base alla quale gli stati mentali sono stati funzionali. Secondo il funzionalismo, un sistema ha una mente quando il sistema ha un’organizzazione funzionale adeguata. Gli stati mentali sono stati che svolgono ruoli appropriati nell’organizzazione funzionale del sistema. Ogni stato mentale è individuato in base alle sue interazioni con input sensoriali, output motorii e altri stati mentali.
Il funzionalismo offre notevoli vantaggi rispetto al comportamentismo logico e alla teoria dell’identità del tipo:
- I comportamentisti vogliono associare ogni stato mentale a un modello caratteristico di comportamento – un compito che è senza speranze, perché gli stati mentali individuali di solito non hanno effetti comportamentali specifici. Il comportamento risulta quasi sempre da stati mentali distinti che operano insieme (ad esempio, una credenza e un desiderio). Il funzionalismo evita questa difficoltà individuando gli stati mentali attraverso relazioni caratteristiche non solo con input e comportamenti sensoriali, ma anche tra di essi.
- I teorici dell’identità di tipo vogliono associare ogni stato mentale a uno stato fisico o neurofisiologico specifico. Putnam mette in dubbio questo progetto sostenendo che gli stati mentali sono realizzabili molteplicemente: lo stesso stato mentale può essere realizzato da diversi sistemi fisici, incluse non solo le creature terrestri, ma anche quelle ipotetiche (ad esempio, un marziano a base di silicio). Il funzionalismo è fatto su misura per adattarsi alla realizzabilità multipla. Secondo il funzionalismo, ciò che conta per il mentale è un modello di organizzazione, che potrebbe essere realizzato fisicamente in molti modi diversi. Si veda la voce sulla realizzabilità multipla per ulteriori discussioni su questo argomento.
Putnam difende una versione di funzionalismo ora detta “funzionalismo della macchina”. Egli pone l’enfasi sugli automi probabilistici, che sono simili alle macchine di Turing, tranne per il fatto che le transizioni tra gli stati computazionali sono stocastiche. Egli propone che l’attività mentale implementi un automa probabilistico e che particolari stati mentali non siano che stati macchina del processore centrale dell’automa. La tavola della macchina specifica un’organizzazione funzionale appropriata e specifica anche il ruolo che svolgono i singoli stati mentali all’interno di tale organizzazione funzionale. In questo modo, Putnam combina il funzionalismo con la TCMC.
Il funzionalismo della macchina deve far fronte diversi problemi. Un problema, evidenziato da Ned Block e Jerry Fodor (1972), riguarda la produttività del pensiero. Un essere umano normale può generare una serie di enunciati potenzialmente infinità. Il funzionalismo della macchina identifica gli stati mentali con gli stati macchina di un automa probabilistico. Poiché esiste un numero finito di stati macchina, non ve ne sono abbastanza perché si accoppino a uno a uno con i possibili stati mentali di un essere umano. Naturalmente, un essere umano in carne ed ossa prenderà in considerazione solo un numero limitato di proposizioni. Tuttavia, Block e Fodor sostengono che questa limitazione rifletta i limiti della durata della vita e della memoria, piuttosto che (ad esempio) qualche legge psicologica che restringa la classe delle proposizioni enunciabili dagli esseri umani. Un automa probabilistico è dotato di tempo e capacità di memoria illimitati, ma ha ancora solo un numero limitato di stati macchina. Apparentemente, quindi, il funzionalismo della macchina identifica i limiti della cognizione umana nel luogo sbagliato.
Un altro problema del funzionalismo della macchina, evidenziato anche da Block e Fodor (1972), riguarda la sistematicità del pensiero. La capacità di enunciare una proposizione è correlata alla capacità di pensare ad altre proposizioni. Ad esempio, se qualcuno pensa “Giovanni ama Maria” può anche pensare “Maria ama Giovanni”. Sembrano dunque esserci relazioni sistematiche tra gli stati mentali. Una buona teoria dovrebbe rendere conto di queste relazioni sistematiche. Eppure, il funzionalismo della macchina identifica gli stati mentali con stati macchina non strutturati, che sono privi delle relazioni sistematiche richieste. Per questo motivo, il funzionalismo della macchina non spiega la sistematicità del pensiero. In risposta a questa obiezione, i funzionalisti della macchina potrebbero negare di essere obbligati a spiegare la sistematicità del pensiero. Tuttavia, l’obiezione suggerisce che il funzionalismo della macchina trascuri le caratteristiche essenziali della mente umana. Una teoria più efficiente dovrebbe mirare a spiegare queste caratteristiche in modo rigoroso.
Sebbene le obiezioni sulla produttività e sulla sistematicità al funzionalismo della macchina forse non siano decisive, spingono fortemente affinché si cerchi una versione migliorata della TCMC. Si veda Block (1978) per ulteriori problemi relativi al funzionalismo e al funzionalismo della macchina più in generale.
3.2 Teoria rappresentazionale della mente
Fodor (1975, 1981, 1987, 1990, 1994, 2008) sostiene una versione della TCMC che rende conto della sistematicità e alla produttività in modo molto più soddisfacente. Egli sposta l’attenzione sui simboli utilizzati durante la computazione da parte delle macchine di Turing.
Una vecchia teoria, che risale almeno alla Summa Logicae di Guglielmo d’Ockham, sostiene che il pensiero si manifesti in un linguaggio del pensiero (a volte chiamato “Mentalese”). Fodor riprende questa teoria. Egli postula un sistema di rappresentazioni mentali, comprendente sia le rappresentazioni primitive che le rappresentazioni complesse formate da rappresentazioni primitive. Ad esempio, le parole primitive in Mentalese “GIOVANNI”, “MARIA” e “AMA” possono combinarsi per formare la frase in Mentalese “GIOVANNI AMA MARIA”. Il Mentalese è una lingua composizionale: il significato di un’espressione complessa in Mentalese è una funzione dei significati delle sue parti e del modo in cui queste parti sono combinate tra di loro. Gli atteggiamenti proposizionali sono relazioni con i simboli del Mentalese. Fodor chiama questa visione “teoria rappresentazionale della mente” (TRM). Combinando la TRM con la TCMC, Egli sostiene che l’attività mentale comporti computare simboli del linguaggio del pensiero nello stile delle macchine di Turing. La compitazione mentale immagazzina i simboli mentali negli indirizzi di memoria, manipolando quei simboli in accordo con regole meccaniche.
Una delle virtù principali della TRM è la facilità con cui riesce a spiegare produttività e sistematicità del pensiero:
Produttività: la TRM postula un insieme finito di espressioni Mentalesi primitive, combinabili in una potenziale infinità di espressioni Mentalesi complesse. Un pensatore che abbia accesso al vocabolario Mentalese primitivo e ai dispositivi di composizione Mentalese potrebbe costruire un’infinità di espressioni in Mentalese. Potrebbe dunque generare infiniti atteggiamenti proposizionali (tralasciando i limiti di tempo e di memoria).
Sistematicità: secondo la TRM, esistono delle relazioni sistematiche tra quali atteggiamenti proposizionali possono essere pensati dal soggetto. Ad esempio, supponiamo che io possa pensare che John ama Mary. Secondo la TRM, il fatto che io mi comporto così implica che mi trovo in una relazione R con la frase in Mentalese “GIOVANNI AMA MARIA”, composta dalle parole in Mentalese GIOVANNI, AMA e MARIA combinate nel modo giusto. Se ho questa capacità, allora posso anche stare in relazione R con la frase in Mentalese “MARIA AMA GIOVANNI”, pensando così che Maria ama Giovanni. Quindi la capacità di pensare che Giovanni ama Maria è sistematicamente correlata alla capacità di pensare che Maria ama Giovanni.
Trattando gli atteggiamenti proposizionali come relazioni con simboli mentali complessi, la TRM spiega sia la produttività che la sistematicità del pensiero.
TCMC + TRM differisce dal funzionalismo della macchina per molti altri aspetti. In primis, il funzionalismo della macchina è una teoria degli stati mentali in generale, mentre la TRM è solo una teoria degli atteggiamenti proposizionali. In secundis, i sostenitori di TCMC+ TRM non hanno bisogno di dire che gli atteggiamenti proposizionali sono individuati dal loro ruolo funzionale. Come osserva Fodor (2000: 105, nota 4), dobbiamo distinguere il computazionalismo (secondo cui i processi mentali sono computazionali) dal funzionalismo (per cui gli stati mentali sono stati funzionali). Il funzionalismo della macchina sostiene entrambe le teorie. TCMC+ TRM approva solo il primo. Sfortunatamente, molti filosofi credono ancora erroneamente che il computazionalismo implichi un approccio funzionalista per gli atteggiamenti proposizionali (vedi Piccinini 2004 per tale discussione).
La discussione filosofica dell’TRM tende a concentrarsi principalmente sul pensiero umano di alto livello, in particolare sulla credenza e sul desiderio. Tuttavia, TCMC+ TRM è applicabile a una gamma molto più ampia di stati e processi mentali. Molti scienziati cognitivi la applicano ad animali diversi dagli esseri umani. Ad esempio, Gallistel e King (2009) la applicano a determinati classi di invertebrati (ad esempio, la navigazione spaziale delle api). Anche stringendo il campo agli esseri umani, è possibile applicare TCMC+ TRM all’elaborazione sub-personale. Fodor (1983) sostiene che la percezione coinvolge un “modulo” sub-personale che converte l’input retinico in simboli mentali e quindi esegue calcoli su quei simboli. Pertanto, parlare di un linguaggio del pensiero è potenzialmente fuorviante, poiché suggerisce una restrizione inesistente all’attività mentale di livello superiore.
Potenzialmente fuorviante è anche la descrizione del Mentalese come linguaggio, il che suggerisce che tutti i simboli Mentalesi assomigliano a espressioni del linguaggio naturale. Molti filosofi, compreso Fodor, a volte sembrano sostenere questa posizione. Tuttavia, ci sono possibili formati non proposizionali per i simboli Mentalesi. I sostenitori di TCMC+ TRM possono adottare una linea pluralistica, consentendo alla computazione mentale di operare su elementi simili a immagini, mappe, diagrammi o altre rappresentazioni non proposizionali (Johnson-Laird 2004: 187; McDermott 2001: 69; Pinker 2005: 7; Sloman 1978: 144–176). La linea pluralistica sembra particolarmente plausibile se applicata ai processi sub-personali (come la percezione) e agli animali diversi dagli esseri umani. Michael Rescorla (2009a e b) esamina la ricerca sulle mappe cognitive (Tolman 1948; O’Keefe e Nadel 1978; Gallistel 1990), suggerendo che alcuni animali possono spostarsi per mezzo di calcoli su rappresentazioni mentali più simili alle mappe che agli enunciati. Elisabeth Camp (2009), citando la ricerca sull’interazione sociale del babbuino (Cheney e Seyfarth 2007), sostiene che i babbuini possano codificare relazioni di dominio sociale attraverso rappresentazioni non-sentenziali strutturate ad albero.
TCMC+ TRM è schematico. Per completare lo schema, è necessario fornire modelli computazionali dettagliati di specifici processi mentali. Un modello completo dovrebbe:
- descrivere i simboli mentali manipolati dal processo;
- isolare le operazioni elementari che manipolano i simboli (ad esempio, iscrivere un simbolo in un indirizzo di memoria);
- delineare regole meccaniche che disciplinano l’applicazione delle operazioni elementari.
Fornendo un modello computazionale dettagliato, scomponiamo un processo mentale complesso in una serie di operazioni elementari governate da precise istruzioni abitudinarie.
TCMC+ TRM rimane neutrale nel dibattito tradizionale tra fisicalismo e dualismo delle sostanze. Un modello di macchina di Turing procede a un livello molto astratto, senza dire se i calcoli mentali siano implementati da una sostanza fisica o una sostanza cartesiana (Block 1983: 522). In pratica, tutti i sostenitori di TCMC+ TRM abbracciano una visione ampiamente fisicalista. Essi sostengono che i calcoli mentali non siano implementati dalla sostanza cartesiana ma piuttosto dal cervello. Da questo punto di vista, i simboli mentali sono realizzati da stati neurali e le operazioni di computazione sui simboli mentali sono realizzate da processi neurali. In definitiva, i fisicalisti sostenitori di TCMC+ TRM devono produrre teorie empiricamente confermate che spieghino esattamente come l’attività neurale implementa nella computazione di una macchina di Turing. Come sottolineano Gallistel e King (2009), attualmente non disponiamo di tali teorie, sebbene per alcune speculazioni si possano vedere Zylberberg, Dehaene, Roelfsema e Sigman (2011).
Fodor (1975) propone la TCMC+ TRM come base per la scienza cognitiva. Discute i fenomeni mentali come il processo decisionale, la percezione e l’elaborazione linguistica. In ciascuno di questi casi, egli sostiene, le nostre migliori teorie scientifiche postulano l’esistenza di computazioni in stile Turing su rappresentazioni mentali. Infatti, sostiene che le nostre uniche teorie plausibili hanno questa forma. Conclude che TCMC+ TRM è “l’unica opzione disponibile”. Molti scienziati cognitivi sostengono idee simili. C.R. Gallistel e Adam King (2009), Philip Johnson-Laird (1988), Allen Newell e Herbert Simon (1976) e Zenon Pylyshyn (1984) sostengono tutti che la computazione alla Turing sui simboli mentali sia la base migliore per una teorizzazione scientifica della mente.
4. Reti neurali
Negli anni Ottanta, il connessionismo è emerso come antagonista principale del computazionalismo classico. Il punto di partenza dei connessionisti è la neurofisiologia più che la logica o l’informatica; i loro modelli computazionali, le reti neurali, sono profondamente differenti rispetto a quelli proposti da Turing. Una rete neurale è un insieme di nodi interconnessi, che cadono sotto tre categorie: input, output e nodi nascosti (di mediazione tra i primi due). Ciascuno di essi presenta dei valori di attivazione, espressi da numeri reali, nonché delle connessioni ponderate con altri nodi, a loro volta descritte da numeri reali. L’attivazione dei nodi di input è esogena: è data dagli input della computazione. L’input totale di attivazione di un nodo nascosto o di output è la somma ponderata delle attivazioni dei nodi che vi si basano. Insomma, l’attivazione di un nodo nascosto o di output è una funzione del suo input totale di attivazione, funzione che varia a seconda della rete. Nella computazione di una rete neurale, onde di attivazione si propagano dai nodi di input ai nodi di output secondo le connessioni ponderate tra i vari nodi.
In una rete feedforward, le connessioni ponderate vanno in una sola direzione. Le reti ricorrenti possiedono circoli di feedback in cui le connessioni mediate dai nodi nascosti tornano agli stessi nodi nascosti. Quest’ultimo tipo di struttura è matematicamente più complesso da rendere delle prime. Tuttavia, sono cruciali per esprimere vari fenomeni psicologici, in particolare quelli che descrivono un certo tipo di memoria (Elman 1990).
I pesi in una rete neurale sono tipicamente mutevoli, evolvendosi in accordo con un algoritmo di apprendimento. Nella letteratura si trovano vari algoritmi di apprendimento, ma l’idea di base è di solito quella di regolare il peso delle connessioni in modo che gli output effettivi si avvicinino gradualmente agli output obiettivo che ci si aspetterebbe per i relativi input. La retropropagazione di errore ne è un esempio ampiamente utilizzato (Rumelhart, Hinton e Williams 1986).
Il connessionismo risale a McCulloch e Pitts (1943), che hanno studiato le reti di operatori logici interconnessi (ad esempio, E ed O). Una rete di operatori logici può essere descritta come una rete neurale, con attivazioni limitate a due valori (0 e 1) e funzioni di attivazione date dalle consuete funzioni di verità. McCulloch e Pitts hanno presentato i loro operatori come modelli idealizzati di singoli neuroni. I loro studi esercitarono una profonda influenza sull’informatica (von Neumann 1945), tant’è che i moderni computer digitali altro non sono che reti di operatori logici. All’interno delle scienze cognitive, tuttavia, i ricercatori si concentrano oggi di solito su strutture i cui elementi sono più simili ai neuroni. In particolare, i connessionisti moderni danno più peso a reti neurali analogiche i cui nodi assumono valori di attivazione continui anziché discreti. Alcuni autori usano addirittura l’espressione “rete neurale” esclusivamente per riferirsi a questo tipo di architettura.
Le reti neurali hanno ricevuto un’attenzione relativamente scarsa da parte degli scienziati cognitivi durante gli anni Sessanta e Settanta, quando i modelli in stile Turing dominavano il dibattito. Gli anni Ottanta hanno visto un’enorme rinascita dell’interesse per le reti neurali, specialmente per le reti neurali analogiche, con il Parallel Distributed Processing, opera in due volumi (Rumelhart, McClelland, e il gruppo di ricerca PDP, 1986; McClelland, Rumelhart, e il gruppo di ricerca PDP, 1987), come loro manifesto. I ricercatori hanno nel tempo costruito modelli connessionisti di diversi fenomeni: riconoscimento degli oggetti, percezione e comprensione del linguaggio naturale, sviluppo cognitivo, etc. Colpiti dal connessionismo, molti studiosi hanno dovuto concludere che la TCCM+TRM non era più l’unica alternativa possibile.
Negli anni 2010, una classe di modelli computazionali noti come reti neurali profonde è diventata piuttosto popolare (Krizhevsky, Sutskever e Hinton 2012; LeCun, Bengio e Hinton 2015). Questi modelli sono reti neurali con più strati di nodi nascosti (a volte centinaia). Reti neurali profonde addestrate su grandi volumi di dati attraverso un certo algoritmo di apprendimento (di solito di retropropagazione) hanno ottenuto un grande successo in molte aree dell’IA, tra cui il riconoscimento degli oggetti e il gioco strategico. Le reti neurali profonde sono ora ampiamente diffuse in commercio e sono al centro di un’ampia indagine sia all’interno del mondo accademico che dell’industria. Non mancano ricercatori che hanno anche iniziato a utilizzarle per modellare la mente (ad esempio Marblestone, Wayne e Kording 2016; Kriegeskorte 2015).
Per una descrizione dettagliata delle reti neurali, si veda Haykin (2008). Per un’introduzione base, focalizzata sulle applicazioni psicologiche, si veda Marcus (2001). Per un’introduzione filosofica alle reti neurali profonde, si veda Buckner (2019).
4.1 La relazione tra le reti neurali e il computazionalismo classico
Le reti neurali sono a prima vista molto diverse dai modelli più classici (come quelli di Turing). Nonostante ciò, il computazionalismo classico e questa famiglia di modelli non si escludono a vicenda:
- Una rete neurale può essere integrata in un modello classico. Di fatto, ogni rete neurale mai costruita fisicamente è stata riprodotta su un computer digitale.
- Un modello classico può essere integrato in una rete neurale. I computer digitali moderni integrano modelli computazionali di Turing in reti di operatori logici. Viceversa, i primi possono essere riprodotti con reti neurali ricorrenti analogiche con valori di attivazione continui (Graves, Wayne, e Danihelka 2014, altre fonti online; Siegelmann e Sontag 1991; Siegelmann e Sontag 1995).
Sebbene alcuni ricercatori suggeriscano una fondamentale opposizione tra il computazionalismo classico e il computazionalismo con reti neurali, sembra più accurato identificare due famiglie di modelli che talvolta si sovrappongono (cfr. Boden 1991; Piccinini 2008b). A questo proposito, vale anche la pena di notare che entrambe hanno la loro origine comune nel lavoro di McCulloch e Pitts.
I filosofi spesso affermano che il computazionalismo classico consiste nella “manipolazione di simboli secondo regole”, mentre il computazionalismo connessionista non è simbolico. L’immagine intuitiva è che l’”informazione” nelle reti neurali sia distribuita globalmente attraverso le interazioni e le attivazioni, anziché concentrata in simboli localizzati. Tuttavia, la nozione stessa di “simbolo” richiede una spiegazione, per cui spesso non è chiaro cosa i teorici considerino necessario per descrivere la computazione come simbolico o non simbolico. Come accennato al §1, il formalismo di Turing pone pochissime condizioni ai propri “simboli”. Per quanto riguarda i simboli primitivi, Turing presuppone che ce ne siano un numero finito e che possano essere espressi in supporti di memoria riscrivibili. Anche le reti neurali possono manipolare simboli che soddisfano queste due condizioni: come si è appena detto, un modello in stile Turing è integrabile in una rete neurale.
Molti dibattiti tra simbolismo e non-simbolismo utilizzano una nozione più robusta di “simbolo”. Nell’accezione più forte, un simbolo è ciò che rappresenta un argomento. Quindi, qualcosa è un simbolo solo se ha proprietà semantiche o rappresentative. Se utilizziamo questa nozione più robusta di simbolo, allora la distinzione tra simbolismo e non-simbolismo taglia trasversalmente la distinzione tra la computazione in stile Turing e la computazione in rete neurale. Una macchina di Turing non ha bisogno di utilizzare simboli in un’accezione così forte. Per quanto riguarda il formalismo di Turing, tali elementi non necessitano di proprietà rappresentazionali (Chalmers 2011). Viceversa, una rete neurale può manipolare simboli con proprietà rappresentazionali. Di fatto, una rete neurale analogica può operare anche su simboli che hanno una sintassi e una semantica combinatoria (Horgan e Tienson 1996; Marcus 2001).
Seguendo Steven Pinker e Alan Prince (1988), possiamo distinguere tra connessionismo eliminativista e connessionismo implementazionista.
I connessionisti eliminativisti presentano il connessionismo come rivale del computazionalismo classico. Sostengono che il formalismo di Turing non spiega i fenomeni psicologici. Spesso, anche se non necessariamente, cercano di far rivivere la tradizione associazionista in psicologia, una tradizione che la TCCM aveva avversato duramente. Inoltre, spesso si pongono contro la linguistica mentalista e nativista di Noam Chomsky (1965). Manifestano solitamente una palese ostilità alla nozione stessa di rappresentazione mentale. Ma la caratteristica che definisce il connessionismo eliminativista è che utilizza le reti neurali come sostituti dei modelli di Turing: da questa prospettiva, l’attività computazionale della mente viene definita in modo radicalmente diverso rispetto a una macchina di Turing. Alcuni autori sposano esplicitamente il connessionismo eliminativista (Churchland 1989; Rumelhart e McClelland 1986; Horgan e Tienson 1996), e molti altri vi si avvicinano.
Il connessionismo implementazionista è una posizione più ecumenica. Riconosce un ruolo importante sia ai modelli di Turing che alle reti neurali, che funzionerebbero in armonia su diversi livelli di descrizione (Marcus 2001; Smolensky 1988). I primi funzionano a livello generale, i secondi a livello particolare. La rete neurale serve a spiegare come il cervello integri modelli di Turing, mentre la descrizione in termini di operatori logici serve a spiegare come un computer esegue un programma in un linguaggio di ordine superiore.
4.2 Argomenti a favore del connessionismo
Il connessionismo suscita interessi in molti ricercatori per l’analogia che c’è tra le reti neurali e il cervello. I nodi sembrano analoghi ai neuroni, mentre le loro connessioni alle sinapsi. Tale modellazione appare quindi più “biologicamente plausibile” rispetto alla visione classica. Secondo i sostenitori di questa prospettiva, una ricostruzione connessionista di un fenomeno psicologico catturerebbe (in modo idealizzato) il modo in cui i neuroni interconnessi genererebbero il fenomeno.
Quando si valuta l’argomento della plausibilità biologica, si dovrebbe tuttavia riconoscere che le reti neurali differiscono in modo sostanziale dall’effettiva attività cerebrale. Molte reti che figurano in modo prominente negli scritti connessionisti non sono in effetti così biologicamente plausibili (Bechtel e Abrahamsen 2002: 341-343; Bermúdez 2010: 237-239; Clark 2014: 87-89; Harnish 2002: 359-362). Alcuni esempi di quanto detto:
- I neuroni veri sono molto più eterogenei dei nodi delle reti neurali solite, che sono sostanzialmente intercambiabili.
- I neuroni veri generano come output dei picchi discreti di potenziale di attivazione, laddove i nodi di molti modelli di reti neurali, incluse le reti neurali profonde, lavorano con output continui.
- L’algoritmo di retropropagazione dell’errore richiede che i pesi dei nodi possano variare tra lo stato eccitato e lo stato inibito, laddove le sinapsi reali non prevedono una simile funzione (Crick e Asanuma 1986). Inoltre, l’algoritmo assume che lo stato-obiettivo sia immesso dall’esterno dagli autori del modello, che conoscono già la risposta desiderata. L’apprendimento è supervisionato. Nei sistemi biologici reali non esiste in quasi nessun caso qualcosa come un processo di apprendimento supervisionato da agenti esterni.
Esistono tuttavia alcune reti neurali che sono più realistiche dal punto di vista biologico (Buckner and Garson 2019; Illing, Gerstner, eBrea 2019). Per esempio, alcuni modelli rimpiazzano l’algoritmo di retropropagazione con altri procedimenti, tra cui l’apprendimento con rinforzo (Pozzi, Bohté e Roelfsema 2019, altre risorse online) o l’apprendimento non-supervisionato (Krotov e Hopfield 2019). Ci sono anche delle reti neurali che generano come output picchi discreti di attività che sono analoghi al funzionamento dei neuroni nel cervello (Maass 1996; Buesing, Bill, Nessler e Maass 2011).
Anche quando una rete neurale non è biologicamente plausibile, può comunque essere più plausibile dei modelli classici. Le prime sembrano infatti certamente più vicine, sia nei dettagli tecnici che nella sostanza, alla descrizione neurofisiologica del nostro cervello, rispetto ai modelli di Turing. Molti scienziati cognitivi temono che la TCCM rifletta un tentativo maldestro di imporre al cervello l’architettura dei computer odierni. Alcuni dubitano che il cervello preveda qualcosa di simile alla computazione digitale, cioè la computazione su configurazioni discrete di cifre (Piccinini e Bahar 2013). Altri dubitano che il cervello permetta una separazione netta, come per le macchine di Turing, tra il processore centrale e la memoria di lettura/scrittura (Dayan 2009). Le reti neurali sono migliori da entrambi i punti di vista, in quanto non richiedono né questo tipo di computazione né una distinzione funzionale così marcata.
I computazionalisti classici solitamente rispondono che è prematuro trarre conclusioni definitive sulla teoria basate sulla mera plausibilità biologica, data la scarsa comprensione della relazione tra livelli neurali, computazionali e cognitivi nella descrizione della nostra vita mentale (Gallistel e King 2009; Marcus 2001). Utilizzando tecniche di misurazione come le registrazioni cellulari e la risonanza magnetica funzionale (RMF), e attingendo a discipline molto diverse come la fisica, la biologia, l’intelligenza artificiale, la teoria dell’informazione, la statistica, la teoria dei grafici e la teoria dei sistemi dinamici, i neuroscienziati hanno accumulato una conoscenza sostanziale sul cervello a vari livelli di granularità (Zednik 2019): ora sappiamo molto sui singoli neuroni, su come i neuroni interagiscono all’interno delle popolazioni neurali, sulla localizzazione dell’attività mentale nelle regioni corticali (ad esempio la corteccia visiva) e sulle interazioni tra le regioni corticali stesse. Eppure, c’è ancora molto da imparare su come il tessuto neurale svolga i propri compiti: la percezione, il ragionamento, il processo decisionale, l’acquisizione del linguaggio e così via. Dato il nostro attuale stato di relativa ignoranza, sarebbe avventato insistere sul fatto che il cervello non operi in modo per nulla simile alla computazione di Turing.
I connessionisti offrono numerosi altri argomenti in favore dell’utilizzo dei propri modelli al posto di, o in aggiunta di, versioni classiche. Si veda la pagina sul connessionismo per ulteriori dettagli. In questa pagina, saranno menzionati solamente altri due argomenti.
Il primo mette l’accento sulla nozione di apprendimento (Bechtel e Abrahamsen 2002: 51). Imparare dalla propria esperienza richiede l’utilizzo di una vasta gamma di fenomeni cognitivi. Molti modelli connessionisti sono esplicitamente progettati per analizzare questo tipo di operazione, sia attraverso la retropropagazione o altri algoritmi che incidono sulle interazioni ponderate tra i nodi della rete. Questo nasce dal fatto che tali autori spesso lamentano della scarsità di buoni modelli classici dell’apprendimento. I computazionalisti classici, dal canto loro, apportano le imperfezioni degli algoritmi testati dai loro avversari a questo scopo (per esempio, il bisogno di supervisione per la retropropagazione). Un punto fermo del computazionalismo classico è anche la teoria delle decisioni di Bayes, secondo cui l’apprendimento è un processo di aggiornamento probabilistico. I traguardi di questo modello matematico sono incarnati soprattutto dalla teoria cognitiva bayesiana, che parte proprio da tale struttura per spiegare la nostra vita mentale (Ma 2019). Questa impressiva sequenza di successi suggerisce che almeno alcuni processi mentali siano bayesiani o quasi-bayesiani (Rescorla 2020). Inoltre, i progressi menzionati in §2 mostrano come la computazione classica possa eseguire quasi perfettamente l’aggiornamento probabilistico di Bayes in una serie di scenari realistici. Queste conferme sperimentali lasciano sperare ai sostenitori della TCCM di poter fornire un modello per molti casi di apprendimento.
Il secondo argomento si sofferma sulla velocità di computazione. I neuroni sono molto più lenti dei componenti a base di silicio dei computer digitali. Per questo motivo, non sono in grado di eseguire calcoli seriali abbastanza rapidamente da spiegare le rapide prestazioni umane nella percezione, nella comprensione linguistica, nei processi decisionali, etc. I connessionisti sostengono che l’unica soluzione possibile sia sostituire la computazione seriale con un’architettura computazionale “massicciamente parallela” – esattamente ciò che le reti neurali forniscono (Feldman e Ballard 1982; Rumelhart 1989). Tuttavia, questo argomento è efficace solo contro i computazionalisti classici che insistono appunto sull’elaborazione seriale. Come osservato nel §3, alcuni modelli di Turing lavorano invece sull’elaborazione parallela. Molti computazionalisti classici sarebbero felici di ascrivere alla mente una struttura di computazione “massicciamente parallela”. Detto questo, rimane tuttavia una questione importante che qualsiasi computazionalista – sia esso classico, connessionista o altro – deve affrontare: come fa un cervello costruito da neuroni relativamente lenti ad eseguire calcoli sofisticati così rapidamente? Né i computazionalisti classici né quelli connessionisti finora (2020) hanno risposto a questa domanda in modo soddisfacente (Gallistel e King 2009: 174 e 265).
4.3 Sistematicità e produttività
Fodor e Pylyshyn (1988) propongono una celebre critica del connessionismo eliminativista, sostenendo che i modelli del connessionismo non spieghino sistematicità e produttività, a meno di integrare anche degli elementi classici. Se questo è vero, il connessionismo non è un’alternativa fruibile ella TCCM. Il suo ruolo potrebbe al massimo essere quello di comporre una descrizione a livello analitico di certi fenomeni, di raccordo tra i modelli di Turing e il dato delle neuroscienze.
Questo argomento ha originato profonde discussioni. Alcuni sostengono che le reti neurali possono esibire sistematicità senza l’ausilio di alcun elemento classico (Horgan and Tienson 1996; Chalmers 1990; Smolensky 1991; van Gelder 1990). Altri ritengono che Fodor e Pylyshyn diano troppo peso alla sistematicità in sé (Johnson 2004) o alla produttività in sé (Rumelhart e McClelland 1986), specialmente per quanto riguarda gli animali non-umani (Dennett 1991). Tutte queste questioni sono state largamente sondate dalla letteratura. Per saperne di più, si vedano Bechtel e Abrahamsen (2002: 156–199), Bermúdez (2005: 244–278), Chalmers (1993), Clark (2014: 84–86), e le pagine di questa enciclopedia sull’ipotesi del linguaggio del pensiero sul connessionismo.
Gallistel e King (2009) avanzano un argomento simile al precedente, ma incentrato sulla produttività. Sottolineano in particolare la produttività della computazione mentale, in contrapposizione alla produttività degli stati mentali. Attraverso dettagliati studi di casi empirici, arrivano a ritenere che molti animali non umani possano estrarre, immagazzinare o recuperare immagini dettagliate dell’ambiente circostante. Per esempio, un uccello come la ghiandaia occidentale sa memorizzare dove tiene il cibo, che tipo di cibo ha nascosto in ogni luogo, quando l’ha fatto e se un nascondiglio è stato distrutto (Clayton, Emery e Dickinson 2006). Può inoltre accedere a queste informazioni e sfruttarle per calcolare le sue prossime azioni: sa calcolare se un alimento conservato da qualche parte è probabilmente scaduto; il percorso da un luogo a un altro; e così via. Il numero di operazioni possibili che un simile uccello può eseguire è, a tutti gli effetti, praticamente infinito.
La TCCM spiega la produttività della computazione mentale ponendo al centro delle operazioni un processore centrale che assegnerebbe ai simboli una posizione nella propria memoria di lettura/scrittura. Al bisogno, possono essere recuperate combinazioni arbitrarie e imprevedibili dei suoi contenuti. Al contrario, secondo Gallistel e King, il connessionismo non sa spiegare altrettanto facilmente tale produttività naturale. Benché i due in realtà non facciano chiaramente la distinzione tra connessionismo eliminativista e implementazionista, possiamo riassumere la loro posizione come segue:
- Il connessionismo eliminativista non riesce a spiegare come gli organismi ricombinino i propri ricordi (per esempio, la posizione dei nascondigli) per calcolare le loro decisioni (per esempio, trovare il percorso da un nascondiglio ad un altro). Le combinazioni potenzialmente utili sono praticamente infinite, e non è possibile sapere a priori quale informazione servirà ai calcoli futuri. L’unica soluzione computazionalmente fattibile è l’assegnazione di simboli a posizioni in una memoria riscrivibile – soluzione che viene rifiutata dai sostenitori di questa prospettiva.
- Il connessionismo implementazionista può assumere la presenza di simboli in una memoria di lettura/scrittura, purché istanziata da una rete neurale. Tuttavia, i meccanismi proposti dai connessionisti solitamente sono poco plausibili se applicati alla descrizione della memoria. Sono grossomodo tutti variazioni su un’unica idea di base: una rete neurale ricorrente che prevede azioni riflesse tra i vari nodi inserite in loop (Elman 1990). Ci sono varie ragioni del perché questo modello a loop di reverbero non è plausibile per spiegare la memoria a lungo termine. Per esempio, i disturbi presenti nel sistema nervoso servono a far sì che tutti i segnali si degradino rapidamente in pochi minuti. Finora, i connessionisti implementazionisti non sembrano aver offerto modelli per una buona memoria di lettura/scrittura. [2]
Gallistel e King concludono che la TCCM è molto migliore del connessionismo di entrambe le tipologie per spiegare tutta una serie di fenomeni cognitivi.
I critici di questo argomento sulla produttività muovono diversi tipi di critiche, che partono però principalmente dai casi empirici portati da Gallistel e King stessi. Peter Dayan (2009), John Donahoe (2010) e Christopher Mole (2014) sostengono che delle reti neurali biologicamente plausibili possono sistematizzare almeno parte di queste casistiche. Dayan e Donahoe invece argomentano che reti neurali senza nulla che faccia da memoria riscrivibile possano essere perfettamente accurate dal punto di vista empirico. Mole afferma che certe reti neurali empiricamente provate possano implementare i meccanismi di memoria richiesti da Gallistel e King. Questi dibattiti così fondamentali hanno sicuramente un ampio futuro.
4.4 Neuroscienze computazionali
Le neuroscienze computazionali descrivono il sistema nervoso attraverso modelli computazionali. Sebbene questa disciplina parta da strutture matematiche a livello dei singoli neuroni, il vero focus rimane sul sistema di neuroni interconnessi. Solitamente, le neuroscienze computazionali utilizzano reti neurali. In questo senso possono essere considerate una variante o uno sviluppo del connessionismo; tuttavia, però, la maggior parte dei neuroscienziati non si considerano connessionisti. Esistono infatti numerose differenze tra i due orientamenti:
- Le reti neurali utilizzate dai neuroscienziati computazionali sono molto più biologicamente accurate rispetto a quelle dei connessionisti. La letteratura sul tema parla di range d’attivazione, potenziale d’attivazione, curve di armonizzazione, etc. Simili nozioni sono invece scarsamente contemplate nella ricerca in campo connessionista, o per lo meno in quella mappata dal lavoro di Rogers e McClelland (2014).
- Le neuroscienze computazionali si fondano in larga misura sulla conoscenza scientifica del cervello, e per questo dà molta importanza al dato neurofisiologico (per esempio le impronte delle cellule). I connessionisti si discostano da questo patrimonio di partenza: le loro ricerche prendono spunto soprattutto da dati comportamentali, anche se contributi più recenti si stanno avvicinando maggiormente al mondo della neurofisiologia.
- Le neuroscienze computazionali solitamente considerano i nodi individuali delle reti neurali come descrizioni idealizzate dei neuroni veri. I connessionisti invece li definiscono spesso come unità di elaborazione neuronali (Rogers and McClelland 2014), pur sorvolando sulle precise affinità con le analoghe entità neurofisiologiche.
Si potrebbe dire che le neuroscienze computazionali si occupano della computazione neurale (svolto cioè da sistemi di neuroni), mentre il connessionismo di modelli computazionali astratti ispirati all’attività del cervello. Tuttavia, il confine tra le due discipline è chiaramente labile. Per maggiori dettagli, si vedano Trappenberg (2010) o Miller (2018).
Il serio impegno filosofico con le neuroscienze risale almeno a Neurophilosophy (1986) di Patricia Churchland. Con lo sviluppo delle neuroscienze computazionali, Churchland divenne una dei suoi principali campioni filosofici (Churchland, Koch e Sejnowski 1990; Churchland e Sejnowski 1992). A lei si sono poi aggiunti Paul Churchland (1995, 2007) e altri (Eliasmith 2013; Eliasmith e Anderson 2003; Piccinini e Bahar 2013; Piccinini e Shagrir 2014). Tutti questi autori sostengono che le teorie computazionali dovrebbero iniziare con lo studio del cervello, non con macchine di Turing o altri strumenti inappropriati tratti dalla logica e dall’informatica. Sostengono anche che la modellazione delle reti neurali dovrebbe sforzarsi di ottenere un maggiore realismo biologico rispetto a quanto facciano i modelli connessionisti. Chris Eliasmith (2013) sviluppa questo punto di vista neuro-computazionale attraverso il suo Neural Engineering Framework, che integra le neuroscienze computazionali con strumenti tratti dalla teoria del controllo (Brogan 1990). Il suo obiettivo è quello di “decodificare” il cervello, costruendo reti neurali su larga scala e con accuratezza biologica per spiegare i fenomeni cognitivi.
Le neuroscienze computazionali si differenziano dalla TCCM e dal connessionismo per un aspetto cruciale: abbandonano l’idea di realizzabilità multipla. I neuroscienziati computazionali citano proprietà e processi neurofisiologici specifici, per cui i loro modelli non si applicano altrettanto bene a una creatura, per esempio, a base di silicio con connotati sufficiente diversi all’essere umano. Così facendo, le neuroscienze computazionali sacrificano una caratteristica fondamentale che ha attratto originariamente i filosofi verso il computazionalismo in generale. Un difensore coerente di questa prospettiva risponderebbe che questo sacrificio vale una maggiore comprensione delle basi neurofisiologiche dell’attività cerebrale. Ma molti computazionalisti temono che, concentrandosi troppo sui sostrati neurali, si rischi di perdere di vista la foresta cognitiva e focalizzarsi solamente sugli alberi neurali. Il dato neurofisiologico è sì importante, ma non c’è anche bisogno di un ulteriore livello astratto di descrizione computazionale che prescinda da tali dettagli? Gallistel e King (2009) sostengono che una fissazione miope su ciò che attualmente conosciamo del cervello ha portato le neuroscienze computazionali a concentrarsi su fenomeni cognitivi basilari e a corto raggio, come per esempio l’apprendimento delle dimensioni spaziali e temporali, la navigazione dell’ambiente, e così via. Allo stesso modo, Edelman (2014) lamenta come il Neural Engineering Framework sostituirebbe vere e proprie spiegazioni filosofiche con una bufera di nozioni neurofisiologiche.
In parte in risposta a tali preoccupazioni, alcuni ricercatori propongono delle neuroscienze computazionali cognitive integrate che connettano le teorie psicologiche con i meccanismi dell’attività neurale corrispondente (Naselaris et al. 2018; Kriegeskorte e Douglas 2018). L’idea di base è quella di utilizzare reti neurali per mostrare come i processi mentali siano istanziati nel cervello, offrendo così una descrizione cognitiva che rispetti sia la realizzabilità multipla che l’accuratezza in termini neurofisiologici. Un buon esempio di ciò è il recente lavoro sull’implementazione neurale dell’inferenza bayesiana (ad esempio, Pouget et al. 2013; Orhan e Ma 2017; Aitchison e Lengyel 2016). Tali ricercatori articolano modelli bayesiani (con realizzabilità multipla) di vari processi mentali; costruiscono reti neurali biologicamente plausibili che eseguono (quasi) perfettamente i calcoli bayesiani forniti; valutano quanto questi modelli di reti neurali si adattino bene al dato neurofisiologico.
Nonostante le differenze tra il connessionismo e le neuroscienze computazionali, questi due orientamenti si muovono su terreni molto simili. In particolare, entrambi si pongono parallelamente nel dibattito (di cui a §4.4) sulla sistematicità e produttività.]
5. Computazione e rappresentazione
I filosofi e gli scienziati cognitivi utilizzano il termine “rappresentazione” in modi diversi. In filosofia, l’uso dominante lo lega al tema dell’intenzionalità, cioè della direzionalità degli stati mentali. Solitamente, anzi, ci si riferisce all’intenzionalità proprio parlando di contenuto rappresentazionale. Uno stato mentale rappresentazionale ha un contenuto che rappresenta un determinato stato di cose, così che è possibile valutare se il mondo sia effettivamente così: lo stato diventa così giudicabile semanticamente secondo proprietà come verità, accuratezza, adeguatezza, etc.:
- Le credenze hanno la caratteristica di essere vere o false. La mia credenza che Emmanuel Macron è francese è vera se Emmanuel Macron è francese, falsa altrimenti.
- Le percezioni hanno la caratteristica di essere accurati o meno. La mia esperienza di una sfera rossa è accurata solamente se una sfera rossa è davanti a me.
- I desideri hanno la caratteristica di essere soddisfatti o frustrati. Il mio desiderio di mangiare cioccolata è soddisfatto se mangio cioccolato, frustrato altrimenti.
Le credenze hanno quindi condizioni di verità (a cui sono vere), le percezioni condizioni di accuratezza (a cui sono accurate), i desideri condizioni di soddisfacimento (a cui sono soddisfatti).
Nella vita di tutti i giorni, spieghiamo e prevediamo il comportamento di qualcuno facendo riferimento a credenze, desideri e altri stati mentali rappresentazionali. Li identifichiamo proprio attraverso le loro proprietà rappresentazionali. Quando diciamo “Frank crede che Emmanuel Macron sia francese”, specifichiamo a che condizioni la sua credenza è vera (che Emmanuel Macron sia francese). Quando diciamo “Frank vuole mangiare cioccolata”, specifichiamo a che condizioni il desiderio di Frank è soddisfatto (che Frank mangi cioccolata). Questo per dire che la lettura più intuitive del nostro comportamento assegna un ruolo centrale alle descrizioni intenzionali, cioè a descrizioni che identificano gli stati mentali tramite le loro proprietà rappresentazionali. Se questa metodologia abbia senso anche per la psicologia a livello scientifico è una questione dibattuta nella filosofia della mente contemporanea.
Il realismo intenzionale è realismo a proposito delle rappresentazioni. Al minimo, questa posizione afferma che le proprietà rappresentazionali sono aspetti reali della nostra vita mentale. Solitamente, si spinge anche però a prescrivere che la psicologia scientifica faccia uso delle descrizioni intenzionali dei fenomeni che analizza. Il realismo intenzionale è una posizione molto popolare, sostenuta da Tyler Burge (2010a), Jerry Fodor (1987), Christopher Peacocke (1992, 1994), e altri. Un argomento importante a favore di questa tesi deriva dalla pratica delle scienze cognitive. La ragione sarebbe che le descrizioni intenzionali sono centrali a molte aree delle scienze cognitive, tra cui la psicologia percettiva e la linguistica. Per esempio, la prima descrive come l’attività percettiva trasformi gli input sensoriali (stimoli della retina) in immagini della geometria dell’ambiente circostante (rappresentazioni spaziali di forme, dimensioni e colori): gli stati percettivi vengono identificati mediante proprietà rappresentazionali (relazioni rappresentazionali a particolari forme, dimensioni e colori). Dietro una prospettiva latamente realista sulla conoscenza scientifica, i successi della psicologia percettiva sarebbero una prova del realismo intenzionale.
L’eliminativismo è una forma forte di antirealismo sull’intenzionalità. Gli eliminativisti svalutano le descrizioni intenzionali in quanto vaghe, dipendenti dal contesto, soggettive, superficiali o comunque problematiche. Prescrivono dunque che la psicologia scientifica faccia a meno del contenuto rappresentazionale. Un precursore di questo orientamento è stato W. V. Quine con Word and Object (1960), che tenta di tradurre la psicologia intenzionale con un comportamentismo stimolo-risposta. Paul Churchland (1981), altro importante eliminativista, fa riferimento piuttosto alle neuroscienze.
Esistono varie posizioni intermedie tra il realismo intenzionale e l’eliminativismo. Daniel Dennett (1971, 1987) riconosce l’importanza predittiva dell’intenzionalità, ma dubita che gli stati mentali abbiano realmente proprietà rappresentazionali. Secondo lui, infatti, coloro che utilizzano descrizioni intenzionali non starebbero letteralmente affermando la presenza di tali proprietà; starebbero semplicemente adottando una “prospettiva intenzionale”. Donald Davidson (1980) sposa una simile posizione interpretivista. Mette l’accento sul ruolo centrale dell’intenzionalità nella vita pratica quotidiana di interpretare gli stati mentali e gli atti linguistici altrui; allo stesso tempo, tuttavia, si chiede se la visione psicologia che ne deriva possa avere lo status di una scienza vera e propria. Sia Davidson che Dennett sono realisti sugli stati mentali intenzionali. Nonostante ciò, entrambi sono spesso presentati come antirealisti (in particolare, Dennett viene spesso portato come esempio di strumentalismo sull’intenzionalità). Una ragione di questa lettura è l’indeterminatezza dell’interpretazione. Si immagini che l’osservazione del comportamento del soggetto permetta due interpretazioni incompatibili dei suoi stati mentali. Davidson e Dennett, seguendo Quine, direbbero entrambi che non esiste un fatto determinante quale interpretazione sia quella giusta. Per lo meno, questa risposta denoterebbe una posizione meno che realista sull’intenzionalità.
I dibattiti sull’intenzionalità emergono spesso sulla filosofia intorno al computazionalismo. Vediamo alcune questioni.
5.1 La formalità della computazione
I computazionalisti classici solitamente assumono ciò che potrebbe essere chiamata la concezione formo-sintattica della computazione (CFS). L’idea di fondo è che calcolare sia manipolare dei simboli mediante le loro proprietà formali anziché le loro proprietà semantiche.
La CFS deriva dalle scoperte della logica matematica del tardo Ottocento e del primo Novecento, ed in particolare dai contributi di George Boole e Gottlob Frege. Nei suoi Begriffsschrift (1879/1967), Frege ha presentato una completa formalizzazione della computazione decisionale. Per questo ha introdotto un linguaggio formale le cui espressioni linguistiche sono individuate in maniera non-semantica (per esempio, attraverso la loro forma geometrica). A prescindere dal fatto che il linguaggio possa essere stato creato con una particolare interpretazione come applicazione principale, i suoi elementi sono entità puramente sintattiche che possono essere trattate senza riferimento a proprietà semantiche come referenze o condizioni di verità. In particolare, si possono individuare regole di inferenza in termini formali e sintattici. Se fossero ben formate, queste dovrebbero servire l’interpretazione che abbiamo in mente, portandoci da premesse vere a conclusioni vere. Con la formalizzazione, Frege ha donato grande rigore alla logica. Ha così gettato le basi per numerosi sviluppi sia matematici che filosofici.
La formalizzazione gioca un ruolo fondamentale nell’informatica. È possibile programmare una macchina di Turing per manipolare espressioni linguistiche formali. Se il computer è programmato adeguatamente, le sue operazioni sintattiche corrisponderanno all’interpretazione semantica che abbiamo in mente. Per esempio, è possibile programmare un computer in modo che faccia seguire a premesse vere solamente conclusioni vere, oppure che aggiorni delle probabilità secondo la teoria delle decisioni di Bayes.
La CFS sostiene che ogni computazione tratti con entità formali e sintattiche, a prescindere da qualsiasi proprietà semantica. Le precise formulazioni di questa teoria possono variare. Si dice che la computazione sia “sensibile” rispetto alla sintassi ma non alla semantica, o che abbia “accesso” solo a proprietà sintattiche, o che operi “in virtù” di proprietà sintattiche ma non semantiche, o che sia influenzata da proprietà semantiche solo in quanto “mediate” da proprietà sintattiche. Non è sempre ben chiaro il significato di queste definizioni o se siano equivalenti tra di loro. Ma l’intuizione che sta dietro è che le proprietà sintattiche avrebbero una priorità causale/esplicativa sulle proprietà semantiche nello svolgimento di una computazione.
L’articolo di Fodor “Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology” (1980) è un antesignano di questa visione. L’autore combina la CFS con la TCCM+TRM. Traccia un’analogia tra il “mentalese” e i linguaggi formali studiati dai logici: entrambi contengono elementi semplici e complessi individuati in maniera non-semantica. I simboli del “mentalese” hanno un’interpretazione semantica, ma questa non influisce (direttamente) sulla computazione mentale. Le proprietà formali di un simbolo, e non le sue proprietà semantiche, determinano come la computazione in corso lo manipolerà. In questo senso la mente sarebbe un “dispositivo sintattico”. Praticamente tutti i computazionalisti classici imitano Fodor e sposano la CFS.
Spesso sono i connessionisti a negare che le reti neurali manipolino degli elementi strutturati sintatticamente. Per questa ragione, molti esiterebbero ad accettare la CFS. Nonostante ciò, la maggior parte dei connessionisti sostiene una tesi generale della formalità: la computazione prescinde da proprietà semantiche. Anche questa tesi solleva le stesse questioni filosofiche sollevate dalla CFS; qui ci concentreremo solamente su quest’ultima, che è stata trattata più ampiamente in filosofia.
Fodor combina TCCM+TRM+CFS con il realismo intenzionale. Sostiene che la TCCM+TRM+CFS sostenga la nostra visione intuitiva dei fenomeni psicologici, traducendo le descrizioni in termini intenzionali in una scienza vera e propria. L’autore ha offerto un argomento per abduzione molto conosciuto a favore di questa tesi (1987: 18-20). La nostra attività mentale traccia le proprietà semantiche in modo incredibilmente coerente. Per esempio, una deduzione porta a conclusioni vere se le premesse sono vere. Come spiegare questo aspetto cruciale dell’attività mentale? La formalizzazione mostra che le manipolazioni sintattiche hanno il potere di tracciare le proprietà semantiche, e l’informatica mostra invece come costruire macchine per eseguire manipolazioni sintattiche a piacimento. Se trattiamo la mente come uno di questi dispositivi sintattici, possiamo capire come mai l’attività della mente sia coerente rispetto alla semantica. Inoltre, tale spiegazione non postula meccanismi causali totalmente diversi da quelli già accettati dalle scienze fisiche. Da qui la domanda fondamentale: com’è meccanicamente possibile la razionalità?
Stephen Stich (1983) e Hartry Field (2001) combinano la TCCM+CFS con l’eliminativismo. Sostengono che i modelli delle scienze cognitive dovrebbero descrivere la mente in termini formo-sintattici e facendo completamente a meno dell’intenzionalità. Accettano che gli stati mentali abbiano proprietà rappresentazionali, ma mettono in dubbio il loro ruolo nelle spiegazioni della psicologia scientifica. Perché incorporare una descrizione intenzionale in una trattazione formo-sintattica? Se la mente è un dispositivo sintattico, non è inutile fare riferimento al suo contenuto rappresentazionale?
A un certo punto della sua carriera, Putnam (1983: 139-154) ha combinato la TCCM+CFS con un interpretazionismo alla Davidson. Le scienze cognitive dovrebbero procedere secondo le linee suggerite da Stich e Field, delineando modelli computazionali sintattici puramente formali; questi coesisterebbero con la pratica interpretativa ordinaria, in cui si attribuiscono contenuti intenzionali agli stati mentali e agli atti linguistici. Quest’ultima è governata da principi olistici ed euristici, che tuttavia le impediscono di convertire la descrizione intenzionale in scienza rigorosa. Per Putnam, come per Field e Stich, la trattazione scientifica insomma avviene a livello sintattico formale piuttosto che a livello intenzionale.
La TCM+CFS viene attaccata da varie direzioni. Una critica riguarda la rilevanza causale del contenuto rappresentazionale (Block 1990; Figdor 2009; Kazez 1995). Intuitivamente parlando, i contenuti degli stati mentali sono causalmente rilevanti per l’attività e il comportamento mentale. Per esempio, il mio desiderio di bere acqua anziché succo d’arancia mi porta verso il lavandino piuttosto che verso il frigorifero. Il contenuto del mio desiderio (che io beva acqua) sembra giocare un ruolo causale importante nel plasmare il mio comportamento. Secondo Fodor (1990: 137-159), la TCCM+TRM+CFS accoglie tuttavia tali intuizioni. L’attività sintattica formale implementa l’attività mentale intenzionale, assicurando che gli stati mentali intenzionali interagiscano causalmente in accordo con il loro contenuto. Tuttavia, non è così chiaro come questa analisi assicuri la rilevanza causale dei contenuti in sé. La CFS afferma che la computazione mentale è “sensibile” alla sintassi ma non alla semantica. A seconda di come si legge il termine chiave “sensibile”, può sembrare che il contenuto rappresentazionale non abbia rilevanza causale, che sarebbe tutta assorbita dal comparto sintattico. Si consideri quest’analogia: quando un’auto va per la strada, l’ombra dell’auto segue dei motivi fissi; tuttavia, la posizione dell’ombra in un istante non la influenza in un secondo istante. Allo stesso modo, la TCCM+TRM+CFS spiegherebbe come l’attività mentale rispetti modelli stabili descritti in termini intenzionali, pur senza facendo riferimento causale al loro contenuto. Se la mente è davvero un dispositivo sintattico, allora il potere esplicativo va cercato a livello sintattico anziché semantico, il quale semplicemente ne “segue la traiettoria”. Apparentemente, quindi, la TCM+CFS incoraggia la conclusione che le proprietà rappresentazionali siano causalmente inerti. Questa tesi è compatibile con l’eliminativismo, ma solitamente non col realismo intenzionale.
Una seconda critica afferma che la trattazione formo-sintattica sarebbe speculazione antiscientifica. Tyler Burge (2010a, b, 2013: 479-480) sostiene che la descrizione sintattica dell’attività mentale non giocherebbe alcun ruolo rilevante nella maggior parte delle scienze cognitive, incluso lo studio del ragionamento teorico, del ragionamento pratico e della percezione. In ogni caso, secondo Burge, la scienza stessa utilizza una descrizione intenzionale anziché una descrizione formo-sintattica. Per esempio, la psicologia della percezione individua gli stati percettivi non tramite proprietà formali o sintattiche ma attraverso relazioni rappresentazionali con forme, dimensioni, colori nello spazio. Per comprendere a pieno questa obiezione è necessario distinguere tra descrizione formo-sintattica e descrizione neurofisiologica. Chiunque sarebbe d’accordo che la psicologia scientifica debba assegnare un’importanza fondamentale al dato neurofisiologico. Tuttavia, questo piano si distingue da quello sintattico in quanto il secondo si suppone abbia realizzabilità multipla sul primo. Il punto è quindi se la psicologia scientifica debba utilizzare descrizioni formo-sintattiche non-intenzionali con realizzabilità multipla in aggiunta ad una descrizione intenzionale e neurofisiologica.
5.2 Esternismo del contenuto mentale
L’importantissimo articolo “The Meaning of ‘Meaning’” (1975: 215–271) di Putnam contiene l’esperimento mentale di Terra Gemella, in cui si chiede di immaginare un mondo in tutto e per tutto identico al nostro salvo per il fatto che l’H2O è sostituita da una sostanza XYZ ad essa qualitativamente simile, tranne che per la sua composizione chimica. Secondo Putnam, XYZ non è acqua, ma gli abitanti della Terra Gemella utilizzano la parola “acqua” per riferirsi a XYZ anziché alla ‘nostra’ acqua. Burge (1982) estende questa conclusione non solo alla referenza linguistica, ma anche al contenuto mentale. Burge sostiene infatti che gli abitanti della Terra Gemella possiedano stati mentali con contenuti differenti dai nostri. Per esempio, se Oscar sulla Terra pensa che l’acqua sia dissetante, il suo corrispettivo sulla Terra Gemella avrà un pensiero con un contenuto diverso, che l’acqua è dissetante. Burge conclude che il contenuto mentale non sopravviene sulla neurofisiologia, ma è individuato in parte da fattori esterni ai confini del soggetto, incluse le reazioni causali con l’ambiente. Questa posizione si dice esternismo sul contenuto mentale.
Tale prospettiva solleva importanti domande sull’utilità esplicativa che dovrebbe avere il contenuto rappresentazionale per la psicologia scientifica:
Argomento della causalità (Fodor 1987, 1991): come può il contenuto mentale avere un qualsiasi ruolo causale se non mediato dalla neurofisiologia del soggetto? Non esiste “azione psicologica a distanza”. Le differenze per quanto riguarda l’ambiente fisico impattano il comportamento del soggetto unicamente inducendo delle differenze in termini di stati cerebrali. Quindi, gli unici fattori causalmente rilevanti sono quelli che sopravvengono sulla neurofisiologia. Il contenuto individuate esternamente non ha rilevanza causale.
Argomento della spiegazione (Stich 1983): una trattazione scientifica rigorosa non dovrebbe contemplare fattori esterni al soggetto. Una lettura intuitiva dei fenomeni psicologici potrebbe classificare diversi stati mentali in base al legame con l’ambiente circostante, ma la psicologia scientifica dovrebbe limitarsi integralmente a fattori che sopravvengono sulla neurofisiologia. Dovrebbe trattare Oscar e Oscar Gemello come cloni psicologici.[3]
Alcuni accolgono entrambi gli argomenti combinati. Entrambi puntano alla medesima conclusione: gli stati mentali individuati esternamente non hanno alcun legittimo ruolo causale per la psicologia scientifica. Stich (1983) così motiva il suo eliminativismo formo-sintattico.
Molti rispondono a queste obiezioni con l’internismo del contenuto. Laddove gli esternisti accettano un contenuto ampio (che non sopravviene sulla neurofisiologia del soggetto), essi invocano un contenuto stretto (sopravveniente). Tale sarebbe ciò che rimane del contenuto mentale pulito da qualsiasi fattore esterno. Ad un certo punto della sua carriera, Fodor (1981, 1987) ha sostenuto l’internalismo come una strategia fattibile per integrare la psicologia intenzionale con la TCCM+TRM+CFS. Ammettendo che il contenuto esteso della mente non dovrebbe rientrare nella psicologia scientifica, secondo lui il contenuto stretto dovrebbe giocare un ruolo causale centrale.
Gli internisti radicali affermano che tutto il contenuto è stretto. Una tipica analisi di questo genere sosterrebbe che Oscar non starebbe pensando all’acqua, ma a una categoria di sostanze più generale che sussumerebbe XYZ, così che sia lui che il suo gemello avrebbero stati mentali dallo stesso contenuto. Tim Crane (1991) e Gabriel Segal (2000) condividono questa lettura. Affermano che la lettura intuitiva dei fenomeni psicologici individuerebbero sempre le attitudini proposizionali strettamente. Un internismo meno radicale consiglia di riconoscere l’esistenza sia di un contenuto stretto che di un contenuto ampio. La psicologia ingenua individuerebbe talvolta le attitudini proposizionali dunque in maniera estesa, ma rimarrebbe possibile definire una nozione di contenuto stretto che tornerebbe utile per scopi filosofici e scientifici importanti. Diversi internisti hanno proposto diversi concetti di contenuto stretto (Block 1986; Chalmers 2002; Cummins 1989; Fodor 1987; Lewis 1994; Loar 1988; Mendola 2008). Si veda la pagina contenuto mentale ristretto per una panoramica sulle opzioni più promettenti.
Gli esternisti lamentano che le teorie sul contenuto stretto sarebbero abbozzate, implausibili, inutili alla trattazione psicologica, o comunque discutibili (Burge 2007; Sawyer 2000; Stalnaker 1999). Inoltre, si pongono in opposizione agli argomenti internisti secondo cui la psicologia scientifica necessiterebbe di un contenuto ristretto:
Argomento della causalità: gli esternisti insistono che il contenuto esteso può avere rilevanza causale. La formulazione precisa di questa tesi varia, e spesso si intreccia con questioni complesse circa la causalità, i controfattuali e la metafisica della mente. Si veda la pagina causalità mentale per un’introduzione, e Burge (2007), Rescorla (2014a) e Yablo (1997, 2003) come teorie esterniste.
Argomento della spiegazione: gli esternisti affermano che la trattazione psicologica potrebbe legittimamente classificare gli stati mentali mediante fattori che non riguardano la neurofisiologia del soggetto (Peacocke 1993; Shea, 2018). Burge osserva che spesso le scienze all’infuori della psicologia definiscono i propri concetti in modo relazionale, rispetto a fattori esterni. Per esempio, se un oggetto conta come un cuore dipende (grossomodo) dal fatto che la sua funzione biologica nel suo ambiente normale sia quella di pompare il sangue. La fisiologia, dunque, individua gli organi in modo relazionale. Perché non potrebbe fare altrettanto la psicologia con gli stati mentali? Per una nutrita discussione su questi temi, si vedano Burge (1986, 1989, 1995) e Fodor (1987, 1991).
Gli esternisti dubitano che ci siano buone ragioni per rimpiazzare o dover integrare il contenuto esteso con il contenuto stretto. Ritengono insomma che questa ricerca non caverebbe un ragno dal buco.
Burge (2007, 2010a) difende questa visione analizzando le attuali scienze cognitive. Sostiene che molti rami della psicologia scientifica (in particolare la psicologia percettiva) individuerebbero il contenuto mentale attraverso relazioni causali con l’ambiente esterno. Conclude che la pratica scientifica incarna una prospettiva esternista. Al contrario, sostiene, il contenuto ristretto è una fantasia filosofica priva di fondamento nella scienza attuale.
Supponiamo di abbandonare la ricerca del contenuto stretto. Quali sono le prospettive per combinare la TCM+CFS con la psicologia intenzionale esternista? L’opzione più promettente enfatizza i vari livelli di spiegazione. Possiamo dire che la psicologia intenzionale occupa un livello di spiegazione, mentre la psicologia computazionale formo-sintattica occupa un altro livello di spiegazione. Fodor sostiene questo approccio nelle sue opere più recenti (1994, 2008). Arriva infatti a rifiutare il contenuto stretto come vizioso. Suggerisce che i meccanismi sintattici formali attuino nient’altro che leggi psicologiche esternaste: la computazione mentale manipola le espressioni in Mentalese in accordo con le loro proprietà sintattiche formali, e queste manipolazioni sintattiche formali assicurano che l’attività mentale rispetti certi pattern regolari che vengono definiti attraverso contenuti ampi.
Alla luce della distinzione tra internismo ed esternismo, rivediamo ora la sfida eliminativista sollevata nel §5.1: quale valore esplicativo aggiunge la descrizione intenzionale alla descrizione formale-sintattica? Gli internisti possono rispondere che adeguate manipolazioni sintattiche formali determinano e forse anche costituiscono dei contenuti stretti, così che la descrizione intenzionale internista sarebbe già implicita in una descrizione sintattica formale adeguata (cfr. Campo 2001: 75). Forse questa risposta implica il realismo intenzionale, forse no. Fondamentalmente, però, nessuna risposta di questo tipo è accettabile da parte degli esternisti del contenuto. La descrizione intenzionale esternista non è certamente implicita nella descrizione sintattica formale, perché si può tenere fissa la sintassi formale mentre variando l’estensione del contenuto. Pertanto, gli esternisti del contenuto che sposano la TCM+CFS hanno l’onere di spiegare perché integrare le descrizioni formo-sintattiche con delle descrizioni intenzionali. Una volta accettato che la computazione mentale è sensibile alla sintassi ma non alla semantica, è tutt’altro che chiaro quale sia la rilevanza esplicativa per il contenuto esteso. Fodor affronta questa questione in vari punti, offrendo il suo trattamento più sistematico in The Elm and the Expert (1994). Si vedano Arjo (1996), Aydede (1998), Aydede e Robbins (2001), Wakefield (2002); Perry (1998) e Wakefield (2002) per le critiche. Si vedano Rupert (2008) e Schneider (2005) per le posizioni vicine a quelle di Fodor. Dretske (1993) e Shea (2018: 197-226) perseguono strategie alternative per rivendicare la rilevanza del contenuto esteso.
5.3 Computazione contenutistica
Il divario percepito tra descrizione computazionale e descrizione intenzionale anima molti dibattiti intorno alla TCM. Alcuni filosofi cercano di colmarlo utilizzando descrizioni computazionali che individuano gli stati computazionali in termini rappresentazionali. Queste trattazioni sono di carattere contenutistico (content-involving), per usare la terminologia di Christopher Peacocke (1994). Per questo tipo di approccio, non c’è una rigida demarcazione tra descrizione computazionale e descrizione intenzionale. In particolare, alcune descrizioni scientificamente valide dell’attività mentale sono sia computazionali che intenzionali. Chiamiamo questa posizione computazionalismo contenutistico.
I computazionalisti contenutistici non devono necessariamente dire che tutte le descrizioni computazionali sono intenzionali. Per capire meglio, supponiamo di descrivere una semplice macchina di Turing che manipola simboli definiti dalle loro forme geometriche. La descrizione computazionale che ne risulta non è plausibilmente contenutistica; di conseguenza, i computazionalisti contenutistici di solito non avanzano la teoria del contenuto mentale come teoria computazionale generale. Sostengono solo che alcune importanti descrizioni computazionali siano contenutistiche.
Si può sviluppare un computazionalismo contenutistico in una direzione internista o esternista. I primi sostengono che alcune descrizioni computazionali identificano gli stati mentali in parte attraverso i loro contenuti stretti. Murat Aydede (2005) raccomanda una posizione simile. I secondi affermano che alcune descrizioni computazionali identificano gli stati mentali in parte attraverso i loro contenuti estesi. Tyler Burge (2010a: 95-101), Christopher Peacocke (1994, 1999), Michael Rescorla (2012) e Mark Sprevak (2010) sposano questa posizione. Oron Shagrir (2001, di prossima pubblicazione) sostiene un computazionalismo contenutistico neutrale tra internismo ed esternismo.
I computazionalisti contenutistici esternisti citano solitamente la pratica delle scienze cognitive come fattore motivante. Per esempio, la psicologia percettiva descrive il sistema percettivo come la computazione di una stima delle dimensioni di un oggetto a partire da stimolazioni della retina e da aspettative sulla profondità dell’oggetto stesso. Queste “stime” percettive sono identificate rappresentazionalmente, immaginando specifiche dimensioni e profondità nello spazio. Abbastanza plausibilmente, queste relazioni rappresentazionali non sopravvengono sulla neurofisiologia del soggetto. Abbastanza plausibilmente, quindi, la psicologia percettiva descrive i calcoli percettivi in termini di contenuto esteso. Perciò una visione contenutistica esternista sembrerebbe armonizzarsi bene con lo stato attuale delle scienze cognitive.
Una delle sfide maggiori davanti al computazionalismo contenutistico riguarda il confronto con le formalizzazioni del computazionalismo standard, come le macchine di Turing. Come si relazionano le descrizioni contenutistiche ai modelli della logica e dell’informatica? Solitamente i filosofi assumono che non offrano infatti descrizioni intenzionali. Se questo è vero, le difficoltà per il computazionalismo contenutistico sono pesanti e forse insuperabili.
Nonostante tutto, però, molte formalizzazioni classiche del computazionalismo sono compatibili con strutture contenutistiche anziché puramente formo-sintattiche. Si consideri ancora una macchina di Turing: si possono individuare i “simboli” dell’alfabeto della macchina in maniera non-semantica, attraverso caratteristiche come la forma geometrica. Ma è necessario che il formalismo di Turing preveda uno schema non-semantico di individuazione dei simboli? In parte, magari, possiamo definirli anche in base ai loro contenuti. Ovviamente, una macchina di Turing non cita esplicitamente proprietà semantiche (per esempio, referenza o condizioni di verità). Tuttavia, è possibile programmarvi meccanicamente delle regole per descrivere come manipolare i simboli benché identificati per genere in termini contenutistici. Così facendo, la tavola della macchina prescrive delle transizioni tra stati muniti di contenuto senza menzionare esplicitamente delle proprietà semantiche. Aydede (2005) propone una versione internista di questa tesi, identificando i tipi di simboli secondo i loro contenuti stretti. [4]
Rescorla (2017a) ne sviluppa una lettura esternista, attraverso i contenuti estesi; ritiene che alcuni modelli di Turing descriverebbero operazioni di computazione attraverso simboli mentali individuati esternisticamente. [5]
Di principio, si potrebbero sostenere allo stesso tempo una visione computazionalista contenutistica ed esternista e una visione formo-sintattica. Potrebbero essere viste come prospettive a diversi livelli di spiegazione. Peacocke supporta qualcosa di analogo. Altri computazionalisti contenutistici sono più scettici nei confronti delle letture sintattiche della mente. Per esempio, Burge dubita del potere esplicativo della sintassi formale per certe aree della psicologia scientifica (tra cui la psicologia della percezione). Da questo punto di vista, l’obiezione eliminativista di cui al §5.1 si ripresenta all’inverso. Non dovremmo assumere che le descrizioni formo-sintattiche abbiano un ruolo nelle nostre spiegazioni e poi chiederci cos’altro possono offrirci delle descrizioni intenzionali: dovremmo piuttosto accettare le descrizioni intenzionali esterniste presenti nelle scienze cognitive moderne e poi chiederci qual è il valore ulteriore di una descrizione formo-sintattica.
I sostenitori delle descrizioni sintattiche formali rispondono tirando in questione i meccanismi di implementazione. Una lettura esternista dell’attività mentale presuppone relazioni causali e temporali tra la mente e l’ambiente fisico circostante. Vogliamo però sicuramente puntare a una spiegazione “locale” che ignori relazioni esterne, al fine di rivelare i meccanismi causali insiti nella mente. Fodor (1987, 1994) motiva così il suo supporto alla visione sintattica formale. Per possibili risposte esterniste a questo argomento, si vedano Burge (2010b), Rescorla (2017b), Shea (2013) e Sprevak (2010). Il dibattito su questa questione, e più in generale sulla relazione tra la computazione e le rappresentazioni mentali, sembrano destinate ancora a durare per molto.
6. Teorie alternative al computazionalismo
La letteratura offre molte teorie alternative, solitamente proposte a fondamento della TCM. In molti casi, queste visioni si sovrappongono tra loro o con contributi nominati in precedenza.
6.1 Elaborazione delle informazioni
Spesso gli scienziati cognitive parlano della computazione mentale come di “elaborazione di informazioni”. È meno comune che specifichino cosa intendono per “informazioni” o per “elaborazione”. Senza essere più precisi di così, non rimane niente più che uno slogan.
Claude Shannon ha introdotto un’importante nozione di “informazione” a finalità scientifiche nel suo articolo del 1948 “A Mathematical Theory of Communication”. L’idea di fondo è che l’informazione è una misura della riduzione dell’incertezza, che si manifesta nell’alterazione della probabilità di diversi possibili stati futuri. Shannon ha impostato il suo sistema in modo rigorosamente matematico, fondando così la teoria dell’informazione (Cover and Thomas 2006). Questa disciplina, tra l’altro, è centrale per l’ingegneria moderna. Trova però anche numerose applicazioni nelle scienze cognitive, in particolare nelle neuroscienze cognitive. Questa visione rinforza la visione della computazione mentale come “elaborazione di informazioni”? Si immagini una macchina a nastro vecchio stampo per registrare messaggi radio: nel sistema di Shannon, è possibile misurare la quantità di informazioni che è stata comunicata. In un certo senso, la macchina “elabora” questa informazione ogni volta che riascoltiamo il messaggio registrato. Eppure, non sembra che il dispositivo possa rappresentare un modello computazionale non-triviale. [6]
Di certo, né il formalismo della macchina di Turing né una rete neurale possono analizzare con successo le operazioni di questa macchina. Se questo è vero, un sistema può elaborare informazioni di Shannon senza svolgere calcoli.
Considerando esempi simili, si può essere tentati di dare una definizione più forte di “elaborazione”, così che la macchina a nastro non “elabori” informazioni. Oppure, si può affermare che stia in realtà non-trivialmente eseguendo dei calcoli. Piccinini e Scarantino (2010) propongono una teoria astratta sulla computazione – che chiamano computazione generica (generic computation) – che finisce per sostenere quest’ultima strategia.
Una seconda nozione di informazione si trova nella teoria di Paul Grice (1989) sul significato naturale. Questo concetto richiede correlazioni solide e supportate controfattualmente. Per esempio, gli anelli del legno corrispondono all’età dell’albero, i puntini rossi alla varicella. Nella vita quotidiana, affermiamo che gli anelli del legno diano informazioni sull’età dell’albero, o i puntini rossi sulla presenza della varicella, e così via. Queste descrizioni suggeriscono in effetti una visione che legherebbe anche l’informazione a correlazioni solide e supportate controfattualmente. Fred Dretske (1981) sviluppa questa intuizione in una teoria sistematica, seguito a sua volta da vari filosofi. Questa visione dretskiana dell’informazione fornisce una plausibile analisi di computazione mentale come “elaborazione di informazioni”? Si immagini un termostato a doppia lamina metallica vecchio stampo, con due strati di diversi metalli che vengono uniti ad un’unica lamina. La loro diversa espansione fa piegare la lamina, attivando o disattivando così il riscaldamento. Lo stato della lamina corrisponde stabilmente alla temperatura dell’ambiente circostante, e così il termostato “elaborerebbe” tali informazioni gestendo di conseguenza l’impianto. Ancora, il termostato non sembra incarnare alcun modello computazionale non-triviale, e normalmente non si direbbe che stia eseguendo dei calcoli. Se questo è vero, un sistema può elaborare informazioni di Dretske senza svolgere calcoli. Ovviamente, è possibile criticare questo esempio in maniera analoga a quanto fatto nel paragrafo precedente.
Una terza nozione di informazione è l’informazione semantica, cioè il contenuto rappresentazionale. [7]
Alcuni filosofi ritengono che un sistema fisico possa eseguire calcoli se e solo se possiede proprietà rappresentazionali (Dietrich 1989; Fodor 1998: 10; Ladyman 2009; Shagrir 2006; Sprevak 2010). In questo senso, l’elaborazione delle informazioni è necessaria per la computazione. Nelle parole di Fodor: “no computation without representation” (1975: 34). Questa posizione è disputata, in ogni caso. Chalmers (2011) e Piccinini (2008a) sostengono che una macchina di Turing farebbe calcoli anche se i simboli che manipola non avessero alcuna interpretazione semantica: queste operazioni sono puramente sintattiche per loro natura e non possiedono alcuna proprietà semantica. Se questo è vero, dunque, il contenuto rappresentazionale non è condizione necessaria affinché un sistema fisico conti come computazionale.
Non è chiaro se lo slogan “la computazione mentale è elaborazione di informazioni” abbia futuro. Nonostante tutto, è ancora molto considerato dalla letteratura. Per approfondire le possibili connessioni tra il computazionalismo e l’informazione, si vedano Gallistel e King (2009: 1–26), Lizier, Flecker e Williams (2013), Milkowski (2013), Piccinini e Scarantino (2010) e Sprevak (di prossima pubblicazione).
6.2 Analisi funzionale
In un passaggio molto citato dello psicologo della percezione David Marr (1982), si distinguono tre livelli di descrizione di un “dispositivo di elaborazione di informazioni”:
Teoria computazionale: “il dispositivo mappa un tipo di informazione su un altro tipo, definendo in modo preciso le proprietà astratte dell’operazione e dimostrandone l’accuratezza e l’adeguatezza.” (p. 24).
Rappresentazione ed algoritmo: “la scelta della rappresentazione per l’input e l’output e l’algoritmo per passare dall’uno all’altro.” (pp. 24–25).
Integrazione nell’hardware: “i dettagli su come l’algoritmo e la rappresentazione sono realizzati fisicamente.” (p. 25).
I tre livelli di Marr hanno portato a intense indagini filosofiche. Ai fini di questa pagina, il punto focale è che il primo qui presentato descrive la mappatura da input ad output senza gli step intermedi. Marr illustra questo suo approccio portando letture “a livello computazionale” di vari processi percettivi, come per esempio il riconoscimento dei contorni.
La teoria di Marr suggerisce una concezione funzionale della computazione, secondo cui questa sarebbe una trasformazione da input ad output adeguati. Frances Egan elabora questa visione in una serie di articoli (1991, 1992, 1999, 2003, 2010, 2014, 2019). Allo stesso modo, ella parla di descrizione computazionale in termini di relazione input-output. Arriva anche ad affermare che i modelli computazionali incarnano funzioni puramente matematiche, cioè di mappatura tra input matematici ad output matematici. Illustra questa tesi attraverso l’esempio di un meccanismo visuale (chiamato “Visua”) che elabora la profondità dell’oggetto tramite la disparità negli stimoli alla retina; chiede poi di immaginare un doppione neurofisiologico di tale meccanismo (“Visua’”), posto nel proprio ambiente fisico in una maniera tale che non rappresenti la profondità spaziale. Nonostante tutto, secondo Egan, l’ottica tratterebbe Visua e Visua’ anche come doppioni computazionali. Infatti, entrambi eseguono la stessa funzione matematica, sebbene i loro calcoli abbiano conseguenze rappresentazionali differenti. La conclusione è che la computazione mentale implicherebbe una “descrizione matematica astratta” compatibile con diverse possibili descrizioni rappresentazionali. L’attribuzione dell’intenzionalità è unicamente una glossa euristica alla struttura computazionale di fondo.
Chalmers (2012) afferma che la concezione funzionale tralascia aspetti importanti della computazione. Secondo lui, i modelli computazionali descriverebbero di più che solamente delle relazioni input-output: descriverebbero gli step intermedi che supportano la trasformazione. Questi, che Marr stipa a livello “algoritmico”, in effetti compaiono in maniera prominente nei modelli computazionali di logici e informatici. Restringere il termine “computazione” al rapporto tra input e output non rende giustizia alla pratica standard del computazionalismo.
Un’ulteriore obiezione alle teorie funzionaliste come quella di Egan è che mettono unicamente l’accento su input e output matematici. I loro critici lamentano che la filosofa darebbe troppa importanza a funzioni matematiche a scapito delle spiegazioni intenzionali che sono da sempre offerte dalle scienze cognitive (Burge 2005; Rescorla 2015; Silverberg 2006; Sprevak 2010). Si supponga che la psicologia della percezione descriva un sistema percettivo che vede la profondità di un oggetto di 5 metri. Questa stima ha un contenuto rappresentazionale: è accurata se e solo se la profondità dell’oggetto è di 5 metri. Il numero 5 ha il compito di definire questa stima spaziale. Tuttavia, la nostra scelta di questo valore dipende dalla nostra scelta arbitraria di una certa unità di misura. Secondo i critici, è il contenuto della stima della profondità e non il numero arbitrario con cui viene specificato che risulta importante nella spiegazione psicologica del fenomeno. Il ruolo centrale, nella teoria di Egan, è rivestito dalla misura anziché da ciò che ci sta dietro; ovvero, la spiegazione computazionale dovrebbe trattare il sistema visivo come un dispositivo che calcola una particolare funzione matematica che trasforma particolari input matematici in particolari output matematici. Questi input e output matematici particolari dipendono dalla nostra scelta arbitraria dell’unità di misura, quindi c’è ragione di pensare che non abbiano il potere esplicativo che Egan attribuirebbe loro.
Bisognerebbe fare poi una distinzione tra l’approccio funzionale, come quello di Marr ed Egan, e il paradigma funzionale nella programmazione in informatica. Quest’ultimo modella l’analisi di una funzione complessa in una serie di analisi successive di funzioni più semplici. Per fare un breve esempio, f(x,y)=(x2+y)f(x,y)=(x2+y) può essere analizzata partendo prima dalla funzione quadratica e poi dalla funzione di addizione. La programmazione funzionale è qualcosa di diverso dal “livello computazionale” di spiegazione proposto da Marr, perché tratta degli stadi intermedi della computazione. Questo paradigma si rifà al lambda-computazione di Alonzo Church (1936), in continuità con linguaggi di programmazione come PCF e LISP. Gioca un ruolo importante nell’IA e nell’informatica teorica. Alcuni autori suggeriscono che questa strada sia una via privilegiata all’analisi della computazione mentale (Klein 2012; Piantadosi, Tenenbaum e Goodman 2012). In ogni caso, molte formalizzazioni computazionali non sottostanno a questo paradigma funzionale: le macchine di Turing, i linguaggi di programmazione a comandi (come C), i linguaggi di programmazione logici (Prolog), etc. Sebbene questo approccio descriva numerose importanti operazioni di computazione (magari anche la computazione mentale), non è una buona teoria della computazione in generale.
6.3 Strutturalismo
Molte proposte in filosofia utilizzano una nozione strutturalista di computazione: un modello computazionale descrive una struttura causale astratta a prescindere dai sistemi fisici particolari che possono istanziarla. Questa concezione è datata almeno quanto l’intervento originale di Putnam (1967) sull’argomento. Chalmers (1995, 1996a, 2011, 2012) la estende nel dettaglio. È lui a introdurre la formalizzazione dell’automa a stati combinatori (ASC), che include molti modelli computazionali classici (tra cui le macchine di Turing e le reti neurali). Un ASC consiste in una descrizione astratta della topologia causale di un sistema fisico: la serie di interazioni causali tra le parti del sistema stesso, indipendentemente dalla loro natura particolare o anche dai meccanismi causali attraverso cui interagiscono. Una trattazione computazionale definirebbe così una topologia causale.
Chalmers utilizza lo strutturalismo per delineare una versione molto generale di TCM. Assume la visione funzionalista che gli stati psicologici siano individuati dal loro ruolo in una serie causale. La descrizione psicologica di un fenomeno specifica dei ruoli causali, astratti dagli stati fisici che li realizzano. In altre parole, le proprietà psicologiche sono organizzativamente invarianti, sopravvenendo sulla topologia causale del sistema. Nella misura in cui una descrizione computazionale definisce una topologia causale, mostrare determinate caratteristiche computazionali basta a istanziare determinate proprietà mentali. Perciò, la trattazione psicologica è una specie di trattazione computazionale, in maniera tale che una teoria computazionale dovrebbe essere centrale alla disciplina della psicologia. In questo modo uno computazionalismo strutturalista fornirebbe una fondazione solida alle scienze cognitive. La nostra vita mentale è fondata su serie causali, che sono catturate precisamente da modelli computazionali.
Lo strutturalismo implica una teoria molto elegante sulla relazione di implementazione di un modello computazionale astratto in un sistema fisico. A che condizioni si può dire il secondo realizzi il primo? Secondo gli strutturalisti, è necessario che la struttura causale del modello sia “isomorfica” alla sua struttura formale. Un modello computazionale descrive un sistema fisico articolando una formalizzazione di una particolare topologia causale. Chalmers lavora su questa intuizione, fornendo condizioni necessarie e sufficienti molto dettagliate per realizzare un ASC nel mondo fisico. Sono poche (se ci sono) le teorie computazionali che riescono a dare una buona spiegazione di come funzioni la relazione di implementazione.
Confrontiamo ora il computazionalismo strutturale con altre prospettive analizzate in precedenza:
Funzionalismo meccanico. Il computazionalismo strutturale accetta l’idea di fondo del funzionalismo meccanico: gli stati mentali sono stati funzionali descrivibili attraverso una formalizzazione computazionale. Putnam propone la TCM come ipotesi empirica e difende il suo funzionalismo su questa base. Al contrario, Chalmers segue David Lewis (1972) nel fondare il suo funzionalismo nell’analisi concettuale della mente. Insomma, il primo difende il funzionalismo partendo dal computazionalismo, il secondo difende il computazionalismo partendo dal funzionalismo.
Computazionalismo classico, connessionismo e neuroscienze computazionali. Il computazionalismo strutturalista focalizza l’attenzione sulla descrizione di strutture organizzativamente invarianti, che possiedono realizzabilità multipla. Da questo punto di vista si distacca dalle neuroscienze cognitive. Invece, lo strutturalismo è compatibile sia col computazionalismo classico che con quello connessionista, pur separandosene nell’atteggiamento. Infatti, questi ultimi presentano le loro teorie come ipotesi sostanziali sulla natura della mente. Chalmers propone il computazionalismo strutturalista come una posizione piuttosto minimalista, tale da essere difficile da confutare.
Realismo intenzionale ed eliminativismo. Il computazionalismo strutturalista è compatibile con entrambe le posizioni. L’ASC non menziona esplicitamente proprietà semantiche come referenza, condizioni di verità, contenuto rappresentazionale, etc. I computazionalisti strutturalisti non hanno bisogno di assegnare alcun ruolo importante sotto il profilo della psicologia scientifica al contenuto rappresentazionale. D’altra parte, il computazionalismo strutturalista non si preclude nemmeno questa possibilità.
Concezione formo-sintattica della computazione. Il contenuto esteso dipende dalle relazioni causali e temporali con l’ambiente esterno, che sfuggono quindi alla topologia causale. Per tanto, il computazionalismo strutturalista è neutro sul contenuto esteso di un fenomeno. Presumibilmente, il contenuto stretto sopravviene sulla topologia causale, sebbene la descrizione di un ASC non lo menzioni esplicitamente. Dunque, il computazionalismo strutturalista dà priorità a un livello di spiegazione formale, non-semantico. Da questo punto di vista è vicino alla CFS. D’altra parte, però, non è necessario che i primi dicano, come fa la seconda prospettiva, che la computazione è “insensibile” alle proprietà semantiche.
Nonostante il computazionalismo strutturalista sia distinto dalla TCM+CFS, solleva alcune obiezioni analoghe. Per esempio, Rescorla (2012) nega che la topologia causale giochi un ruolo esplicativo centrale nelle scienze cognitive come sosterrebbe questa posizione. Suggerisce invece che la priorità è della descrizione intenzionale esternista, anziché delle strutture organizzativamente invarianti. Parallelamente, i neuroscienziati computazionali raccomanderebbero dal canto loro di abbandonare queste strutture per concentrarsi su modelli computazionali più fedeli alla realtà dei neuroni. Rispondendo a queste questioni, Chalmers (2012) afferma che la descrizione computazionale organizzativamente invariante ha dei vantaggi dal punto di vista esplicativo che nessuna delle due alternative offrirebbe: rivela i meccanismi insiti nella cognizione (a differenza della descrizione intenzionale) e astrae dalla realizzazione dei fenomeni psicologici a livello neurale.
6.4 Teorie meccanicistiche
La natura meccanicistica della computazione è un tema che torna spesso in logica, filosofica, e nelle scienze cognitive. Gualtiero Piccinini (2007, 2012, 2015) e Marcin Milkowski (2013) sviluppano questo argomento in una teoria meccanicistica dei sistemi computazionali. Un meccanismo funzionale è un sistema di component interconnesse in cui ciascuna di esse gioca una funzione specifica all’interno del sistema. Una spiegazione meccanicistica scompone il sistema nelle sue parti e descrive come queste siano organizzate nel tutto, isolando la funzione che caratterizza ciascuna componente. Un sistema computazionale è un tipo di meccanismo funzionale. Secondo Piccinini, in particolare, un sistema computazionale è un meccanismo funzionale organizzato per processare dei messaggi secondo certe regole. In modo simile a quanto Putnam dice sulla realizzabilità multipla, queste regole sarebbero indipendenti dal mezzo di attuazione, astraendo cioè dalle specifiche fisiche dei veicoli della rappresentazione. La descrizione computazionale scompone il sistema in parti e descrive come ciascuna contribuisce a processarne i veicoli. Se il sistema processa dei veicoli strutturati in modo discreto, allora la computazione è digitale; viceversa, è analogica. La versione di Milkowski dell’approccio meccanicistico è simile. La differenza con Piccinini è che è più vicino alla nozione di “elaborazione delle informazioni”, in modo che i meccanismi computazionali opererebbero su stati che trasportano informazione. Entrambi utilizzano questo loro approccio in sostegno del loro computazionalismo.
I computazionalisti meccanicistici solitamente individuano gli stati computazionali in maniera non-semantica. Quindi sono suscettibili alle questioni sul ruolo del contenuto rappresentazionale, come per la CFS e lo strutturalismo. Così facendo, Shagrir (2014) lamenta come questa visione non troverebbe spazio nelle scienze cognitive le cui spiegazioni sono allo stesso tempo computazionali e rappresentazionali. Quanto queste obiezioni attecchiscano dipende dalla propria posizione sul ruolo del contenuto nel computazionalismo.
6.5 Pluralismo
Abbiamo trattato molte teorie computazionali alle volte sovrapponibili o incompatibili tra loro: computazionalismo classico, computazionalismo connessionista, neuroscienze computazionali, computazionalismo formo-sintattico, computazionalismo del contenuto, computazionalismo informazionale, computazionalismo funzionale, computazionalismo strutturalista e computazionalismo meccanicistico. Ciascuna parla in modo diverso della computazione e ha i propri pro e contro. È possibile altresì adottare un punto di vista pluralista che accetti diverse concezioni distinte. I pluralisti, anziché elevare una teoria sopra le altre, utilizzano tranquillamente la prospettiva che sembra più adattabile al contesto della spiegazione. Edelman (2008) assume un approccio pluralistico, così come ultimamente anche Chalmers (2012).
L’approccio pluralista fa sorgere alcune questioni. È possibile un’analisi generica che abbracci tutti (o quasi) i tipi ci computazione? Tutti i tipi di computazione hanno delle caratteristiche comuni? O sono forse accomunati da un’aria di famiglia? Approfondire il computazionalismo significa anche cercare una risposta a queste domande.
7. Argomenti contro il computazionalismo
La TCM ha suscitato numerose obiezioni. In molti casi, queste si applicano solo a versioni specifiche della TCM (come il computazionalismo classico o il computazionalismo connessionista). Qui sono riportate alcune obiezioni importanti. Si veda anche la voce sull’argomento della stanza cinese per un’obiezione contro il computazionalismo classico avanzata da John Searle (1980) e ampiamente discussa.
7.1 Argomenti della banalità
Una preoccupazione ricorrente è che la TCM sia banale, perché possiamo descrivere quasi tutti i sistemi fisici attraverso l’esecuzione di calcoli. Searle (1990) afferma che un muro implementa qualsiasi programma per computer, dal momento che possiamo discernere alcuni schemi di movimenti molecolari nel muro che sono isomorfi alla struttura formale del programma. Putnam (1988: 121–125) difende una forma di argomento della banalità meno estrema, ma comunque molto forte e sulla stessa linea. Gli argomenti della banalità giocano un ruolo importante nella letteratura filosofica. Gli anti-computazionalisti utilizzano gli argomenti della banalità contro il computazionalismo, mentre i computazionalisti cercano di evitarli.
I computazionalisti di solito rigettano gli argomenti della banalità insistendo sul fatto che tali argomenti trascurano i vincoli sull’implementazione computazionale, i quali impediscono che le implementazioni vengano banalizzate. I vincoli possono essere controfattuali, causali, semantici o di altro tipo, a seconda della teoria della computazione che adottiamo. Ad esempio, David Chalmers (1995, 1996a) e B. Jack Copeland (1996) sostengono che l’argomento della banalità di Putnam ignora i condizionali controfattuali che un sistema fisico deve soddisfare per implementare un modello computazionale. Altri filosofi affermano che un sistema fisico deve avere proprietà rappresentazionali per implementare un modello computazionale (Fodor 1998: 11-12; Ladyman 2009; Sprevak 2010) o almeno per implementare un modello computazionale contenutistico (Rescorla 2013, 2014b). I dettagli qui variano considerevolmente e i computazionalisti discutono tra loro su quali tipi di computazione possono evitare esattamente gli argomenti della banalità. Ma la maggior parte dei computazionalisti concorda sul fatto che possiamo evitare qualsiasi devastante banalità attraverso una teoria sufficientemente solida della relazione di implementazione tra modelli computazionali e sistemi fisici.
Il pan-computazionalismo sostiene che ogni sistema fisico implementa un modello computazionale. Questa tesi è plausibile, poiché qualsiasi sistema fisico implementa verosimilmente un modello computazionale sufficientemente banale (ad esempio, un automa finito a stati singoli). Come nota Chalmers (2011), il pan-computazionalismo non sembra preoccupare il computazionalismo. Ciò che sarebbe più preoccupante è la versione più forte della tesi molto più forte secondo cui quasi tutti i sistemi fisici implementano quasi tutti i modelli computazionali.
Per ulteriori discussioni sugli argomenti della banalità e sull’implementazione computazionale, si veda Sprevak (2019) e la voce sulla computazione nei sistemi fisici.
7.2Il teorema di incompletezza di Gödel
Secondo alcuni autori, i teoremi di incompletezza di Gödel mostrano che le capacità matematiche umane superano le capacità di qualsiasi macchina di Turing (Nagel e Newman 1958). J.R. Lucas (1961) sviluppa questa posizione in una famosa critica della TCMC. Roger Penrose persegue la critica in The Emperor’s New Mind (1989) e negli scritti successivi. Vari filosofi e logici hanno risposto a questa critica, sostenendo che le formulazioni attuali soffrono di fallacie, supposizioni che fanno petizioni di principio e persino errori matematici (Bowie 1982; Chalmers 1996b; Feferman 1996; Lewis 1969, 1979; Putnam 1975: 365-366, 1994; Shapiro 2003). C’è un ampio consenso sul fatto che questa critica alla TCMC sia priva di forza. Può risultare che alcune capacità mentali umane superino la computabilità di Turing, ma i teoremi di incompletezza di Gödel non forniscono alcun motivo per cantare vittoria.
7.3 Limiti del modello computazionale
Un computer può comporre la sinfonia dell’Eroica? O scoprire la relatività generale? O addirittura replicare la naturale capacità di un bambino di percepire l’ambiente, allacciarsi le scarpe e discernere le emozioni degli altri? Può sembrare che l’intuito, la creatività e le capacità umane resistano alla formalizzazione da parte di un programma per computer (Dreyfus 1972, 1992). Più in generale, ci si potrebbe preoccupare che aspetti cruciali della cognizione umana sfuggano al modello computazionale, in particolare quello classico.
Ironicamente, Fodor propone una versione energica di questa critica. Già nel contesto delle sue prime riflessioni sulla TCMC, Fodor (1975: 197–205) espresse un notevole scetticismo sul fatto che essa possa rendere conto di tutti i fenomeni cognitivi importanti. Il pessimismo diventa più pronunciato nei suoi scritti successivi (1983, 2000), che si concentrano soprattutto sul ragionamento abduttivo come esempio di un fenomeno mentale che potenzialmente sfugge al modello computazionale. Il suo argomento principale può essere riassunto come segue:
(1) La computazione alla Turing è sensibile solo alle proprietà “locali” di una rappresentazione mentale, che sono esaurite dall’identità e dalla disposizione dei componenti della rappresentazione.
(2) Molti processi mentali, paradigmaticamente l’abduzione, sono sensibili a proprietà “non locali” come la rilevanza, la semplicità e la conservazione.
(3) Dunque, potremmo aver bisogno di abbandonare il modello alla Turing dei processi rilevanti.
(4) Sfortunatamente, al momento non abbiamo idea di quale teoria alternativa possa sostituirla in maniera appropriata.
Alcuni critici negano (1), sostenendo che adeguati calcoli alla Turing possono essere sensibili a proprietà “non locali” (Schneider 2011; Wilson 2005). Qualcuno sfida (2), sostenendo che le inferenze abduttive tipiche sono sensibili solo alle proprietà “locali” (Carruthers 2003; Ludwig e Schneider 2008; Sperber 2002). Alcuni ammettono (3) ma contestano (4), insistendo sul fatto che abbiamo modelli promettenti non alla Turing dei processi mentali rilevanti (Pinker 2005). Spinto in parte da tali critiche, Fodor elabora la sua argomentazione in modo molto dettagliato. Per difendere (2), critica le teorie che modellano l’abduzione utilizzando algoritmi euristici “locali” (2005: 41-46; 2008: 115-126) o ipotizzando una profusione di moduli cognitivi specifici del dominio (2005: 56-100). Per difendere (4), critica varie teorie che definiscono l’abduzione attraverso modelli non in stile Turing (2000: 46-53; 2008), come le reti connessioniste.
La portata e i limiti del modello computazionale rimangono controversi. Possiamo aspettarci che questo argomento rimanga al centro dell’attenzione dell’indagine, che verrà portata avanti assieme all’IA.
7.4 Gli argomenti temporali
L’attività mentale si svolge nel tempo. Inoltre, la mente compie compiti sofisticati (ad esempio la stima percettiva) molto rapidamente. Molti critici temono che il computazionalismo, in particolare il computazionalismo classico, non si adatti adeguatamente agli aspetti temporali della cognizione. Un modello alla Turing non fa menzione esplicita della scala temporale lungo la quale avviene la computazione. Si potrebbe implementare fisicamente la stessa macchina di Turing astratta con un dispositivo a base di silicio, o un dispositivo a valvole termoioniche più lento, o un dispositivo a leve e pulegge ancora più lento. I critici suggeriscono di rifiutare la TCMC a favore di un quadro alternativo che incorpori più direttamente le considerazioni di carattere temporale. van Gelder e Port (1995) usano questo argomento per promuovere un framework di sistemi dinamici non computazionale per modellare l’attività mentale. Eliasmith (2003, 2013: 12-13) lo utilizza per supportare il suo Neural Engineering Framework.
I computazionalisti rispondono che possiamo integrare un modello computazionale astratto con le considerazioni temporali (Piccinini 2010; Weiskopf 2004). Ad esempio, un modello di macchina di Turing presuppone discrete “fasi di computazione”, senza descrivere come le fasi si relazionano al tempo fisico. Ma possiamo integrare il nostro modello descrivendo la durata di ogni fase, convertendo così il nostro modello (una macchina di Turing non temporale) in una teoria che fornisca previsioni temporali dettagliate. Molti sostenitori della TCM integrano la teoria in questo modo per studiare le proprietà temporali della cognizione (Newell 1990). Un’integrazione simile figura in modo prominente nell’informatica, i cui professionisti sono piuttosto interessati a costruire macchine con proprietà temporali appropriate. I computazionalisti ne concludono che una versione adeguatamente integrata della TCM potrebbe catturare adeguatamente il modo in cui la cognizione si sviluppa nel tempo.
Una seconda obiezione temporale evidenzia il contrasto tra evoluzione temporale discreta e continua (van Gelder e Port 1995). La computazione da parte di una macchina di Turing si svolge in fasi discrete, mentre l’attività mentale si svolge in un tempo continuo. Pertanto, vi è una fondamentale discrepanza tra le proprietà temporali della computazione in stile Turing e quelle dell’attività mentale effettiva. Abbiamo bisogno di una teoria psicologica che descriva l’evoluzione temporale continua.
I computazionalisti rispondono che questa obiezione presuppone ciò che deve essere mostrato: che l’attività cognitiva non rientra in fasi esplicative significative discrete (Weiskopf 2004). Supponendo che il tempo fisico sia continuo, segue che l’attività mentale si svolge in un tempo continuo. Non segue che i modelli cognitivi debbano avere una struttura temporale continua. Un personal computer opera in un tempo continuo e il suo stato fisico evolve continuamente. Una teoria fisi id=”link75″ca completa rifletterà tutti quei cambiamenti fisici. Ma il nostro modello computazionale non riflette ogni cambiamento fisico del computer. Il nostro modello computazionale ha una struttura temporale discreta. Perché dovremmo assumere che un buon modello della mente a livello cognitivo debba riflettere ogni cambiamento fisico nel cervello? Anche se esistesse un continuum di stati fisici in evoluzione, perché dovremmo assumere un continuum di stati cognitivi in evoluzione? Il semplice fatto di avere un’evoluzione temporale continua non attacca i modelli computazionali con una struttura temporale discreta.
7.5 La cognizione incorporata
La cognizione incorporata è un programma di ricerca che trae ispirazione dal filosofo continentale Maurice Merleau-Ponty, lo psicologo percettivo J.J. Gibson, e varie ulteriori influenze. È un movimento abbastanza eterogeneo, ma l’idea di base è enfatizzare i legami tra cognizione, azione corporea e ambiente circostante. Si veda Varela, Thompson e Rosch (1991) per un’influente prima teorizzazione. In molti casi, i suoi sostenitori utilizzano gli strumenti della teoria dei sistemi dinamici. I suoi fautori presentano tipicamente il loro approccio come un’alternativa radicale al computazionalismo (Chemero 2009; Kelso 1995; Thelen e Smith 1994). La TCM, lamentano, tratta l’attività mentale come una manipolazione di simboli statici staccata dall’ambiente di incorporamento. Essa trascura una miriade di modi complessi in cui l’ambiente modella in modo causale o costitutivo l’attività mentale. Dovremmo sostituire la TCM con un nuovo quadro teorico che enfatizzi i collegamenti continui tra mente, corpo e ambiente. La dinamica agente-ambiente, non la computazione mentale interna, è la chiave per comprendere la cognizione. Spesso, un atteggiamento ampiamente eliminativista nei confronti dell’intenzionalità muove questa critica.
I computazionalisti rispondono che la TCM riconosce il reale valore della cognizione incorporata. I modelli computazionali possono tenere conto del modo in cui mente, corpo e ambiente interagiscono continuamente tra di loro. Dopo tutto, i modelli computazionali possono incorporare input sensoriali e output motori. Non c’è un’ovvia ragione per cui un focus sulle dinamiche agente-ambiente precluderebbe una doppia enfasi sulla computazione mentale interna (Clark 2014: 140-165; Rupert 2009). I computazionalisti sostengono che TCM possa incorporare qualsiasi intuizione legittima offerta dalla teoria della cognizione incorporata. Essi insistono anche sul fatto che TCM rimane il nostro miglior quadro teorico per spiegare numerosi fenomeni psicologici fondamentali.
Bibliografia
- Aitchison, L. and Lengyel, M., 2016, “The Hamiltonian Brain: Efficient Probabilistic Inference with Excitatory-Inhibitory Neural Circuit Dynamics”, PloS Computational Biology, 12: e1005186.
- Arjo, D., 1996, “Sticking Up for Oedipus: Fodor on Intentional Generalizations and Broad Content”, Mind and Language, 11: 231–245.
- Aydede, M., 1998, “Fodor on Concepts and Frege Puzzles”, Pacific Philosophical Quarterly, 79: 289–294.
- –––, 2005, “Computationalism and Functionalism: Syntactic Theory of Mind Revisited”, in Turkish Studies in the History and Philosophy of Science, G. Irzik and G. Güzeldere (eds), Dordrecht: Springer.
- Aydede, M. and P. Robbins, 2001, “Are Frege Cases Exceptions to Intentional Generalizations?”, Canadian Journal of Philosophy, 31: 1–22.
- Bechtel, W. and A. Abrahamsen, 2002, Connectionism and the Mind, Malden: Blackwell.
- Bermúdez, J.L., 2005, Philosophy of Psychology: A Contemporary Introduction, New York: Routledge.
- –––, 2010, Cognitive Science: An Introduction to the Science of the Mind, Cambridge: Cambridge University Press.
- Block, N., 1978, “Troubles with Functionalism”, Minnesota Studies in the Philosophy of Science, 9: 261–325.
- –––, 1981, “Psychologism and Behaviorism”, Philosophical Review, 90: 5–43.
- –––, 1983, “Mental Pictures and Cognitive Science”, Philosophical Review, 92: 499–539.
- –––, 1986, “Advertisement for a Semantics for Psychology”, Midwest Studies in Philosophy, 10: 615–678.
- –––, 1990, “Can the Mind Change the World?”, in Meaning and Method: Essays in Honor of Hilary Putnam, G. Boolos (ed.), Cambridge: Cambridge University Press.
- –––, 1995, The Mind as the Software of the Brain, in Invitation to Cognitive Science, vol. 3: Thinking, E. Smith and B. Osherson (eds), Cambridge, MA: MIT Press.
- Block, N. and J. Fodor, 1972, “What Psychological States Are Not”, The Philosophical Review, 81: 159–181.
- Boden, M., 1991, “Horses of a Different Color?”, in Ramsey et al. 1991: 3–19.
- Bontly, T., 1998, “Individualism and the Nature of Syntactic States”, The British Journal for the Philosophy of Science, 49: 557–574.
- Bowie, G.L., 1982, “Lucas’s Number is Finally Up”, Journal of Philosophical Logic, 11: 79–285.
- Brogan, W., 1990, Modern Control Theory, 3rd edition. Englewood Cliffs: Prentice Hall.
- Buckner, C., 2019, “Deep Learning: A Philosophical Introduction”, Philosophy Compass, 14: e12625.
- Buckner, C., and J. Garson, 2019, “Connectionism and Post-Connectionist Models”, in Sprevak and Colombo 2019: 175–191.
- Buesing, L., J. Bill, B. Nessler, and W. Maass, W., 2011, “Neural Dynamics of Sampling: A Model for Stochastic Computation in Recurring Networks of Spiking Neurons”, PLOS Computational Biology, 7: e1002211.
- Burge, T., 1982, “Other Bodies”, in Thought and Object, A. Woodfield (ed.), Oxford: Oxford University Press. Reprinted in Burge 2007: 82–99.
- –––, 1986, “Individualism and Psychology”, The Philosophical Review, 95: 3–45. Reprinted in Burge 2007: 221–253.
- –––, 1989, “Individuation and Causation in Psychology”, Pacific Philosophical Quarterly, 70: 303–322. Reprinted in Burge 2007: 316–333.
- –––, 1995, “Intentional Properties and Causation”, in Philosophy of Psychology, C. MacDonald and G. MacDonald (eds), Oxford: Blackwell. Reprinted in Burge 2007: 334–343.
- –––, 2005, “Disjunctivism and Perceptual Psychology”, Philosophical Topics, 33: 1–78.
- –––, 2007, Foundations of Mind, Oxford: Oxford University Press.
- –––, 2010a, Origins of Objectivity, Oxford: Oxford University Press.
- –––, 2010b, “Origins of Perception”, Disputatio, 4: 1–38.
- –––, 2010c, “Steps Towards Origins of Propositional Thought”, Disputatio, 4: 39–67.
- –––, 2013, Cognition through Understanding, Oxford: Oxford University Press.
- Camp, E., 2009, “A Language of Baboon Thought?”, in The Philosophy of Animal Minds, R. Lurz (ed.), Cambridge: Cambridge University Press.
- Carruthers, P., 2003, “On Fodor’s Problem”, Mind and Language, 18: 508–523.
- Chalmers, D., 1990, “Syntactic Transformations on Distributed Representations”, Connection Science, 2: 53–62.
- –––, 1993, “Why Fodor and Pylyshyn Were Wrong: The Simplest Refutation”, Philosophical Psychology, 63: 305–319.
- –––, 1995, “On Implementing a Computation”, Minds and Machines, 4: 391–402.
- –––, 1996a, “Does a Rock Implement Every Finite State Automaton?”, Synthese, 108: 309–333.
- –––, 1996b, “Minds, Machines, and Mathematics”, Psyche, 2: 11–20.
- –––, 2002, “The Components of Content”, in Philosophy of Mind: Classical and Contemporary Readings, D. Chalmers (ed.), Oxford: Oxford University Press.
- –––, 2011, “A Computational Foundation for the Study of Cognition”, The Journal of Cognitive Science, 12: 323–357.
- –––, 2012, “The Varieties of Computation: A Reply”, The Journal of Cognitive Science, 13: 213–248.
- Chemero, A., 2009, Radical Embodied Cognitive Science, Cambridge, MA: MIT Press.
- Cheney, D. and R. Seyfarth, 2007, Baboon Metaphysics: The Evolution of a Social Mind, Chicago: University of Chicago Press.
- Chomsky, N., 1965, Aspects of the Theory of Syntax, Cambridge, MA: MIT Press.
- Church, A., 1936, “An Unsolvable Problem of Elementary Number Theory”, American Journal of Mathematics, 58: 345–363.
- Churchland, P.M., 1981, “Eliminative Materialism and the Propositional Attitudes”, Journal of Philosophy, 78: 67–90.
- –––, 1989, A Neurocomputational Perspective: The Nature of Mind and the Structure of Science, Cambridge, MA: MIT Press.
- –––, 1995, The Engine of Reason, the Seat of the Soul, Cambridge, MA: MIT Press.
- –––, 2007, Neurophilosophy At Work, Cambridge: Cambridge University Press.
- Churchland, P.S., 1986, Neurophilosophy, Cambridge, MA: MIT Press.
- Churchland, P.S., C. Koch, and T. Sejnowski, 1990, “What Is Computational Neuroscience?”, in Computational Neuroscience, E. Schwartz (ed.), Cambridge, MA: MIT Press.
- Churchland, P.S. and T. Sejnowski, 1992, The Computational Brain, Cambridge, MA: MIT Press.
- Clark, A., 2014, Mindware: An Introduction to the Philosophy of Cognitive Science, Oxford: Oxford University Press.
- Clayton, N., N. Emery, and A. Dickinson, 2006, “The Rationality of Animal Memory: Complex Caching Strategies of Western Scrub Jays”, in Rational Animals? Nudds and S. Hurley (eds), Oxford: Oxford University Press.
- Copeland, J., 1996, “What is Computation?”, Synthese, 108: 335–359.
- Cover, T. and J. Thomas, 2006, Elements of Information Theory, Hoboken: Wiley.
- Crane, T., 1991, “All the Difference in the World”, Philosophical Quarterly, 41: 1–25.
- Crick, F. and C. Asanuma, 1986, “Certain Aspects of the Anatomy and Physiology of the Cerebral Cortex”, in McClelland et al. 1987: 333–371.
- Cummins, R., 1989, Meaning and Mental Representation, Cambridge, MA: MIT Press.
- Davidson, D., 1980, Essays on Actions and Events, Oxford: Clarendon Press.
- Dayan, P., 2009, “A Neurocomputational Jeremiad”, Nature Neuroscience, 12: 1207.
- Dennett, D., 1971, “Intentional Systems”, Journal of Philosophy, 68: 87–106.
- –––, 1987, The Intentional Stance, Cambridge, MA: MIT Press.
- –––, 1991, “Mother Nature versus the Walking Encyclopedia”, in Ramsey, et al. 1991: 21–30.
- Dietrich, E., 1989, “Semantics and the Computational Paradigm in Cognitive Psychology”, Synthese, 79: 119–141.
- Donahoe, J., 2010, “Man as Machine: A Review of Memory and Computational Brain, by C.R. Gallistel and A.P. King”, Behavior and Philosophy, 38: 83–101.
- Dreyfus, H., 1972, What Computers Can’t Do, Cambridge, MA: MIT Press.
- –––, 1992, What Computers Still Can’t Do, Cambridge, MA: MIT Press.
- Dretske, F., 1981, Knowledge and the Flow of Information, Oxford: Blackwell.
- –––, 1993, “Mental Events as Structuring Causes of Behavior”, in Mental Causation, J. Heil and A. Mele (eds), Oxford: Clarendon Press.
- Edelman, S., 2008, Computing the Mind, Oxford: Oxford University Press.
- –––, 2014, “How to Write a ‘How a Build a Brain’ Book”, Trends in Cognitive Science, 18: 118–119.
- Egan, F., 1991, “Must Psychology be Individualistic?”, Philosophical Review, 100: 179–203.
- –––, 1992, “Individualism, Computation, and Perceptual Content”, Mind, 101: 443–459.
- –––, 1999, “In Defense of Narrow Mindedness”, Mind and Language, 14: 177–194.
- –––, 2003, “Naturalistic Inquiry: Where Does Mental Representation Fit In?”, in Chomsky and His Critics, L. Antony and N. Hornstein (eds), Malden: Blackwell.
- –––, 2010, “A Modest Role for Content”, Studies in History and Philosophy of Science, 41: 253–259.
- –––, 2014, “How to Think About Mental Content”, Philosophical Studies, 170: 115–135.
- –––, 2019, “The Nature and Function of Content in Computational Models”, in Sprevak and Colombo 2019: 247–258.
- Eliasmith, C., 2003, “Moving Beyond Metaphors: Understanding the Mind for What It Is”, Journal of Philosophy, 100: 493–520.
- –––, 2013, How to Build a Brain, Oxford: Oxford: University Press.
- Eliasmith, C. and C.H. Anderson, 2003, Neural Engineering: Computation, Representation and Dynamics in Neurobiological Systems, Cambridge, MA: MIT Press.
- Elman, J., 1990, “Finding Structure in Time”, Cognitive Science, 14: 179–211.
- Feferman, S., 1996, “Penrose’s Gödelian Argument”, Psyche, 2: 21–32.
- Feldman, J. and D. Ballard, 1982, “Connectionist Models and their Properties”, Cognitive Science, 6: 205–254.
- Field, H., 2001, Truth and the Absence of Fact, Oxford: Clarendon Press.
- Figdor, C., 2009, “Semantic Externalism and the Mechanics of Thought”, Minds and Machines, 19: 1–24.
- Fodor, J., 1975, The Language of Thought, New York: Thomas Y. Crowell.
- –––, 1980, “Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology”, Behavioral and Brain Science, 3: 63–73. Reprinted in Fodor 1981: 225–253.
- –––, 1981, Representations, Cambridge: MIT Press.
- –––, 1983, The Modularity of Mind, Cambridge, MA: MIT Press.
- –––, 1987, Psychosemantics, Cambridge: MIT Press.
- –––, 1990, A Theory of Content and Other Essays, Cambridge, MA: MIT Press.
- –––, 1991, “A Modal Argument for Narrow Content”, Journal of Philosophy, 88: 5–26.
- –––, 1994, The Elm and the Expert, Cambridge, MA: MIT Press.
- –––, 1998, Concepts, Oxford: Clarendon Press.
- –––, 2000, The Mind Doesn’t Work That Way, Cambridge, MA: MIT Press.
- –––, 2005, “Reply to Steven Pinker ‘So How Does the Mind Work?’”, Mind and Language, 20: 25–32.
- –––, 2008, LOT2, Oxford: Clarendon Press.
- Fodor, J. and Z. Pylyshyn, 1988, “Connectionism and Cognitive Architecture: A Critical Analysis”, Cognition, 28: 3–71.
- Frege, G., 1879/1967, Begriffsschrift, eine der Arithmetischen Nachgebildete Formelsprache des Reinen Denkens. Reprinted as Concept Script, a Formal Language of Pure Thought Modeled upon that of Arithmetic, in From Frege to Gödel: A Source Book in Mathematical Logic, 1879–1931, J. van Heijenoort (ed.), S. Bauer-Mengelberg (trans.), Cambridge: Harvard University Press.
- Gallistel, C.R., 1990, The Organization of Learning, Cambridge, MA: MIT Press.
- Gallistel, C.R. and King, A., 2009, Memory and the Computational Brain, Malden: Wiley-Blackwell.
- Gandy, R., 1980, “Church’s Thesis and Principles for Mechanism”, in The Kleene Symposium, J. Barwise, H. Keisler, and K. Kunen (eds). Amsterdam: North Holland.
- Gödel, K., 1936/65. “On Formally Undecidable Propositions of Principia Mathematica and Related Systems”, Reprinted with a new Postscript in The Undecidable, M. Davis (ed.), New York: Raven Press Books.
- Grice, P., 1989, Studies in the Ways of Words, Cambridge: Harvard University Press.
- Hadley, R., 2000, “Cognition and the Computational Power of Connectionist Networks”, Connection Science, 12: 95–110.
- Harnish, R., 2002, Minds, Brains, Computers, Malden: Blackwell.
- Haykin, S., 2008, Neural Networks: A Comprehensive Foundation, New York: Prentice Hall.
- Haugeland, J., 1985, Artificial Intelligence: The Very Idea, Cambridge, MA: MIT Press.
- Horgan, T. and J. Tienson, 1996, Connectionism and the Philosophy of Psychology, Cambridge, MA: MIT Press.
- Horowitz, A., 2007, “Computation, External Factors, and Cognitive Explanations”, Philosophical Psychology, 20: 65–80.
- Johnson, K., 2004, “On the Systematicity of Language and Thought”, Journal of Philosophy, 101: 111–139.
- Johnson-Laird, P., 1988, The Computer and the Mind, Cambridge: Harvard University Press.
- –––, 2004, “The History of Mental Models”, in Psychology of Reasoning: Theoretical and Historical Perspectives, K. Manktelow and M.C. Chung (eds), New York: Psychology Press.
- Kazez, J., 1995, “Computationalism and the Causal Role of Content”, Philosophical Studies, 75: 231–260.
- Kelso, J., 1995, Dynamic Patterns, Cambridge, MA: MIT Press.
- Klein, C., 2012, “Two Paradigms for Individuating Implementations”, Journal of Cognitive Science, 13: 167–179.
- Kriegesgorte, K., 2015, “Deep Neural Networks: A New Framework for Modeling Biological Vision and Brain Information Processing”, Annual Review of Vision Science, 1: 417–446.
- Kriegesgorte, K. and P. Douglas, 2018, “Cognitive Computational Neuroscience”, Nature Neuroscience, 21: 1148–1160.
- Krishevsky, A., I. Sutskever, and G. Hinton, 2012, “ImageNet Classification with Deep Convolutional Neural Networks”, Advances in Neural Information Processing Systems, 25: 1097–1105.
- Krotov, D., and J. Hopfield, 2019, “Unsupervised Learning by Competing Hidden Units”, Proceedings of the National Academy of Sciences, 116: 7723–7731.
- Ladyman, J., 2009, “What Does it Mean to Say that a Physical System Implements a Computation?”, Theoretical Computer Science, 410: 376–383.
- LeCun, Y., Y. Bengio, and G. Hinton, 2015, “Deep Learning”, Nature, 521: 436–444.
- Lewis, D., 1969, “Lucas against Mechanism”, Philosophy, 44: 231–3.
- –––, 1972, “Psychophysical and Theoretical Identifications”, Australasian Journal of Philosophy, 50: 249–58.
- –––, 1979, “Lucas Against Mechanism II”, Canadian Journal of Philosophy, 9: 373–376.
- –––, 1994, “Reduction of Mind”, in A Companion to the Philosophy of Mind, S. Guttenplan (ed.), Oxford: Blackwell.
- Lizier, J., B. Flecker, and P. Williams, 2013, “Towards a Synergy-based Account of Measuring Information Modification”, Proceedings of the 2013 IEEE Symposium on Artificial Life (ALIFE), Singapore: 43–51.
- Ludwig, K. and S. Schneider, 2008, “Fodor’s Critique of the Classical Computational Theory of Mind”, Mind and Language, 23: 123–143.
- Lucas, J.R., 1961, “Minds, Machines, and Gödel”, Philosophy, 36: 112–137.
- Ma, W. J., 2019, “Bayesian Decision Models: A Primer”, Neuron, 104: 164–175.
- Maass, W., 1997, “Networks of Spiking Neurons: The Next Generation of Neural Network Models”, Neural Networks, 10: 1659–1671.
- MacLennan, B., 2012, “Analog Computation”, Computational Complexity, R. Meyers (ed.), New York: Springer.
- Marblestone, A., G. Wayne, and K. Kording, 2016, “Toward an Integration of Deep Learning and Neuroscience”, Frontiers in Computational Neuroscience, 10: 1–41.
- Marcus, G., 2001, The Algebraic Mind, Cambridge, MA: MIT Press.
- Marr, D., 1982, Vision, San Francisco: W.H. Freeman.
- McClelland, J., D. Rumelhart, and G. Hinton, 1986, “The Appeal of Parallel Distributed Processing”, in Rumelhart et al. 1986: 3–44.
- McClelland, J., D. Rumelhart, and the PDP Research Group, 1987, Parallel Distributed Processing, vol. 2. Cambridge, MA: MIT Press.
- McCulloch, W. and W. Pitts, 1943, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, Bulletin of Mathematical Biophysics, 7: 115–133.
- McDermott, D., 2001, Mind and Mechanism, Cambridge, MA: MIT Press.
- Mendola, J., 2008, Anti-Externalism, Oxford: Oxford University Press.
- Milkowski, M., 2013, Explaining the Computational Mind, Cambridge, MA: MIT Press.
- Miller, P., 2018, An Introductory Course in Computational Neuroscience, Cambridge, MA: MIT Press.
- Mole, C., 2014, “Dead Reckoning in the Desert Ant: A Defense of Connectionist Models”, Review of Philosophy and Psychology, 5: 277–290.
- Murphy, K., 2012, Machine Learning: A Probabilistic Perspective, Cambridge, MA: MIT Press.
- Naselaris, T., Bassett, D., Fletcher, A., Körding, K., Kriegeskorte, N., Nienborg, H., Poldrack, R., Shohamy, D., and Kay, K., 2018, “Cognitive Computational Neuroscience: A New Conference for an Emerging Discipline”, Trends in Cognitive Science, 22: 365–367.
- Nagel, E. and J.R. Newman, 1958, Gödel’s Proof, New York: New York University Press.
- Newell, A., 1990, Unified Theories of Cognition, Cambridge: Harvard University Press.
- Newell, A. and H. Simon, 1956, “The Logic Theory Machine: A Complex Information Processing System”, IRE Transactions on Information Theory, IT-2, 3: 61–79.
- –––, 1976, “Computer Science as Empirical Inquiry: Symbols and Search”, Communications of the ACM, 19: 113–126.
- O’Keefe, J. and L. Nadel, 1978, The Hippocampus as a Cognitive Map, Oxford: Clarendon University Press.
- Ockham, W., 1957, Summa Logicae, in his Philosophical Writings, A Selection, P. Boehner (ed. and trans.), London: Nelson.
- Orhan, A. E. and Ma, W. J., 2017, “Efficient Probabilistic Inference in Generic Neural Networks Trained with Non-probabilistic Feedback”, Nature Communications, 8: 1–14.
- Peacocke, C., 1992, A Study of Concepts, Cambridge, MA: MIT Press.
- –––, 1993, “Externalist Explanation”, Proceedings of the Aristotelian Society, 67: 203–230.
- –––, 1994, “Content, Computation, and Externalism”, Mind and Language, 9: 303–335.
- –––, 1999, “Computation as Involving Content: A Response to Egan”, Mind and Language, 14: 195–202.
- Penrose, R., 1989, The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics, Oxford: Oxford University Press.
- Perry, J., 1998, “Broadening the Mind”, Philosophy and Phenomenological Research, 58: 223–231.
- Piantadosi, S., J. Tenenbaum, and N. Goodman, 2012, “Bootstrapping in a Language of Thought”, Cognition, 123: 199–217.
- Piccinini, G., 2004, “Functionalism, Computationalism, and Mental States”, Studies in History and Philosophy of Science, 35: 811–833.
- –––, 2007, “Computing Mechanisms”, Philosophy of Science, 74: 501–526.
- –––, 2008a, “Computation Without Representation”, Philosophical Studies, 137: 205–241.
- –––, 2008b, “Some Neural Networks Compute, Others Don’t”, Neural Networks, 21: 311–321.
- –––, 2010, “The Resilience of Computationalism”, Philosophy of Science, 77: 852–861.
- –––, 2012, “Computationalism”, in The Oxford Handbook of Philosophy and Cognitive Science, E. Margolis, R. Samuels, and S. Stich (eds), Oxford: Oxford University Press.
- –––, 2015, Physical Computation: A Mechanistic Account, Oxford: Oxford University Press.
- Piccinini, G. and A. Scarantino, 2010, “Computation vs. Information processing: Why their Difference Matters to Cognitive Science”, Studies in History and Philosophy of Science, 41: 237–246.
- Piccinini, G. and S. Bahar, 2013, “Neural Computation and the Computational Theory of Cognition”, Cognitive Science, 37: 453–488.
- Piccinini, G. and O. Shagrir, 2014, “Foundations of Computational Neuroscience”, Current Opinion in Neurobiology, 25: 25–30.
- Pinker, S., 2005, “So How Does the Mind Work?”, Mind and Language, 20: 1–24.
- Pinker, S. and A. Prince, 1988, “On Language and Connectionism”, Cognition, 28: 73–193.
- Pouget, A., Beck, J., Ma., W. J., and Latham, P., 2013, “Probabilistic Brains: Knowns and Unknowns”, Nature Neuroscience, 16: 1170–1178.
- Putnam, H., 1967, “Psychophysical Predicates”, in Art, Mind, and Religion, W. Capitan and D. Merrill (eds), Pittsburgh: University of Pittsburgh Press. Reprinted in Putnam 1975 as “The Nature of Mental States”: 429–440.
- –––, 1975, Mind, Language, and Reality: Philosophical Papers, vol. 2, Cambridge: Cambridge University Press.
- –––, 1983, Realism and Reason: Philosophical Papers, vol. 3. Cambridge: Cambridge University Press.
- –––, 1988, Representation and Reality, Cambridge, MA: MIT Press.
- –––, 1994, “The Best of All Possible Brains?”, The New York Times, November 20, 1994: 7.
- Pylyshyn, Z., 1984, Computation and Cognition, Cambridge, MA: MIT Press.
- Quine, W.V.O., 1960, Word and Object, Cambridge, MA: MIT Press.
- Ramsey, W., S. Stich, and D. Rumelhart (eds), 1991, Philosophy and Connectionist Theory, Hillsdale: Lawrence Erlbaum Associates.
- Rescorla, M., 2009a, “Chrysippus’s Dog as a Case Study in Non-Linguistic Cognition”, in The Philosophy of Animal Minds, R. Lurz (ed.), Cambridge: Cambridge University Press.
- –––, 2009b, “Cognitive Maps and the Language of Thought”, The British Journal for the Philosophy of Science, 60: 377–407.
- –––, 2012, “How to Integrate Representation into Computational Modeling, and Why We Should”, Journal of Cognitive Science, 13: 1–38.
- –––, 2013, “Against Structuralist Theories of Computational Implementation”, British Journal for the Philosophy of Science, 64: 681–707.
- –––, 2014a, “The Causal Relevance of Content to Computation”, Philosophy and Phenomenological Research, 88: 173–208.
- –––, 2014b, “A Theory of Computational Implementation”, Synthese, 191: 1277–1307.
- –––, 2015, “Bayesian Perceptual Psychology”, in The Oxford Handbook of the Philosophy of Perception, M. Matthen (ed.), Oxford: Oxford University Press.
- –––, 2017a, “From Ockham to Turing—and Back Again”, in Turing 100: Philosophical Explorations of the Legacy of Alan Turing, (Boston Studies in the Philosophy and History), A. Bokulich and J. Floyd (eds), Springer.
- –––, 2017b, “Levels of Computational Explanation”, in Philosophy and Computing: Essays in Epistemology, Philosophy of Mind, Logic, and Ethics, T. Powers (ed.), Cham: Springer.
- –––, 2020, “A Realist Perspective on Bayesian Cognitive Science”, in Inference and Consciousness, A. Nes and T. Chan (eds.), New York: Routledge.
- Rogers, T. and J. McClelland, 2014, “Parallel Distributed Processing at 25: Further Explorations of the Microstructure of Cognition”, Cognitive Science, 38: 1024–1077.
- Rumelhart, D., 1989, “The Architecture of Mind: A Connectionist Approach”, in Foundations of Cognitive Science, M. Posner (ed.), Cambridge, MA: MIT Press.
- Rumelhart, D., G. Hinton, and R. Williams, 1986, “Learning Representations by Back-propagating Errors”, Nature, 323: 533–536.
- Rumelhart, D. and J. McClelland, 1986, “PDP Models and General Issues in Cognitive Science”, in Rumelhart et al. 1986: 110–146.
- Rumelhart, D., J. McClelland, and the PDP Research Group, 1986, Parallel Distributed Processing, vol. 1. Cambridge: MIT Press.
- Rupert, R., 2008, “Frege’s Puzzle and Frege Cases: Defending a Quasi-Syntactic Solution”, Cognitive Systems Research, 9: 76–91.
- –––, 2009, Cognitive Systems and the Extended Mind, Oxford: Oxford University Press.
- Russell, S. and P. Norvig, 2010, Artificial Intelligence: A Modern Approach, 3rd, New York: Prentice Hall.
- Sawyer, S., 2000, “There Is No Viable Notion of Narrow Content”, in Contemporary Debates in Philosophy of Mind, B. McLaughlin and J. Cohen (eds), Malden: Blackwell.
- Schneider, S., 2005, “Direct Reference, Psychological Explanation, and Frege Cases”, Mind and Language, 20: 423–447.
- –––, 2011, The Language of Thought: A New Philosophical Direction, Cambridge, MA: MIT Press.
- Searle, J., 1980, “Minds, Brains, and Programs”, Behavioral and Brain Sciences, 3: 417–457.
- –––, 1990, “Is the Brain a Digital Computer?”, Proceedings and Addresses of the American Philosophical Association, 64: 21–37.
- Segal, G., 2000, A Slim Book About Narrow Content, Cambridge, MA: MIT Press.
- Shagrir, O., 2001, “Content, Computation, and Externalism”, Mind, 110: 369–400.
- –––, 2006, “Why We View the Brain as a Computer”, Synthese, 153: 393–416.
- –––, 2014, “Review of Explaining the Computational Theory of Mind, by Marcin Milkowski”, Notre Dame Review of Philosophy, January 2014.
- –––, forthcoming, “In Defense of the Semantic View of Computation”, Synthese, first online 11 October 2018; doi:10.1007/s11229-018-01921-z
- Shannon, C., 1948, “A Mathematical Theory of Communication”, Bell System Technical Journal27: 379–423, 623–656.
- Shapiro, S., 2003, “Truth, Mechanism, and Penrose’s New Argument”, Journal of Philosophical Logic, 32: 19–42.
- Shea, N., 2013, “Naturalizing Representational Content”, Philosophy Compass, 8: 496–509.
- –––, 2018, Representation in Cognitive Science, Oxford: Oxford University Press.
- Sieg, W., 2009, “On Computability”, in Philosophy of Mathematics, A. Irvine (ed.), Burlington: Elsevier.
- Siegelmann, H. and E. Sontag, 1991, “Turing Computability with Neural Nets”, Applied Mathematics Letters, 4: 77–80.
- Siegelmann, H. and E. Sontag, 1995, “On the Computational Power of Neural Nets”, Journal of Computer and Science Systems, 50: 132–150.
- Silverberg, A., 2006, “Chomsky and Egan on Computational Theories of Vision”, Minds and Machines, 16: 495–524.
- Sloman, A., 1978, The Computer Revolution in Philosophy, Hassocks: The Harvester Press.
- Smolensky, P., 1988, “On the Proper Treatment of Connectionism”, Behavioral and Brain Sciences, 11: 1–74.
- –––, 1991, “Connectionism, Constituency, and the Language of Thought”, in Meaning in Mind: Fodor and His Critics, B. Loewer and G. Rey (eds), Cambridge: Blackwell.
- Sperber, D., 2002, “In Defense of Massive Modularity”, in Language, Brain, and Cognitive Development: Essays in Honor of Jacques Mehler, E. Dupoux (ed.), Cambridge, MA: MIT Press.
- Sprevak, M., 2010, “Computation, Individuation, and the Received View on Representation”, Studies in History and Philosophy of Science, 41: 260–270.
- –––, 2019, “Triviality Arguments About Computational Implementation”, in Sprevak and Colombo 2019: 175–191.
- –––, forthcoming, “Two Kinds of Information Processing in Cognition”, Review of Philosophy and Psychology.
- Sprevak, M. and Colombo, M., 2019, The Routledge Handbook of the Computational Mind, New York: Routledge.
- Stalnaker, R., 1999, Context and Content, Oxford: Oxford University Press.
- Stich, S., 1983, From Folk Psychology to Cognitive Science, Cambridge, MA: MIT Press.
- Thelen, E. and L. Smith, 1994, A Dynamical Systems Approach to the Development of Cognition and Action, Cambridge, MA: MIT Press.
- Thrun, S., W. Burgard, and D. Fox, 2006, Probabilistic Robotics, Cambridge, MA: MIT Press.
- Thrun, S., M. Montemerlo, and H. Dahlkamp, et al., 2006, “Stanley: The Robot That Won the DARPA Grand Challenge”, Journal of Field Robotics, 23: 661–692.
- Tolman, E., 1948, “Cognitive Maps in Rats and Men”, Psychological Review, 55: 189–208.
- Trappenberg, T., 2010, Fundamentals of Computational Neuroscience, Oxford: Oxford University Press.
- Turing, A., 1936, “On Computable Numbers, with an Application to the Entscheidungsproblem”, Proceedings of the London Mathematical Society, 42: 230–265.
- –––, 1950, “Computing Machinery and Intelligence”, Mind, 49: 433–460.
- van Gelder, T., 1990, “Compositionality: A Connectionist Variation on a Classical Theme”, Cognitive Science, 14: 355–384.
- van Gelder, T. and R. Port, 1995, “It’s About Time: An Overview of the Dynamical Approach to Cognition”, in Mind as Motion: Explorations in the Dynamics of Cognition, R. Port and T. van Gelder (eds), Cambridge, MA: MIT Press.
- Varela, F., Thompson, E. and Rosch, E., 1991, The Embodied Mind: Cognitive Science and Human Experience, Cambridge, MA: MIT Press.
- von Neumann, J., 1945, “First Draft of a Report on the EDVAC”, Moore School of Electrical Engineering, University of Pennsylvania. Philadelphia, PA.
- Wakefield, J., 2002, “Broad versus Narrow Content in the Explanation of Action: Fodor on Frege Cases”, Philosophical Psychology, 15: 119–133.
- Weiskopf, D., 2004, “The Place of Time in Cognition”, British Journal for the Philosophy of Science, 55: 87–105.
- Whitehead, A.N. and B. Russell, 1925, Principia Mathematica, vol. 1, 2nd, Cambridge: Cambridge University Press.
- Wilson, R., 2005, “What Computers (Still, Still) Can’t Do”, in New Essays in Philosophy of Language and Mind, R. Stainton, M. Ezcurdia, and C.D. Viger (eds). Canadian Journal of Philosophy, supplementary issue 30: 407–425.
- Yablo, S., 1997, “Wide Causation”, Philosophical Perspectives, 11: 251–281.
- –––, 2003, “Causal Relevance”, Philosophical Issues, 13: 316–327.
- Zednik, C., 2019, “Computational Cognitive Neuroscience”, in Sprevak and Colombo 2019: 357–369.
- Zylberberg, A., S. Dehaene, P. Roelfsema, and M. Sigman, 2011, “The Human Turing Machine”, Trends in Cognitive Science, 15: 293–300.
Strumenti accademici
- Come citare questa voce
- Vedi la versione PDF di questa voce presso la Friends of SEP Society
- Vedi questo stesso argomento presso Internet Philosophy Ontology Project (InPhO)
- Bibliografia arricchita per questa voce presso PhilPapers, con link al suo database.
Altre risorse in Internet
- Graves, A., G. Wayne, and I. Danihelko, 2014, “Neural Turing Machines”, manuscript at arXiv.org.
- Horst, Steven, “The Computational Theory of Mind”, Stanford Encyclopedia of Philosophy (Summer 2015 Edition), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/sum2015/entries/computational-mind/>. [This is the previous entry on the Computational Theory of Mind in the Stanford Encyclopedia of Philosophy — see the version history.]
- Marcin Milkowski, “The Computational Theory of Mind,” in the Internet Encyclopedia of Philosophy.
- Pozzi, I., S. Bohté, and P. Roelfsema, 2019, “A Biologically Plausible Learning Rule for Deep Learning in the Brain”, manuscript at arXiv.org.
- Bibliography on philosophy of artificial intelligence, in Philpapers.org.
Voci correlate
analogy and analogical reasoning | anomalous monism | causation: the metaphysics of | Chinese room argument | Church-Turing Thesis | cognitive science | computability and complexity | computation: in physical systems | computer science, philosophy of | computing: modern history of | connectionism | culture: and cognitive science | externalism about the mind | folk psychology: as mental simulation | frame problem | functionalism | Gödel, Kurt | Gödel, Kurt: incompleteness theorems | Hilbert, David: program in the foundations of mathematics | language of thought hypothesis | mental causation | mental content: causal theories of | mental content: narrow | mental content: teleological theories of | mental imagery | mental representation | mental representation: in medieval philosophy | mind/brain identity theory | models in science | multiple realizability | other minds | reasoning: automated | reasoning: defeasible | reduction, scientific | simulations in science | Turing, Alan | Turing machines | Turing test | zombies
Copyright © 2020 by
Michael Rescorla <rescorla@ucla.edu>