Sei sulla pagina 1di 3

La Grammatica Generativa (GG) è un approccio allo studio della grammatica nato dalla riflessione

teorica del linguista americano Noam Chomsky (Filadelfia, 7 dicembre 1928). Negli anni la GG si è


arricchita grazie al contributo di numerosi studiosi – anche italiani – che hanno lavorato su un
campione crescente di lingue e di fenomeni, principalmente nel campo della sintassi, ma anche
della fonologia e della semantica e, in misura minore, della morfologia. La GG è un approccio più
sfaccettato di quanto si pensi, sebbene le diverse anime della GG condividano presupposti teorici e
metodologici. Cercheremo qui di stabilire qualche punto fisso.
L’oggetto di studio della GG è la ‘competenza linguistica’, cioè l’insieme delle conoscenze
grammaticali ‘implicite’ che ogni parlante acquisisce istintivamente quando impara la propria
lingua (o le proprie lingue). L’oggetto della grammatica generativa non sono quindi le lingue in sé.
Le lingue – o, più precisamente, le ‘lingue storico-naturali’ – sono il prodotto di due fattori: la
‘storia’, ovvero l’evoluzione culturale e materiale di una comunità di parlanti, e la ‘natura’, intesa
come la facoltà mentale che consente all’homo sapiens di apprendere e usare le lingue. La
seconda componente è “più o meno allo stesso livello del sistema della visione dei mammiferi, del
sistema di navigazione degli insetti e così via” (Chomsky 2004). Questa facoltà mentale è l’obiettivo
della riflessione della GG, che cerca quindi di fare astrazione, per quanto possibile, dai fenomeni
linguistici maggiormente plasmati da fattori storici e culturali.
Le grandi domande a cui la GG cerca di fornire una risposta sono, ad esempio: come possiamo
rappresentare la competenza linguistica? come viene acquisita questa competenza? esiste una
facoltà mentale specifica, grazie alla quale acquisiamo la competenza linguistica? quali sono i
limiti di tale facoltà? è possibile che alcuni principî generalissimi sui cui poggia la facoltà del
linguaggio siano innati? esistono dei principî che riguardano esclusivamente la facoltà del
linguaggio oppure essa poggia su principî cognitivi più generali? quante competenze possiede un
parlante bilingue? esiste un’area del cervello deputata alla facoltà del linguaggio?
Molte di queste domande travalicano i confini della linguistica e, per affrontarle, è necessario
invadere i territori della biologia, della logica, della teoria della mente, dell’informatica, delle
neuroscienze, dell’intelligenza artificiale, ecc. Per addentrarci in questi territori sarebbe inoltre
necessario chiarire il significato di alcuni termini generali come ‘ricorsività’, ‘povertà dello stimolo’,
‘dipendenza dalla struttura’, ‘minimalismo’, ‘principî e parametri’, ecc. Attorno a queste parole-
chiave si è sviluppato un dibattito piuttosto acceso durato più di mezzo secolo, dal quale sono
talvolta emerse delle vulgatae pro o contro la GG. Chi volesse approfondire il tema, si assicuri
quindi di attingere da fonti certe (ci sono delle ottime introduzioni anche in italiano, ad esempio
l’agile volume di Graffi 2008).
Più modestamente, qui vorrei cercare di spiegare in poche righe quali sono le conseguenze
‘pratiche’ per chi decide di fare linguistica nel quadro della GG: cosa fa chi si occupa di GG? Prima
di tutto, decidere di lavorare all’interno di un quadro teorico non vuol dire abbracciare una
religione, sebbene spesso i generativisti vengano rappresentati – e talvolta in effetti si comportino
– come gli adepti di una setta esoterica. Una teoria è un insieme logicamente coerente di ipotesi
formulate a partire da alcuni assunti di base. Le ipotesi vanno testate e, se non reggono, vanno
laicamente abbandonate o riformulate, ma non troppo in fretta. Non si abbandona infatti una
teoria al primo controesempio (questo atteggiamento, gli epistemologi lo chiamano
‘falsificazionismo ingenuo’), ma bisogna, almeno per un po’, cercare di far funzionare le cose,
accomodando le eccezioni e aggiustando progressivamente il tiro delle proprie ipotesi.
Le ipotesi in GG hanno solitamente la forma di un ‘algoritmo’, ovvero una sequenza di operazioni
elementari che, obbedendo a dei vincoli universali, trasformano un input (ad esempio, un gruppo
di parole) in un output (ad esempio, una frase ben formata). Tali algoritmi sono rappresentati per
mezzo di un ‘formalismo’. Nel corso del tempo sono stati proposti diversi tipi di formalismo ed
ogni ricercatore è libero di scegliere fra alcune varianti (un po’ come quando utenti dello stesso
sistema operativo scelgono applicazioni diverse per fare le stesse cose). Questi formalismi sono
tutto sommato semplici, sebbene richiedano un po’ di familiarità per essere decifrati: alberi
sintattici o tableaux fonologici non sono più complicati delle istruzioni per montare una libreria
Ikea.
L’algoritmo deve essere in grado di rendere conto dei dati in nostro possesso (ad esempio, l’ordine
delle parole nella frase interrogativa dell’inglese) e deve spiegare perché fenomeni
apparentemente indipendenti siano collegati (ad esempio, perché l’ausiliare inglese do si usi sia
nelle interrogative dirette, sia nelle frasi negative). Inoltre, l’algoritmo deve ‘simulare’ la nostra
competenza linguistica anche rispetto a dati non attestati. Facciamo un esempio. Chi parla italiano
sa che certi verbi intransitivi prendono l’ausiliare essere, mentre altri prendono l’ausiliare avere.
Chi parla italiano sa anche che si può costruire una frase al participio con i verbi del
tipo partire (quelli che prendono essere), ma non con i verbi del tipo dormire (quelli che
prendono avere): per esempio si può dire Partito Gianni, abbiamo mangiato, ma non si può dire
*Dormito Gianni, abbiamo mangiato. In che senso chi parla italiano ‘sa’ che la prima frase si può
dire e la seconda no? Che tipo di sapere è questo? Di certo non si tratta di una conoscenza
esplicita: nessuno ce l’ha insegnato e, probabilmente, alcuni fra i lettori di queste righe non si
erano mai accorti che i verbi intransitivi si dividessero in due insiemi e nemmeno che ci fosse una
correlazione fra la scelta dell’ausiliare e la possibilità di costruire una frase al participio. Eppure, i
parlanti dell’italiano – bambini inclusi – ‘sanno’ con assoluta certezza che la frase *Dormito
Gianni non va bene. Questo sapere è parte della nostra competenza linguistica e, quindi, deve
essere rappresentato nel nostro algoritmo.
Per verificare la correttezza delle ipotesi, in GG bisogna quindi ricorrere all’elicitazione di  giudizi di
grammaticalità su frasi potenzialmente impossibili. Come nel caso di *Dormito Gianni, il
ricercatore effettua un micro-esperimento costruendo a tavolino una frase e sottoponendola al
giudizio dei parlanti. Se il giudizio di grammaticalità è negativo, allora l’ipotesi sarà verificata,
altrimenti l’algoritmo va modificato.
Come tutti gli esperimenti, anche l’elicitazione dei giudizi di grammaticalità pone dei problemi
metodologici, ad esempio nella scelta del campione. I generativisti sono spesso rimproverati,
talvolta a ragione, di elicitare giudizi di grammaticalità molto sottili senza basarsi su un campione
affidabile (a volte il campione è formato da un solo parlante, che poi è lo stesso linguista). In tempi
più recenti, si è sviluppata anche all’interno della GG una maggiore attenzione agli aspetti
metodologici mediante l’impiego di campioni più vasti, di scale graduate di valutazione, di metodi
statistici per l’analisi dei risultati, ecc.
Se l’ipotesi viene confermata, possiamo infine vedere se l’algoritmo ipotizzato fa le
giuste previsioni su altre lingue o su fenomeni collegabili. In questo modo, il dominio empirico
della teoria si è ampliato, soprattutto nel campo della sintassi. Si sono scoperti nuovi fenomeni o,
più frequentemente, la teoria della GG ha consentito di gettare nuova luce su fatti noti ma
sfuggenti, come la distribuzione intra- e inter-linguistica dei soggetti nulli o la tipologia delle
strutture a verbo secondo. Senza il potere euristico di una teoria – giusta o sbagliata che essa sia –
è molto difficile incasellare e comparare questo tipo di fenomeni.

Potrebbero piacerti anche