Sei sulla pagina 1di 54

DUE SECOLI

DI PENSIERO
LINGUISTICO
Dai primi
dell’Ottocento a oggi

1
Capitolo 1: Introduzione: panoramica sulla storia della linguistica fino alla fine del
Settecento

1.1 Linguistica e storia della linguistica (pag. 17-22)


La linguistica può essere definita come lo studio scientifico del linguaggio. Numerosi sono i
problemi che deve affrontare, molti dei quali sono già stati dibattuti nell’antichità. Lo scopo di una
storia della linguistica può, quindi, permetterci di approfondire la nostra conoscenza dei problemi di
oggi esaminando il modo in cui essi sono nati e sono stati affrontati nel corso del tempo.
Solitamente ci si occupa della storia della linguistica dall’Ottocento a oggi perché è soltanto da
quel momento che la disciplina diventa istituzionale (dotata di cattedre proprie nelle università).
Fino a questo momento le riflessioni sul linguaggio appartenevano alla filosofia o alla grammatica:
non era ancora una disciplina autonoma. Questo non vuol dire che la riflessione svolta nei secoli
precedenti sia prescientifica e nemmeno che non abbia condizionato quella successiva. Per
questo motivo è importante tracciare una breve storia della riflessione sul linguaggio fino al
Settecento.

1.2 L’Antichità classica (pag. 22-40)


Le origini della linguistica occidentale (infatti, esiste una tradizione linguistica in India, in Cina e nei
paesi del Vicino Oriente) risalgono alla Grecia antica. Infatti, la riflessione sul linguaggio nasce in
Grecia tra il V e IV secolo a.C. ed è ripresa in ambito romano dal I secolo a.C. per raggiungere una
forma più sistematica grazie ad alcuni grammatici latini, che avevano presente i modelli greci, attivi
tra il IV e il VI secolo d.C.
La riflessione sul linguaggio nell’Antichità classica può essere distinta in:
 Tradizione alta, rappresentata dalle analisi svolte dai filosofi.
 Tradizione bassa, rappresentata dalle analisi svolte dai grammatici, che inizialmente erano
coloro che insegnavano a leggere ed a scrivere.
La riflessione filosofica del linguaggio si chiede se il linguaggio rappresenta la realtà, oppure la
deforma. Già i presocratici si erano posti questo interrogativo: Eraclito (550-480 a.C.) ritiene che il
linguaggio ci fornisca un accesso diretto alla realtà; Parmenide (V secolo a.C.) sostiene che
l’unica realtà è quella dell’essere e i segni linguistici non possono rappresentarla. Molto importante
è il dialogo Cratilo di Platone (427-347 a.C.). Il problema di questo dialogo è se le parole
rappresentano la realtà in base ad un rapporto naturale con le cose (phýsei = per natura) oppure in
base ad una convenzione adottata dai parlanti (nómō). Nel dialogo Cratilo sostiene la tesi
naturalista (phýsei), Ermogene quella convenzionalista (nómō), Socrate svolge la funzione di
arbitro tra i due: non è facile capire a quale conclusione giunga (inizialmente dà ragione ad
Ermogene, ma poi porta alcuni contro esempi alla tesi naturalista) e nemmeno se questa
conclusione sia da attribuire all’autentico Socrate oppure se egli sia un personaggio portavoce
delle opinioni di Platone. Alcuni ritengono che il filosofo greco non avesse ancora trovato una
soluzione al problema. In effetti, Platone ritiene che la realtà debba essere riconosciuta per se
stessa e non attraverso il linguaggio, ma occorre determinare le condizioni cui il linguaggio deve
sottostare per poterla rappresentare adeguatamente. Queste condizioni sono esposte nel dialogo
Sofista in cui sostiene che l’adeguatezza del rapporto tra il linguaggio e la realtà non va stabilita in
base alle singole parole ma alla loro connessione, in altre parole al discorso, il quale può essere
vero o falso. In questo dialogo fa dire allo straniero che esistono due tipi di elementi fonici gli
onómata (=nomi/soggetti) e i rhêmata (=verbi/predicati) e che per avere un discorso è necessario
unire un nome (onóma) a un verbo (rhêma). La verità o la falsità del discorso si fondano sul
rapporto stesso del discorso con la realtà (cfr. “Teeteto siede” >< “Teeteto vola”): se parlando,

2
diciamo che una certa cosa ha una proprietà che effettivamente possiede, il discorso è vero; se
invece non la possiede, il discorso è falso.
Anche Aristotele analizza il linguaggio come strumento tramite il quale si possono fare discorsi
veri o falsi. Nel De interpretatione individua i diversi tipi di discorso e si rende conto che solo quello
enunciativo può essere vero o falso. Egli ritiene che il pensiero sia identico per tutti gli esseri
umani, perché è frutto di un’identica realtà; le differenze tra le lingue sono diversità tra i modi in cui
questi pensieri sono espressi tramite i suoni e la scrittura. Definisce onóma come «una voce che
significa per convenzione, senza tempo», rhêma come voce che «in più significa il tempo» (i nomi
non si flettono al presente, passato, futuro). Aristotele, quindi, sostiene che il linguaggio è una
convenzione. Oltre all’onóma e rhêma, individua ptôseis, in altre parole i casi e le flessioni dei nomi
e dei verbi. Anche se sembrerebbe che a onóma corrisponda il nome e a rhêma il verbo, non è
così semplice. Alcuni studiosi preferiscono parlare di soggetto e predicato. Chiama invece il
discorso lógos. Nella Poetica presenta una classificazione delle entità del linguaggio:
 Le entità non dotate di significato: elemento (stoicheîon = sillaba), congiunzione
(sýndesmos = congiunzioni e preposizioni), articolazione (árthron = articolo, pronomi
personali e dimostrativi).
 Le entità dotate di significato: onóma, rhêma, ptôsis, lógos. In questo caso rhêma ha un
significato più vicino a quello di ‘verbo’, lógos può essere tradotto con ‘frase’,
‘proposizione’, ‘discorso’.
Qual è la ragione delle differenze tra il De interpretatione e la Poetica? Il primo, essendo un’opera
di logica, si concentra sul lógos enunciativo, che può essere vero o falso a seconda se il predicato
esprime una proprietà che il soggetto effettivamente possiede oppure no: quindi rhêma ha il
significato generico di ‘predicato’ e non si parla di lógos senza rhêma (→ ogni discorso deve avere
un predicato). Invece la Poetica esamina i linguaggi come mezzo di espressione, analizzandolo
sotto l’aspetto fonologico e morfologico: quindi onóma e rhêma sono distinti in base alla loro
diversa morfologia.
Anche lo stoicismo si occupa della storia della lingua. Due autori importanti sono Zenone e
Crisippo (ca. 280-205 a.C.), delle cui opere ci sono giunti solo frammenti, di conseguenza la
ricostruzione del loro pensiero si basa su testimonianze più tarde. La concezione stoica del
linguaggio è orientata verso la concezione naturalistica (phýsei). Infatti, per gli Stoici, il linguaggio è
legato per natura all’uomo poiché si riconduce a quelle ‘nozioni innate’ (prolépseis) che egli
possiede. Di conseguenza le singole parole non sono frutto di arbitrio ma, essendo fondate su
nozioni innate, hanno un certo legame con la natura che si deve scoprire mediante la ricerca del
legame originario tra i suoni di cui una parola è composta e l’entità cui si riferisce: questo è lo
studio dell’etimologia (= studio del vero). Gli Stoici spiegano l’origine delle parole primitive
mediante l’onomatopea o la sinestesia; da queste parole originarie sarebbero derivati altri termini
per somiglianza o per contrasto.
Anche l’epicureismo ha una concezione naturalistica del linguaggio. Secondo Epicuro (341-270
a.C.), gli uomini hanno imposto i nomi alle cose per impulso naturale, cioè come conseguenza
delle emozioni e delle immagini che le cose producevano in loro. Queste emozioni e queste
immagini erano diverse secondo le varie popolazioni e dei vari individui e questo spiega la
diversità delle lingue. In seguito, all’interno delle singole popolazioni si creò un accordo per
designare le stesse cose con suoni identici e furono trovati nomi anche per le cose non viste. di
conseguenza per Epicuro il linguaggio ha origine per impulso naturale, ma si stabilizza in base ad
un accordo.
Gli Stoici, al contrario degli Epicurei, ci hanno tramandato analisi specifiche della struttura del
linguaggio. Individuano nel lógos quattro classi di elementi: il nome (onóma), il verbo (rhêma),

3
l’arthron e il syndesmos. Suddivide il nome in due classi: il nome proprio (idion) e il nome
appellativo (prosēgorikón). Alle quattro classi di elementi aggiungono quella mesótēs, l’avverbio.
Per quanto riguarda la tradizione “bassa” i grammatici, dal III secolo a.C., non hanno solo la
funzione di insegnare a leggere e scrivere, ma anche di analizzare e descrivere il greco (e poi
anche il latino) e di fissare i canoni dello scriver corretto. Dalla fine del IV secolo a.C. le conquiste
di Alessandro Magno (356-323 a.C.) avevano diffuso la cultura greca in un’area vastissima che
comprendeva il Mediterraneo orientale e il Medio Oriente. Tuttavia la maggioranza delle
popolazioni di questi territori non parlava il greco, lingua ufficiale dell’impero: era necessario fissare
una norma del parlare e scrivere in modo corretto. Inoltre, in quest’epoca, si cercava di ricostruire il
testo dei poemi omerici: si trattava di stabilire quale potesse essere la loro versione più attendibile.
A ciò si dedicano i filologi alessandrini, attivi nella città di Alessandria d’Egitto tra il III e il II secolo
a.C. Ma per fare questo era necessario avere una grammatica: il primo trattato di grammatica è
attribuito a Dionisio Trace (ca. 170-90 a.C.), un breve testo in cui si presenta una classificazione
delle parole in classi. Questo trattato individua otto parti del discorso: il nome (onóma), il verbo
(rhêma), il participio (metoché), l’articolo (árthon), il pronome (antōnymía), la preposizione
(próthesis), l’avverbio (epírrhēma), la congiunzione (sýndesmos). Questo elenco si trova identico
nelle grammatiche greche e latine con una sola modifica dovuta alla struttura delle lingue: in latino
non vi è l’articolo. I grammatici latini trattano l’iterazione come parte a sé invece di quelli greci che
la collocavano tra gli avverbi.
Tra i grammatici di epoca classica i più influenti sono Apollonio Discolo tra quelli greci, e Donato e
Prisciano tra quelli latini. Ad Apollonio (II secolo d.C.) si deve il primo trattato dedicato alla
sintassi, cioè alla combinazione di parole, che può essere considerato il primo esempio di
grammatica ragionata dato che spiega il motivo delle forme linguistiche. Donato (IV secolo d.C.)
compone Ars Minor ed Ars Maior, opere di grande efficacia didattica che rappresentarono un
modello per le grammatiche successive. La prima è un elenco delle parti del discorso e delle loro
definizioni secondo uno schema simile ai catechismi (domanda-risposta). L’Ars Maior è divisa in
tre parti: la prima fornisce una classificazione dei suoni, delle sillabe e dei piedi; la seconda tratta
delle parti del discorso; la terza dei difetti e dei pregi del discorso. Prisciano (V-VI secolo d.C.)
compose le Institutiones Grammaticae in diciotto libri, che rappresentavano la grammatica di
riferimento del latino anche per i parlanti che avevano una conoscenza limitata della lingua.
Quest’opera ebbe una diffusione straordinaria e rappresenta la summa delle nozioni elaborate dai
grammatici greci e latini dal II secolo a.C. al VI secolo d.C.

1.3 La linguistica medievale (pag. 40-52)


Solitamente si suddivide il Medioevo in Alto Medioevo (dal 476 d.C. al 1000 d.C.) e Basso
Medioevo (dal 1000 d.C. al 1492 d.C.); tuttavia si preferisce chiamare quel periodo a cavallo della
caduta dell’impero romano d’Occidente come “tarda Antichità”: il limite tra questo periodo e l’Alto
Medioevo si può collocare nel momento in cui il greco scompare quasi completamente dall’Europa
occidentale, rimanendo confinato a pochi interpreti e traduttori. La tarda Antichità e tutte le epoche
successive si differenziano da quelle precedenti per la presenza del Cristianesimo. Per quanto
riguarda lo studio delle lingue e del linguaggio, la nascita del Cristianesimo comporterà un
cambiamento dei testi di riferimento: mentre i grammatici antichi si rifacevano agli autori classici
greci e latini, gli studiosi cristiani si richiameranno soprattutto alla Bibbia.
Boezio (480-524 d.C.) tradusse alcuni trattati logici di Aristotele, tra cui il De interpretazione, che
corredò di due commenti, e compose numerosi trattati di logica, di musica e di aritmetica (la sua
opera maggiore è Consolatio Philosophiae). È Boezio che introduce i termini soggetto (subiectum)
e predicato (praedicatum). Distingue anche la frase semplice, che contiene un solo soggetto e un
solo predicato, da quella complessa, che è composta da due frasi semplici.

4
Isidoro di Siviglia (ca. 560-636 d.C.) compose l’Etymologiae, una sorta di enciclopedia in venti
libri che spazia dalla grammatica ai legni e agli utensili. Isidoro osserva che il legame naturale tra
le parole e le cose non si realizza sempre, alcuni nomi sono stati imposti per convenzione e non
per natura. Egli ricercò la lingua originaria da cui sarebbero derivare le altre lingue che sostenne
essere l’ebraico, conformemente al racconto della torre di Babele contenuto nel primo libro della
Bibbia.
Nel periodo alto-medievale rimangono semisconosciute alcune delle opere linguistiche più
importanti dell’epoca classica e tardo-antica, a cominciare da quelle di Prisciano e di Boezio.
Rimane costante la conoscenza di Donato utilizzato soprattutto per l’insegnamento del latino;
infatti, il latino è sconosciuto alle popolazioni di origine barbarica e anche quelle di origine romana
stanno progressivamente cambiando la loro lingua quotidiana. Le grammatiche delle lingue volgari
cominciano ad essere scritte solo alcuni secoli più tardi e il latino rimarrà l’unica lingua di cultura
per molto tempo. Le grammatiche dell’alto Medioevo avranno sostanzialmente uno scopo pratico:
insegnare una lingua che nessuno ormai possedeva più come lingua materna e che, tuttavia, era
l’unica ad essere considerata lingua di cultura. Si cercherà di recuperare la tradizione “alta” con la
rinascenza carolingia grazie ad autori come Alcuino di York e Rabano Mauro.
Nell’XI secolo grazie alla riscoperta di Aristotele, di Boezio e delle Istitutiones Grammaticae nasce
la grammatica speculativa che può essere definita come il tentativo di fondare il sistema
grammaticale di Prisciano sulla filosofia di Aristotele. Questo tentativo giunge al culmine con i
Modisti (XIII-XIV secolo): con questi dotti si compie l’incontro tra la tradizione bassa e quella alta.
La tradizione bassa degli studi linguistici non scompare perché ad esse è legata l’esigenza pratica
dell’insegnamento del latino. L’opera più importante di questa tradizione è il Doctrinale (1199) di
Alexander de Villadei: opera in versi che divulga il sistema di Prisciano. In quest’epoca iniziano ad
apparire alcune opere relative alle lingue volgari come il Donatz Proensals (1240) di Uc Faidit o il
Primo trattato grammaticale islandese (XII secolo).
Per quanto riguarda la storia della grammatica speculativa una delle prime opere è il De
grammatica di S. Anselmo di Aosta (1033-1109). Nella tradizione successiva abbiamo Guglielmo
di Conches (ca. 1080-1150) e Abelardo (1079-1142). Tra l’XI e il XII secolo cominciano a
diffondersi i commenti a Prisciano che devono dare una giustificazione razionale alle categorie da
lui introdotte. In esse si trovano concetti nuovi come quelli di soggetto e predicato. Un’altra novità
riguarda la trattazione dell’aggettivo: i grammatici medievali, sempre reverenti nei confronti delle
auctoritates classiche, non osano ancora fare dell’aggettivo una parte del discorso a sé, ma
pongono la distinzione all’interno della classe dei nomi (nomen substantivum e nomen adiectivum).
Alcuni modisti sono Boezio di Dacia, Martino di Dacia, Radulphus Brito, Gentile da Cingoli, Sigieri
di Courtrai e Tommaso di Erfurt. Il termine ‘modisti’ viene dal concetto di ‘modo’ ad indicare i modi
in cui sono organizzati il linguaggio, il pensiero e la realtà. I modisti concepiscono la grammatica
come una scienza. La grammatica modista fu criticata da vari studiosi negli anni ’30 del XIV secolo
e fu riscoperta soltanto nel Novecento.
Nel De vulgari eloquentia Dante Alighieri (1265-1321) ha come obiettivo quello di definire il
volgare illustre. Egli non crede che i volgari italiani derivino dal latino, ma che il volgare sia una
lingua che si impara da piccoli senza bisogno di alcuna regola, mentre il latino si basa su una
grammatica che può essere acquisita solo da pochi. Dante sostiene anche che il linguaggio sia
una proprietà esclusiva degli esseri umani non posseduta dagli animali né dagli angeli. Infatti gli
uomini non sono guidati dall’istinto ma dalla ragione, per questo motivo ciascuno di loro differisce
nelle sue azioni e nelle sue passioni. Gli angeli non hanno bisogno del linguaggio perché
conoscono i pensieri degli altri tramite Dio. Gli animali sono guidati esclusivamente dall’istinto: se
appartengono alla stessa specie non hanno bisogno di comunicare perché hanno in comune gli
stessi atti e passioni, se appartengono a specie diverse il linguaggio sarebbe dannoso perché tra
5
loro non potrebbe esserci alcun rapporto amichevole. Gli uomini hanno scelto un sistema di segni
linguistici che sono da un lato mentali in quanto convenzionali e dall’altro concreti in quanto suoni.
Dante si chiede quale sia la lingua originaria e risponde, rimanendo fedele all’insegnamento
biblico, che è l’ebraico. Ma la novità dell’opera consiste nel presentare uno dei primi tentativi di
classificazione genealogica delle lingue. Gli unici a conservare la lingua originaria furono gli ebrei; i
popoli che migrarono verso l’Europa si divisero in tre gruppi, uno dei quali si stanziò in Europa
meridionale, il secondo nell’Europa settentrionale e il terzo tra l’Europa e l’Asia. Quelli del primo
gruppo parlano una lingua in cui la particella affermativa è oc, oil oppure sì (→lingue romanze),
quelli del secondo lingue in cui essa è jo (→lingue slave e germaniche), quelli del terzo i greci.
Infine Dante si è chiesto perché le lingue cambiano: le lingue (dopo la torre di Babele) sono
prodotti puramente umani e quindi cambiano attraverso il tempo con tutti i costumi degli uomini.

1.4 Il Rinascimento e l’Età Moderna (pag. 53-76)


Mentre il Medioevo è un’epoca in cui la cultura dell’Europa occidentale è unitaria e
geograficamente delimitata, l’Età Moderna è caratterizzata dalla sua frammentazione e dalla sua
diffusione in altri continenti.

Medioevo Età Moderna

Dal punto di Unica lingua di cultura è il latino. Il Il latino perde la posizione privilegiata.
vista greco è appannaggio di pochi traduttori. Le lingue volgari iniziano ad imporsi
linguistico come lingue di cultura e lingue ufficiali.

Dal punto di Unica religione in Europa occidentale: Con la riforma protestante, il cui inizio si
vista cattolica romana. può collocare nel 1517 con la
religioso pubblicazione delle tesi di Wittenberg, si
rompe l’unità religiosa.

Dal punto di Ideale di uno stato universale Formazione di stati nazionali che
vista politico rappresentato dal Sacro Romano tendono a differenziarsi sempre più
Impero. l’uno dall’altro.

Dal punto di Gli europei che si avventuravano fuori Con le scoperte geografiche i contatti
vista dalle terre conosciute, come Marco con terre lontane aumentano
geografico Polo, erano pochissimi e i contatti con notevolmente. Si formano colonie di
le terre lontane erano sporadici. europei in altri continenti.

Dal punto di Teoria geocentrica di Tolomeo Nuove scoperte scientifiche: Copernico,


vista Brahe, Keplero, Galilei, Newton,
scientifico Einstein.

Dal punto di Aristotele è un punto fermo per la La dottrina di Aristotele entra in crisi con
vista cultura medievale. Descartes e Locke.
filosofico

Gli umanisti, tra cui Lorenzo Valla (1407-1457), propugnano un “ritorno ai classici”, cioè al latino
usato dagli scrittori dell’antica Roma, da acquisire non mediante lo studio della grammatica, ma
mediante la lettura diretta di tali autori. Gli umanisti, infatti, criticano i dotti medievali non solo per il
tipo di latino utilizzato, ma anche per la prevalenza data agli studi grammaticali rispetto allo studio
diretto degli autori classici. Elegantiarum linguae latinae libri VI del Valla non è una grammatica,
presuppone le nozioni elementari e tratta diffusamente di questioni stilistiche.
6
La situazione è diversa per quanto riguarda le lingue volgari. Infatti per queste lingue non è stata
fissata definitivamente una norma e quindi si avverte la necessità di elaborare delle grammatiche
che si assumano il compito di stabilirla. A questo fine contribuisce notevolmente l’invenzione della
stampa, attribuita a Gutenberg nel 1455. Le grammatiche delle lingue volgari cominciano a fiorire
in questi anni in tutti i paesi europei. La prima grammatica dell’italiano è la cosiddetta
Grammatichetta Vaticana, attribuita a Leon Battista Alberti (1404-1472). Nel Cinquecento
aumenta il numero delle grammatiche delle lingue moderne: le Prose della volgar lingua di Pietro
Bembo (1525). Le grammatiche di questo periodo sono di tipo sostanzialmente pratico, non
filosofico, e si ispirano ai modelli classici di Prisciano e di Donato.
In questi anni si riconosce questa pluralità e diversità delle lingue tanto che gli studiosi si pongono
nuovamente il problema delle lingue originarie e del mutamento linguistico: ci si concentra
principalmente sul rapporto tra il latino e le lingue romanze (in particolare latino e italiano). Nel
Quattrocento si scontravano due idee alternative:
 Biondo Flavio: il volgare si è formato grazie alla mescolanza del latino con le lingue dei
barbari invasori;
 Leonardo Bruni-Lorenzo Valla: è sempre esistita una lingua volgare latina che è alla base
del volgare moderno.
Per quanto riguarda il problema dell’origine delle lingue emergono delle posizioni laiche che non si
basano più sull’episodio della torre di Babele. Giuseppe Giusto Scaligero (1540-1609) classificò le
lingue europee in base alle loro diverse “lingue madri”, quattro “maggiori” e sette “minori”,
indicando le prime con le diverse parole con cui ciascuna esprime il concetto di ‘Dio’:Deus (lingue
romanze), Theós (greco), Godt (lingue germaniche), Boge (lingue slave). Secondo Scaligero la
parentela si limitava alle lingue derivate delle lingue madri, mentre tra queste ultime non c’era
alcuna relazione di parentela. Un secolo più tardi, Leibniz (1646-1716), pur accettando in linea di
principio il racconto biblico dell’origine delle lingue da un’unica lingua madre, affermava però che lo
sviluppo storico non rendeva più riconoscibile questa lingua arcaica e classificava le lingue
attestate in due grandi specie: le “jafetiche” (le lingue dell’Eurasia) e le “aramaiche” (quelle
dell’Africa e del Vicino Oriente).
Nel 1540 Giulio Cesare Scaligero (1484-1558), padre di Giuseppe Giusto, pubblica a Lione De
causis linguae latinae, opera che manifesta già dal titolo il suo pieno inserimento in un quadro
aristotelico, recupera i tratti caratteristici della grammatica modista e inaugura un filone alternativo
a quello umanista. Un’impostazione filosofica caratterizza anche le opere grammaticali del filosofo
Pierre de la Ramée (1515-1572). Nel 1587, lo spagnolo Francisco Sánchez de las Bronzas (1523-
1601), noto col nome latino Sanctius, pubblica Minervaa seu de causis linguae latinae. Egli dedica
molta attenzione al fenomeno dell’ellissi, ovvero dell’omissione di certe parole in una costruzione,
per esaminare le condizioni in cui essa è possibile. Sanctius considera la lingua degli autori
classici latini come modello, conformemente alla tradizione umanistica, ma cerca di individuare i
principi logici che stanno alla base del suo funzionamento. A lui si devono molte considerazioni
interessanti come la ridefinizione completa delle parti del discorso, da lui ridotte a tre: nome, verbo
e particella. Con questi tre autori si ha una rinascita della grammatica filosofica, anche se essi non
usano ancora questa espressione.
L’idea che esistano due tipi di grammatiche non è palese fino al Seicento quando importanti filosofi
come Francesco Bacone (1561-1626) e Tommaso Campanella (1568-1639) parlano di una
grammatica “filosofica” contrapposta ad un altro tipo di grammatica, che il primo chiama “popolare”
e il secondo “civile”.
Port Royal era un monastero cistercense femminile, non lontano da Parigi, il cui direttore spirituale
era un religioso, l’abate di Saint-Cyran, appartenente alla corrente dei giansenisti, che fu poi
condannata come eretica dalla Chiesa cattolica romana. Intorno a Saint-Cyran si formò un gruppo

7
di intellettuali tra cui Blaise Pascal (1623-1662) e Jean Racine (1639-1699). I “Signori di Port
Royal”, fortemente avversi ai Gesuiti, che svolgevano uno ruolo fondamentale nell’educazione, per
motivi relativi alla dottrina della grazie e dei sacramenti, pensarono di organizzare un loro sistema
di istruzione in cui la riflessione sulla struttura del linguaggio e del pensiero avesse un ruolo
fondamentale. La Grammatica generale e ragionata (1660-1676) e la Logica o l’arte di pensare
(1662-1683) di Port Royal sono frutto di questo esperimento pedagogico. Il loro obiettivo non era
quello di limitarsi ad indicare le forme del parlar corretto, ma determinarne le ragioni. Per i “Signori
di Port Royal” il linguaggio è espressione del pensiero: le espressioni linguistche riflettono le
operazioni della mente, che sono il ‘concepire’ (=dare un semplice sguardo sulle cose), il
‘giudicare’ (=affermare che una cosa che noi concepiamo è tale o non è tale), il ‘ragionare’
(=servirsi di due giudizi per produrne un terzo). All’operazione del concepire corrispondono nel
linguaggio le parole, a quella del giudicare la proposizione, a quella del ragionare il sillogismo. Gli
elementi che compongono una proposizione sono tre: soggetto, copula e predicato. Infatti notano
come tutti i verbi derivino dalla combinazione di altri significati con quello di essere (ad esempio:
vive = è vivente), combinazione dovuta alla tendenza naturale degli uomini ad abbraviare tutte le
espressioni. Nella Logica distinguono le proposizioni semplici da quelle composte: le proposizioni
semplici sono quelle che hanno un solo soggetto e un solo predicato, quelle composte sono quelle
che hanno più di un soggetto e più di un predicato. Tuttavia ci sono delle proposizioni che
apparentemente sono composte, ma che in realtà sono semplici: si tratta delle proposizioni
complesse, le quali hanno propriamente un solo soggetto ed un solo predicato, ma in cui il
soggetto o il predicato è un termine complesso, che racchiude altre proposizioni che possiamo
chiamare incidenti, le quali sono solo parte del soggetto o del predicato essendovi congiunte con il
pronome relativo, la cui proprietà è quella di congiungere più proposizioni in modo che esse ne
compongano una sola.
In Cartesio (1596-1650) non si trovano analisi linguistiche nel senso stretto del termine, ma solo
considerazioni generali sul linguaggio come capacità specificamente umana. I “Signori di Port
Royal” si ispiravano a Cartesio per quanto riguarda la visione generale del linguaggio. Cartesio è
considerato il caposcuola della corrente razionalista, ossia quella che sostiene che la mente
umana possiede conoscenze precedenti e indipendenti dalle impressioni sensoriali. La corrente
opposta, l’empirismo, sostiene, invece, che tutte le conoscenze hanno origine dalle sensazioni.
Caposcuola dell’empirismo è Locke, tra i suoi predecessori vanno ricordati Hobbes e Bacone.
Locke dedica ampio spazio all’analisi dei singoli fatti linguistici. Nel Saggio sull’intelligenza umana
sottolinea come le parole abbiano un ruolo fondamentale nell’organizzazione della nostra
conoscenza poiché servono a fissare la varietà e la molteplicità delle nostre impressioni
sensoriale. Sia Locke che Cartesio considerano il linguaggio come una proprietà esclusiva
dell’uomo. Secondo Locke vi sono due tipi di idee: quelle semplici (come ‘rosso’, parola che non
può essere definita con altre parole, ma mostrando l’oggetto) e quelle complesse (come
‘assassinio’, parola che può essere spiegato con l’utilizzo di altre parole, ‘uccisione di un uomo’).
Mentre le idee semplici derivano da cose reali, le idee complesse o modi misti sono frutto di un
atto arbitrario della nostra mente. Questa arbitrarietà spiega perché molte parole di una lingua non
sono traducibili direttamente in altre. L’arbitrarietà delle lingue umane non sta solo nella mancanza
di corrispondenza naturale tra parola e oggetto ma anche nella mancanza di una relazione stabile
tra parola ed idea espressa. Al saggio di Locke replicò, dal versante razionalista, Leibniz, con i
suoi Nuovi saggi sull’intelletto umano (1765) che hanno la forma di un dialogo tra Filalete
(=opinioni di Locke) e Teofilo (=obiezioni di Leibniz). Leibniz sostiene che le lingue umane sono
diverse, come sono diversi i costumi dei vari popoli, e quindi i contenuti della ragione umana si
possono esprimere in modo diverso, ma questi contenuti sono universali. Leibniz ha tentato di fare

8
una classificazione genealogica delle lingue e di crere una lingua artificiale i cui segni denotine le
cose a cui si riferiscono senza l’ambiguità proprie delle lingue naturali.
È agli autori delle voci linguistiche dell’Enciclopedia (1751-1772), César Chesneau Du Marsais
(1676-1758) e Nicolas Beauzée (1717-1789), che si deve la distinzione tra grammatica generale e
grammatica particolare. La prima è la scienza dei principi immutabili e generali del linguaggio
pronunciato o scritto valido per qualunque lingua; la seconda è l’arte di applicare ai principi
immutabili e generali del linguaggio pronunciato o scritto le istituzioni arbitrarie e usuali di una
lingua particolare. Per quanto riguarda i temi più specifici dell’analisi grammaticale, i grammatici
illuministi o enciclopedisti riprendono Port-Royal, ma non ne seguono precisamente l’impostazione.
Una grande merito di questi grammatici è quella di aver introdotto la nozione di complemento.
Ètienne Bonnot de Condillac (1714-1780), di impostazione empirista, analizza la proposizione
esattamente come i portorealisti, composta da soggetto, verbo e predicato anche se può essere
espressa da due parole.
Giambattista Vico (1668-1744), di impostazione storicista, ritiene che il linguaggio deve essere
considerato come la realizzazione progressiva della coscienza dell’umanità, che si sviluppa
attraverso le cosiddette “tre età” della storia: quella degli dei, degli eroi e degli uomini,
caratterizzate rispettivamente dalla sensazione, dalla fantasia e dalla ragione. L’origine del
linguaggio si ha con l’imitazione dei suoni della natura (onomatopee) e dall’espressione delle
passioni (iterazioni). Successivamente nasceranno i pronomi, i nomi ed infine i verbi.
Condillac cerca di spiegare l’origine del linguaggio immaginando, dopo il diluvio, due bambini, un
maschio e una femmina, smarriti in luoghi deserti prima di conoscere l’uso dei segni. Inizialmente
essi accompagneranno alla propria percezione (ad esempio la fame) con grida e gesti per
stimolare l’altro bambino a soddisfare il bisogno del suo compagno (dargli un frutto). Col passare
del tempo i bambini cominceranno ad collegare sistematicamente queste grida e gesti all’oggetto,
nasce così la prima forma di linguaggio: il linguaggio d’azione. L’uso di questi segni porta i bambini
a perfezionarli e a renderli più famigliari e con le generazioni successive il linguaggio d’azione
diventa un sistema di comunicazione sempre più complesso fino a creare il linguaggio dei suoni
articolati. Condillac descrive anche lo sviluppo delle diverse lingue: le prime parole ad apparire
sono stati i nomi perché si riferiscono ad entità concrete, poi gli aggettivi e gli avverbi per indicare
le qualità di questi oggetti e infine i verbi per esprimere lo stato d’animo.
Jean-Jacques Rousseau (1712-1778) descrive le forme di linguaggio primitivo in modo simile a
quello di Condillac. Tuttavia individua due problemi. Il primo riguarda il rapporto tra nascita della
società e l’origine del linguaggio: secondo Rousseau nello stato di natura gli uomini vivevano
isolati gi uni dali altri e non esisteva quindi la società; il linguaggio ha avuto origine quando gli
uomini hanno abbandonato lo stato di natura e hanno cominciato a sviluppare legami sociali. Il
secondo problema riguarda il rapporto reciproco tra linguaggio e pensiero. Il pensiero presuppone
un linguaggio organizzato, ma il linguaggio presuppone un pensiero che lo organizzi.
Beauzée spiegava l’origine del linguaggio rifacendosi al dettato biblico, tuttavia aggiungeva che i
mutamenti introdotti da Dio nella lingua primitiva non potevano essere diversi da quelli che si
sarebbero verificati se i vari gruppo di uomini si fossero dispersi per cause naturali perché Dio non
agisce contro natura.
Johann Peter Süssmilch (1707-1767) dimostra come il linguaggio non sia stato inventato
dall’uomo ma creato da Dio. Infatti nel primo caso il linguaggio dovrebbe essere collocato tra
l’istinto e la ragione, ma il linguaggio umano non può essere basato sugli istinti altrimenti, come i
sistemi di comunicazioni degli animali, dovrebbe essere uguale in tutto il mondo. Quindi il
linguaggio dovrebbe essere un prodotto della ragione, ma l’uso della ragione è impossibile senza
l’uso dei segni linguistici, quindi il linguaggio non può che essere stato creato da Dio.

9
Alle posizioni di Beauzée e di Süssmilch si opposero James Burnett, noto come Lord Monboddo
(1714-1799), e Johann Gottfried Herder (1744-1803). Per Monboddo la natura umana si sviluppa
parallelamente alla società: il linguaggio umano è in continuo progredire e ciò spiegherebbe il
motivo della differenza tra le varie lingue. Secondo Herder gli uomini possiedono un “linguaggio”
semplicemente perché sono animali; tuttavia questo tipo di “linguaggio” (simile a quello d’azione di
Condillac) non può spiegare l’origine del linguaggio umano. Infatti gli animali sono guidati
unicamente dall’istinto, mentre gli uomini non hanno alcun linguaggio di tipo istintivo: l’uomo è
sprovvisto di istinti animali, ma è dotato di una qualità particolare, la ‘riflessione’, di cui il linguaggio
umano è un prodotto. Secondo Herder la prima parte del discorso a comparire è il verbo, poiché il
linguaggio nasce dall’osservazione delle azioni. L’origine delle parole non onomatopeiche si spiega
come un prodotto del nostro sensorium commune dei diversi processi di sinestesia.
Tutti gli studiosi che abbiamo analizzato dedicano particolare attenzione a ciò che a loro avviso
determina il carattere delle singole lingue: il cosiddetto ‘genio delle lingue’. Ad esempio Condillac
sostiene che ogni lingua esprime il carattere del popolo che la parla: in latino i termini legati
all’agricoltura portano con sé un’idea di nobiltà che non troviamo nella nostra lingua.
L’individuazione delle caratteristiche proprie delle lingue e dei vari gruppi di lingue è alla base
della tipologia linguistica.

Capitolo 2: L’Ottocento

2.1 Introduzione (pag. 81-89)


L’Ottocento è il primo secolo interamente compreso nella storia contemporanea perché nel 1789,
con lo scoppio della rivoluzione francese, inizia a configurarsi il mondo attuale sia sotto l’aspetto
politico-sociale che sotto quello dell’organizzazione della scienza e della tecnica. Per quanto
riguarda il primo aspetto è proprio all’inizio dell’Ottocento che si fissa definitivamente il concetto di
stato nazionale. La reazione all’occupazione di quasi tutta l’Europa da parte delle truppe francesi
guidate da Napoleone portò alla formazione dei concetti di “patria” e “stato nazionale”. Questi due
concetti non sempre coincidevano: non tutte le patrie erano rappresentate da un unico stato
nazionale, come nel caso dell’Italia e della Germania. Dal punto di vista della scienza e della
tecnica le armate di Napoleone avevano diffuso le idee e le innovazioni della rivoluzione francese.
Così nell’Ottocento l’istruzione universitaria venne completamente ristrutturata grazie a Wilhelm
von Humboldt che, fondando l’università di Berlino nel 1810, creò un modello di università in cui i
professori hanno come compito quello di svolgere ricerca ed insegnamento insieme. La riforma
humboldtiana riportò la ricerca scientifica all’interno delle università. Nel 1821 fu istituita la prima
cattedra di linguistica: per la prima volta questa disciplina assumeva uno statuto autonomo ed
indipendente. Molti storici hanno considerato l’inizio dell’Ottocento come la data di nascita della
fase “scientifica” della disciplina opposta a quella “prescientifica” delle epoche precedenti.
Sicuramente si può vedere l’Ottocento come l’inizio di un’epoca nuova nella storia della linguistica
ma ciò non significa che tutto il periodo precedente sia privo di interessi o non abbia legami con
quello successivo.
La diversificazione e specializzazione delle discipline pose il problema del loro rapporto e della loro
classificazione: come raggruppare le diverse discipline? Questo problema investì direttamente la
linguistica, che poteva essere collocata tra quelle storico sociali, tra quelle scienze naturali e tra
quelle psicologiche.
Il Romanticismo insiste sugli elementi storici e culturali su cui si fonda l’identità nazionale, tra cui la
lingua. Una determinata lingua dà a tutti quelli che la parlano la coscienza di appartenere a uno
stesso gruppo e li oppone a tutti quelli che parlano una lingua diversa.

10
La corrente filosofica strettamente più legata al Romanticismo è l’idealismo tedesco. I principali
esponenti sono Johann Gottlieb Fichte (1762-1814), Friedrich Wilhelm Schelling (1775-1854),
Georg Wilhelm Friedrich Hegel (1770-1831). Il loro punto di partenza è la revisione critica del
sistema filosofico di Kant (1724-1804). Kant nella Critica della ragion pura si pose il problema delle
possibilità e dei limiti della conoscenza umana: noi conosciamo soltanto ciò che possiamo
conoscere in base all’organizzazione della nostra intuizione sensibile e del nostro intelletto. La
‘cosa in sé’, cioè la realtà esterna, è inaccessibile alla nostra conoscenza. Questa concezione
limitativa della conoscenza umana fu respinta dai filosofi idealisti che cercarono di creare un
sistema unitario, in cui non esista la contrapposizione tra ‘cosa in sé’ e ‘fenomeno’. Fichte affermò
che questo principio è costituito dall’Io, inteso come attività spirituale; Schelling sostenne
un’identità assoluta tra “lo spirito in noi” e “la natura fuori di noi”; Hegel concepì l’intera realtà come
dovuta allo sviluppo dialettico di forze contrapposte (‘tesi’ e ‘antitesi’) che trovano la loro
coincidenza in un’unità superiore (‘sintesi’), che in un secondo momento dialettico diventa tesi, fino
alla sintesi definitiva. Una caratteristica dei sistemi idealisti è la concezione della filosofia come
forma particolare di conoscenza superiore a quella fornita dalla scienza.
Un’altra corrente filosofica è il positivismo, il cui fondatore è Auguste Comte (1798-1857). Questa
corrente rifiuta di considerare la filosofia come una forma di conoscenza superiore alle altre ed
assume come punto di partenza dell’indagine filosofica i risultati scientifici. I positivisti non
pretendono di giudicare le scienze, ma vogliono definirne i metodi e coglierne le relazioni.
Un elemento comune tra idealismo e positivismo è la visione di pensiero umano nel suo sviluppo
storico (storicismo).
Nell’Ottocento la linguistica si separò abbastanza nettamente dalla logica. Le lingue vengono
concepite come entità storiche soggetto a cambiamento, mentre la logica viene intesa come puro
calcolo formale, analogo ai sistemi matematici. Questo distacco tra la linguistica e la logica avrà
delle conseguenze negative per entrambe le discipline: la prima non comprenderà l’utilità degli
strumenti formali elaborati dalla logica, la quale si disinteresserà sempre di più dall’analisi del
linguaggio naturale.
Le discipline che invece attrassero l’interesse dei vari linguisti dell’Ottocento furono quelle
biologiche: l’anatomia comparata e le teorie evoluzionistiche. L’anatomia comparata, il cui sviluppo
si deve a Georges Cuvier (1769-1832), è quella parte della biologia che studia le correlazioni tra gli
organi delle diverse specie animali, individuandone le omologie. Due organi sono omologhi quando
derivano per discendenza diretta da una stessa struttura presente in antenati comuni delle specie
in questione. Venne presa come modello dai linguisti storico-comparativi: l’individuazione di
corrispondenze sistematiche tra strutture morfologiche o fonologiche di lingue diverse fece
ipotizzare la loro derivazione da una stessa lingua madre. L’evoluzione della specie fu sostenuta
da Jean-Baptiste Lamarck (1744-1829) e da Charles Darwin (1809-1882). Il mutamento delle
specie biologiche è dovuto alla discendenza con modificazioni: selezione naturale. In linguistica
queste teorie ottennero un notevole successo, tanto che il linguista Schleicher le interpretò come
una conferma della propria concezione della storia del linguaggio.
L’Ottocento è anche il secolo in cui nascono la psicologia e la sociologia. Entrambe hanno chiari
rapporti con la linguistica: la prima in quanto il linguaggio ha un aspetto mentale, la seconda in
quanto il linguaggio ha una evidente funzione sociale.

2.2 Prime fasi della linguistica storico-comparativa (pag. 90-121)


La classificazione genealogica classifica le varie lingue in base alla lingua originaria o lingua
madre da cui derivano. Le lingue derivate da una stessa lingua originaria fanno parte della stessa
famiglia linguistica; ogni famiglia si può suddividere in ulteriori gruppi e sottogruppi.

11
Il termine ‘indoeuropeo’ fu coniato nel 1813 da Thomas Young (1773-1829). Ma come si è potuto
delimitare li famiglia linguistica indoeuropea? A partire dalla seconda metà del Settecento l’India
era passata sotto il controllo dell’Inghilterra. Cominciò, così, ad essere noto il sanscrito, la lingua
della religione indù, che fino a pochi anni prima era stata proibita agli occidentali dalla casta
sacerdotale, che finalmente iniziò ad essere studiato. Lo studio del sanscrito da parte degli
occidentali mise in luce la sua notevole somiglianza con le lingue europee, in particolare con quelle
antiche (latino e greco). Dato l’isolamento della cultura indiana rispetto a quella europea tale
somiglianza non poteva essere spiegata come effetto di contatti, di conseguenza era ragionevole
pensare che fosse frutto di un’origine comune. Questa ipotesi si deve a Sir William Jones (1746-
1794), le cui intuizioni furono dimostrate da Franz Bopp (1791-1867).
Anche il tedesco Friedrich Schlegel (1772-1829) mostrò un grande interesse per il sanscrito
perché la scoperta di una lingua di attestazione anteriore al greco e al latino e che mostrava una
parentela con le lingue germaniche provava che l’origine della civiltà non andava più collocata nel
mondo classico. Tuttavia Schlegel pensava che il sanscrito fosse la lingua madre delle altre lingue
indoeuropee e vedeva l’origine della cultura europea in quella indiana. A lui si deve l’assegnazione
di un nuovo significato al termine grammatica comparata, che diventa lo strumento per scoprire le
relazioni di parentela tra le varie lingue → la grammatica comparata diventa storica.
Franz Bopp fu il primo studioso ad occupare la cattedra universitaria di linguistica. Egli imparò il
sanscrito da autodidatta sulla base dei manoscritti conservati alla Biblioteca Nazionale di Parigi.
Quando ottenne la cattedra universitaria a Berlino si dedicò a lavori sistematici, il più importante
dei quali è la grammatica comparata di varie lingue indoeuropee. La differenza tra la grammatica
comparativa nata agli inizi dell’Ottocento e i tentativi di classificazione genealogica delle lingue è il
porre a confronto non parole, ma morfemi (=unità minime dotate sia di suono che di significato). Il
sanscrito ha una struttura morfematica molto più trasparente di quella del greco e del latino e
permette di cogliere delle relazioni tra le lingue che altrimenti rimarrebbero inspiegate. Bopp non
considera il sanscrito come la lingua madre delle varie lingue indoeuropee, ma come la più antica
di esse e dunque come quella che rappresentava più fedelmente la lingua madre originaria (in
realtà si dimostrò successivamente che in certi casi il sanscrito si è differenziato dalla lingua madre
più di altre lingue derivate) . Lo scopo di Bopp non è di spiegare il significato originario delle radici
delle parole, ma di individuare in quale modo si sono combinate per dare origine alle varie parole
che si sono diffuse. Egli individua due tipi di radici: quelle ‘verbali’, da cui derivano i verbi e nomi, e
quelle ‘pronominali’, da cui derivano i pronomi, le preposizioni, le congiunzioni e le particelle. Ad
esempio analizza il verbo latino potest come pot-, -es- (radici verbali), -t (radice pronominale) =
potente-essere-egli. Da quest’analisi si può notare la somiglianza tra Bopp e la grammatica
generale del Sei-Settecento, le cui idee erano ancora vive all’inizio dell’Ottocento. L’innovazione di
Bopp fu quella di applicare un’analisi di questo genere alla comparazione tra il sanscrito e le altre
lingue indoeuropee. Molte idee di Bopp sono state, ormai, superate (ad esempio quella in cui
ritiene che la lingua madre sia una lingua perfetta e che le lingue derivate siano una
manifestazione di decadenza), tuttavia è da considerarsi il padre della grammatica comparata.
Abbiamo detto che la scoperta del sanscrito ha reso più facile il confronto tra le forme grammaticali
e fonetiche delle diverse lingue, ma non era necessario conoscerlo per sviluppare una corretta
grammatica comparata. Così Rasmus Rask (1787-1832), nonostante abbia imparato il sanscrito
negli ultimi anni della sua vita, deve essere considerato uno dei fondatori della linguistica storico-
comparativa indoeuropea insieme a Friederich Schlegel, a Franz Bopp ed a Jacob Grimm.
L’interesse di Rask era rivolto alle lingue nordiche, tra cui la sua lingua madre (il danese). Nel 1814
scrisse un saggio in cui confrontava tali lingue, dando particolar rilievo all’antico islandese, lingua
dotata della tradizione letteraria più prestigiosa, con altre lingue indoeuropea, ad eccezione del
sanscrito che non conosceva. Egli aveva ben chiari i principi di Schlegel e di Bopp, infatti diceva

12
che «la corrispondenza grammaticale è un segno molto più sicuro della parentela o dell’unità
originaria». Rask, come Bopp, concentrava l’analisi sui morfemi, poneva attenzione anche sulla
realizzazione sonora di un determinato segno grafico. Egli si accorse che se nel lessico
“fondamentale” (nelle parole che indicano i numerali, i rapporti di parentela…) di due lingue ci sono
delle coincidenze evidenti, allora c’è una parentela di fondo. Rask, analizzando le corrispondenze
tra le consonanti del latino e del greco da un lato e quelle dell’islandese dall’altro, pur con qualche
incertezza ed imprecisione, aveva individuato quel fenomeno chiamato mutazione consonantica
germanica. Questo fenomeno descrive il comportamento delle consonanti occlusive nel passaggio
dalla lingua madre indoeuropea alle lingue del gruppo germanico:
 le occlusive sorde indoeuropee diventano fricative sorde nelle lingue germaniche:
- p → f ( gr. patér → isl. fadir ‘padre’),
- t → Þ=th inglese ( gr. treîs → isl. Þrir ‘tre’),
- k → h ( lat. cornu → isl. horn ‘corno’).
 le occlusive sonore indoeuropee diventano occlusive sorde nelle lingue germaniche:
- d → t ( gr. damáō ‘io domo’ → isl. tamr ‘domestico’),
- g → k ( gr. gyné → isl. kona ‘donna’).
 le occlusive sonore aspirate indoeuropee diventano occlusive sonore non aspirate nelle lingue
germaniche:
- ph → b ( gr. phérō → isl. ber ‘io porto’),
- th → d ( gr. thýre → isl. dyr ‘porta’),
- ch → g ( gr. cholé → isl. gall ‘bile’).
Rask, non conoscendo il sancrito, non era in grado di illustrare tutti i passaggi che hanno portato a
queste trasformazioni, tuttavia le corrispondenze che aveva individuato erano corrette. Il lavoro di
Rask (1814) ha preceduto quello di Bopp (1816), tuttavia l’opera del secondo ebbe una maggior
diffusione, anche perché l’opera di Rask era in danese, lingua poco diffusa → il suo lavoro rimase
sconosciuto fino a quando fu la sua scoperta della mutazione fu riformulata in tedesco da Grimm.
Jacob Grimm (1785-1863) è noto soprattutto grazie alla raccolta di fiabe popolari tedesche da lui
curata insieme al fratello Wilhelm. Questo suo lavoro mostra il suo interesse per l’analisi della
storia e delle tradizioni culturali delle popolazioni di lingua tedesca. Per quanto riguarda gli studi
linguistici si deve ricordare la Deutsche Grammatik (primo volume:1819-1822, secondo
volume:1826, terzo volume:1831, quarto volume:1827), la storia della lingua tedesca (1848) e il
progetto del grande dizionario etimologico tedesco redatto con il fratello Wilhelm. La Deutsche
Grammatik è una grammatica germanica (non tedesca come potrebbe ingannare il titolo), ovvero
una grammatica storico-comparativa di tutte le lingue appartenenti a questo gruppo della famiglia
indoeuropea (dal gotico fino all’inglese moderno). Il primo volume tratta della fonologia delle lingue
germaniche; i volumi successivi della morfologia, della formazione delle parole e della sintassi.
Nella seconda edizione del primo volume (1822), Grimm riprese le osservazioni già svolte da Rask
sulla mutazione consonantica germanica. Egli collegò alla correlazione tra le consonanti del
germanico e quelle dell’indoeuropeo un’ulteriore correlazione: quella tra le consonanti del gotico e
quelle dell’antico alto tedesco. Anche Rask aveva notato la correlazione tra le consonati del gotico
e dell’antico alto tedesco, ma senza porla in relazione con l’altra. Grimm, trattandole insieme,
poteva interpretare la mutazione come una rotazione (immagine di un movimento circolare). Anche
Grimm fa degli errori. Innanzitutto ritiene che il gotico derivi dal latino e l’antico tedesco dal gotico,
ma in realtà il latino e il gotico derivano entrambi dall’indoeuropeo, mentre l’antico tedesco e il
gotico da una lingua non attestata, chiamata ‘germanico comune’ e derivante dall’indoeuropeo.
Inoltre racchiude sotto il termine “aspirate” suoni molto diversi tra loro (occlusive sorde aspirate del
greco, fricative del gotico e dell’alto tedesco, affricate dell’antico alto-tedesco). Infine non tutte le
mutazioni consonantiche che Grimm ha descritto si sono verificate nella realtà (f gotica dovrebbe

13
diventare b in alto-tedesco ma non avviene). Nonostante i suoi difetti si cominciò a parlare di
“Legge di Grimm”, in particolare:
1. “Prima legge di Grimm” o “prima mutazione consonantica” per indicare le corrispondenze
tra sanscrito, latino e greco da un lato e le lingue germaniche dall’altro;
2. “Seconda legge di Grimm” o “seconda mutazione consonantica” per indicare le
corrispondenze tra gotico da un lato e l’antico tedesco dall’altro.
In realtà Grimm non voleva formulare una legge (= descrizione di un fenomeno privo di eccezioni),
ma aveva sostenuto che la mutazione consonantica in certi casi non si verifica. Ma il termine
“Legge di Grimm” passò alla storia anche se fu Rask a fare questa scoperta, tuttavia Grimm ebbe il
merito di divulgare le scoperte di Rask in una lingua (tedesco) più diffusa del danese.
Grimm nella sua Deutsche Grammatik utilizza l’approccio storico- comparativo: partendo dai fatti
delle singole lingue giunge a risultati generali. Con Grimm la grammatica generale nata con Port-
Royal e sviluppatasi in tutto il Settecento entra in crisi perché i loro punto di vista è astratto, non
tengono conto della realtà effettiva della lingua che è in continua evoluzione.
Per quanto riguarda la terminologia egli utilizza:
- Verbi forti (= forma più antica della coniugazione) e verbi deboli al posto di verbi
irregolari e verbi regolari.
- Metafonia (= modificazione della vocale della radice per effetto della desinenza: Buch
→ bücher la vocale da posteriore diventa anteriore) e apofonia (= alternanza vocalica
tipica dei verbi forti: speak, spoke, spoken).
Wilhelm von Humboldt (1767-1835) si occupa di tematiche riguardanti sia la linguistica storica
che quella generale. Dopo la formazione classica e gli studi giuridici divenne un politico ed un
diplomatico: riformatore dell’università, ambasciatore della Prussia e delegato di questo stato al
congresso di Vienna. Dal 1815 si ritirò a vita provata dedicandosi allo studio del linguaggio. Nella
sua opera linguistica troviamo quattro tematiche:
1. La linguistica generale o teorica = esame delle questioni di fondo sulla natura e la struttura
del linguaggio;
2. La linguistica descrittiva = analisi e descrizione di molte lingue spesso appartenenti a
famiglie diverse;
3. La linguistica storico-comparativa;
4. Il confronto tra le varie lingue (quella che verrà chiamata ‘tipologia linguistica’).
Le lingue possono essere classificate dal punto di vista genealogico, riunendo nella stessa classe
tutte quelle che derivano dalla stessa lingua madre, e dal punto di vista tipologico, classificando
insieme tutte le lingue che presentano le stesse caratteristiche strutturali. Mentre la classificazione
genealogica conobbe uno straordinario sviluppo grazie ai lavori di Schlegel, di Bopp, di Rask e di
Grimm, la classificazione tipologica si sviluppò nello stesso periodo. Humboldt ha un ruolo
fondamentale all’interno delle discussioni sulla tipologia linguistica. La sua opera più importante è
l’introduzione alla sua trattazione del kawi, la lingua sacra all’isola Giava, e si riferisce alla diversità
delle lingue umani. Per Humboldt l’uomo è uomo solo grazie al linguaggio, quindi il linguaggio non
è qualcosa che è stato inventato in un certo momento della storia. Infatti non è stata trovata
nessuna lingua con una grammatica in sviluppo → l’ipotesi di uno sviluppo del linguaggio da una
forma elementare ad una più matura non riceve conferma empirica. Si nota un influsso di Kant: il
linguaggio farebbe parte di quegli elementi che Kant chiamava ‘trascendentali’, cioè non derivati
dall’esperienza, ma senza i quali la conoscenza sarebbe impossibile. Gli elementi trascendentali
fanno parte della natura dell’uomo e un essere che non li dispone non è un essere umano. Il
linguaggio viene definito da Humboldt come «l’istinto intellettuale della ragione». Sostiene anche
che il linguaggio non è un’opera (érgon), ma un’attività (enérgeia) → l’unica realtà linguistica è
l’attività dei singoli individui parlanti, sempre diversa e mai riconducibile a categorie generali: la

14
descrizione grammaticale non un reale fondamento scientifico, ma un’utilità pratica. In realtà
Humboldt è lontano da posizioni di questo genere in quanto tende a conciliare le opposizioni: il
linguaggio come attività non esclude affatto che possa essere analizzato con gli strumenti della
grammatica perché altrimenti sarebbe impossibile coglierne la natura. La grammatica generale
viene utilizzata come strumento per la comparazione tra le lingue. Per Humboldt il linguaggio è
«l’organo formativo del pensiero»: inizia ad utilizzare la nozione di ‘forma linguistica interna’ (innere
Sprachform). Il linguaggio non si limita a rispecchiare la realtà: la parola è «una copia non
dell’oggetto in sé, ma dell’immagine che questo ha prodotto nell’anima» (=forma linguistica interna
riferita al linguaggio generale, cioè come rapporto tra linguaggio e realtà). Ogni lingua però delinea
questo rapporto con la realtà in modo diverso (=forma linguistica interna riferita ad una singola
lingua e al suo rapporto tra linguaggio e realtà). Ogni lingua organizza i propri mezzi espressivi in
modo diverso (= forma linguistica interna riferita al principio formativo di ogni lingua → tipologia).
Anche Friedrich Schlegel aveva anticipato la tipologia linguistica quando aveva suddiviso le
lingue in:
 ‘organiche’, le cui varie forme grammaticali sono prodotte da uno sviluppo organico della radice
e che si manifesta sia nella variazione vocalica interna (apofonia) sia nel sistema di suffissi e
desinenze;
 ‘meccaniche’, caratterizzate da una giustapposizione di monosillabi isolati (ex. Cinese).
Era una classificazione genealogica e tipologica insieme in quanto le lingue ‘organiche’ erano
quelle indoeuropee e nelle lingue ‘meccaniche’ erano comprese le lingue più disparate (diverse sia
dal punto di vista genealogico che quello delle caratteristiche strutturali); inoltre tra le stesse lingue
indoeuropee esistono notevoli differenze: classificazione rozza.
Il fratello August Wilhelm Schlegel propone una classificazione tipologica più raffinata,
suddividendo le lingue in:
 ‘senza struttura grammaticale’ (chiamate poi da Humboldt ‘ isolanti’)
 ‘con affissi’ (chiamate poi da Humboldt ‘agglutinanti’)
 ‘flessive’ = lingue indoeuropee suddivise a loro volta in:
- ‘Sintetiche’: lingue che esprimono i rapporti sintattici attraverso desinenze e variazioni
tematiche → lingue indoeuropee antiche, come il latino.
- ‘Analitiche’: lingue che utilizzano l’articolo prima del sostantivo, esprimono il pronome
prima del verbo, hanno i verbi ausiliari, utilizzano le preposizioni → lingue indoeuropee
moderne, come l’italiano.
Sebbene questa classificazione presenta forti limiti (nessuna lingua è nettamente inquadrabile in
una dei tre tipi) aveva un notevole valore pratico.
Una classificazione alternativa viene proposta da Bopp, il quale era convinto che le varie forme
verbali indoeuropee nascevano dalla composizione di radici diverse. La sua classificazione è
quindi tripartita e coincide solo parzialmente con quella di Schlegel:
 ‘lingue con radici monosillabiche e senza capacità di composizione, quindi senza
organismo, senza grammatica’ → cinese;
 ‘lingue con radici monosillabiche e capaci di composizione’ → lingue indoeuropee;
 ‘lingue con radici bisillabiche e formate obbligatoriamente da tre consonanti, che
esprimono il significato fondamentale’ → lingue semitiche.
In questa classificazione le lingue indoeuropee non hanno un ruolo privilegiato. Non c’erano motivi
per preferire l’una o l’altra classificazione, ma fu quella di Schlegel a prevalere.
Ritornando a Humboldt, molte storie della linguistica sostengono che egli abbia adottato la
classificazione di Schlegel aggiungendovi un quarto tipo: le lingue ‘incorporanti’ o ‘polisintetiche’ =
lingue in cui una sola parola racchiude tutte le relazioni grammaticali di una frase → lingue
amerindiane. Certamente Humboldt riconobbe il tipo incorporante e inventò il nome, ma il suo
15
contributo alla tipologia linguistica, incompreso dai linguisti successivi, non si limita a questo. Egli
distinse i vari tipi possibili di parantela linguistica:
 Lingue che appartengono allo stesso ceppo in cui constatiamo una somiglianza di concrete
forme grammaticali = parentela genealogica;
 Lingue che appartengono alla stessa area che non hanno tale somiglianza di forme
grammaticali, ma condividono una parte del lessico = parentela linguistica areale;
 Lingue che appartengono alla stessa classe in quanto non hanno in comune né forme
grammaticali né lessico, ma mostrano affinità dal punto di vista della ‘forma linguistica’ =
parentela linguistica tipologica;
 Lingue che non condividono né forme grammaticali, né lessico, né forma linguistica, e che
sono quindi apparentate soltanto per le proprietà comuni a tutte le lingue umane in quanto
tali.
Humboldt ha notato come non esistono lingue appartenenti ad una sola classe (non esistono
lingue solo agglutinanti, o solo flessive, ecc.) ma tutte le lingue presentano più forme al loro
interno. Quindi non esiste la classe linguistica, ma il tipo inteso come entità astratta (novità per il
suo tempo). La tipologia di Humoldt è sintattica, basata sull’analisi della frase, mentre quella dei
suo contemporanei è morfologica, basata sull’analisi della parola. Esaminando il ruolo della parola
nella frase, egli si rende conto di come il tipo flessivo sia superiore agli altri perché delimita
chiaramente i limiti della parola ed esprime in modo chiaro le relazioni che legano le parole tra di
loro. Invece il tipo isolante non esprime queste relazioni; il tipo incorporante non distingue tra
parola e frase; il tipo agglutinante è uno stadio intermedio. Si vede qui come Humboldt è un uomo
del suo tempo: considera il tipo flessivo superiore agli altri e la famiglia linguistica che si avvicina
maggiormente a questo tipo è quella indoeuropea.
Humboldt si lega al “relativismo linguistico”, cioè all’idea che ogni lingua esprima una visione del
mondo diversa a tutte le altre (da qua partiranno Sapir e Whorf). Questa teoria si lega alla nozione
di forma interna, ossia alla concezione del linguaggio come qualcosa che non rispecchia
passivamente la realtà ma la organizza secondo propri schemi.
Con gli anni ’30 dell’Ottocento alla linguistica storico-comparativa viene riconosciuto il suo statuto
scientifico e i suoi risultati iniziano ad essere presentati in forma sistematica. August Friedrich Pott
(1802-1887), alunno di Bopp, compose le “Ricerche etimologiche nel dominio delle lingue
indoeuropee”. Nell’introduzione dell’opera sosteneva che la linguistica storico-comparativa era
ormai una disciplina autonoma avente lo scopo di ricostruire le forme fonologiche e grammaticali
della lingua madre indoeuropea. Forniva un elenco di radici da cui derivavano le parole comuni alle
varie lingue indoeuropee e indicava con sistematicità le corrispondenze fonetiche che
permettevano di giustificare una fonologia ricostruita. Si era accorto che i mutamenti delle lettere
avvengono seguendo delle leggi naturali e coinvolgono suoni prodotti dagli stessi organi o dotati di
caratteristiche simili. Ad esempio s e r sono entrambe prodotte da una forte vibrazione dell’aria; s e
h sono entrambe sibilitanti; h e r non hanno nulla in comune → se alla r di una parola latina
corrisponde una h nella parola persiana allora si può supporre che entrambe derivino da una s
sanscrita. Quindi secondo Pott per dimostrare il legame etimologico tra due parole è necessario
trovare una corrispondenza sistematica tra i suoni e individuare le tappe che dal suono originario
hanno condotto a quelli osservati. Pott fu il primo a formulare le corrispondenze tra i suoni delle
varie lingue indoeuropee in forma di tabelle sistematiche ed è a lui che risale la formulazione della
‘legge di Grimm’, ossia l’indicazione completa e sistematica di quali consonanti sanscrite, greche e
latine corrispondono a quelle delle lingue germaniche.
Intorno alla metà dell’Ottocento aumentarono il numero delle lingue che venivano riconosciute
appartenenti alla famiglia indoeuropea e cominciavano ad essere studiate con i metodi della
grammatica storico-comparativa: Diez pubblica la grammatica delle lingue romanze (1836-44),

16
Miklosich quella delle lingue slave (1852-74); nascono la filologia romanza e quella slava; Zeuss
pubblica una grammatica celtica; Bopp aveva dimostrato che le lingue celtiche, l’albanese e
l’armeno appartenevano alla famiglia indoeuropea. In questi anni si era stabilito che la famiglia
linguistica indoeurope conteneva: indiano (sanscrito), iranico, armeno, greco, albanese, italico
(lingue romanze + latino), slavo, baltico, germanico, celtico. Nel Novecento furono aggiunte il
tocario e l’anatolico, lingue fino a quel momento sconosciute.
August Schleicher (1821-1868), professore a Praga e a Jena, può essere considerato come il
sistematizzatore della linguistica storico-comparativa indoeuropea. Egli chiarificò i rapporti tra
lingua originaria e lingue derivate nella famiglia linguistica indoeuropea: stabilì che il sanscrito non
è la lingua madre delle lingue indoeuropee ma una lingua ‘sorella’ delle altre, anche se era
convinto che il sanscrito fosse la lingua che rispecchiava più da vicino lo stato della lingua
originaria. Ricostruisce le forme della lingua madre segnalandole con l’asterisco (*) essendo
consapevole che vi è differenza tra forme effettivamente attestate e forme ricostruite. Come Bopp
era convinto che le forme verbali indoeuropee derivano dalla combinazione di radici
originariamente autonome e che la derivazione delle lingue indoeuropee dalla lingua originaria sia
stato un processo di una sempre maggiore semplificazione e dunque decadenza. Ipotizzò che
quella fase di decadenza (fase storica) fosse stata preceduta da una fase di sviluppo (fase
preistorica): in origine l’indoeuropeo sarebbe stato di tipo isolante, poi sarebbe diventato
agglutinante ed infine flessivo; nella fase storica le lingue indoeuropee avrebbero perso
progressivamente le loro caratteristiche flessive (influsso della filosofia hegeliana). Questa
concezione schleicheriana verrà molto criticata dai linguisti della generazione successiva, mentre
inizialmente viene accettata. Ad esempio George Curtius affermava che esistono due periodi nella
storia del linguaggio: uno di organizzazione (=unità → indoeuropeo originario) e di formazione
(=molteplicità →differenziazione nelle varie lingue indoeuropee); tuttavia non giudica di
‘decadenza’ il secondo periodo, anche se sosteneva che il mutamento fonetico consiste sempre
nella perdita e mai nell’aggiunta di suoni.
Per rappresentare i rapporti tra le varie lingue indoeuropee Schleicher elabora il modello
dell’albero genealogico: pone alla radice dell’albero la lingua originaria (l’indoeuropeo) che a mano
a mano si ramifica in modo binario.

Questo modello fu fortemente criticato: il fatto che si ramifichi in modo binario appare come una
forzatura (non vi sono prove sufficienti per motivare questa scelta); la scelta di non far ‘incrociare’ i
rami esclude la possibilità che lingue appartenenti a rami diversi possano avere elementi in
comune (oltre a quelli dovuti alla lingua madre). Johannes Schmidt (1843-1901), allievo di
Schleicher, criticò il modello dell’albero genealogico e propose una nuova immagine dei rapporti
tra le lingue indoeuropee. Secondo lui era irrealistico ipotizzare che queste lingue derivino da fonti
diverse senza alcun rapporto le une con le altre, a parte gli element posseduti in lingua originari.
Così decise di sostituire il modello dell’albero genealogico con la teoria delle onde che si
propagano in cerchi concentrici i quali si affievoliscono via via che si allontanano dal centro. Le
17
varie lingue indoeuropee rappresentano una sorta di continuum in cui una trapassa lentamente
nell’altra solo con piccole modificazioni. Comunque non negava che, in certi casi, esistevano
confini linguistici netti, dovuti al fatto che una determinata lingua ha preso il sopravvento su quelle
vicine e le ha rimpiazzate.

Quale dei due modelli risulta più adeguato? Ancora oggi la disputa non è risolta: entrambi sono
insufficienti in se stessi, ma utili per illustrare i vari rapporti tra le lingue indoeuropee. L’albero
genealogico conserva un innegabile valore pratico; la teoria delle onde mostra più realisticamente
le sovrapposizioni parziali di fenomeni.
La concezione che Schleicher ha delle lingue è di derivazione naturalistica in quanto considera il
linguaggio come un oggetto naturale o entità biologica. Secondo lui le lingue sono organismi
naturali che, senza essere determinabili dal volere dell’uomo, sono sorti, cresciuti e sviluppati
secondo leggi fisse (influsso di Darwin – L’origine delle specie 1859). Infine Schleicher restringe il
dominio della linguistica alla fonologia e alla morfologia (= ambiti della grammatica storico-
comparativa), mentre afferma che la sintassi e la stilistica appartengono alla filologia. Con la
concezione naturalistica egli tenta di dare una giustificazione del carattere regolare delle
corrispondenze linguistiche individuate dalla grammatica comparata.

2.3 La linguistica generale nell’Ottocento (pag. 121- 142)


La grammatica generale risale a Port-Royal e si sviluppò per tutto il Settecento principalmente in
Francia, ma anche in altri paesi europei, tra cui la Germania. Karl Ferdinand Becker (1775-1849),
influenzato principalmente dall’idealismo tedesco (Schelling), si occupò della natura del linguaggio,
inserendosi nella tradizione della grammatica generale. Egli elaborò un insieme di concetti e
tecniche per la descrizione di uno stato di lingua, non limitandosi alla sola analisi dello sviluppo
della lingua stessa (> analisi sincronica; < analisi diacronica). Secondo lui, l’essere umano sviluppa
il linguaggio in modo autonomo, libero dal condizionamento dei genitori e dell’ambiente;
l’imitazione ha pochissima importanza. A differenza di Humboldt, egli crede che il pensiero
immediatamente precede il linguaggio: pensiero e suono sono definiti come due ‘lati’ del
linguaggio, rispettivamente il ‘lato’ logico e il ‘lato’ fonetico. La frase è definita da Becker come
l’espressione di un pensiero, cioè di un giudizio predicativo, quindi in un modo identico da quello di
Port-Royal; tuttavia egli non adotta l’analisi tripartita della frase in soggetto, copula e predicato,
tipica di Port-Royal, ma ricorre ad un’analisi bipartita: ‘il gatto è nero’ → soggetto ‘il gatto’ +
predicato ‘è nero’ → copula ‘è’ + predicativo ‘nero’).
Individua tre rapporti sintattici fondamentali sui quali basa tutta l’analisi della frase:
1. rapporto predicativo = rapporto tra soggetto e predicato
2. rapporto attributivo = rapporto tra nome e modificatore: ‘gatto nero’
3. rapporto oggettivo = rapporto tra verbo e complemento oggetto: ‘vede un gatto nero’

18
Le analisi di Becker sono estremamente importanti per la storia della grammatica. Egli elaborò
anche una classificazione delle frasi subordinate che ebbe molto successo. Il problema delle frasi
subordinate era stato al centro dell’attenzione della ‘Società di studiosi di Francoforte per la lingua
tedesca’: ad esempio Simon Heinrich Adolf Herling (1780-1849) aveva distinto le frasi subordinate
in sostantive, aggettive e avverbiali (stessa funzione di un sintagma nominale, di un aggettivo e di
un avverbio). Becker inizialmente adottò questa classificazione, ma si rese conto che non ci può
essere coincidenza tra funzioni grammaticali e classi di parole (un nome può essere sia soggetto
che oggetto, così come una frase sostantiva può avere sia funzione di soggetto che di oggetto) →
a Becker si attribuisce la distinzione tra analisi grammaticale e analisi logica. La classificazione
delle frasi subordinate adottata nelle grammatiche odierne combina le due classificazione di
Herling e di Becker.
Heymann Steinthal (1823-1899) influenzò, più di quello che si pensa, i neogrammatici. Secondo
Steinthal l’origine e lo sviluppo del linguaggio sono momenti dello sviluppo delle capacità
intellettive dell’individuo, anche se non bisogna dimenticare l’aspetto sociale del linguaggio, in
quanto gli individui appartenenti ad una stessa comunità utilizzano la stessa lingua e le varie
comunità parlano lingue diverse tra loro. Il termine etnolinguistica è stato coniato da Steinthal per
mostrare la natura sociale, oltre che individuale, del linguaggio e le differenze tra le varie lingue.
Egli elaborò anche un sistema di tipologia linguistica diverso da quello di Humboldt. Il suo pensiero
è una sintesi originale di alcuni aspetti dell linguistica di Humboldt, della filosofia di Hegel e della
psicologia di Herbart. La polemica di Steinthal contro la grammatica generale è condotta contro
qualunque impostazione “logicizzante” nello studio del linguaggio (in particolare contro Becker).
Linguaggio e pensiero non coincidono: si può pensare senza ricorrere alla parole (ex. sordomuti)
→ la logica come scienza del pensiero corretto non può identificarsi con la grammatica. Questo è
dimostrato anche dal fatto che i principi in base ai quali un logico o un grammatico giudicano la
buona formazione delle varie frasi sono totalmente diversi: il grammatico si preoccupa delle
relazioni di accordo, il logico della coerenza dei pensieri espressi. Se quindi non si può fondare la
linguistica sulla logica, come faceva la grammatica generale, Steinthal propone di fondarla sulla
psicologia. Per quanto riguarda l’origine del linguaggio, Steinthal sostiene che il bisogno di
comunicazione non condurrebbe mai al linguaggio, ma il linguaggio, una volta scaturito dallo
sviluppo della mente individuale, diventa strumento di comunicazione (influsso di Humboldt). Egli
non considera il linguaggio come una capacità innata, ma assume una posizione intermedia tra chi
sostiene che le idee fondamentali della conoscenza umana sono innate e chi afferma che sono
acquistite. Queste ‘idee fondamentali’, tra cui vi è il linguaggio, non sono analoghe agli istinti
animali, ma non sono nemmeno formate in modo cosciente: esse vengono acquisite
istintivamente. I livelli della ‘forma interna’ sono:
1. Primo livello = interiezioni + onomatopea, intesa come legame del suono con l’intuizione →
le espressioni linguistiche formano un tutto indivisibile, non analizzabile in parole.
2. Secondo livello = distinzione tra soggetto e predicato.
3. Terzo livello = completo allontanarsi del linguaggio dal suo originario aspetto
onomatopeico.
Nella ricostruzione dello sviluppo del linguaggio operata da Steinthal si fondano ipotesi e pensieri
diversi: origine onomatopeica = studiosi settecenteschi; nozione di forma interna = Humboldt;
procedere per triadi = Hegel. Per descrivere il linguaggio allo stato maturo ricorre alla psicologia di
Herbart. Le nozioni chiave di questa psicologia da lui utilizzate sono quelle di ‘rappresentazione’ (=
contenuti mentali, come le immagini derivate dai nostri sensi, ecc.) e ‘meccanica psichica’ (=
associazione tra i contenuti mentali). Lo spazio della nostra coscienza è però ristretto e può
contenere solo un numero limitato di rappresentazioni: quando si aggiungono rappresentazioni
nuove, quelle vecchie sono rimosse e cadono al di sotto di quella che è chiamata ‘soglia della

19
coscienza’; in situazioni favorevoli le rappresentazioni rimosse possono superare nuovamente la
soglia della coscienza. La ristrettezza della coscienza ha conseguenze decisive sulla natura del
linguaggio: aspetto seriale del linguaggio. Per spiegare la diversità del linguaggio egli affianca alla
psicologia generale l’etnolinguistica (psicologia dell’uomo sociale o della società umana), che, oltre
ad avere la funzione di disciplina ausiliaria della linguistica, si occupa di tutti quei fenomeni
descrivibili in base alle interrelazioni tra gli individui all’interno di una comunità, come la morale, la
religione, ecc. La distinzione fondamentale operata da Steinthal è quella tra lingue ‘prive di forma’
e quelle ‘dotate di forme’; all’interno di queste due classi principali sono individuate delle
sottoclassi. Cosa distinguono tali lingue?
 lingue ‘prive di forma’ (lingue uralo-altaiche e amerindiane) esprimono le relazioni
grammaticali tramite parole materiali.
 lingue ‘dotate di forme’ (lingue semitiche e indoeuropee) esprimono le relazioni
grammaticali tramite la flessione.
La classificazione di Steinthal fu chiamata ‘psicologica’, contrapposta a quella morfologica di
Schlegel, anche se presentano degli elementi in comune: fanno coincidere le classi tipologiche con
le famiglie linguistiche, le lingue sono disposte su una specie di scala di valore (le lingue flessive e
quelle dotate di forma sono considerate superiori alle altre). Con il progresso della tipologia
linguistica queste concezioni vennero abbandonate: si ammetterà che lingue di tipo diverso posso
appartenere alla stessa famiglia linguistica e che non esistono lingue più sviluppate di altre.
Franz Misteli (1841-1903) fu il diretto continuatore di Steinthal. Gabriel Girard (1677-1748) e
Beauzée avevano distinto tra lingue ‘analogiche’, in cui l’ordine delle parole rispecchia quello dei
pensieri (come francese, italiano, spagnolo…), e quelle ‘traspositive’, in cui non c’è alcun
rispecchiamento tra ordine delle parole e dei pensieri (come greco, latino, tedesco…). Henri Weil
(1818-1909) è l’antecedente più importante della tipologia dell’ordine delle parole e critica la
classificazione di Girard-Beauzée perché ritiene che “il cammino sintattico non coincida con quello
delle idee” (idea=qualunque tipo di contenuto mentale). Egli sostituisce alla distinzione tra lingue
‘analogiche’ e lingue ‘traspositive’ quelle tra lingue ‘a costruzione libera’ (come il greco antico e il
latino) e ‘a costruzione fissa’, in cui troviamo l’ordine SVO come il francese, l’italiano, lo spagnolo e
quello SOV come il turco, il tedesco. Per spiegare questi diversi ordini nelle lingue a costruzione
fissa, Weil sostiene che esistono due diversi tipi di costruzione: la costruzione ‘ascendente’, dove
la parola dipendente precede la parola reggente, e la costruzione ‘discendente’ in cui l’ordine è
inverso. Egli non identifica nessuno di questi due tipi con una determinata lingua o una
determinata famiglia linguistica, ma sostiene che entrambi possono combinarsi all’interno della
stessa lingua producendo sistemi differenti. Anche Weil, come Steinthal, dispone le lingue su una
scala di valore: la costruzione ascendente e discendente sono considerate sullo stesso livello,
tuttavia una lingua è più perfetta se fa ricorso ad entrambi i tipi.
Idee simili a quelle di Weil furono elaborate da Georg von der Gabelentz (1840-1893), a cui si
deve l’invenzione del termine ‘tipologia linguistica’. Egli afferma che la linguistica comparata si
divide in due parti:una genealogica e una etnopsicologica; lo scopo di quest’ultima è esporre quale
può essere il rapporto dell’espressione linguistica con i concetti o i pensieri da esprimere.
Abbandona la concezione della tipologia linguistica come una scala di valore sulla quale collocare
le diverse lingue: dimostra come molte delle caratteristiche che dovrebbero dimostrare la
superiorità delle lingue indoeuropee non sono una loro esclusiva e che altre caratteristiche di
queste stesse lingue potrevvere essere una manifestazione di inferiorità. Gabelentz va alla ricerca
di nessi tra la struttura di una lingua e lo spirito dei popoli che la parlano → accetta l’idea di un
rapporto inscindibile tra caratteristiche di una lingua e caratteristiche dei suoi parlanti. La sua
analisi dell’ordine delle parole è molto simile a quella di Weil: analizza la frase in ‘soggetto
psicologico’, ciò verso cui l’emittente dirige l’attenzione del destinatario (=tema del discorso, può

20
non coincidere con il soggetto), e ‘predicato psicologico’, ciò che l’emittente fa pensare al
destinatario a proposito del soggetto psicologico.
L’opera di Weil e di Gabelentz non è ebbe un impatto particolare sui linguisti della loro
generazione: la fama di Weil era legata alla sua attività di filologo classico, mentre Gabelentz morì
prematuramente. L’importanza del loro lavoro è emersa successivamente.
Nella seconda metà dell’Ottocento il linguaggio inizia ad essere concepito come fenomeno sociale
e comunicativo (linguistica come scienza storica e sociale). Tra gli studiosi che hanno sostenuto
tali concezioni troviamo William Dwight Whitney (1827-1894) e Michel Bréal (1832-1915),
entrambi, studiosi di linguistica storico-comparativa, sottolinearono la necessità di una riflessione
teorica generale sul linguaggio. Whitney critica le concezioni di Humboldt secondo le quali il
linguaggio non ha avuto origine da esigenze comunicative. Le concezioni di Whitney possono
essere definiti socio-comunicative: il linguaggio è l’espressione che mira alla comunicazione. Egli,
in contrapposizione a Steinthal, ritiene che sia un errore voler fondare la linguistica sulla
psicologia. Il linguaggio è arbitrario (=possono essere create infinite parole funzionali) e
convenzionale (=la corrispondenza tra significato e significante dipende dalla scelta della società a
cui appartiene il parlante): questo è ciò che lo distingue dai linguaggi animali che sono istintivi.
Secondo Whitney, il linguaggio ha avuto origini dai gridi naturali degli essere umani → posizione
simile a quella di Condillac. Whitney si contrappone anche a Schleicher poiché rifiuta l’esistenza di
due epoche nella storia del linguaggio, una di sviluppo e una di decadenza. Egli sostiene che
esiste una differenza di grado tra le varie lingue e che la storia del linguaggio mostra un’evoluzione
da stadi più primitivi a quelli più sviluppati (=Schhleicher). Afferma che le lingue indoeuropee sono
superiori alle altre grazie alla loro maggior capacità di creare dei nomi astratti; egli comunque
esclude ogni implicazione razzista in quanto osserva che non bisogna confondere lingue e razze e
che la superiorità linguistica di cui parla è acquisita e non innata. Per Bréal la linguistica è una
scienza storica, non naturale, in quanto il linguaggio è un atto dell’uomo, non esiste all’infuori
dell’attività dell’uomo. Anch’egli, come Whitney, è convinto della funzione comunicativa del
linguaggio. Nel 1897 pubblica il volume Semantica, che lo rese famoso: è un trattato di linguistica
storica che volutamente trascura i mutamenti fonetici e si concentra sui mutamenti di significato. Il
termine ‘semantica’ fu coniato da Bréal in opposizione a ‘fonetica’. Nella prima parte dell’opera
contrappone le ‘leggi intellellettuali del linguaggio’ alle ‘leggi fonetiche’. Tra le ‘leggi intellettuali’
troviamo:
 ‘legge di specialità’ = spiega il passaggio dalla fase sintetica alla fase analitica delle
lingue;
 ‘legge di suddivisione’ = si intende il fatto che parole derivate dalla stessa radice
assumono nel tempo significati specifici.
Anche il fenomeno dell’analogia è ricondotto da Bréal all’effetto delle leggi intellettuali del
linguaggio. La sua posizione è quindi opposta a quella di Curtius e di Schleicher, ma è vicina a
quella ‘uniformista’ della geologia dell’Ottocento. Infatti sostiene che la storia della lingua mostra
non solo una perdita ma anche acquisizione di forme: ad esempio l’infinito e il passivo sono
acquisizioni recenti delle lingue indoeuropee → come Whitney respinge la teoria delle due epoche
nella storia del linguaggio. Nella seconda parte esamina i casi di restringimenti e di ampliamento
del senso delle parole, il ruolo della metafora nella storia del linguaggio, polisemia ecc. Quasi tutta
la terza parte del volume è dedicata all’esame di vari fenomeni di mutamento sintattico, come la
nascita dei pronomi relativi ecc. Il linguaggio umano è caratterizzato da un elemento di
“soggettività” ineliminabile, che si realizza soprattutto nei modi verbali e nell’opposizione della terza
persona (richiami a Benveniste). Egli appoggia la teoria di Bopp sull’origine delle forme
indoeuropee dalla combinazione di radici indipendenti proprio quando molti suoi contemporanei
l’avevano abbandonata.

21
2.4 La linguistica storico-comparativa tra fine Ottocento e primo Novecento (pag. 142-177)
Karl Brugmann (1849-1919) e Berthold Delbrück (1842-1922) appartenevano alla scuola
linguistica nota come ‘neogrammatici’ (Junggrammatiker=grammatici giovani). Negli anni ’70
dell’Ottocento vi furono tre grandi scoperte:
1. Nasali sonanti, scoperta da Brugmann. Confrontiamo i numerali ‘sette’ e ‘dieci’ in latino e in
greco: rispettivamente septem-heptà, decem-déka: entrambe le coppie sono
evidentemente imparentate l’una all’altra, ma mostrano delle differenze. Una di queste è
facilmente spiegabile: la sibilante s di septem corrisponde all’aspirazione iniziale di heptà.
Come si spiega invece il fatto che a –em finale latina corrisponda –a greca? Normalmente
alle a ed e latine corrispondono in greco queste stesse vocali. Brungmann ipotizza che –em
ed –a derivano da un suono particolare posseduto dalla lingua madre e sviluppatosi in
maniera diversa nelle altre lingue: la nasale sonante, cioè una m o una n formanti da sole
un nucleo tematico. Questa nasale, impronunciabile nelle lingue derivate, avrebbe
sviluppato una vocale d’appoggio: alcune lingue avrebbero conservato sia la nasale che la
vocale d’appoggio (come il latino), altre solo la vocale (come il greco). Questa
corrispondenza è confermata da altri casi analoghi. Brungamm espose la sua ipotesi (oggi
accettata) sulla rivista diretta da Curtius, approfittando di un suo periodo di assenza
dall’università. Curtius, al suo ritorno, fece sospendere la pubblicazione della rivista. Con
questo episodio inizia la ‘rivolta’ di questo gruppo di giovani linguisti contro quelli della
generazione precedente.
2. Legge delle palatali, scoperta contemporaneamente da diversi studiosi, ma fu Hermann
Collitz (1855-1935) a pubblicarla per primo (egli non apparteneva al gruppo dei
neogrammatici). Come si spiega che nel sanscrito davanti alla vocale a vi è alternanza tra
k e c? Anche in questi casi esiste una corrispondenza regolare tra il sanscrito e le altre
lingue indoeuropee: dove il sanscrito ha c davanti ad a, tale a corrisponde in greco e latino
ad una e, mentre dove il sanscrito ha k, alla a sanscrita corrisponde in latino e in greco una
a o una o. Queste corrispondenze tra sanscrito (e lingue iraniche) da un lato e latino (greco
e altre lingue europee) dall’altro si spiegano bene ipotizzando che le lingue del primo
gruppo abbiano mutato il loro sistema vocalico rispetto a quello della lingua madre
indoeuropea: le tre vocali a, e, o di questa lingua si sono fuse in’unica a nel sanscrito e
nelle altre lingue del gruppo ‘indo-iranico’. Nelle lingue di quest’ultimo gruppo, il suono
velare originario k si è dapprima mutato nel suono palatale [ʧ] davanti alla vocale palatale
e, mentre ha continuato ad essere pronunciato [k] davanti alla vocale velare o e alla vocale
centrale a. Questa spiegazione mostrava che il sanscrito non è la lingua più antica e “meno
decaduta” rispetto alle altre della famiglia indoeuropea; anch’essa è soggetta a mutamenti
tanto quanto le sue ‘sorelle’ (il greco è più vicino alla lingua madre per quanto riguarda il
sistema vocalico). In questo modo declinava anche l’idea di una storia del linguaggio divisa
in due epoche, una di progresso e una di decadenza.
3. Legge di Verner, scoperta da Karl Verner nel 1877. La legge di Grimm presentava delle
eccezioni: dove in latino e in sanscrito abbiamo una t, in gotico abbiamo a volte un suono
sordo (come in broÞar ‘fratello’), a volte un suono sonoro (come in fadar ‘padre’). Verner
esaminò le due parole in vedico bhràtar e pitar e si accorse che nella prima parola l’accento
è sulla prima sillaba e quindi precede la t; nella seconda parola è sulla seconda sillaba e
quindi segue la t. Dato che si pensa che la posizione dell’accento nel vedico fosse la stessa
della lingua madre indoeuropea, Verner ipotizzò che tale posizione avesse avuto un ruolo
determinante nel mutamento delle consonanti occlusive dall’indoeuropeo al germanico e
formulò la legge: nel passaggio dall’indoeuropeo alle lingue germaniche, le occlusive sorde

22
indoeuropee diventano dapprima fricative sorde; tali fricative sorde diventano sonore se
l’accento le segue, mentre rimangono sorde se l’accento le precede.
Queste leggi rendevano la linguistica una scienza esatta regolata da leggi le cui eccezioni si
rivelano solo apparenti. Così la scuola neogrammatica introdusse il concetto di legge fonetica.
I neogrammatici furono influenzati dalla concezione psicologistica del linguaggio elaborata da
Steinthal. Quindi non consideravano, al contrario di Schleicher, la linguistica come scienza
naturale ma come scienza dello spirito: nel doppio senso di scienza psicologica e di scienza
storica. Essi inizialmente concepivano le leggi fonetiche come analoghe a quelle delle scienze
naturali, non le consideravano tuttavia estranee all’individuo, ma al contrario come una
descrizione di processi psicologici inconsci che guidano l’attività linguistica. Queste posizioni
sono espresse nella prefazione di Osthoff e di Brugmann del 1878 alla rivista ‘Morphologische
Untersuchungen’, che è considerato il manifesto dei neogrammatici. In questo lavoro,
Brugmann (Osthoff aveva soltanto sottoscritto la prefazione) si lamenta di come fino a quel
momento si fossero analizzate solamente le lingue e poco i parlanti: è convinto che se la
linguistica storica e la psicologia collaborassero più strettamente si schiuderebbero nuovi punti
di vista. Critica il fatto che la linguistica storica si sia interessata soprattutto alle fasi antiche
delle lingue indoeuropee, trascurando le fasi moderne e i dialetti. In realtà anche i
neogrammatici si interessarono principalmente dell fasi antiche della lingua e la contraddizione
tra ciò che dicevano e facevano era stata messa in evidenza dai loro avversari. Ma è grazie a
loro che i dialetti oggi sono considerati come entità sullo stesso piano delle lingue da cui si
differenziano solo per motivi di ordine storico e sociale. Inoltre sottolineava ciò che li
contrapponeva a Schleicher:
1. Le lingue non sono entità biologiche estranee all’uomo, ma elementi della sua psiche;
2. Non si può parlare di un periodo di progresso e uno di decadenza nella storia del
linguaggio.
Su queste premesse egli formulava i principi della scuola neogrammatica:
1. Ineccepibilità delle leggi fonetiche. Ogni mutamento fonetico, fino a dove procede
meccanicamente, si compie secondo leggi ineccepibili; la direzione del moto fonetico è
sempre la stessa, salvo che subentri una scissione dialettale. Le leggi fonetiche non
ammettono eccezioni, le quali sono tutte spiegabili in base all’azione di altri fattori. Se un
suono muta in due diversi, significa che la lingua madre si sta differenziando in una o più
varietà, dialetti.
2. Analogia. L’analogia venne utilizzata dai neogrammatici per spiegare vari fenomeni che
sembrano contraddire il primo principio. Per esempio, in base alle leggi fonetiche nel
passaggio dal latino all’italiano la ĕ latina si trasforma nel dittongo ie solo se è in posizione
accentata: pĕde(m) → piede; pĕdale(m) → pedale. Perché si ha ‘chiede’, in cui –ie- è in
posizione accentata, e ‘chiediamo’, in cui lo stesso dittongo è in posizione atona? La
seconda delle due forme è stata costruita in base all’analogia con la prima.
I neogrammatici, al contrario di quello che si è pensato per molto tempo, dedicarono una buona
parte della loro attività scientifica alla riflessione teorica sul linguaggio. Paul fu il maggiore teorico
della scuola neogrammatica. Egli distingue due tipi di scienze: quelle ‘nomotetiche’, in cui manca
un qualsiasi riferimento allo sviluppo o evoluzione, e quelle ‘storiche’. La linguistica o ‘scienza dei
principi’ è una scienza storica che contiene una componente nomotetica essenziale, ossia la
componente psicologica. La psicologia ha unicamente per soggetto l’individuo → non si può
parlare di etnopsicologia. Infatti una connessione tra stati e processi mentali si verifica soltanto
all’interno della mente dell’individuo. A suo parere i problemi di cui si deve occupare la linguistica
generale sono:
1. Il modo in cui si realizza l’attività linguistica;

23
2. L’apprendimento del linguaggio;
3. Il mutamento delle lingue nel tempo;
4. La frammentazione delle lingue in dialetti;
5. L’origine del linguaggio.
Questi problemi possono essere risolti solo in termini di psicologia individuale, in quanto
l’organizzazione mentale e corporea di tutti gli uomini è fondamentalmente la stessa (uniformità
costituzionale degli individui). L’interazione tra gli individui produce ciò che Paul chiama ‘uso
linguistico’, ovvero quegli aspetti dell’attività linguistica individuale che non sono condivisi da una
pluralità di parlanti. L’uso è sempre secondario rispetto all’attività linguistica dell’individuo, che è
l’unica realtà effettiva. Secondo Paul, uno dei meriti di Steinthal è quello di aver posto in rilievo
l’importanza degli elementi inconsci del linguaggio. L’analisi della dinamica delle rappresentazioni
linguistiche è alla base del concetto di analogia così come è inteso dai neogrammatici. Le varie
entità linguistiche si riuniscono in ‘gruppi formali’ e in ‘gruppi materiali’: i primi sono costituiti dalla
somma di tutti i nomi di azione ecc.; i secondi dalle associazioni di significati parzialmente simili.
L’incrocio dei gruppi formali con i gruppi materiali dà luogo ai ‘gruppi proporzionali’: ad esempio il
latino mensa:mensam:mensae=hortus:hortum:horti. Questi gruppi proporzionali sono responsabili
della maggior parte dei fenomeni analogici. Il potere creativo dell’analogia non agisce soltanto in
campo fonologico, morfologico e lessicale, ma anche in quello sintattico. L’analogia è quindi il
meccanismo fondamentale del funzionamento del linguaggio.
I neogrammatici non negarono mai esplicitamente che una lingua madre indoeuropea fosse
esistita, ma, a differenza dei loro predecessori, non cercarono di costruire in base ad essa ipotesi
sui presunti parlanti di questa lingua, sulla loro sede originaria o sulla loro cultura. Essi quindi
mostrarono assai poco interesse per la “paleontologia linguistica” Nell’opera dei neogrammatici
troviamo i germi di quella che sarà definita la concezione “algebrica” della lingua madre
indoeuropea: le forme ricostruite sono da interpretare come la semplice abbreviazione delle
corrispondenze riscontrate tra le varie lingue e nulla ci possono dire né sul modo in cui tali lingue
erano effettivamente utilizzate, né tanto meno sulla cultura e la storia dei loro utilizzatori. Questa
visione non ebbe successo e la paleontologia durò e dura tuttora.
Graziadio Isaia Ascoli (1829-1907) è il fondatore della linguistica scientifica in Italia: fu il primo ad
applicare i metodi elaborati della linguistica storico-comparativa tedesca da Bopp in poi. Si occupò
sia delle lingue indoeuropee antiche che delle lingue e dialetti romanzi. A lui si devono le
osservazioni che portarono alla ricostruzione del sistema delle consonanti velari.
1. Al latino [k] corrisponde in sanscrito a volte [k], a volte [ś] (che si pronuncia [∫]): cruor
→kravis; centum→śatam.
2. Al sanscrito [k] corrisponde in latino a volte [k], a volte [k] seguito da un arrotondamento di
labbra: kas → quis.
Nel 1870 Ascoli ipotizzò che l’indoeuropeo primitivo aveva tre velari: oltre alla velare pura *k (simile
alla c di casa), una velare con intacco palatale *k’ (simile a ch- di chino) e una labiovelare *kʷ
(suono velare accompagnato da un arrotondamento di labbra). Nessuna delle lingue derivare
conserva tutte e tre queste velari: il latino e le lingue indoeuropee occidentali hanno unificato la
velare palatale e la velare pura, mantenendo distinta la labiovelare; il sanscrito e le altre lingue
orientali hanno mutato la velare palatale in un suono fricativo [s] e unificato la labiovelare con la
velare pura. I risultati di Ascoli furono tra le grandi scoperte della linguistica storico-comparativa
indoeuropea negli anni settanta dell’Ottocento che furono tra le premesse immediate del costituirsi
della scuola neogrammatica. Tuttavia Ascoli era lontano dalle concezioni dei neogrammatici: per
lui la linguistica è una scienza etnologica non naturale. Egli dava importanza ai fenomeni di
sostrato, cioè all’influsso che la lingua originaria di una popolazione avrebbe esercitato su una
nuova lingua da questa stessa popolazione acquisita. Ascoli lamentava il disinteresse crescente

24
per i problemi dell’origine del linguaggio e il progressivo distacco della linguistica dall’antropologia,
egli aveva concepito l’indoeuropeo non solo come un insieme di corrispondenze linguistiche di un
insieme di corrispondenze linguistiche ma come l’espressione di un’unità etnica e antropologica.
Negli anni ’70 fondò la rivista ‘Archivio Glottologico italiano’ in cui mostra l’interesse per i dialetti
italiani. I suoi Saggi ladini inquadravano per la prima volta con grande chiarezza la posizione
linguistica delle parlate ladine (=romancio della Svizzera, ladino delle valli dolomitiche e il friulano)
rispetto alle varietà romanze ed ai dialetti italiani.
Anche Hugo Schuchardt (1842-1927) si interessò ai dialetti, nonostante avesse un’impostazione
differente sia da Ascoli che da i neogrammatici. Egli è un antisistematico, uno scettico riguardo alla
possibilità di formulare ipotesi e costruzioni di carattere generale: la frammentazione dialettale
dimostra che è impossibile porre limiti definiti non solo tra lingua e lingua, ma anche tra dialetto e
dialetto dato che ogni individuo parla un proprio dialetto diverso da quello di qualunque altro,
chiamato idioletto.
Jules Gilliéron (1854-1926) fece diventare la dialettologia una disciplina autonoma, utilizzando la
raccolta sistematica ‘sul campo’ del materiale dialettale. Ascoli si basò su fonti dialettali scritte,
invece Gilliéron acquisì i dati direttamente dai parlanti dei dialetti mediante un sistema di interviste
effettuate da un unico raccoglitore, Edmont, che non era un linguista ma dotato di sensibilità
fonetica. In questo modo i risultati non erano influenzati da opinioni teoriche preconcette e la
raccolta era omogenea. Il questionario fu sottoposto a parlanti dialettali in 639 località della Francia
ed era costituito da più di 1900 parole. Il risultato del loro lavoro fu il ALF Atlas linguistique de la
France (1912): era formato da una carta geografica per ogni parola indagata, in ogni località si
trovano le diverse forme dialettali corrispondenti. In Italia si contano due atlanti linguistici AIS e ALI
di Bartoli. Gilliéron si rese conto che è impossibile tracciare confini definiti tra i vari dialetti; il
confronto tra le varie forme dialettali gli faceva ipotizzare la presenza di cause diverse dai soli
mutamenti fonetici per quanto riguarda la storia delle parole (come le collisioni omonimiche).
Le posizioni dei neogrammatici, in particolar modo la loro affermazione che le leggi fonetiche non
hanno eccezioni, suscitarono un dibattito molto acceso. Le critiche che venivano fatte partivano da
punti di vista diversi ma tutte si rifiutavano di considerare la linguistica come una disciplina
caratterizzata da una metodologia analoga a quella delle scienze naturali. Infatti i neogrammatici
parlando di “leggi” fonetiche sostenevano che le lingue o entità psichiche dovessero essere
analizzate secondo i canoni delle scienze naturali. In effetti nei primi lavori dei neogrammatici le
leggi fonetiche sono paragonate a quelle della fisiologia, della fisica e della chimica.
Successivamente, un’analisi più accurata della natura di queste leggi indurrà i neogrammatici a
modificare le loro posizioni. Se prendiamo in considerazione la Legge di Grimm sappiamo che è
stata attiva solo nel periodo tra il 400 e il 200 a.C., tutte le parole introdotte successivamente non
presenteranno queste mutazioni. Ciò dimostra che le leggi fonetiche sono limitate nel tempo. Ma
esse sono limitate anche nello spazio: la mutazione consonantica germanica si è verificata soltanto
in un’area definita. Invece le leggi naturali non hanno limitazioni di tempo e di spazio.
I neogrammatici si resero conto che le leggi fonetiche non possono essere assimilate a quelle delle
scienze naturali. Lo stesso Paul, rendendosi conto dell’errore, afferma che la legge fonetica si
limita a constatare la regolarità all’interno di un gruppo di determinati fenomeni storici. I
neogrammatici, comunque, non smisero di considerare la linguistica come una disciplina
metodologicamente affine alle scienze della natura. In sintesi le concezioni linguistiche dei
neogrammatici possono essere ridotte a due principi:
1. Le lingue mutano nel tempo con regolarità;
2. I fattori che agiscono nel mutamento linguistico sono gli stessi per ogni lingua e per ogni
epoca.

25
Curtius, pur affermando che l’analogia e le leggi fonetiche siano due nozioni fondamentali, non
appoggiava nessuno dei due principi dei neogrammatici: egli sosteneva che i cambiamenti fonetici
erano sporadici e che l’analogia non poteva aver operato nelle lingue antiche e operare in quelle
moderne. L’analogia, per lui, era un fattore di disturbo nel funzionamento del linguaggio: era un
anti-uniformista. Anche Ascoli era un anti-uniformista. Egli non condivideva nemmeno
l’impostazione psicologica della linguistica propria dei neogrammatici perché vedeva in questa
impostazione l’abbandono dell’analisi del rapporto lingua-popolazione. Mentre lo studioso dava
grande importanza ai fattori etnici, questi erano trascurati dai neogrammatici, i quali non riuscirono
mai ad elaborare ipotesi convincenti sulle cause del mutamento linguistico, limitandosi a
riscontrarne la regolarità. Schuchardt, nel saggio Sulle leggi fonetiche. Contro i neogrammatici,
insisteva sull’esistenza di mutamenti fonetici sporadici. Associare le leggi al significato voleva dire
rimanere ancorati ad una concezione del linguaggio come organismo naturale, mentre si era ormai
scoperto che è un fenomeno sociale. Inoltre per Schuchardt è impossibile mantenere distinti i due
momenti del mutamento fonetico (legge fonetica + analogia) in quanto in entrambi è attivo il fattore
psicologico. Il comportamento linguistico di ogni individuo è in parte spontaneo e in parte frutto
dell’imitazione del comportamento di altri individui → non è possibile distinguere un mutamento
dovuto a una legge fonetica da uno dovuto ad una ‘scissione dialettale’. Infine non si può
nemmeno affermare che le leggi fonetiche valgono solo per un periodo cronologico: è impossibile
determinare l’inizio e la fine di un periodo cronologico nella storia delle lingue poiché ogni stadio
della lingua è uno stadio transitorio. Tuttavia, in uno dei suoi ultimi lavori, riconobbe che le leggi
fonetiche sono le regole fondamentali del lavoro dell’etimologo. Gilliéron con il suo atlante
linguistico mostra come la storia delle parole sia determinata da fattori diversi e più complessi
rispetto alla semplice evoluzione fonetica priva di eccezioni prevista dalla dottrina neogrammatica.
In realtà tutti i linguisti successivi ai neogrammatici (e così anche Gilliéron) che si sono occupati di
cambiamenti linguistici hanno utilizzato le leggi fonetiche come uno strumento essenziale,
riconoscendo al tempo stesso che esse non spiegano tutti i fenomeni di cambiamento linguistico.
Bloomfield chiarì che con l’espressione “le leggi fonetiche non hanno eccezioni” si voleva dire che
i fattori non fonetici come la frequenza o il significato di forme linguistiche particolari non
interferiscono con il mutamento dei fonemi. Al posto di ‘legge fonetica’ egli utilizzava l’espressione ‘
corrispondenza fonetica regolare’: quando questa regolarità non si riscontra bisogna individuarne
le cause. In conclusione possiamo dire che nel dibattito sulle leggi fonetiche i neogrammatici
uscirono vincitori per quanto riguardava la metodologia della ricerca empirica, ma non riuscirono a
guadagnare il consenso generale per quanto riguardava la loro concezione linguistica.
Benedetto Croce (1866-1952) è l’esponente principale del neoidealismo italiano. Nell’opera
Estetica come scienza dell’espressione e linguistica generale (1902) definisce l’estetica come la
scienza del primo momento dello spirito, ossia quello della conoscenza intuitiva a cui segue il
momento della conoscenza logica o universale. Intuizione e concetto sono le uniche due forme
dello spirito conoscitivo. Estetica e logica sono le sole autentiche scienze. L’intuizione è qualcosa
di ben determinato e si identifica con l’espressione. L’espressione non è solo di carattere verbale,
ma ci sono espressioni musicali, pittoriche, ecc. anche se Croce finisce col trattare
prevalentemente l’espressione linguistica, cosicché la linguistica generale finisce a coincidere con
l’estetica (come mostra il titolo dell’opera). Dato che intuizione equivale ad espressione, si può dire
che ogni espressione sia irriducibilmente diversa dall’altra. Quindi l’estetica non può distinguere le
varie espressioni in generi perché una tale distinzione implicherebbe che esistono elementi comuni
alle varie espressioni. La linguistica non può distinguere classi di parole perché vorrebbe dire che
ci sono parole che svolgono la stessa funzione in espressioni diverse → le classi di parole sono
astrazioni: hanno solo valore empirico o pedagogico, sono una raccolta di schemi utili
all’apprendimento delle lingue, senza pretesa alcuna di filosofica verità. Di conseguenza la

26
linguistica scientifica coincide con l’estetica. Lo spazio che Croce lasciava alla linguistica come
scienza autonoma era molto ridotto: i concetti della disciplina sono utili solo allo scopo pratico → il
concetto stesso di lingua è un’astrazione. Anche se una linguistica come scienza autonoma
dovrebbe essere incompativile con l’accettazione dei principi crociano, alcuni studiosi trovarono
nelle dottrine di Croce lo spunto per elaborare teorie linguistiche da contrapporre a quelle dei
neogrammatici. Karl Vossler (1872-1949) compose l’opera Positivismo (=linguistica di
impostazione neogrammatica) e idealismo (=linguistica ispirata a Croce) nella scienza del
linguaggio. Vossler esclude la possibilità di una linguistica generale che non si identifichi con
l’estetica, mentre ammette la possibilità e la legittimità della linguistica storica: un’impostazione del
genere caratterizzerà non solo questo studioso, ma anche buona parte dei linguisti tedeschi e
soprattutto italiani della prima metà del Novecento.
In Italia il gruppo di linguisti che maggiormente si ispirò alle dottrine crociane fu quello dei
neolinguisti, tra cui vi sono Matteo Bartoli (1873-1946) e Giulio Bertoni (1878-1942). Il Breviario di
neolinguistica, che richiama il Breviario di estetica di Croce (1913), è suddiviso in due parti: Principi
generali di Bertoni; Criteri tecnici di Bartoli. I neolinguisti consideravano come propri ispiratori
Gilliéron (Bartoli aveva progettato AIS: Atlante linguistico italiano), Ascoli (per la polemica contro i
neogrammatici; tuttavia alcuni suoi allievi avevano accettato la dottrina neogrammatica → sia
neolinguisti che neogrammatici si credono legittimi eredi di Ascoli) e la linguistica idealista. I
neolinguisti opponevano il loro spiritualismo al materialismo e al naturalismo dei neogrammatici: la
neolinguistica si propone di trasformare la base dell’indagine naturalistica. Bartoli contrapponeva il
metodo dei neolinguisti a quello dei neogrammatici soprattutto per quanto riguardava “tre
domande” che i neolinguisti consideravano fondamentali e alle quali i neogrammatici non hanno
dato risposta:
1. Qual è il rapporto cronologico tra fasi storiche di una lingua?
Per rispondere a questa domanda Bartoli elaborò le sue norme areali. Norma dell’area isolata o
meno esposta: l’area più isolata conserva di solito la fase anteriore (ex: sardo conserva più
arcaismi di altre varietà romanze). Le altre norme sono quelle delle aree laterali, quella dell’area
maggiore e quella dell’area seriore. Sono norme, non leggi → indicano solo una prevalenza di
casi, non una regolarità ineccepibile. Neppure i neolinguisti potevano rinunciare alla nozione di
legge fonetica; quello che li oppone ai neogrammatici era l’interpretazione di questo concetto e la
concezione della linguistica.
2. Qual è la patria dell’innovazione linguistica?
3. Qual è la causa dell’innovazione linguistica?
Antoine Meillet (1866-1936) fu allievo di Saussure negli anni ’80, quando Saussure non aveva
ancora elaborato le sue teorie → le opere di Meillet non appaiono influenzate dalle idee
saussuriane più innovatrici. Egli accettò l’ineccepibilità delle leggi fonetiche e definiva la legge
fonetica come la formula di una corrispondenza regolare sia tra due forme successive che tra due
dialetti di una stessa lingua (cfr Paul). Egli ricerca leggi che possono non solo descrivere ma anche
spiegare i vari tipi di cambiamenti e superino le limitazioni spazio-temporali proprie delle leggi
fonetiche. Queste leggi ricondurranno a cause fisiche, fisiologiche, sociali, ecc. ma avranno un
carattere grammaticale. Esse indicheranno solo una possibilità: non si può mai prevedere a priori
quali cambiamenti si realizzeranno. Sono le situazioni storiche e sociali a determinare quali di
queste possibilità si realizzi: la linguistica è una scienza sociale ed il mutamento linguistico è legato
a quello sociale → scuola sociologica. Meillet sostiene che il metodo della grammatica comparata
non porta alla ricostruzione dell’indoeuropeo, ma ad un insieme definito di corrispondenze tra
lingue storicamente attestate. Egli adotta le posizioni neogrammatiche: afferma che il rapporto
dell’indoeuropeo rispetto all’ittito, al sanscrito, al greco ecc. è lo stesso di quello del latino rispetto
alla lingue romanze → l’indoeuropeo non aveva nessun particolare tratto “primitivo” che lo

27
distingueva, in termini di superiorità e inferiorità, alle lingue da esso derivate. Secondo lui una
“nazione” indoeuropea sarebbe esistita ma avrebbe avuto la forma frammentata delle città della
Grecia antica. La lingua non sarebbe stata uniforme ma costituita da diversi dialetti: la
differenziazione dialettale si sarebbe riprodotta in ciascun gruppo delle lingue romanze. Egli
considera più corretta la teoria delle onde di Schmidt, anche se non rinuncia del tutto ai concetti
dell’albero genealogico, in quanto ha una forte utilità pratica.

Capitolo 3: Dalla fine dell’Ottocento alla metà del Novecento

3.1 Introduzione (pag.181-198)


Tra la fine del XIX secolo e la metà del XX secolo nasce un tipo di linguistica che si
contraddistingue da quella precedente per queste ragioni:
1. L’abbandono dello ‘psicologismo’ e visione della linguistica come scienza autonoma;
2. L’interesse prevalente per la descrizione delle lingue ad un determinato stadio cronologico;
3. La concezione della lingua come sistema;
4. La postulazione di entità astratte.
Sia da quella che si svilupperà successivamente pe queste ragioni:
1. L’affermazione dell’autonomia della linguistica → nella seconda metà del Novecento si
tornerà ad una sorta di ‘psicologismo’, definito ‘cognitivismo’.
2. In continuità con il secolo precedente vi è il relativismo → successivamente si adotteranno
posizioni universalistiche (ovviamente alcuni studiosi rimarranno ancora legati al
relativismo).
È possibile riconoscere almeno tre motivi della crisi dello psicologismo: la mancata soluzione del
problema del rapporto tra individuale e sociale nel linguaggio; la sostanziale indifferenza della
grammatica storico-comparativa nei confronti dei diversi tipi di psicologia; l’insoddisfazione dei
linguisti nei confronti di un’analisi del linguaggio derivata da leggi psicologiche generali. L’idea di
una lingua come sistema esterno all’individuo e indipendente da lui si impose con una forza
maggiore (concetto di langue di Saussure). L’attenzione dei linguisti del primo Novecento si
spostava dal linguaggio inteso come capacità verso il linguaggio inteso come oggetto. È la natura
del linguaggio in se stessa che ne spiega i fenomeno, come le leggi fonetiche.
Il Novecento è caratterizzato da numerose scuole e studiosi che si dedicarono alla filosofia del
linguaggio in modo differente tra loro. Martin Heidegger (1889-1976) realizza una concezione
metafisica del linguaggio: il linguaggio è dimora dell’essere (utilizza etimologie affascinanti ma
inattendibili per dimostrare l’autenticità di ciò che dice. Il ruolo fondamentale del linguaggio nella
società ha fatto in modo che si cercasse di istituire una linguistica marxista. Nikolaj J. Marr (1865-
1934) cercò di apllicare i concetti marxiani di struttura e di sovrastruttura all’analisi del rapporto tra
linguaggio e società, sostenendo che le lingue variano a seconda della struttura socio-economica.
Queste filosofie assegnano un ruolo fondamentale al linguaggio ma non lo analizzano con le
tecniche elaborate dai linguisti. La filosofia analitica, invece, si concentra sulla struttura e sul
funzionamento del linguaggio. Importanti contribuiti alla filosofia analitica ha portato il
neopositivismo o empirismo logico, nato negli anni venti-trenta ad opera degli studiosi appartenenti
al circolo di Vienna, il cui leader era Moritz Schlick (1882-1936). Il neopositivismo è anzitutto una
filosofia della scienza e della conoscenza, di cui cerca si stabilire limiti e metodi; è caratterizzato da
una decisa posizione antimetafisica, in quanto considera le proposizioni della metafisica come
insensate. I neopositivisti insistevano sull’unità della scienza: qualunque disciplina, se vuole evitare
il rischio di effettuare affermazioni insensate, deve obbedire a determinati criteri di costruzione
delle proprie proposizioni, affini a quelli delle scienze esatte. Nel 1938 Neurath tentò di elaborare

28
un’unica metodologia tanto per le scienze esatte tanto per quelle umane. Questo tentativo di
unificazione metodologica ebbe un effetto relativamente limitato sulla linguistica della prima metà
del Novecento, mentre influì considerovelmente su quella successiva.
I linguisti che segnano il passaggio tra Ottocento e Novecento sono Baudoin, Kruszewski, Sweet e
Jespersen. La loro impostazione è nettamente psicologistica, ma aprono prospettive nuove come
la distinzione tra lo studio della lingua nella sua evoluzione storica e in un suo stato in una
determinata epoca. Trattano tematiche diverse da quelle di grammatica storico-comparativa, si
interessano dello studio delle lingue moderne, sia sotto l’aspetto scientifico che sotto quello pratico
dell’insegnamento e dell’apprendimento.
Jan Baudoin de Courtenay (1845-1929) insegnò grammatica comparata all’università di Kazan’,
dove ebbe come allievo Mikolaj Kruszewski (1851-1887), tanto che si parla di scuola di Kazan’.
Questi linguisti polacchi partirono dalle dottrine dei neogrammatici ponendosi in maniera critica.
Kruszewski criticò le posizioni dei neogrammatici riguardo le leggi fonetiche perché avevano
assunto un’interpretazione troppo morbida di tali leggi, considerandole come delle semplici
constatazioni di corrispondenze regolari tra suoni. Secondo le leggi fonetiche sono di due tipi:
quelle statiche, che riguardano le combinazioni possibili o impossibili di suoni all’interno di una
data lingua, e quelle dinamiche, che asseriscono che suoni identici sono soggetti a cambiamenti
identici. Per quanto riguarda lo studio statico dei suoni, la scuola di Kazan’ distingueva uno studio
puramente fisico da un altro riguardante il ruolo dei suoni nel differenziare i significati. Il primo tipo
di studio è detto ‘antropofonico’ e ha per oggetto tutti i suoni del linguaggio umano dal punto di
vista oggettivo della fisica e della fisiologia; ad esso si contrappone lo studio ‘fonetico’, ossia lo
studio dei suoni in rapporto con il senso delle parole. In certi casi, determinati suoni alternano gli
uni con gli altri per cause antropofoniche, cioè puramente fisiche. Ad esempio la s italiana è
sempre sorda davanti a consonanti sorde, come [s]tentato, sempre sonora davanti a consonanti
sonore, come [z]dentato → [s] e [z] vengono definiti suoni ‘divergenti’, a cui si oppongono suoni
‘correlativi’, cioè quelli la cui alternanza oppone due diverse categorie morfologiche come foot-feet,
tooth-teeth. Baudouin concludeva che le grandezze fonetiche che sono correlativi e corrispondenti
devono essere chiamati fonemi, termine coniato da Dufriche-Desgenettes per indicare il ‘suono del
linguaggio’. Nella scuola di Kazan’ questo termine venne utilizzato per la prima volta da
Kruszewski per designare l’unità fonetica che è opposta al termine suono, che designerebbe l’unità
antropomorfica. A Baudouin si deve la creazione del termine morfema, che indica l’unità minima
dotata di significato. Dopo aver lasciato l’università di Kazan’, Baudouin affrontò altre questioni di
linguistica teorica, storica e descrittiva, accettuando sempre di più l’impostazione psicologica. Tale
impostazione fu criticata da alcuni linguisti successivi come Trubeckoj e Jakobson. In sintesi
questa scuola aveva introdotto una distinzione fondamentale tra un aspetto concreto, fisico-
fisiologico, del linguaggio, costituito dai suoni, e un aspetto più astratto, quello dei fonemi.
Henry Sweet (1845-1912) si preoccupò principalmente della descrizione e dell’insegnamento delle
lingue moderne. I suoi contributi più importanti si devono nell’ambito della fonetica. Si rese conto
che l’ortografia di lingue come l’inglese e il francese non corrispondeva più alla pronuncia reale:
era necessario elaborare un sistema di trascrizione fonetica applicabile al maggior numero
possibile di lingue. Sweet si rese conto che questa trascrizione fonetica poteva essere di due tipi:
una trascrizione ‘stretta’, con fini scientifici, che riproduce tutte le proprietà di un determinato
suono, e una trascrizione ‘larga’, con finalità pratiche, che si limita ad indicare quelle distinzioni di
suono che corrispondono a variazioni di significato nella lingua (una distinzione simile era
statafatta da Baudouin). Sweet s’impegnò anche dal punto di vista organizzativo per il
rinnovamento dello studio delle lingue moderne. Il risultato più importante fu nel 1886 la
fondazione dell’International Phonetic Association (IPA), il cui impegno fu quello di creare un
alfabeto fonetico internazionale, che, con qualche aggiustamento, viene utilizzato ancora oggi.

29
Anche Otto Jespersen (1860-1943) fu attivo nei campi della fonetica e dell’insegnamento (Come
si insegna una lingua straniera). Egli affrontò anche i problemi riguardanti il linguaggio in generale;
si dedicò a ricerche di morfologia e sintassi. Jespersen adottò la prospettiva psicologistica, anche
se introdusse alcune novità. Egli tentò di costruire una logica del linguaggio (legame tra logica e
grammatica): da un lato il sistema grammaticale è organizzato in base a leggi proprie (logica del
linguaggio che si manifesta nella dottrina dei ‘tre ranghi’), dall’altro certe nozioni universali vengono
espresse nelle varie lingue tramite strutture sintattiche diverse. Tali nozioni sono chiamate
‘categorie nozionali’ alle quali si contrappongono le ‘categorie formali’: il rapporto tra questi due tipi
+ mediato dalle categorie sintattiche. La grammatica non deriva le sue categorie da quelle della
psicologia, ma ricorre a questa scienza per comprendere ciò che accade nella mente dei parlanti.
Egli afferma che solo una parte dei nostri enunciati consiste nella ripetizione di formule fisse,
mentre un ruolo decisivo è rivestito dalla creazione di enunciati nuovi (ossia espressioni libere)
costruiti in base a un determinato schema. Infatti il bambino, nonostante non conosca ancora le
regole grammaticali, riesce a costruire frasi complesse sulla base di quelle che ha sentito. La
dottrina dei tre ranghi (primario, secondario, terziario): Jespersen riconosce il rango che una parola
può assumere in una determinata configurazione sintattica dalla parte del discorso a cui tale parola
appartiene. Ad esempio un sostantivo può avere rango primario (se utilizzato come soggetto,
oggetto diretto o indiretto); secondario (in casi come weather report in cui weather è secondario e
report è primario); terziario (come part in emotions, part religious, part human); l’aggettivo ha
solitamente la funzione di secondario, eccetto quando è sostantivato che assume il rango primario;
gli avverbi hanno normalmente la funzione di terziario, più raramente possono essere il termine
primario; i verbi di forma finita possono essere soltanto termini secondari, mentre quelli all’infinito
tutti e tre i ranghi. Anche la classificazione delle proposizioni subordinate è riformulata secondo la
dottrina dei tre ranghi: subordinate oggettive e soggettive hanno funzione di termine primario, le
relative di termine secondario, le avverbiali di termine terziario. Jespersen introduce anche
l’opposizione tra ‘giunzione’ e ‘nesso’: egli non dà mai una definizione esplicita, ma è chiaro che
con il primo termine si riferisce alla connessione attributiva, col secondo alla connessione
predicativa.

3.2 Il linguaggio naturale e i logici del primo Novecento (pag.198-212)


Anton Marty (1847-1914) classificava i segni del linguaggio in due categorie: gli ‘autosemantici’,
che presi da soli sono l’espressione di un contenuto psichico comunicabile di per sé, e i
‘sinsemantici’ che non possiedono la capacità dei primi. Fanno parte della prima categoria le frasi
e i sintagmi nominali, mentre gli altri segni appartengono alla categoria dei ‘sinsemantici’,
all’interno della quale vi è la distinzione tra quelli ‘logicamenti fondati’, alla cui composizione
corrisponde un’analoga composizione nel pensiero, e ‘logicamente non fondati’, quelli per cui non
vi è alcuna corrispondenza.
Gottlob Frege (1848-1925) si dedicò alla creazione di una ‘ideografia’, cioè di un linguaggio
simbolico capace di rappresentare il pensiero in modo rigoroso. Egli non era solo un critico del
linguaggio, ma anche uno dei primi oppositori dello psicologismo. Egli cercò di capire il modo in cui
funziona il rapporto tra parole e oggetti che queste designano. Partendo dall’analisi delle
uguaglianze, si chiese se l’uguaglianza è una relazione tra oggetti oppure tra nomi o segni di una
relazione. Se fosse una relazione tra oggetti allora a=b, nel caso sia vera, dovrebbe essere
equivalente ad a=a, ma il valore conoscitivo è diverso: un enunciato come ‘la stella del mattino è la
stella del mattino’ ha valore conoscitivo nullo, mentre ‘la stella del mattino è la stella della sera’ ha
un valore conoscitivo notevole (entrambi si riferiscono a Venere). Se inveceil segno di uguaglianza
esprime una relazione tra segni di oggetti, allora un enunciato come a=b sarebbe soltanto un
modo per designare lo stesso oggetto e non esprimerebbe alcuna nozione aggiuntiva. Ma è

30
davvero così? Come si può risolvere il problema? Frege distingue tra ‘senso’ (Sinn) e ‘significato’
(Bedeutung): il primo è il modo in cui l’oggetto ci è dato tramite il segno; il secondo è l’oggetto
indicato dal segno. Ad esempio ‘stella del mattino’ e ‘stella della sera’ hanno lo stesso significato
ma senso diverso (entrambi indicano Venere, ma sono espressi in modo diverso). Un’espressione
può avere senso ma non significato, mentre non esistono espressioni che hanno significato ma
non hanno un senso. Egli introduce anche il termine ‘rappresentazione’, intesa come il contenuto
soggettivo che ognuno può associare al segno. Il senso di un enunciato è il pensiero espresso da
quell’enunciato. Il pensiero è qualcosa di oggettivo, comune a tutti gli esseri umani → se i pensieri
fossero entità individuali non sarebbe possibile comunicare. Un pensiero, e quindi l’enunciato che
lo esprime, può essere vero o falso. Questa impostazione non presenta problemi per le frasi
dichiarative, ma è meno chiara per quelle interrogative, imperative ecc, oppure per tutte quegli
enunciati che contengono termini deittici come qui, ora, oggi. Frege sostiene che la questione della
verità non si pone per tutti i tipi di enunciati, come quelli ottativi, imperativi ecc. Oltre agli enunciati
dichiarativi prende in considerazione anche quelli interrogativi la cui risposta può essere ‘sì’ o ‘no’.
Per quanto riguarda gli enunciati che contengono i deittici Frege li considera degli enunciati
incompleti che possono essere analizzati solo se si conosce il contesto. Le nozioni di vero e falso
sono fondamentali anche per quanro riguarda la concezione che Frege ha del significato
dell’enunciato, che definisce ‘valore di verità’: tutti gli enunciati assertori veri avranno come
significato il Vero e tutti quelli falsi il Falso. Egli introduce anche il ‘principio di composizionalità’
secondo cui il significato di un enunciato è ottenuto componendo i significati delle espressioni che
figurano in esso.
Russel e Wittgenstein sono due tra i più importanti filosofi del Novecento, la cui produzione è
particolarmente vasta. Bertrand Russel (1872-1970) con ‘descrizione definita’ intendeva
un’espressione introdotta da un articolo determinativo come ‘la stella del mattino’, ‘il re di Francia’
ecc.: queste espressioni erano fatte rientrare da Frege nella categoria dei nomi, ma Russel, pur
condividendo la distinzione tra senso e significato, non è d’accordo. Se così fosse un nome proprio
potrebbe essere sostituito da una descrizione definita che ha lo stesso significato, ovvero che
indica lo stesso oggetto, e questo ci condurrebbe a conclusioni paradossali. Ad esempio ‘l’attuale
re di Francia è calvo’: è vera o è falsa? Dato che la Francia è una repubblica → il re di Francia non
esiste → non può esserci un re di Francia calvo → poiché il primo enunciato è falso e le due
proposizione sono legate da congiunzione → tutta la proposizione è falsa. Questo problema era
stato già affrontato da Frege ed aveva concluso che la frase così posta era falsa, ma se veniva
inserita la negazione (‘l’attuale re di Francia non è calvo’) diventava vera. Noi non saremmo
d’accordo in quanto il re di Francia non c’è. Secondo lui il problema è che ‘l’attuale re di Francia’ è
un’espressione priva di significato: pertanto anche l’enunciato che la contiene è privo di significato;
e dato che il significato di un enunciato è il suo valore di verità, tale enunciato non è né vero né
falso. La presupposizione di un enunciato A è dunque l’enunciato B che deve essere vero perché
A possa avere un valore di verità. Russel aveva presente la soluzione di Frege, ma ritiene che la
frase sia ambigua, poiché vuol dire tanto “esiste un’entità che è ora il re di Francia e questa entità
non è calva” quanto “è falso che esista un’entitàche ora è il re di Francia ed è calva”. Il dibattito su
quale sia la soluzione più corretta tra quella di Frege e Russel non è ancora risolta. Entrambi gli
studiosi condividevano un analogo atteggiamento nei confronti del linguaggio naturale, considerato
imperfetto: nel caso di Frege, perché contiene nomi senza significato; nel caso di Russel, perché la
forma grammaticale della proposizione è diversa dalla sua forma logica. Anche Ludwing
Wittgenstein (1889-1951) ha un atteggiamento di svalutazione del linguaggio naturale. Il
Tractatus logico-philosophicus ha come scopo quello di mostrare come la struttura imperfetta del
linguaggio naturale sia all’origine dell’insensatezza di molte questioni filosofiche. La sua opera
conteneva anche molte osservazioni di grande rilievo su argomenti di logica, di epistemologia e

31
anche di etica. Questo è uno dei testi alla base del neopositivismo, anche se Wittgenstein non
aderì esplicitamente. Secondo lui il mondo è un insieme di ‘stati di cose’: le proposizioni elementri
sono immagini di stati di cose. Significa che ad ogni elemento della realtà deve corrispondere un
determinato ‘segno semplice’ nella proposizione e che le relazioni tra i vari elementi devono essere
rispecchiate da quelle tra i segni semplici. Wittgenstein considera i nomi e le proposizioni come le
due categorie fondamentali di segni, come Frege, ma attribuisce il ‘significato’ soltanto ai nomi e il
‘senso’, ovvero lo stato di cose che descrivono, soltanto alle proposizioni. Se questo stato di cose
sussiste, la proposizione è vera; altrimenti, è falsa. Nel caso in cui uno dei segni semplici di cui è
costituita la proposizione è privo di significato, cioè non corrisponde ad alcun oggetto della realtà,
la proposizione non è falsa, ma ‘insensata’. Secondo lui le proposizioni della metafisica
tradizionale possono essere benissimo comprensibili, ma nessuna di essa è sensata, perché
contengono nomi a cui non corrispondono oggetti reali → rifiuto della filosofia. A partire dalla
seconda metà del Novecento Wittgensteoi elaborò una nuova concezione del linguaggio in cui le
nozioni di verità e riferimento ebbero poco spazio e diede inizio a quella filosofia del linguaggio
ordinatio che divenne la ase della pragmatica linguisica.
La sistemazione organica di questo tipo di semantica si ebbe con Albert Tarski (1901-1983). Egli
ritiene che la considizione necessaria e sufficiente affinché un enunciaro sia vero è espressa nel
modo seguente: (I) l’enunciato “la neve è bianca” è vero (in italiano) se e solo se la neve è bianca.
Per comprendere questo enunciato, che potrebbe sembrare banale, è necessario distinguere tra
‘metalinguaggio’ e ‘linguaggio oggetto’: con il primo si intende il linguaggio in cui formuliamo la
nostra teoria semantica; con il secondo , il linguaggio di cui questa teoria si occupa. La condizione
(I) è un enunciato del metalinguaggio, mentre ‘la neve bianca’ è un enunciato del linguaggio
oggetto. Per capire la differenza è necessario questo esempio: in (2) il metalinguaggio è l’inglese e
il linguaggio oggetto è l’italiano; in (3) è il contrario.
(2) The sentence “la neve bianca” is true (in italian) if and only if snow is white.
(3) L’enunciato “snow is white” è vero (in italiano) se e sole se la neve è bianca.
Secondo Tarski l’utilizzo di due sistemi linguistici diversi per il metalinguaggio e il linguaggio
oggetto è una necessità: il metalinguaggio è più ‘potente’ rispetto all’altro. Questa necessaria
differenza rende impossibile la costruzione di una semantica adeguata delle lingue naturali. Solo la
semantica delle lingue formalizzate può essere costruita con metodi esatti. In realtà egli sembra
convinto, almeno in un primo momento, che non si possano costruire linguaggi formalizzati la cui
struttura si allontani troppo dalla grammatica delle lingue naturali. In ogni caso il risultato delle sue
ricerche è stato percepito come analogo a quello di Russel e Wittgenstein, quindi fino alla metà del
Novecento non suscitò particolare interesse (eccezione Hjemslev).

3.3 La lingua come codice: Ferdinand de Saussure


Nato a Ginevra, trasferitosi in gioventù a Lipsia per dedicarsi alla linguistica storico-comparativa,
ottenne un dottorato (1876-1880) con una tesi dedicata ad alcuni fenomeni di sintassi del
sanscrito. Un paio d’anni prima aveva pubblicato un volume dedicato al sistema vocalico
dell’indoeuropeo e al liceo aveva elaborato autonomamente la teoria delle nasali sonanti.
L’innovazione principale era quella del ‘coefficiente sonantico’: un’entità che, ipotizzata nella lingua
madre ricostruita, permette di spiegare le alternanze tra vocali brevi e lunghe. Così, la differenza
tra una ĕ e una ē si spiega che la seconda sia uguale alla prima più un coefficiente sonantico;
quando il coefficiente ricorre da solo tra due consonanti si trasforma in vocale (quando venne
decifrato l’ittito si ritrovarono suoni corrispondenti a questi coefficienti sonantici solo ipotizzati).
L’obiettivo di fondo di Saussure era una riflessione generale sui metodi e gli scopi della linguistica
e poté realizzarlo grazie all’affidamento di tre corsi di ‘linguistica generale e storia e comparazione
delle lingue europee’ tra il 1906 e il 1911. Dopo la sua morte, due suoi allievi, Bally e Sechehaye,
basandosi sugli appunti presi da alcuni uditori, pubblicarono il volume Cours de linguistique
générale (prima edizione 1916 e terza e definitiva 1922)  notevole arbitrarietà perché non
32
disponevano di scritti originali. La ricostruzione più fedele è stata possibile grazie a Godel ed
Engler, al quale dobbiamo la versione del ’22: il testo è distribuito su sei colonne che permettono di
confrontare il testo di Saussure con i quaderni di appunti e con alcune note autografe.
La formazione di Saussure si svolse nello stesso ambiente dei neogrammatici e le sue prime
ricerche riguardano argomenti tipici di questa scuola. Una delle caratteristiche del suo pensiero è
l’approccio sistemico: ogni entità della lingua può essere definita esattamente solo in base al
sistema di relazioni che ha con altre entità (quest’impostazione caratterizzerà la linguistica
strutturale, più direttamente influenzata da Saussure). Un altro tratto distintivo è la tendenza a
costruire una linguistica autonoma, indipendente da altre discipline (molto difficile da realizzare
totalmente). Possiamo riassumere il pensiero in quattro dicotomie:
1) langue vs. parole => il linguaggio è multiforme ed eteroclito e ha un lato sociale e un lato
individuale. Il lato sociale è la langue mentre quello individuale è la parole, cioè
l’utilizzazione che i singoli parlanti fanno del repertorio linguistico (atto concreto del
parlare). La parole forma un circuito tra parlante e ascoltatore: il parlante associa a un
‘concetto’ una ‘immagine acustica’ (processo psichico), trasmette agli organi fonatori gli
impulsi corrispondenti a tale immagine acustica (processo fisiologico) e questi impulsi
generano onde sonore (processo fisico) [ordine inverso nell’ascoltatore]. Tra tutti gli
individui collegati dal linguaggi si instaura un media, un legame sociale che costituisce la
langue: depositata dalla pratica della parole, esiste perfettamente soltanto nella massa. Il
problema era come conciliare il fatto che il linguaggio esista concretamente solo negli
individui ma permetta la comunicazione. In opposizione a Paul, Saussure indica che la
langue è prioritaria rispetto alla parole: è un insieme di possibilità del quale la parole è
l’utilizzazione concreta. Nei suoi appunti, Saussure indica una terza distinzione, quella di
langage che, non solo è definito come l’oggetto multiforme da suddividere in langue e
parole, ma è anche la facoltà che permette agli esseri umani di acquisire una lingue (><
Gabelentz.
2) sincronia vs. diacronia => Saussure definisce la diacronia come una serie di avvenimenti
indipendenti l’uno dall’altro, mentre la sincronia riguarda sempre il rapporto tra elementi
simultanei. La sincronia è un sistema (pl. Gäste >< sg. Gast); la diacronia è invece un
insieme di cambiamenti irrelati l’uno con l’altro e che si producono fuori da ogni intenzione
(gasti < Gäste). I fatti sincronici sono sistematici e significativi, quelli diacronici isolati e
ateleologici. Lo studio sincronico comincerà a prevalere su quello diacronico. Questa
opposizione induce Saussure a rielaborare il concetto di legge linguistica: un’entità sociale
che deve essere ‘imperativa’ e ‘generale’ e imporsi a tutti, entro certi limiti di tempo e luogo.
Le leggi sincroniche sono generali ma non imperative in quanto descrivono una regolarità
che può essere violata, dando origine a un nuovo stato di lingua; le leggi diacroniche sono
invece imperative, perché registrano corrispondenze che si sono sempre verificate, ma non
sono generali perché non riguardano il sistema nel suo complesso. NON esistono leggi nel
senso giuridico e un punto di vista pancronico non raggiunge mai i fatti particolari di una
lingua.
3) significante/signifiant vs. significato/signifié => il segno linguistico è un’entità psichica a
due facce, un concetto e un’immagine acustica, ed è arbitrario. Il rapporto tra significato e
significante, non è prima di tutto un rapporto tra linguaggio e realtà ma un rapporto interno
al linguaggio stesso. Il segno ha un rapporto determinato solo dal suo rapporto con gli altri
segni del sistema linguistico a cui appartiene. il significato è il valore dal punto di vista del
contenuto, il significante dall’espressione. Il valore di un segno è puramente differenziale e
oppositivo: è lo spazio che non è occupato dagli altri segni. Le lingue sono insiemi di valori
determinati dal loro rapporto reciproco, che si riferiscono alla realtà in modi diversi: ogni
lingua si rapporta diversamente alla realtà e ogni significato è distinto da altrettanti
significati. Dato che i segni linguistici non hanno alcun valore intrinseco, l’unica garanzia
della loro stabilità sta nel fatto che appartengono a un sistema condiviso da un gruppo
sociale, la langue (linguistica parte della semiologia, che studia la vita dei segni nel quadro
della vita sociale).
4) rapporti sintagmatici vs. rapporti paradigmatici (associativi) => unica divisione
razionale della grammatica. I rapporti paradigmatici appartengono alla langue; per ciò che
riguarda quelli sintagmatici, De Mauro è giunto alla conclusione che le frasi e i sintagmi
33
appartengono alla parole in ciò che hanno di dipendente dalla volontà individuale, quindi
non in tutta la loro realtà.

3.4 Sviluppi della linguistica saussuriana


Le ‘scuole’ successive a Saussure sono dei gruppi di studiosi che condividevano alcuni punti di
partenza e alcuni scopi di ricerca ma che si muovevano in grande autonomia l’uno dall’altro. Tra le
caratteristiche comuni che si richiamano al pensiero saussuriano, la concezione della lingua come
sistema, o struttura, ossia come un insieme di entità definite dalle loro relazioni reciproche, e
l’abbandono dello psicologismo.
SCUOLA DI GINEVRA. I primi membri furono gli editori di Saussure, Bally e Sechehaye: tuttavia
presentano ancora aspetti di psicologismo. Sechehaye individuava come uno dei compiti della
linguistica teorica la soluzione del ‘problema grammaticale’, cioè quello che si pone quando si
cerca dietro la grammatica il fondamento psicofisiologico delle sue origini, delle sue leggi e del suo
funzionamento. Bally è stato promotore di un metodo destinato a fecondare la scienza e
l’insegnamento della lingua, mentre Sechehaye si è legato alla revisione delle nozioni e dei metodi
grammaticali. Nonostante queste differenze di impostazione e interessi, presentarono una
relazione congiunta nel 1928 in cui ribadivano alcuni punti fondamentali della dottrina di Saussure:
la necessità di tenere distinti lo studio della grammatica di una lingua dalla storia di questa lingua;
l’abbandono di un metodo ultra-psicologico; l’esigenza di fondare ogni tipo di descrizione
grammaticale sull’opposizione di rapporti sintagmatici e paradigmatici. Il terzo esponente è Frei, il
cui lavoro più importante è un esempio di linguistica funzionale dedicato al français avancé.
SCUOLA DI PRAGA. È la scuola che mostra più coesione interna: tra i suoi membri ricordiamo
Mathesius, fondatore nel 1926 del ‘Circolo linguistico di Praga’, Jakobson e Trubeckoj.
Quest’ultimo è noto soprattutto per i suoi studi di fonologia; tra i suoi risultati, la nozione di lega
linguistica (Sprachbund), cioè l’insieme di quelle lingue che mostrano caratteri comuni sviluppati
per contatto reciproco, e un ripensamento della nozione di ‘famiglia linguistica indoeuropea’, cioè
un insieme di lingue i cui caratteri comuni derivano da una stessa lingua madre. Distinguendo lega
linguistica da famiglia linguistica ma sostenendo la necessità di entrambe le nozioni, Trubeckoj
veniva a conciliare la teoria delle onde di Schmidt con il modello ad albero genealogico di
Schleicher. Le posizioni della Scuola di Praga, negli anni ’30 del novecento, si possono riassumere
in: a) un atteggiamento antistoricistico; b) una concezione dinamica del sistema linguistico; c)
antipsicologismo; d) un interesse per i fenomeni di convergenza linguistica (lega linguistica); e)
un’attenzione per i problemi del linguaggio poetico. L’impostazione si può definire srtuttural-
funzionalista.
SCUOLA DI COPENAGHEN. Fondata nel 1931, i componenti più importanti erano Brøndal e
Hjelmslev, entrambi condividevano un punto di vista decisamente strutturalista. Mentre il primo
sosteneva che il linguaggio si basava sulla logica e cercava di fornire un’analisi basandosi sugli
strumenti della logica, lo scopo del secondo era quello di fondare la linguistica sulla logica, nel
senso di logica della scienza. Brøndal definiva la struttura come un oggetto autonomo e di
conseguenza come non derivabile dagli elementi di cui non è né l’aggregato né la somma.
Potremmo definire il funzionalismo come il tentativo di spiegare le strutture del linguaggio in base
al suo uso come strumento di comunicazione. Per Bally, il linguaggio naturale comprende tanto un
aspetto ‘intellettuale’ quanto un aspetto ‘affettivo’: l’uso concreto del linguaggio implica sempre una
relazione dialogica, in cui il parlante non solo vuole trasmettere all’ascoltatore determinati
contenuti, ma anche comunicargli le sue emozioni, raggiungere determinati scopi etc. (>> affettività
ed espressività). Lo studioso chiama ‘stilistica’ la disciplina che deve descrivere l’azione combinata
dell’aspetto intellettuale e dell’aspetto affettivo del linguaggio: il suo compito è cercare i tipi
espressivi che, in un periodo dato, servono a realizzare i moti del pensiero e del sentimento dei
soggetti parlanti e studiare gli effetti prodotti spontaneamente nei soggetti che ascoltano. Il
contrasto tra langue e parole è da lui interpretato come ‘attualizzazione’, intendendo il fatto che
tutti i concetti di langue sono virtuali e nella realtà gli oggetti devono essere accompagnati da
‘attualizzatori’ (es. deittici); la langue precede la parole dal punto di vista statico, viceversa nella
genesi del linguaggio. Mathesius tracciava una distinzione tra un modo ‘statico’ e uno ‘dinamico’
di analizzate il linguaggio (sincronia><diacronia). Un aspetto importante delle sue ricerche riguarda
la sintassi: adottando un’impostazione funzionalistica, l’analisi della frase è di puro impianto

34
comunicativo ed è definita ‘concreta’ distinta da quella ‘formale’. L’analisi formale suddivide la frase
in soggetto e predicato, mentre quella concreta in tema e rema (enunciazione, ciò che si dice a
proposito del tema): entrambe sono necessarie perché non sempre coincidono. Al termine della
discussione generale tenuta nel 1928 al Congresso dell’Aja, i due gruppi di studiosi decisero di
fondere le proprie tesi in una formulazione comune, articolata in sei punti. Assistiamo all’incontro
tra sincronia e diacronia e la concezione di sistema. I praghesi superano il neogrammaticismo di
Saussure, che lo portava a parlare di sistema sincronico ma non di sistema diacronico, affermando
che le esigenze del sistema governano anche la diacronia. Le varie posizioni furono riprese e
ampliate nelle dieci Tesi del ’29. La prima (Mathesius + Jakobson) s’intitola Problemi di metodo
derivanti dalla concezione della lingua come sistema (e importanza di tale concezione per le lingue
slave): sottolinea che la lingua è un sistema di mezzi di espressioni appropriati a un fine; l’analisi
sincronica è il mezzo più adeguato per studiare una lingua ma l’opposizione con la diacronia non è
da interpretare in modo assoluto; la comparazione è utile non solo per ricostruire l’origine comune
di lingue apparentate geneticamente ma anche per scoprire leggi strutturali dei sistemi linguistici; si
parla di concatenamento secondo le leggi dei fatti evolutivi, i cambiamenti linguistici non sono più
fenomeni isolati. La seconda tesi (Jakobson), Compiti da affrontare per lo studio di un sistema
linguistico, è divisa in due parti: la parte a riguarda lo studio dei suoni; la parte b lo studio della
parola e dei gruppi di parole. I praghesi distinguono tre discipline: la teoria della parola come
denominazione; la teoria dei processi sintagmatici e la morfologia del nuovo senso che è la teoria
dei sistemi delle forme di parole e gruppi. La terza tesi (Jakobson + altri), Problemi di ricerche
intorno alle langues di diverse funzioni, si dedica alle funzioni della lingua, alla lingua letteraria e
alla lingua poetica. La prima parte afferma che se non si tiene conto della diversità di funzioni della
lingua, il suo studio non può essere adeguato; le distinzioni funzionali da distinguere sono quelle
tra linguaggio interno e manifesto e tra ‘intellettuale’ e ‘affettivo’. Jakobson riprenderà le funzioni
del linguaggio sostenendo che sono in totale sei: la funzione emotiva (emittente), la funzione
conativa (destinatario), la funzione referenziale (contesto), la funzione metalinguistica (codice), la
funzione fàtica (canale di comunicazione) e la funzione poetica (messaggio).
La fonologia praghese indica una teoria precisamente elaborata da questi linguisti. Gli aspetti più
importanti sono:
1. fonetica >< fonologia => la prima può essere definita come scienza del lato materiale del
linguaggio umano (i suoni), la seconda deve studiare quali differenze di suono in una data
lingua sono collegate a differenze di significato. Le particolarità acustiche/articolatorie,
importanti per il fonetista, sono irrilevanti per il fonologo.
2. concetto di fonema (jakobson + Trubeckoj) => chiamiamo fonemi le unità fonologiche che,
dal punto di vista di una data lingua, non si possono dividere in unità fonologiche minori
susseguentisi: sono la più piccola unità fonologica di una data lingua. L’unità fonologica è
quella che distingue i significati, è pertinente: il fonema è l’insieme delle proprietà
fonologicamente pertinenti di una data lingua, mentre il suono linguistico è l’insieme di
quelle pertinenti e non. Secondo le quattro regole elaborate da Trubeckoj, per essere
considerati realizzazioni di due fonemi diversi, due suoni devono poter ricorrere nella
stessa posizione e produrre un cambiamento di significato (coppia minima). Al concetto di
fonema si contrappone quello di variante, cioè di realizzazione diversa di uno stesso
fonema il cui scambio non produce cambiamento di significato. Le varianti si distinguono in
facoltative (suoni diversi che ricorrono nella medesima posizione senza produrre
cambiamento d significato: r francese) e combinatorie (realizzazioni di uno stesso fonema
in contesti diversi)
3. classificazione logica delle opposizioni distintive => Trubeckoj osserva che per opporre due
entità bisogna che esse abbiano almeno una proprietà in comune. Le opposizioni si
classificano in base a tre diversi punti di vista: a) il loro rapporto con l’intero sistema di
opposizioni; b) il rapporto tra i membri dell’opposizione; c) la misura della loro validità
distintivi. Nel primo caso abbiamo opposizioni bilaterali (t >< d), plurilaterali (d >< g >< b),
proporzionali, quando il rapporto tra due membri e identico al quello tra membri di un’altra
opposizione, e isolate (p >< [ ∫ ]). Nel secondo caso ci sono opposizioni privative, quando
uno dei suoi membri è caratterizzato da un tratto assente nell’altro (marcato >< non
marcato), graduali, quando una stessa proprietà è realizzata in gradi diversi, ed

35
equipollenti, in cui i membri stanno logicamente su un piano di parità (patto >< tatto). Il
terzo caso contiene opposizioni costanti e neutralizzabili: la neutralizzazione è un
fenomeno non marcato, mentre il membro opposto è marcato.
4. principi di fonologia storica => il mutamento di suono può non avere effetti fonologici. Si
parla di ‘defonologizzazione’ quando il mutamento di suono abolisce un’opposizione tra
fonemi, mentre si parla di ‘fonologizzazione’ se diventano due fonemi diversi (+
‘rifonologizzazione’, cioè modifica di un’opposizione rispetto alla precedente). Il compito del
cambiamento è ristabilire l’equilibrio, tenendo conto però della possibilità di creare rotture in
altri punti del sistema. Il metodo di Jakobson è definito integrale e si basa sul principio che
ogni modificazione deve essere trattata in funzione del sistema all’interno del quale si è
verificata; adotta un punto di vista sistematico e finalistico superando l’eredità lasciata dai
neogrammatici. Queste osservazioni accentuarono la concezione della linguistica propria
dello strutturalismo, ossia come scienza autonoma, fondata unicamente sulle nozioni di
funzione e struttura, non riconducibile alla metodologia di nessun’altra scienza.
Nelle sue ricerche in ambito fonologico, Jakobson si concentrò su due aspetti: l’acquisizione del
sistema fonologico da parte di un bambino e la sua perdita da parte dell’afasico e una teoria
generale delle opposizioni fonologiche in termini di presenza o assenza di tratti (binarismo). Per la
sua prima ricerca, Jakobson ritiene che l’ordine di acquisizione dei suoni linguistici da parte del
bambino è speculare a quello della loro perdita da parte dell’afasico: i suoni appresi per ultimi dal
bambino sono persi per primi dall’afasico e viceversa. Queste leggi generali dell’acquisizione si
riconducono a leggi generali della struttura dei sistemi fonologici (es. le fricative non vengono
acquisite prima delle occlusive = non esistono sistemi di lingue che hanno fricative ma non
occlusive). Questi enunciati hanno forma implicazionale e sono ‘leggi fonetiche generali’:
intendono essere valide per tutte le lingue del mondo e hanno il loro fondamento nella struttura
generale dei sistemi fonologici, diversamente dalle leggi dei neogrammatici, limitate nel tempo e
nello spazio. La prima formulazione del binarismo di Jakobson risale agli anni ’30 ma la sua
elaborazione è del dopoguerra: l’innovazione consiste nell’affermare che i fonemi sono binari, cioè
caratterizzati dalla presenza o dall’assenza di determinati tratti distintivi, indicati rispettivamente
con i segni ’+’ o ‘-‘ (± vocalico, ± consonantico, ecc.). I tratti sono ipotizzati come universali: in
qualsiasi lingua, i fonemi non possono contenere che questi tratti; le differenze tra varie lingue
sono dovute al fatto che non tutti i tratti sono presenti in tutte, oltre al fatto che certi fonemi
possono avere un valore in una lingua e il valore opposto in un’altra. I tratti binari proposti sono 12.
Martinet (fondatore del ‘Circolo linguistico di New York) ampliò i suoi orizzonti alla fonologia
generale, diacronica e alla teoria generale del linguaggio. Una delle sue preoccupazioni è
individuare le proprietà che distinguono il linguaggio umano da altri sistemi chiamati ‘linguaggi’
come quelli delle varie specie di animali o i codici internazionali. Tali proprietà sono: la funzione
comunicativa, la natura fonica (il linguaggio naturale è essenzialmente un fenomeno vocale) e la
doppia articolazione  il fatto che le lingue naturali sono analizzabili in due diverse specie di unità:
quelle di ‘prima articolazione’, cioè i segni, che sono dotati di significante e significato e sono un
numero illimitato; la ‘seconda articolazione’, cioè i fonemi che non hanno un significato proprio ma
sono solo distintive del significato e sono di numero molto limitato. Il fatto che il linguaggio sia
doppiamente articolato è probabilmente dovuto a un motivo di economia. Nel suo lavoro di
fonologia diacronica, Martinet dà importanza non solo ai ‘fattori interni’ ma anche a quelli ‘esterni’
nel cambiamento fonetico: con i primi si intendono quelli relativi al sistema linguistico, con i secondi
ci si riferisce a elementi di condizionamento dati da diversi fattori. La nozione fondamentale è
quella di ‘economia’: da un lato la tendenza a ricorrere al minor numero di elementi e dall’altro
quella di tenerli il più possibile distinti. Egli rifiuta il binarismo di Jakobson, considerandolo troppo
aprioristico, e afferma che un fonema può avere più di due tratti: senza una robusta evidenza
empirica alcune ipotesi non possono nemmeno essere avanzate. Martinet riformula in termini di
economia i fenomeni di mutamento extrafonologico (mutamenti privi d’incidenza sul sitema);
rifonologizzazione (aumento del grado d’integrazione nel sistema); defonologizzazione
(abbandono di opposizioni fonematiche che non offrivano vantaggi) e fonologizzazione
(trasferimento di alcuni tratti distintivi da un segmento all’altro della catena). Riassumere in
concetto di equilibrio del sistema: le lingue sono mutevoli e devono continuamente adattarsi alle
circostanze, per cui è impossibile raggiungere un equilibrio completo.

36
Hjelmslev, della Scuola di Copenaghen, tenta di fondare la linguistica di Saussure sulla filosofia
della scienza neopositivista. Insieme a Uldall elabora la teoria della glossematica: la parola
glossema indica un’unità minima di analisi su qualunque livello. A questa linguistica ‘trascendente’
si contrappone una linguistica ‘immanente’, cioè rivolta solo all’analisi dell’insieme di dipendenze
che costituiscono la struttura di una lingua: la glossematica avrebbe dovuto essere applicata a
tutte le strutture analoghe al linguaggio naturale, ma questo progetto fallì. Per Hjelmslev, la teoria
linguistica deve essere ‘arbitraria’ e ‘adeguata’, cioè indipendente da qualsiasi esperienza,
costituente un sistema deduttivo e che rispetta l’esperienza precedente. Le entità linguistiche
fondamentali sono le funzioni, che costituiscono il principio che sta alla base di quello di
dipendenza e perciò vero principio inerente e costitutivo della struttura. Il compito del linguista
consiste nel ridurre le dipendenze a funzioni = termine che si riferisce alle dipendenze interne che
costituiscono la stessa struttura. Queste dipendenze sono di tre tipi: se i due termini si
presuppongono reciprocamente, si dicono ‘interdipendenze’; se uno dei due termini presuppone
l’altro ma non viceversa, ‘determinazioni’; se i due termini sono compatibili ma nessuno dei due
presuppone l’altro, ‘costellazioni’ (+ combinano con asse dei rapporti sintagmatici e paradigmatici).
Hjelmslev dà importanza all’interdipendenza tra espressione e contenuto: un’espressione è tale
grazie al fatto che è espressione di un contenuto e un contenuto è tale solo in quanto contenuto di
un’espressione. Per analizzare il segno linguistico bisogna partire dalla forma e non dalla sostanza
che vive solo grazie alla forma. Mentre gli studiosi della scuola di Praga limitano la ‘doppia
articolazione’ al piano dell’espressione, Hjelmslev sostiene che entrambi i piani sono analizzabili in
unità più piccole del segno, unità di numero limitato, che egli chiama figure. I fonemi sono le ‘figure
dell’espressione’ mentre le ‘figure del contenuto’ sono le unità semantiche minime che formano le
unità semantiche più grandi (‘uomo’, contenuto di ‘umano’, ‘maschio’, ’adulto’). Le figure
dell’espressione e del contenuto non sono in corrispondenza biunivoca, caratteristica di ogni
sistema di segni che lo studioso chiama semiotica. Altri sistemi di segni che non richiedono la
postulazione di due piani sono definiti ‘sistemi simbolici’ (matematica). La semiotica è un sistema
necessariamente caratterizzato da un piano di contenuto e un piano dell’espressione: si parla di
semiotica ‘denotativa’. Quando il piano dell’espressione è a sua volta una semiotica si parla di
‘connotativa’. Una semiotica che ha una semiotica denotativa come piano del contenuto si
definisce ‘metasemiotica’ o ‘metalingua’, una lingua che verte su un’altra lingua. Una semiotica che
ha come piano del contenuto una semiotica connotativa è una ‘semiologia’ e se ha come
contenuto una semiologia si parla di ‘metasemiologia’. In un altro volume, quelle che Hjelmslev
chiama figure sono definite elementi: la lingua non è un sistema di segni ma un sistema di elementi
destinati a occupare certe determinate posizioni nella catena, ad entrare in certe determinate
relazioni, ad esclusione di certe altre. Gli elementi si organizzano in categorie che costituiscono la
struttura della lingua. I segni appartengono all’uso della lingua. L’oggetto della linguistica storico-
comparativa è la parentela linguistica genetica: essa è definita come una funzione tra elementi
dell’espressione di lingue diverse; le leggi fonetiche dei neogrammatici sono esempi di tali funzioni.
Le apparenti eccezioni alle leggi non sono in realtà che ‘controcasi’ che obbediscono a regole
proprie, per i quali le funzioni degli elementi non sono valide e che devono essere esclusi a priori
dai dati quando si stabiliscono le funzioni degli elementi. Si tratta delle regole di formazione dei
segni che riguardano l’uso della lingua. Oggetto della tipologia è la parentela linguistica tipologica
che è una funzione tra categorie.
La formazione di Benveniste era quella di un linguista storico-comparativo e a lui dobbiamo la
‘teoria della radice’ (legata a ‘coefficienti sonantici’ Saussure): egli sostiene che tutte le radici
indoeuropee sono riconducibili alla scrittura ‘consonante + vocale (e/o) + consonante’. Se alla
vocale segue un coefficiente sonantico, essa si allunga; se precede, la vocale prende timbri diversi
secondo il tipo di coefficiente. I suoi studi si concentrano anche sul concetto saussuriano di
arbitrarietà del segno e soggettività del linguaggio. Benveniste rileva che la frase di Saussure ‘il
legame tra significante e significato è arbitrario’, è sviante perché fa entrare in gioco un terzo
elemento, la realtà: è il rapporto del significato con la realtà a essere arbitrario, mentre il rapporto
del significato con il significante è necessario-. Il significato è tale solo in virtù del significante, e
viceversa. In Saussure, ‘arbitrario’ significa sia non fondato nella realtà, sia differenziale, cioè
legato a un determinato stato di lingua: Benveniste rileva entrambi questi aspetti e chiama il
secondo ‘necessità’ per indicare il fatto che il valore del segno è determinato all’interno di un
sistema  no opposto a Saussure, aiuta a eliminare la confusione tra ‘arbitrario’ e ‘convenzionale’.
37
La soggettività del linguaggio indica il fatto che la comunicazione linguistica avviene innanzitutto
grazie all’azione di un io parlante (soggetto dell’enunciazione), il quale può coincidere o meno con
il soggetto dell’enunciato. Analisi nuova delle tre persone grammaticali e del loro rapporto.
Tradizionalmente, la prima, la seconda e la terza sono poste sullo stesso piano: Benveniste
sostiene invece che vanno distinte sulla base di due differenti correlazioni. Quella di ‘personalità’
oppone la terza alle altre due: solo ‘io’ e ‘tu’ sono personaggi del dialogo; la terza, che non
interviene, è la ‘non-persona’. Le prime due rinviano all’emittente o al destinatario dello specifico
atto linguistico e si oppongono tra loro in virtù della correlazione di ‘soggettività (‘persona io’ vs.
‘persona non-io’). Chiarire il fatto che i verbi impersonali siano tutti alla stessa persona, cioè la
terza: si confonde soggetto con persona. Intuisce anche che alcune enunciazioni sono del tutto
particolari e implicano un’azione da svolgere (‘io giuro’, ‘io faccio’..).

3.5 Altri strutturalisti della prima metà del Novecento


Guillaume si colloca all’interno delle dottrine linguistiche Saussuriane con richiami a Bergson, per
l’influenza del quale la sua opera è caratterizzata dal concetto di tempo e rappresentazione
spazializzata del tempo. In ogni rappresentazione linguistica interviene la dimensione cronologica
(‘tempo operativo’) ????????
Tesnière ha elaborato un modello di sintassi che, insieme a Chomsky, ha esercitato un influsso
molto profondo sugli studi successivi. Il concetto chiave nella sua teoria è quello di connessione,
che funge da primitivo: la sintassi esiste in virtù della connessione tra le parole. Le connessioni
non hanno mai un’espressione esplicita perché sono avvertite nella mente (‘Alfredo parla’ costituito
da due elementi più connessione senza la quale la frase non esisterebbe). Si tratta di un fatto
intrinsecamente gerarchico: tra gli elementi c’è una relazione di dipendenza in cui uno è ‘reggente’,
l’altro ‘subordinato’ e insieme formano un nodo verbale. Tesnière elabora degli schemi a cui dà il
nome di ‘stemmi’, che forniscono l’ordine strutturale della frase: il nodo più alto di uno stemma è
detto ‘nodo centrale’ ed è sempre il verbo. All’ordine strutturale si oppone l’ordine lineare, la
successione delle parole nella frase. In un gruppo nominale, articolo e aggettivo sono subordinati
al nome. Il modo in cui le varie lingue realizzano questa quadratura è alla base della
classificazione tipologica, di tipo sincronico, mentre la classificazione di tipo diacronico è quella
genealogica; la prima si basa sulla comunanza di struttura, la seconda sulla comunanza di origine
tra le lingue. Ci sono due tipi di ordine lineare: uno discendente, dove il reggente precede il
subordinato, e uno ascendente, dove il subordinato precede il reggente. La prima distinzione sarà
tra lingue centrifughe e centripete; l’ordine può essere marcato oppure attenuato (quest’ultimo si
ha nelle lingue in cui un determinato ordine è prevalente ma anche l’altro può presentarsi).
Tesnière non si limita a costruire ‘stemmi’ per ciascuna delle varie frasi che analizza ma elabora
anche degli schemi virtuali che possono rappresentare tutte le frasi di identica struttura. Egli
definisce ‘parole piene’ i sostantivi, gli aggettivi, i verbi e gli avverbi (O,A,I,E = schemi costruiti
mediante queste lettere). Il concetto di valenza è quello più noto della teoria sintattica dello
studioso, tanto che si parla di ‘grammatica della valenza’. Il verbo è l’elemento fondamentale della
frase e può esercitare la sua forza di attrazione su un numero maggiore o minore di attanti del
processo espresso dal verbo. La frase contiene altri elementi, detti circostanti, che esprimono le
condizioni in cui questo processo ha luogo. Gli attanti sono sempre dei nomi o degli equivalenti di
nomi, mentre i circostanti sono avverbi o equivalenti di avverbi; i primi sono obbligatori, i secondi
facoltativi. Il numero degli attanti varia secondo la classe a cui appartiene il verbo; i verbi privi di
attanti sono chiamati ‘zero-valenti’ (= impersonali); i verbi che richiedono un solo attante sono
‘monovalenti’ (= intransitivi); due attanti, ‘bivalenti’ (= transitivi) e infine, tre attanti, ‘trivalenti’ (=
dire, fare). Tesnière non assegna nessun ruolo particolare al soggetto che è rappresentato come
un attante al pari degli altri; distingue semplicemente tra primo e secondo attante (soggetto e
oggetto)  abbandono esplicito di un’analisi della frase in soggetto e predicato, fondata su una
sovrapposizione ingiustificata delle categorie logiche su quelle grammaticali.
SCUOLA DI LONDRA. Gruppo di linguisti formato da Firth, titolare della prima cattedra generale di
Linguistica Generale in Gran Bretagna, e dai suoi allievi. In Gran Bretagna la linguistica storico-
comparativa si sviluppò per l’influsso degli studiosi tedeschi, contemporaneamente allo studio delle
lingue moderne, a opera di Sweet + Jones  nuova definizione di fonema: famiglia di suoni
linguistici pronunciati in una data lingua, che dal punto di vista pratico contano come se fossero un
solo identico suono ≠ Trubeckoj. I linguisti britannici erano a conoscenza delle teorie del continente
38
ma non le condividevano a pieno. Gardiner elabora i concetti saussuriani di langue e parole in
termini di speech e language: il primo indica un insieme di reazioni agli stimoli esterni al fine di
ottenere collaborazione da parte di altre persone (frase); il secondo indica la parola. Le parole
appartengono alla memoria del parlante e dell’ascoltatore e hanno un carattere diacronico, mentre
le frasi vengono enunciate in un particolare istante e quindi sono sincroniche. Per Firth è centrale
la nozione di contesto e in particolare contesto di situazione, con cui si intende il partecipante o i
partecipanti umani, quello che dicono e ciò che avviene. La sua linguistica si basa sull’analisi del
processo comunicativo nel comportamento dei singoli esseri umani e delle singole situazioni:
esistono dei contesti di situazione tipici, all’interno dei quali è possibile descrivere e classificare tipi
di funzione linguistica (costrutto schematico da applicare a venti ripetitivi in contesto sociale). Il
linguaggio è un insieme di comportamenti socialmente definiti dei quali è possibile costruire una
tipologia; modo di agire e far si che gli altri agiscano, efficienza pragmatica  inserito in un
contesto l’essere umano apprende quegli elementi che gli permettono di comunicare come il suo
partner si aspetterebbe. Il significato non appartiene alle parole e alle proposizioni ma è una
funzione del contesto di situazione, in cui sono coinvolte grammatica, lessicografia, semantica e
fonetica: lo studio di un livello deve tener conto dei risultati degli altri livelli. Firth ha elaborato
anche i concetti di:
 fonologia prosodica => con il termine prosodia, il linguista non intende solo le entità come
l’accento, l’intonazione, ecc., ma anche qualunque entità definita in base alla sua funzione
nella catena parlata. La distinzione tra elementi fonematici e prosodie dipende dalla
struttura di ogni singola lingua (vocale neutra in inglese /ə/)
 collocazione => determinate parole assumono un significato specifico in combinazione con
determinate altre, è un ordine di attesa reciproca (silly ass); non è significato contestuale.
Distinte dalle colligazioni che indicano i rapporti tra le varie categorie grammaticali, come
soggetto verbo. Le relazioni sintattiche non si realizzano soltanto tra elementi adiacenti

3.6 La linguistica statunitense della prima metà del Novecento


Una caratteristica propria della linguistica statunitense era l’interesse per le lingue degli originari
abitanti del continente americano, ossia le lingue amerindiane o amerinde (> Boas). Queste lingue
non avevano una tradizione scritta e quindi non si prestavano a uno studio storico ma quasi
esclusivamente sincronico; inoltre, era molto difficile descriverle mediante le categorie
grammaticali delle lingue europee. Gli studi di Boas portarono all’abbandono del pregiudizio
secondo cui il grado di complessità è legato al grado di sviluppo culturale della popolazione che la
parla; si mostrò chiaramente che le lingue degli Indiani d’America non sono meno complesse
rispetto alle lingue europee ma solo diverse. Come conseguenza, si adottarono forme sempre più
accentuate di relativismo linguistico, cioè dell’idea che non esistano elementi universali comuni a
tutte le lingue. Sapir = mentalismo >< Bloomfield = comportamentismo  termini che provengono
dalla filosofia ma solo il secondo indica una scuola (Watson), mentre il secondo indica scuole che
non accettano rigorosamente i canoni del comportamentismo: la psicologia, se vuole essere
scientifica, non può ricorrere all’introspezione, in quanto gli stati mentali dei soggetti non sono
accessibili all’osservazione; deve basarsi solo sullo studio del comportamento osservabile. I due
linguisti americani condividevano l’adesione ai principi della scuola neogrammatica ma
propongono una netta distinzione tra suono e fonema.
Sapir cominciò a lavorare come allievo di Boas sulle lingue amerindiane. Per quanto riguarda le
riflessioni di grammatica storica, importante è la nozione di deriva: la deriva di una lingua è
costituita dalla selezione inconscia, compiuta dai suoi parlanti, di quelle variazioni individuali che si
concentrano in una specifica direzione, che può essere dedotta dalla storia passata della lingua. Il
linguista sostiene la validità dei principi del metodo neogrammatico ma asserisce che la lingua è
essenzialmente un prodotto culturale o sociale e come tale deve essere intesa. Mentre ogni
funzione biologica ha un organo che le è proprio, questo non è il caso del linguaggio anche se
esso fa uso di una serie di organi anatomici: il linguaggio è una funzione sovrapposta ad altre, o
meglio, un gruppo di funzioni sovrapposte; è inoltre un metodo puramente umano e non istintivo
per comunicare idee, emozioni e desideri attraverso un sistema di simboli volontariamente prodotti
= linguaggio come sistema simbolico. Una descrizione puramente fisiologica dei suoni linguistici è
insoddisfacente perché non c’è nessuna esperienza umana suscettibile di essere definita come
39
somma o prodotto meccanico delle sue proprietà fisiche. Sapir definisce il fonema come unità che
ha un significato funzionale nella forma o nel sistema ma rigidamente determinati dei suoni propri
di una lingua  ogni elemento è definito in base alla posizione che occupa all’interno del sistema
(≈ strutturalisti). Insiste sul fatto che i fonemi hanno una precisa realtà, anche se inconscia, nella
mente del parlante. Per gli studi di tipologia linguistica, egli nega che le diverse lingue possano
essere disposte lungo una ‘scala di valore’, in quanto ogni lingua può e deve esprimere le relazioni
sintattiche fondamentali. Sostiene che la classificazione delle lingue in isolanti, agglutinanti e
flessive, come l’opposizione tra lingue sintetiche e analitiche, è del tutto sufficiente; una
classificazione adeguata delle lingue deve basarsi sulla natura dei concetti espressi da esse. Sapir
divide i concetti grammaticali in due gruppi principali, a seconda che riguardino il ‘contenuto
materiale’ o la ‘relazione’. Il primo gruppo si divide in ‘concetti fondamentali o concreti’, cioè
oggetti, azioni, qualità, e ‘derivativi’ che danno all’elemento radicale un particolare aumento di
significato; il secondo distingue tra ‘concreti’, dotati di un residuo di contenuto materiale, e ‘puri’,
che contengono relazioni grammaticali. Il linguista afferma che solo i concetti fondamentali e i
concetti relazionali puri sono espressi in ogni lingua. Elabora una classificazione delle lingue:
1. ‘lingue semplici pure-relazionali’ che hanno soltanto concetti fondamentali e relazionali puri;
2. ‘lingue complesse pure-relazionali’ che hanno concetti fondamentali, derivativi e relazionali
puri;
3. ‘lingue semplici miste-relazionali’ che contengono concetti fondamentali, relazionali concreti
e puri;
4. ‘lingue complesse miste-relazionali’ che contengono tutti e quattro i concetti.
Con questa dimensione fondamentale si intrecciano altre due dimensioni classificatorie: la
‘tecnica’, che indica l’uso di procedimenti isolanti, agglutinanti e flessivi o simbolici, il ‘grado di
sintesi’ distingue le procedure analitiche, sintetiche e polisintetiche. Etichetta ‘ipotesi di Sapir e
Whorf’ indica lo sviluppo da parte di quest’ultimo di alcune idee di Sapir, risalenti probabilmente
all’idea di linguaggio come organo formativo del pensiero: Sapir afferma che il pensiero sia
condizionato in modo diverso dalle diverse lingue e che gli esseri umani utilizzano la lingua come
mezzo di espressione della loro società e, più in generale, noi viviamo determinate esperienze
perché le abitudini linguistiche della nostra comunità ci predispongono a scegliere certe
predisposizioni (lingue incommensurabili tra loro se hanno tradizioni storiche diverse)  accettata
oggi in versione più debole che parla di influsso reciproco tra linguaggio e pensiero (> Humboldt).
Bloomfield si formò come germanista e trascorse un periodo di studi in Germania, dove entrò in
contatto con i neogrammatici, e si occupò di lingue amerindiane. Di Saussure riprende i concetti di
langue e parole, che da per acquisiti, ma non si ritrova nell’analisi del linguaggio come sistema di
segni: egli affronta la descrizione del funzionamento del linguaggio in termini strettamente
comportamentisti (parte più superata del pensiero ma non in termini d’analisi). Il
comportamentismo non è considerato da Bloomfield come una dottrina psicologica ma è
identificato con il metodo scientifico tout court ≈ fiscalismo, in base al quale la scienza deve riferirsi
unicamente a entità osservabili, direttamente o mediante strumenti; non ammette nozioni
mentaliste come ‘volere’, ‘scegliere’, ecc. La scienza del linguaggio non potrà che basarsi sul
comportamento direttamente osservabile dei parlanti, descritto tramite i termini di ‘stimolo’ e
‘risposta’, che sono quelli fondamentali del comportamentismo  il linguaggio consente a una
persona di produrre una certa reazione (R) quando un’altra persona riceve lo stimolo (S) (Jill vuole
una mela (S) e produce un atto linguistico ‘voglio quella mela’ (R), Jack coglie e gli da la mela (R)).
D’altra parte, una rigorosa definizione scientifica del significato di ogni forma linguistica di una data
lingua richiederebbe un’esatta conoscenza scientifica del mondo del parlante; tuttavia, non è
necessario conoscere i significati in modo preciso e completo. Su questa concezione si basa la
trattazione che Bloomfield fa del fonema e della fonologia, il primo definito come unità minima di
tratto sonoro distintivo e la seconda come lo studio dei suoni linguistici significativi. Nell’individuare
la distintività e la minimalità come proprietà caratterizzanti del fonema (≈ Trubeckoj ma ≠ modo di
procedere), parte dagli elementi minimi distintivi di cui le parole sono composte e non fa riferimento
alla realtà psicologica dei fonemi ne a forme fonologiche astratte soggiacenti a quelle concrete. In
comune con Sapir e Trubeckoj la distinzione tra suono e fonema e la concezione del fonema come
unità definita dalle sue relazioni con le altre. I fonemi di una lingua sono tratti sonori che il parlante
è stato abituato a produrre e a riconoscere nel flusso degli effettivi suoni linguistici; il fonema deve
mantenersi distinto da tutti gli altri fonemi della stessa lingua. Non ammette solo la distinzione tra
40
fonetica e fonologia ma anche tra due tipi di fonetica: la fonetica in senso stretto, descrizione
acustica o fisiologica, e la fonetica pratica, capire come il parlante riproduce le unità fonemiche. La
fonologia, invece, non presta alcuna attenzione alla natura acustica dei fonemi ma li considera solo
in quanto unità distinte e definisce ciascun fonema in base al ruolo che svolge nell’organizzazione
strutturale delle forme linguistiche. Alla fonetica oppone la semantica, che ha il compito di dire
quali significati siano accoppiati alle varie forme fonetiche e che si divide in grammatica e lessico
 si basano su ‘forma linguistica’, forma fonetica dotata di significato. Bloomfield fonda il metodo
di analisi formale e distribuzionale che caratterizzerà la scuola americana. La prima distinzione è
quella tra forme libere e forme legate: queste ultime non vengono mai pronunciate da sole, mentre
tutte le altre sono libere. Un’altra distinzione è quella tra forme complesse e semplici: una forma
complessa ammette una parziale somiglianza fonetico-semantica con qualche altra forma
linguistica (black-berry, cran-berry, straw-berry); una forma semplice non ammette alcuna
somiglianza fonetico-semantica parziale con nessun’altra = morfema, entità linguistica minima
dotata di significato. Sull’opposizione tra forma libera e legata si basa anche la distinzione tra
sintassi e morfologia: la prima tratta le costruzioni che non contengono alcuna forma legata, la
seconda quelle che le contengono; il limite è rappresentato dalla parola che è l’unità più piccola di
forma libera (ammette che in alcuni casi il limite è difficile da tracciare). L’insieme completo di
morfemi di una lingua costituisce il suo lessico. Le disposizioni significative delle forme di una
lingua costituiscono la grammatica di tale lingua. In base alla disposizione delle forme lessicali si
possono determinare delle ‘classi di forme’: le posizioni in cui si presenta una forma saranno
chiamate funzioni di quella forma; il complesso di tutte le forme che hanno le stesse funzioni sarà
chiamata classe di forme. La nozione di classe di forme deve sostituire quella tradizionale di ‘parte
del discorso’, la cui definizione è basata su criteri semantici troppo vaghi per poter essere utilizzata
in un discorso scientifico. Per individuare le classi di forme, Bloomfield ha elaborato l’analisi in
costituenti immediati: un costituente è un componente di una forma complessa ed è immediato
quando non fa parte di un altro costituente; si applica tanto alla sintassi quanto alla morfologia
perché si applica sia a gruppi di parole sia a parole singole. I costituenti immediati vengono
individuati, per la maggior parte, in base all’intuizione dei parlanti. I costituenti di una forma
complessa, considerati nei loro rapporti reciproci, formano una costruzione: endocentrica, quando
un sintagma ha la stessa funzione di uno o più dei suoi costituenti, esocentrica, quando un
sintagma non ha la stessa funzione di nessuno dei suoi costituenti immediati. Bloomfield mette in
risalto l’aspetto creativo del linguaggio: dato che la maggior parte delle forme linguistiche è
regolare, un parlante che conosca i costituenti e la struttura grammaticale può pronunciarle senza
averle mai udite; l’osservatore non può sperare di elencarle poiché le possibilità di combinazione
sono infinite. Questa possibilità di creare combinazioni nuove si basa sul meccanismo
dell’analogia, che permette al parlante di pronunciare forme linguistiche che non ha mai udito;
pronuncia per analogia le forme che ha udito.
La linguistica statunitense tra gli anni trenta e cinquanta è nota come linguistica post-
bloomfieldiana: alcuni dei più importanti esponenti, come Harris e Hockett, furono
considerevolmente influenzati da Sapir. Il discrimine temporale è dovuto al fatto che, a partire dagli
anni cinquanta, coloro che si dedicavano a questo tipo di studi linguistici dovettero subire la
concorrenza della grammatica generativa di Chomsky. Della linguistica strutturale americana
possiamo distinguere due periodi: uno dalla metà degli anni trenta, subito dopo la pubblicazione di
Bloomfield, fino ai primi anni cinquanta, dove assistiamo a un approfondimento e un
perfezionamento delle nozioni e delle tecniche elaborate da B., e uno successivo, durante il quale
si elaborarono modelli nuovi. Nel primo periodo si accentuarono il comportamentismo e il
distribuzionalismo. Hockett definisce un atto di linguaggio come un’entità del comportamento
umano con certe caratteristiche fisiologiche e sociologiche. Harris da la definizione di distribuzione
di un elemento come il totale di tutti i contesti in cui ricorre, ossia la somma di tutte le posizioni (o
occorrenze) di un elemento rispetto all’occorrenza degli altri elementi. La linguistica strutturale
americana cerca di definire tutte le unità linguistiche in base ai contesti in cui ricorrono in una
determinata lingua. Generale impostazione proceduralista: il compito fondamentale del linguista è
visto come quello di elaborare delle procedure per individuare i fonemi, morfemi, classi di parole,
ecc. di una data lingua, preferibilmente una lingua non studiata in precedenza (> l. amerindiane) 
seguire principio della separazione dei livelli, non ci deve essere circolarità. Livelli di analisi:

41
 analisi struttura fonologica: nell’individuazione del fonema evitano ricorso al significato ma
‘test di sostituzione’ (pronunciare fonema modificato e registrare reazione dell’ascoltatore
nativo), di matrice comportamentista + Twaddell che afferma che il fonema è un’entità
fittizia, strumento terminologico nella descrizione delle relazioni fonologiche che esistono
tra gli elementi di una lingua (no identici a strettamente simili), entità astratta ma non per
questo priva di giustificazione + fonema = classe di suoni e allofoni = suoni diversi che
appartengomo alla stessa classe rappresentata da un fonema, con distribuzione
complementare (Whorf);
 morfofonemica: (Bloch) studio dell’alternanza tra fonemi corrispondenti in forme diverse
dello stesso morfema (wife – wives). Il morfo è la singola forma di un morfema mentre le
forme o rappresentazioni del medesimo morfema sono i suoi allomorfi: un morfema può
essere rappresentato da un solo morfo ma esistono morfi vuoti, o un morfo che si adatta a
due o più morfemi, no corrispondenza biunivoca (Hockett). Ogni unità grammaticale è
analizzata come la combinazione di morfi, i quali rappresentano morfemi che possono
anche essere discontinui. Approfondita analisi dei costituenti immediati + procedimento dal
morfema all’enunciato (Harris).
Risultato scuola strutturalista americana sta nell’aver posto con chiarezza alcuni obiettivi senza
però dare delle soluzioni soddisfacenti  dopo anni cinquanta insufficienza metodi puramente
distribuzionali con necessità di avere metodi > astratti.

Capitolo 4. L’ultimo mezzo secolo

4.1 La ‘rivalutazione’ del linguaggio naturale nei logici e nei filosofi del linguaggio
Negli studi degli anni ’30-’40 il linguaggio naturale comincia a essere considerato un’entità da
contrapporre ai linguaggi formai in termini di diversità. Il primo segnale di svolta è rappresentato da
Morris che intendeva tracciare i lineamenti della semiotica (teoria generale dei segni, scienza che
studia cose o proprietà di cose fungenti dai segni e perciò strumento di tutte le scienze). Egli parte
dalla nozione di ‘semiosi’, il processo in cui qualcosa funziona come segno: questo processo si
articola attraverso tre componenti + uno  un segno (veicolo segnico) si riferisce a un’entità
(designatum), tramite una certa relazione (interpretante), per un utente del segno stesso
(interprete). La novità di Morris sta nell’aver individuato tre tipi di relazioni all’interno del processo
di semiosi: quella ‘sintattica’, che studia il rapporto dei segni tra loro, quella ‘semantica’, che
riguarda le relazioni dei segni con gli oggetti cui sono applicabili, e quella ‘pragmatica’ che segna la
relazione dei segni con gli interpreti (= pragmatica è una scienza). La pragmatica è una
dimensione propria del linguaggio naturale che porta l’individuo a utilizzare determinate frasi in
contesti specifici. Carnap riprende quasi letteralmente le distinzioni di Morris ma oppone una
sintassi e una semantica ‘pure’, studio dei ‘sistemi semantici’ e ‘sintattici’, alle corrispondenti
discipline ‘descrittive’, che consistevano nella ‘analisi empirica’ delle proprietà semantiche e
sintattiche delle lingue storicamente date. Carnap osserva che una volta che le caratteristiche
semantiche e sintattiche di una lingua sono state scoperte mediante la pragmatica, lo studio di
queste discipline procede in modo indipendente e conclude che la sintassi e la semantica sono
indipendenti dalla pragmatica.
I primi lavori di pragmatica destinati a lasciare un’impronta decisiva nella linguistica e filosofia del
linguaggio si devono a Austin e al ‘secondo Wittengstein’. Nella sua nuova fase di pensiero,
Wittengstein ribalta la prospettiva adottata in precedenza, dove presentava una concezione del
linguaggio umano secondo cui le parole denominano oggetti (presenta in S. Agostino): il significato
delle parole consiste, ora, nel loro uso da parte dei parlanti. Il ruolo della pragmatica è
notevolmente accresciuto in quanto non esistono designata indipendenti dal loro uso e, quindi, non
può esistere, almeno nel linguaggio naturale, una pragmatica indipendente dalla semantica. In
questa prospettiva cambia anche l’atteggiamento nei confronti del rapporto tra ‘forma
grammaticale’ e ‘forma logica’: la ‘forma grammaticale’ è perfettamente legittimata dal suo impiego,
non è più un travestimento di quella ‘logica’  era stato un errore voler giudicare il linguaggio
naturale confrontandolo con i linguaggi della logica e della matematica: rivalutazione proprio da
parte di uno di coloro che aveva tentato di svalutarlo. La concezione di linguaggio naturale come
insieme di pratiche caratterizza anche il pensiero di Austin. Il suo punto di partenza è costituito
42
dalla nozione di enunciato performativo, che serve a compiere un’azione (‘Chiedo scusa’),
contrapposto a quello constativo, caratterizzato dalla proprietà di essere vero o falso. L’enunciato
performativo, può essere criticato in una dimensione diversa da quella del vero e del falso che
Austin chiama ‘felicità’: un enunciato può essere ‘felice’ solo se vengono soddisfatte determinate
condizioni, altrimenti è ‘infelice’. Una volta introdotta la distinzione tra i due enunciati, lo studioso
cerca di superarla:
 esiste una forma normale dei performativi? NO, grande varietà di forme grammaticali (ES.
‘Le do il benvenuto’; ‘Stai zitto’; ‘Cane’)  non possiamo attenderci alcun criterio verbale
del performativo);
 le nozioni di ‘felicità’ e di ‘verità’ possono coinvolgere sia i performativi sia i constativi;
 una proposizione troppo netta è inadeguata perché un enunciato può essere vero o falso a
seconda delle sue circostanze di impiego e di chi lo impiega (‘La Francia è esagonale’ può
andare bene per i generali ma non per i geografi, asserzione approssimativa);
proferendo un enunciato, noi compiamo, contemporaneamente, tre tipi di atti linguistici: locutorio
(facciamo qualcosa dicendo qualcosa), illocutorio (domanda, risposta, ordine, avvertimento, ecc.) e
perlocutorio (produzione, tramite l’atto locutorio e illocutorio, di certi effetti consecutivi sui
sentimenti , i pensieri, le azioni di chi sente, o di chi parla, o di altre persone). Importante la
distinzione tra ‘significato’ e forza illocutoria: a volte uno stesso atto locutorio può corrispondere a
due o più atti illocutori (ES. ‘Il gatto è sul letto’ = ‘Non salire sul letto’ O ‘Fai scendere il gatto’).
L’atto illocutorio è convenzionale mentre quello perlocutorio è non convenzionale perché posso
ottenere un certo effetto mediante molti mezzi diversi.
Negli stessi anni vi è una corrente di pensiero che continua a sostenere che il linguaggio naturale
sia analizzabile con gli stessi strumenti dei linguaggi formali. La nozione fondamentale di
Ajdukiewicz è quella di ‘connessione sintattica’: una combinazione di parole è ‘sintatticamente
connessa’ quando è formata da parole dotate di senso e il suo senso deriva dal senso delle parole.
Per spiegare perché certe espressioni siano sintatticamente connesse e altre no, elabora un
sistema di analisi sintattica basato sulle nozioni di ‘categoria fondamentale’ e ‘categoria funtoriale’:
il nome e la frase sono fondamentali mentre le altre categorie sono funtori. Le categorie e le loro
combinazioni sono rappresentate mediante una notazione ‘quasi aritmetica’: frase = s; nome = n e
ai funtori indice frazionario  procedimento meccanico per stabilire se espressione è
sintatticamente connessa o no. Reichenbach considera come suo solo nemico la grammatica
tradizionale che non è in grado di cogliere appropriatamente la struttura logica del linguaggio:
sostituisce il sistema delle parti del discorso con una classificazione basata sulla logica dei
predicati e delle relazioni, che distingue tre classi principali di espressioni: ‘argomenti’, ‘funzioni’ e
‘termini logici’. Le sue idee non ebbero particolare seguito all’epoca e in seguito vennero riprese da
pochi, probabilmente perché mancava di un vero e proprio sistema di regole per l’analisi
dell’espressione del linguaggio naturale. Entrambi questi studiosi riconobbero le difficoltà di
analizzare il linguaggio naturale e le sue incoerenze logiche, ma continuarono a considerarlo alla
stregua dei linguaggi formali. La grammatica di Ajdukiewicz fu invece ripresa e approfondita da
molti, tra i quali il più importante è Bar-Hillel, che presentò una grammatica categoriale che
coniugava la notazione quasi-aritmetica con i metodi della linguistica strutturale americana. In
particolare, affronta il problema dei costituenti discontinui, proponendo di considerarli come
collocati in qualche altra posizione rispetto a quella in cui effettivamente ricorrono 
insoddisfacente ma anticipa spiegazione di Chomsky, il quale respingerà un’altra proposta dello
studioso, ossia quella di applicare sistematicamente al linguaggio naturale gli strumenti elaborati
dalla teoria dei linguaggi formali (= logica formale utilizzata in costruzione teoria linguistica MA
NON in analisi comportamento linguistico effettivo). La linea tracciata da Bar-Hillel fu seguita da
Montague, il quale poneva la nozione di verità a fondamento della sintassi e della semantica
‘serie’ (≈ Tarski). Questa semantica interpreta le espressioni di una data lingua relativamente a un
modello, cioè un insieme di entità, che sono individui per le espressioni individuali, relazioni tra
oggetti per le espressioni predicative e cos’ via; è inoltre indipendente dalla pragmatica (la
semantica di Brèal & Co. traduce le espressioni di una lingua in quelle di un’altra lingua). Con il
termine grammatica di Montague si designano sia le ricerche compiute dallo studioso, sia lo
sviluppo ad opera di altri studiosi dopo la sua morte: l’atteggiamento nei confronti del linguaggio
naturale è diverso da quello di Tarski perché Montague sostiene che questo tipo di semantica si

43
possa costruire anche per lingue naturali  grammatica di M. consiste di struttura sintattica
analizzata secondo il modello della grammatica categoriale e interpretata mediante tecniche di
semantica ‘modellistica’.

4.2 Inizi della grammatica generativa


Chomsky presenta la sua teoria della grammatica generativa come in opposizione allo
strutturalismo di Bloomfield e dei post-bloomfieldiani, traendo le sue origini dall’analisi
trasformazionale di Harris, dalla tagmemica di Pike e dalla grammatica stratificazionale di Lamb.
Le trasformazioni sono una tecnica per individuare classi di frasi equivalenti, ovvero ‘frasi della
forma A sono equivalenti a frasi della forma B se per ogni frase A si può trovare una frase B che
contiene gli stessi morfemi, a parte le differenze dovute alla differenza di forma tra A e B’ = due
costruzioni sono trasformate l’una dell’altra se esprimono lo stesso significato mediante forme
grammaticali diverse. Tale nozione viene inoltre estesa a frasi non sinonime, quali le interrogative
e le dichiarative corrispondenti; importante poi il concetto di ‘nucleo’ (kernel) della grammatica,
formato dalle ‘frasi elementari’ e dagli elementi che permettono di combinarle, quali congiunzioni e
elementi  il nucleo è finito; tutte le possibilità illimitate del linguaggio sono proprietà delle
operazioni trasformazionali. La tagmemica prende il nome dal termine ‘tagmema’ ripreso da
Bloomfield ma con un senso leggermente diverso, in quanto esso indica sia una determinata
posizione sintagmatica sia gli elementi che possono occuparla (ES. tutti gli elementi che ricorrono
nella posizione di soggetto appartengono al medesimo tagmema). La grammatica stratificazionale
immagina il linguaggio come un insieme di dipendenze reciproche le quali mettono in relazione i
vari ‘strati’ che sono la ‘semotattica, la ‘lexotattica’, la ‘morfotattica’ e la ‘fonotattica’.
Chomsky (1928) fu allievo di Harris che gli commissionò la correzione delle bozze di un volume
proprio, primo contatto diretto con la linguistica post-bloomfieldiana: successivamente, l’allievo si
dedicò a una tesi di primo livello dove scorse i limiti di questa stessa linguistica. La teoria
chomskiana deve molto a Bar-Hillel per il concetto di ‘forme astratte soggiacenti’. Chomsky non
accetta l’idea comportamentista secondo cui il bambino non dispone, alla nascita, di alcuna
conoscenza, e che il linguaggio verrebbe appreso esclusivamente per imitazione: i bambini, al
contrario, oltre a imparare il linguaggio in un tempo sorprendentemente breve, producono molti
enunciati nuovi = ipotizza che alla base dell’acquisizione del linguaggio stiano specifiche strutture
mentali pre-programmate (Lenneberg). Quattro filoni nella formazione intellettuale di Chomsky: 1.
linguistica strutturale americana (> Harris); 2. logica e filosofia della scienza (> Bar-Hillel); 3.
linguistica strutturale europea; 4. approccio mentalistico.
Chomsky esordisce affermando che lo scopo fondamentale dell’analisi linguistica di una lingua L è
la separazione in sequenze grammaticali, che sono frasi di L, da quelle non grammaticali, che non
sono frasi di L, e lo studio della sequenza delle frasi grammaticali. Il parlante nativo di una lingua L
possiede un senso intuitivo di grammaticalità; inoltre, l’insieme delle frasi grammaticali non si può
identificare con quelle osservate dal linguista e pertanto, a causa della ricorsività, le frasi
grammaticali potrebbero essere infinite. Lo scopo del linguista è quello di trovare delle regole che
permettano di generare tutte le frasi grammaticali di una data lingua e nessuna di quelle
agrammaticali, mostrando interesse per l’aspetto ‘creativo’ del linguaggio, ossia la capacità del
parlante di produrre e comprendere frasi mai udite, cosa che non sarebbe spiegabile ricorrendo
all’analogia, ma ipotizzando la presenza di un meccanismo altamente specificato e innato che
guida l’acquisizione del linguaggio + rendere conto di altri fatti relativi all’intuizione del parlante. Tre
modelli: si tratta di determinare il più adeguato.
1. Modello a ‘strati finiti’: esso rappresenta la sintassi come una successione di parole
ciascuna scelta in base a quella precedente. Corrisponde all’opinione comune in merito alla
costruzione delle frasi nelle lingue naturali, ossia che sono formate mettendo una parola
dietro l’altra; tuttavia, nelle lingue naturali molte frasi presentano ‘relazioni a distanza’
(collegamenti con parole potenzialmente a distanza illimitata)  l’esistenza di queste
relazioni mostra la non adeguatezza del modello.
2. Modello ‘grammatica a struttura sintagmatica’: è una formalizzazione dell’analisi in
costituenti immediati dello strutturalismo americano. Le categorie non sono derivate ma
assunte come primitivi e le etichette di queste, per quanto arbitrarie, sono scelte in modo
da richiamare i loro nomi abituali (F = frase; SN = sintagma nominale; SV = sintagma

44
verbale; Art. = articolo; V = verbo; N = nome). Le frasi non sono rappresentate su una sola
dimensione ma come una struttura gerarchica, raggruppando le singole parole in unità di
livello più alte. Un ‘costituente’ è una sequenza di parole riconducibile a un unico punto
d’origine (etichette dei costituenti = nodi)  non adeguato perché non coglie la relazione
che il parlante coglie tra i differenti tipi di frasi.
3. Modello ‘trasformazionale’: è in grado di rendere conto delle relazioni tra le frasi. Si serve di
‘trasformazioni obbligatorie’, da applicarsi per generare frasi grammaticali (cfr. salto di
affisso in inglese che riordina gli elementi ausiliari in modo coerente e grammaticale (s +
have = # has)), e ‘trasformazioni facoltative’, da applicarsi solo in certi casi (trasformazione
passiva o interrogativa). La ricorsività, ossia la possibilità di includere un numero illimitato di
frasi dipendenti in una frase principale, è prodotta dalle trasformazioni. Infine, ci sono le
trasformazioni generalizzate, che inseriscono frasi in altre frasi, e quelle singolari che si
limitano alle frasi semplici.
Mentre in Harris il termine ‘trasformazione’ indica un rapporto tra frasi, in Chomsky si tratta di un
rapporto tra livelli di rappresentazione, ossia strutture, per quanto non consideri tali livelli come
strettamente gerarchizzati (ES. non vede alcun rapporto tra morfemi e fonemi; ogni morfema non è
costituito da fonemi specifici). La grammatica generativa dunque si serve di: regole SS (struttura
sintagmatica), regole trasformazionali e regole morfofonemiche. NB Grammatiche esaminate sono
neutrali rispetto al parlante e all’ascoltatore, semplice descrizione di un certo insieme di enunciati.
La teoria standard, l’aspetto sistematico acquisito dalla teoria di Chomsky, presenta una delle
prime definizioni esplicite di grammatica generativa: ‘un dispositivo che specifica l’insieme infinito
delle frasi ben formate e che assegna a ciascuna di queste una o più descrizioni strutturali’. Lo
studioso suddivide la grammatica in tre componenti: sintattico, fonologico e semantico, di cui solo il
primo è generativo, mentre gli altri due sono interpretativi  solo il componente semantico genera
frasi e assegna loro descrizioni strutturali; il componente semantico mette in relazione una struttura
con una rappresentazione semantica e il componente fonologico attribuisce una rappresentazione
fonetica. La struttura generata dal componente sintattico e interpretata dal componente semantico
è la struttura profonda della frase; questa poi è collegata mediante le trasformazioni alla struttura
superficiale che è interpretata dal componente fonologico; da qui la concezione mentalistica della
lingua e della linguistica.
Chomsky afferma che la teoria linguistica si occupa principalmente di un parlante-ascoltatore
ideale, in una comunità linguistica completamente omogenea. Egli distingue poi tra competenza ed
esecuzione. La competenza è ‘un insieme di processi generativi’, cioè un insieme di regole per
generare un numero potenzialmente infinito di frasi: il linguista deve determinare, partendo dai dati
di esecuzione, il sistema sottostante di regole che il parlante-ascoltatore ha acquisito e che mette
in uso nell’esecuzione effettiva. Quindi, la teoria linguistica è mentalistica poiché il suo scopo è
scoprire una realtà mentale sottostante a un comportamento effettivo (‘linguistica cartesiana’ ><
‘linguistica empirica’ cioè quella storico-comparativa). Si hanno diversi livelli di adeguatezza: una
grammatica è adeguata in senso descrittivo nella misura in cui descrive correttamente la
competenza del parlante nativo ideale; è invece esplicativa, quando riesce a scegliere una
grammatica adeguata in senso descrittivo in base ai dati linguistici primari. Il compito fondamentale
di una teoria linguistica diventa rendere conto delle proprietà del dispositivo per l’acquisizione
linguistica che permette al bambino di costruire la sua grammatica da un insieme di alternative
possibili. Secondo Chomsky, il linguaggio e la sua acquisizione sono governate da regole o da
principi specifici. I fenomeno linguistici andrebbero ricondotti a leggi psicologiche generali: la
conclusione è che la capacità del parlante di produrre e comprendere frasi mai udite prima si può
spiegare che il parlante stesso sia dotato di un meccanismo che guida la sua acquisizione del
linguaggio. Essendo innato, deve essere comune a tutti gli esseri umani e quindi universale: ecco il
ritorno della ricerca degli universali linguistici, che sono distinti in materiali (tratti distintivi di
Jakobson) e formali (regole trasformazionali); sono intesi come le caratteristiche del meccanismo
che rende possibile l’acquisizione di una lingua.
1. Componente sintattico = trasformazioni legate alla struttura e non alla frase, si applicano in
cicli dalla F inclusa più profondamente a quella principale. L’applicazione delle regole
trasformazionali alla struttura profonda genera la struttura superficiale; l’azione delle
trasformazioni non modifica il significato della frasi perché condizionata dalla presenza di
simboli astratti nella struttura profonda (solo livello pertinente all’interpretazione della frase).
45
2. Componente semantico (teoria derivata da Katz) = due nozioni fondamentali: quella di
lettura, cioè l’analisi in indicatori semantici di ciascuna unità minima generata dal
componente sintattico (parole), e quella di regola di proiezione, cioè la lettura delle parole
che formano un nodo vista entro un indicatore sintagmatico da cui viene la ‘lettura derivata’
o l’interpretazione semantica (frasi semanticamente non ambigue *Pierino bruciò la scuola*
anomale, se le letture dei due elementi non possono combinarsi *Pierino bruciò l’idea* o
ambigue, se uno o più elementi hanno più letture *Il giudice ha aperto un fascicolo*). La
lettura contiene altri due tipi di informazione: l’indicazione dei tratti sintattici della parola in
questione e l’indicazione delle restrizioni selettive di ogni parola che esprimono le
condizioni necessarie e sufficienti affinché le letture si combinino tra di loro. Interpretazione
semantica di una frase = insieme delle interpretazioni semantiche degli indicatori
sintagmatici soggiacenti a F e l’insieme di descrizioni relative a F che derivano dalle
interpretazioni semantiche. Ipotesi che il bambino abbia un grande bagaglio di conoscenze
a cui dover semplicemente attribuire etichette diverse da lingua a lingua.
3. Componente fonologico = interpretativo e traduce in segnali fonetici la struttura superficiale
generata dal componente sintattico. La struttura superficiale diventa la rappresentazione
fonologica concretizzata dalla rappresentazione fonetica. Le regole per derivare
quest’ultima dalla prima sono riassumibili nella formula ‘A  B / X – Y’ = l’unità A è
realizzata dall’unità B nei contesti X (a sinistra di A) o Y (a destra di A). Per esempio:
disayd (decide) > disaisiv (decisive) è rappresentabile come 1) disayd + (confine di
morfema) iv ‘d  z / – + [i]’; 2) disayz + iv ‘z  s / – + iv’  disays + iv; i fonemi in
questione assumono una serie di tratti in connessione con determinati altri. Si può
riscontrare l’abbandono del cosiddetto ‘livello fonemico’ (> Halle) poiché postulare un livello
di rappresentazione fonemica renderebbe l’analisi inutilmente più complicata. Nella
fonologia generativa rimane l’analisi dei tratti distintivi (> strutturalismo): vengono fatte delle
modifiche al concetto di marcatezza, che ha valori universali e innati e considera un
elemento marcato o non marcato a seconda del contesto in cui ricorre.
La fonologia generativa è dinamica in quanto il suo oggetto è lo studio dei processi fonologici e
descrive la generazione delle rappresentazioni fonologiche dalle strutture superficiali della sintassi.
Ci sono alcune proposte di modifica del modello ‘classico’ di Chomsky, che era ‘lineare’ o
‘segmentale’ e considerava la rappresentazione fonologica come derivata esclusivamente dalla
struttura sintattica superficiale. Per superare le difficoltà legate a questo modello vengono
elaborate: la fonologia autosegmentale (vari elementi della rappresentazione fonologica posti su
più livelli); la fonologia lessicale (ruolo che la formazione delle parole ha sulla loro
rappresentazione fonologica); la fonologia metrica (descrizione dei processi fonologici deve
prendere in considerazione non solo i singoli segmenti ma anche unità più ampie) e la fonologia
prosodica (applicazione regole fonologiche non è determinata solo da struttura sintattica
superficiale ma anche da struttura gerarchica della rappresentazione fonologica).

4.3 Il dibattito sulla grammatica generativa


Il successo della grammatica generativa negli anni ’60 del Novecento è dovuto non solo alla sua
capacità di autopromozione, ma anche ai nuovi strumenti concettuali che metteva a disposizione
dei linguisti. Riassumiamo le idee fondamentali della teoria generativa standard in quattro punti:
1. il linguaggio è una capacità mentale e perciò la linguistica è parte della psicologia 
concezione cognitiva della linguistica;
2. lo studio della struttura del linguaggio è indipendente dalle sue funzioni, cioè il suo uso nel
contesto sociale e comunicativo;
3. la linguistica deve concentrarsi in modo particolare sulla ricerca degli universali, cioè delle
proprietà comuni a tutte le lingue umane;
4. un’analisi adeguata del linguaggio deve postulare più livelli di rappresentazione.
La realtà psicologica della linguistica non trovò un consenso unanime: alcuni linguisti respinsero
del tutto l’idea chomskiana, mentre altri intrapresero degli esperimenti psicologici (ES. ‘teoria
derivazionale della complessità’ = l’ascoltatore ha bisogno di più tempo per comprendere una frase
ricca di trasformazioni, poi smentito), senza accettare il fatto che uno studio formale del linguaggio
potesse essere automaticamente qualificato come psicologico o cognitivo. La natura sociale del
linguaggio fu ribadita dagli studiosi contemporanei a Chomsky mentre i funzionalisti, così come
46
anche i fautori della ‘semantica generativa’, contestarono la tesi dell’autonomia della sintassi. Per
quanto riguarda la ricerca degli universali linguistici, le posizioni universaliste di Chomsky
suscitarono molte ostilità: egli veniva accusato di voler ricavare delle leggi universali dall’inglese
ma in realtà sosteneva che se vengono individuate delle proprietà innate in un parlante di qualsiasi
lingua esse sono universali (nessuno nasce con una predisposizione innata ad acquisire l’inglese,
l’italiano e via dicendo). L’opposizione tra struttura profonda e superficiale, pur avendo avuto molte
denominazioni, è rimasta costante. Comunque si interpreti la struttura profonda, ossia come
universale o no, un problema riguarda il modo di rappresentarla. Nella teoria standard di Chomsky,
essa è rappresentata come un insieme di elementi ordinati gerarchicamente e disposti
linearmente, presentando quindi le stesse caratteristiche della struttura superficiale. Alcuni
studiosi, affermarono che gli elementi della struttura profonda costituivano un insieme non
ordinato, cosa che per Chomsky comportava un inutile complicazione della grammatica (prima di
applicare trasformazioni sempre trasformare in insieme ordinato!). L’ipotesi viene portata avanti da
Fillmore che formula la grammatica dei casi, rottura radicale con la teoria generativa standard.
Egli distingue tra relazioni sintattiche ‘pure’ (relazioni grammaticali) ed ‘etichettate’: nozioni come
‘soggetto’ e ‘oggetto’ riguardano la struttura superficiale e derivano da relazioni ‘etichettate’, non
definibili in termini gerarchici e lineari. Inoltre, Fillmore sostiene di abbandonare la tradizionale
analisi della frase in soggetto e predicato, adottata anche da Chomsky. Utilizza il termine ‘struttura
di base’ che consiste in un verbo e di uno o più sintagmi nominali, ciascuno associato al verbo in
una particolare relazione di caso; ogni relazione di caso compare solo una volta in una frase
semplice (NB caso = relazione sintattico-semantica sottostante/caso profondo) e si realizza in
modi diversi nelle diverse lingue.
Il dibattito tra Chomsky e alcuni suoi originari seguaci venne etichettato come ‘epoca delle guerre
linguistiche’, e vede tra i principali avversari del ‘maestro’ Lakoff, McCawley, Postal e Ross, i
quali cominciarono a costruire un’alternativa alla teoria standard nota come semantica generativa.
Quando la semantica generativa entrava in crisi, Postal e Perlmutter intrapresero la costruzione di
un nuovo modello di grammatica, la grammatica relazionale: lo scopo era unicamente quello di
rispondere alla domanda ‘in che modo le lingue naturali si differenziano tra loro, e in che modo
sono tutte simili?’. I relazionalisti volevano rispondere dando spiegazioni puramente linguistiche.
Per loro la struttura della frase è rappresentata come un insieme non ordinato di elementi che
stanno in determinate relazioni gli uni con gli altri: la conseguenza è l’abbandono della tradizionale
suddivisione della frase in soggetto e predicato. Questa grammatica, come la teoria standard,
continua a operare con vari livelli di analisi (strati): ad esempio, le relazioni grammaticali
individuate allo ‘strato iniziale’ sono sostanzialmente identiche a quelle della teoria standard, ma
sono assunte come primitivi anziché essere definite su base gerarchica e i diversi strati sono
connessi da ‘nessi relazionali’ che indicano le relazioni grammaticali che gli stessi elementi hanno
su ogni strato. Ogni relazione grammaticale è indicata con un numero; un elemento può non avere
alcuna relazione grammaticale; non tutti i cambiamenti di relazioni grammaticali sono possibili ma
sono regolati da ‘leggi relazionali’  estrema genericità che rende possibile cogliere l’elementi
comune a certe costruzioni e dare una risposta alla domanda considerata fondamentale.
Altri sviluppi della teoria standard sono dovuti a studiosi che all’epoca delle ‘guerre linguistiche’ si
erano schierati dalla parte di Chomsky: queste correnti linguistiche mantengono una netta
distinzione tra rappresentazione semantica e struttura sintattica e mantengono la distinzione tra
struttura profonda e superficiale solo a livello di analisi sintattica. Ricordiamo:
 Brame = modello di sintassi privo di regole trasformazionali;
 Bresnan = grammatica lessico-funzionale: un solo livello di rappresentazione sintattica ed
elimina trasformazioni nell’intento di dare una spiegazione più adeguata ad alcuni
fenomeni + costruire una grammatica ‘psicologicamente reale’;
 Gazdar = grammatica a struttura sintagmatica generalizzata: un solo livello di
rappresentazione sintattica e trasformazioni considerate strumento troppo potente; intento
più formale, elaborazione di un modello che conservasse il formato delle regole di struttura
sintagmatica, superando il loro empirismo.

4.4 Dalla tipologia al funzionalismo

47
La tipologia linguistica si è sviluppata parallelamente alla grammatica generativa: non può essere
definita una scuola in quanto è un campo di studi che può essere coltivato sia da punti di vista
diversi da quello della grammatica generativa, sia da quest’ultimo. È opportuno distinguere la
‘tipologia linguistica’ dalla ‘linguistica tipologica’, che indica una teoria che, partendo dall’analisi
tipologica delle lingue, ha elaborato alternative alla grammatica generativa.
Greenberg è il fondatore della tipologia contemporanea che, grazie a lui, diventa un ramo molto
produttivo della linguistica: il progetto della classificazione tipologica delle lingue non è più basato
sulla struttura della parola ma sull’ordine delle parole nella frase; vengono formulati enunciati
implicazionali (‘se una lingua X ha una caratteristica Y, allora ha la caratteristica Z’)  formulare in
termini implicazionali la tipologia dell’ordine delle parole, ravviando tradizione in parte dimenticata.
Greenberg si basa su un campione di trenta lingue (anche se le lingue citate sono molte di più) e
parte dall’esame di tre fenomeni di ordine delle parole che si possono realizzare nelle varie lingue
in modo alternativo:
1. la presenza di preposizioni o posposizioni;
2. la posizione del verbo (V) rispetto al soggetto (S) e all’oggetto diretto (O): dei sei ordini
teoricamente possibili solo tre occorrono come ordini dominanti (VSO, SVO, SOV);
3. l’ordine dell’aggettivo (A) rispetto al nome (N).
Una volta stabiliti questi ordini possibili, Greenberg formula 45 universali: i primi sette enunciano le
correlazioni sistematiche tra le tre opposizioni d’ordine, con l’aggiunta di una quarta opzione
Genitivo-Nome (GN) >< Nome-Genitivo (NG); gli universali dall’8 al 25 riguardano la sintassi; quelli
dal 26 al 45 la morfologia. Gli universali sono di due tipi: ‘assoluti’, quando affermano che ‘se una
lingua ha la caratteristica X, allora ha sempre anche la caratteristica Y’, e ‘statistici’. La parte finale
dello studio cerca di formulare i principi che stanno alla base degli universali implicazionali,
ricorrendo a due nozioni principali: quella di ordine ‘dominante o ‘recessivo’ e quella di relazioni
‘concordi’ o ‘discordi’ tra regole d’ordine. ‘Dominante’ per Greenberg significa ‘incondizionato’: ad
esempio, l’universale 25 dice che, se in una lingua l’oggetto diretto espresso mediante un pronome
segue il verbo, allora lo segue anche l’oggetto espresso mediante il nome. L’ordine VO è
incondizionato, in quanto l’oggetto nominale può seguire il verbo indipendentemente dal fatto che
l’oggetto pronominale lo segua oppure lo preceda; l’ordine OV, al contrario, si può avere solo se
l’oggetto pronominale precede il verbo  VO dominante >< OV recessivo. Per quanto riguarda le
relazioni ‘concordi’ e ‘discordi’, le prime si hanno sia nelle lingue preposizionali e posposizionali:
Nome-Proposizione è concorde a Nome-Genitivo perché appartengono entrambi a lingue
preposizionali MA è discorde con Genitivo-Nome perché appartiene a lingue posposizionali.
Il funzionalismo rappresentava un’alternativa alla grammatica generativa: bisogna distinguere tra le
scuole funzionaliste nate prima della GG, di matrice europea e con un atteggiamento più sfumato,
e quelle sorte successivamente, statunitensi e tendenti a respingere in blocco la GG. Tra i
funzionalisti più legati all’eredità di Mathesius ricordiamo Daneš e Firbas: entrambi prendono le
mosse dall’analisi concreta della frase di Mathesius che consiste nella distinzione tra tema e rema.
Daneš afferma però che questa analisi è soltanto uno dei tre livelli della sintassi, ossia quello della
‘organizzazione dell’enunciato’ + ‘struttura grammaticale’ e ‘struttura semantica’. Quest’ultimi due
livelli vanno tenuti distinti perché, mentre la struttura semantica è universale, quella grammatica
varia da lingua in lingua; la nozione centrale della struttura grammaticale è il ‘modello di frase, uno
schema astratto su cui si possono basare varie sequenze di parole specifiche per formare
enunciati specifici. Firbas parla di ‘prospettiva funzionale di frase’, ordinando gli elementi secondo
una scala di dinamismo comunicativo che supera il dinamismo di Mathesius: egli lo definisce come
la misura relativa in cui un elemento contribuisce allo sviluppo ulteriore della comunicazione. Gli
elementi che hanno il grado più basso sono detti ‘tematici’ (pronomi personali, legati al contesto),
quelli con il grado più alto ‘rematici’ (sostantivi) e gli elementi di terzo tipo sono definiti ‘di
transizione’ (verbi). Firbas sostiene che l’ordine oggettivo, in cui, secondo Mathesius, il tema
precede sempre il rema, rappresenta la distribuzione elementare del dinamismo comunicativo, da
cui le lingue possono deviare a causa del contesto o della struttura semantica.
Tra gli altri linguisti praghesi abbiamo:
1. Sgall, il quale cercò di mediare tra funzionalismo e grammatica generativa elaborando una
descrizione funzionale generativa: non considerava l’approccio generativo errato ma
parziale, così come per il funzionalismo. Oppone ‘rappresentazioni tettogrammaticali’ alla
‘sintassi di superficie’.
48
Molto più critiche nei confronti della GG le altre principali scuole funzionaliste europee:
2. Halliday, grammatica sistemico-funzionale = distingue tra funzioni del linguaggio, ‘ideativa’,
‘interpersonale’ e ‘testuale’. ES. al livello delle funzioni ideative il soggetto è l’elemento che
indica l’agente; al livello delle funzioni interpersonali è il tradizionale soggetto grammaticale
e ha la funzione di definire il ruolo di comunicazione adottato dal parlante; al livello delle
funzioni testuali è chiamato soggetto ‘psicologico’. Le funzioni dei tre livelli sono identiche.
3. Dik, grammatica funzionale = individua tre componenti principali nel linguaggio, il ‘fondo’, la
‘struttura di frase soggiacente’ e ‘le regole di espressione’, e tre tipi di funzioni,
‘semantiche’, ‘sintattiche’ e ‘pragmatiche’. L’assegnazione di tutti i tipi di funzioni produce la
‘struttura di frase soggiacente, input delle ‘regole d’espressione’. Le regole che
determinano l’ordine dei costituenti hanno unicamente delle tendenze.
Tutte e tre le teorie insistono sulla distinzione tra ruoli semantici e funzioni grammaticali +
differenze principalmente terminologiche.
Dopo la pubblicazione del saggio di Greenberg, si cercò di trovare una spiegazione più
approfondita delle ‘relazioni concordi’. In primo luogo abbiamo Lehmann con la formulazione del
‘principio strutturale’, secondo il quale i modificatori si collocano dal lato opposto di un elemento
sintattico di base (verbi e nomi) rispetto a quello del suo concomitante primario (oggetto diretto). Il
modello di sintassi ipotizza una struttura sottostante non ordinata linearmente e quindi il principio
strutturale riguarda l’ordine che i vari elementi vengono ad assumere nella struttura superficiale.
Riduce i sei ordini di Greenberg a solo due: VO e OV perché non considera il soggetto come
elemento primario della frase. Il principio strutturale di Lehmann fornisce una spiegazione agli
ordini ‘concordi’ ma non a quelli ‘discordi’, salvo attribuirli al fatto che le lingue cambiano
costantemente. L’italiano Antinucci presenta una spiegazione più elaborata. Egli sostiene che
l’ordine degli elementi è governato da tre principi fondamentali: il ‘principio costruttivo’, il ‘principio
di accrescimento’ e il ‘principio di formazione del soggetto’. I primi due appartengono al sistema
strutturale del linguaggio, il terzo al sistema comunicativo: il terzo principio può trovarsi in contrasto
con gli altri due. Il principio costruttivo stabilisce che una lingua disporrà gli argomenti a destra o a
sinistra del predicato (OV-VO); il principio di accrescimento determina l’ordine rispettivo degli
argomenti. PROBLEMA perché in una lingua che costruisce a destra, come l’italiano, il soggetto è
a sinistra del verbo? Per il principio di formazione del soggetto che sceglie un argomento e lo
colloca in posizione iniziale di frase, lo topicalizza. La scelta dell’argomento è governata dalla
‘gerarchia naturale del topic’ che considera la capacità/incapacità di essere la causa di un
determinato stato di cose e la ‘scala di animatezza’ (elementi che stanno più in alto nella scala
sono usati come soggetti). Il concetto di gerarchia, che Antinucci usa per indicare le diverse
probabilità dei vari argomenti di diventare il soggetto, acquista un impiego sempre più largo:
importante è il lavoro di Keenan e Comrie. I due studiosi, sulla base di un campione di 50 lingue,
sostengono che non in tutte le lingue si può avere qualsiasi tipo di frase relativa, ma che la
formazione di quest’ultima è condizionata dalla funzione grammaticale dell’elemento che la
introduce (soggetto < oggetto diretto < obliquo < genitivo < secondo termine di paragone = le
possibilità defluiscono mano a mano che si procede verso la fine della gerarchia). Propongono una
spiegazione psicologica di questa gerarchia: le relazioni più facilmente comprensibili sarebbero
quelle più facilmente relativizzabili. Il soggetto è più comprensibile perché caratterizzato dalla
proprietà di ‘indipendenza referenziale’, cioè il riferimento al soggetto non può dipendere da quello
di un altro elemento della frase. Altre due nozioni capitali sono quella di continuum e di prototipo:
se tutte le proprietà di un elemento ricorrono insieme, esso è ‘prototipico’, mentre le deviazioni dal
prototipo si dispongono lungo un continuum.
La grammatica cognitiva è stata elaborata indipendentemente da Lakoff e Langacker. Secondo
quest’ultimo, la grammatica cognitiva si è sviluppata parallelamente alla semantica generativa ma
non la si può considerare una filiazione, anche se presenta dei punti di contatto. Importante è l’idea
che le figure retoriche, e in particolare la metafora, rappresentino un aspetto fondamentale del
linguaggio. Il linguaggio è la sua acquisizione sono considerati il frutto di abilità cognitive più
generali: può esserci una componente innata il cui sviluppo è legato a quello di altre capacità
cognitive. I concetti chiave della grammatica cognitiva sono quelli di ‘prototipo’ e ‘figuratività
convenzionale’; gli universali non sono più assoluti ma sono tendenze a raggrupparsi intorno a un
prototipo; le strutture concettuali interamente corrispondenti ai prototipi sono ‘schematizzate
interamente’, altre invece ‘parzialmente’ (ES. quando le estensioni metaforiche diventano
49
convenzionali si ha un mutamento della lingua). Esplicito abbandono dell’apparato formale e
affermazione che la formazioni di nuove espressioni non riguarda la grammatica ma i parlanti 
GC rappresenta il passaggio di studiosi generativisti all’impostazione funzionalista.
Nell’ambito della tipologia, lo studioso che più rappresenta l’impostazione funzionalista e
cognitivista è Givòn: la differenza fondamentale con l’approccio generativista è il fatto che
descrivere una struttura senza descrivere la sua funzione è impossibile. Una categoria non è
invalidata perché ha margini sfumati e l’appartenenza a una categoria non richiede tutti i tratti del
gruppo; è anche possibile l’appartenenza di esemplari meno prototipici. I costituenti sintattici sono
basati su proprietà cognitive, semantiche e pragmatiche generali.
Nell’ambito del funzionalismo/cognitivismo in fonologia, Vennemann elabora la fonologia
generativa naturale che rinuncia alle rappresentazioni fonologiche ‘soggiacenti’, diverse dalle
rappresentazioni fonetiche osservabili. Da questo tipo di fonologia bisogna distinguere la fonologia
naturale: il distacco dalle precedenti teorie riguarda una concezione diversa dei meccanismi
cognitivi che stanno alla base dell’acquisizione del linguaggio da parte del bambino e che sono da
ricondurre a capacità cognitive generali. Il bambino apprende il sistema fonologico della propria
lingua materna limitando o sopprimendo processi innati (‘lenizione’, che tende a indebolire un
suono e diminuire il contrasto con quelli vicini, e ‘rafforzamento’, che tende ad aumentare le
differenze tra i suoni  il primo è funzionale al parlante perché facilita la pronuncia, il secondo
all’ascoltatore perché semplifica l’ascolto). La teoria dell’ottimalità prende avvio dalla nozione di
marcatezza, che è definita come proprietà delle rappresentazioni fonetiche. La marcatezza è una
delle due forze contrastanti che agiscono nel linguaggio umano, insieme alla fedeltà; inoltre, un
elemento non è marcato in se ma in confronto ad altri e la marcatezza si fonda su sistemi
articolatori e percettivi. Le ‘restrizioni di marcatezza’ si fondano su tali proprietà, mentre le
‘restrizioni di fedeltà’ richiedono che le uscite conservino le proprietà delle loro forme di base,
conservando una somiglianza tra l’ingresso e l’uscita: esse permettono di mantenere i contrasti
lessicali e impediscono che le realizzazioni di un solo morfema differiscano eccessivamente l’una
dall’altra  un’uscita è ottimale quando comporta la violazione minima di un insieme di restrizioni,
tenendo conto del loro ordinamento gerarchico. Teoria della capacità linguistica umana che opera
con una serie di restrizioni ordinate secondo una gerarchia.

4.5 Linguaggio, comunicazione e società


L’analisi del linguaggio come mezzo di comunicazione, già presente in alcuni linguisti
dell’ottocento, è una delle caratteristiche della scuola di Praga; l’origine della pragmatica e, più in
generale, della concezione di linguaggio come uso, precede quella della grammatica generativa:
tuttavia, l’impatto di quest’ultima è stato talmente grande che tutti i linguisti sono stati costretti a
confrontarsi con essa.
Secondo Koerner, il termine sociolinguistics è attestato intorno al 1950, nel titolo di un saggio di
Currie; quello che viene considerato abitualmente il primo lavoro di sociolinguistica è dovuto al
linguista americano Weinreich. Sia lo strutturalismo sia la dialettologia sono alla base del suo
lavoro, in cui il concetto chiave è interferenza, termine con il quale si indicano le influenze che una
lingua esercita su un’altra in situazioni di ‘contatto linguistico’, ossia quando due o più lingue sono
parlate dagli stessi individui. Il termine interferenza va a sostituire quello di prestito, che per
Weinreich è insufficiente in quanto suggerisce solo una semplice aggiunta all’inventario; i fenomeni
d’interferenza, invece, consistono in una ristrutturazione del sistema linguistico e non riguardano
solo il lessico ma anche la fonologia e la morfologia  conclusioni già raggiunte da Schuchardt +
adduce come esempio il fatto che alcuni enunciati dei parlandi ‘ibridavano’ non solo il lessico ma
anche la grammatica di una lingua con quella di un’altra. È la sociolinguistica che si deve occupare
di stabilire quando una lingua ibrida sia da considerarsi una nuova lingua. Lo scopo ultimo degli
studi sull’interferenza è quello di prevedere forme d’interferenza tipiche partendo dalla descrizione
di una comunità bilingue e dalla descrizione strutturale delle sue lingue. L’analisi del rapporto tra
lingua e società è concepito come qualcosa di inscindibile dalla descrizione della struttura di una
lingua. Da qui prende le mosse buona parte della sociolinguistica successiva: in Italia, un esempio
magistrale venne da De Mauro (vicende lingua italiana dal 1861 inquadrate in contesto storico-
sociale) e in America, Ferguson aveva pubblicato un importante lavoro sul concetto di ‘diglossia’
(termine già coniato nell’ottocento da uno studioso greco). Una situazione di diglossia si ha in
quelle comunità linguistiche in cui coesistono due varietà, A (alta) e B (bassa): la varietà A è quella
50
utilizzata in situazioni formali, la varietà B in famiglia e con gli amici (ES. katharévousa/dhimotikì). Il
concetto di diglossia si aggiungeva a quello tradizionale di bilinguismo, con il quale Weinreich si
riferiva alla compresenza di due lingue ufficiali (ES. francese/tedesco in Svizzera), quanto a quella
di una lingua ufficiale con un dialetto. La differente combinazione di bilinguismo e diglossia può
dare luogo a quattro situazioni diverse:
1. diglossia con bilinguismo;
2. diglossia senza bilinguismo;
3. bilinguismo senza diglossia;
4. né bilinguismo né diglossia.
La consacrazione definitiva della sociolinguistica come disciplina si ebbe nel 1964, con
l’organizzazione di un convegno a essa appositamente dedicato; siamo nello stesso periodo in cui
Chomsky elaborava la ‘teoria standard’ ed è quindi lecito aspettarsi un confronto tra i sociolinguisti
e la grammatica generativa. Particolarmente significativo in questo clima di confronto è il concetto
di competenza comunicativa, originariamente presentato da Hymes. Egli non accettava
l’idealizzazione della una comunità linguistica come omogenea (Chomsky) perché molti aspetti
della stessa competenza del parlante sono determinati non dalla stessa eterogeneità della
comunità linguistica cui appartiene. Alla competenza grammaticale va contrapposta una
competenza d’uso che viene acquisita negli stessi termini della acquisizione della competenza
grammaticale: mentre i bambini acquisiscono la conoscenza delle frasi di una lingua, acquisiscono
anche la conoscenza dei modi in cui le frasi vengono usate. Lo scopo della teoria linguistica non è
soltanto quello di distinguere le frasi possibili da quelle impossibili, quelle realizzabili da quelle
irrealizzabili, ma anche rendere conto della capacità del parlante di riconoscere ciò che è
appropriato da ciò che è inappropriato in un certo contesto, ciò che è raro da ciò che è abituale 
produzioni che si collegano nella produzione e nella interpretazione del comportamento culturale
europeo. Le lingue, inoltre, non sono sistemi isolati ma tra loro si verificano numerose interferenze
‘sociolinguistiche’, perché coinvolgono al contempo le caratteristiche del linguaggio e del suo uso.
Concetti chiave della sociolinguistica: ‘repertorio verbale’, ‘pratiche linguistiche’ e ‘domini del
comportamento linguistico’.
Il tentativo più sistematico di applicare le nozioni tecniche della grammatica generativa alle
ricerche sociolinguistiche fu operato da Labov. Il suo obiettivo era quello di fornire una descrizione
formale e sistematica delle differenze linguistiche dovute alle differenze di classe sociale, età,
etnia, ecc. Per descrivere questi fenomeni, elaborò il concetto di ‘regola variabile’ (nozione di
regola della GG): una regola di struttura sintagmatica con un’applicazione condizionata da alcuni
fattori probabilistici, di natura linguistica ed extralinguistica  rendere conto delle diverse
realizzazioni di uno stesso fenomeno grammaticale in diversi gruppi sociali (ES. eliminazione
copula in inglese dei neri d’America = we’re late >< we late). PROBLEMA le regole variabili
appartengono alla competenza o all’esecuzione? Neanche Labov sapeva cosa rispondere <
solleva dibattito >appare chiaro che grammatica generativa e sociolinguistica hanno obiettivi
diversi: la prima va alla ricerca di ciò che è invariabile nel linguaggio, la seconda è interessata alla
variabilità.
Searle conduce un’analisi degli atti linguistici che si distacca da quella di Austin perché egli tenta
di ricondurre tali atti a fatti di langue e di spiegarli mediante regole comprese nella ‘competenza
linguistica dei parlanti’. Una nozione centrale del suo pensiero è quella di ‘regola’ (parlare significa
eseguire degli atti secondo certe regole); introduce una distinzione tra regole ‘costitutive’, che
costituiscono un’attività la cui esistenza è indipendente dalle regole (ES. giochi), e ‘regolative’, che
regolano un’attività preesistente (ES. galateo)  la distinzione permette di rispondere a una
domanda come: che differenza c’è tra promettere e andare a pesca? Il pescare consiste in
un’attività fisica naturale, mentre il promettere è una questione di convenzione che l’enunciazione
di una data espressione in certe condizioni conti come il fare una promessa. Nonostante le regole
di Searle siano diverse da quelle di Chomsky, entrambi concordano sul fatto che le regole del
linguaggio sono qualcosa che i parlanti seguono in modo inconscio. La differenza più importante
rispetto all’analisi degli atti linguistici di Austin è la rinuncia alla nozione di atto locutorio che si
sdoppia in ‘atto enunciativo’, che consiste nell’enunciazione di parole e morfemi, e in ‘atto
proposizionale’, che consiste nelle operazioni di riferimento e predicazione. L’atto illocutorio
continua a essere individuato in un’asserzione, una domanda, ecc. Quando si realizza un atto
enunciativo si realizzano contemporaneamente gli altri; la distinzione tra atto illocutorio e atto
51
proposizionale permette a Searle di dare una rappresentazione formale della nozione di forza
illocutoria (tentativo di rappresentare gli atti illocutori mediante le tecniche della sintassi
generativa). La sua attenzione per l’aspetto linguistico lo porta ad analizzare gli ‘atti linguistici
indiretti’, riferendosi con questo termine a espressione come ‘puoi passarmi il sale?’ che, pur
essendo una frase interrogativa, come atto interlocutorio non è una domanda, ma un ordine o una
preghiera  tramite tali atti il parlante comunica all’ascoltatore più di quanto effettivamente non
dica, in quanto fa affidamento sul bagaglio di cognizioni linguistiche e non da entrambi condiviso e
sulla facoltà di ragionamento dell’ascoltatore. A differenza di Searle, il punto di partenza di Grice
non era la teoria degli atti linguistici ma il problema dell’imperfezione del linguaggio naturale
rispetto agli standard della logica: egli osservava che ci sono delle discrepanze tra il valore degli
operatori logici e quello delle espressioni corrispondenti del linguaggio naturale. Grice sostiene che
‘formalisti’ e ‘informalisti’ sbagliano nell’attribuire un differente significato alle espressioni della
logica formale e a quelle corrispondenti del linguaggio naturale: secondo lui, questa differenza di
significato non esiste e le divergenze derivano da determinate condizioni che governano la
conversazione, che si applicano al linguaggio naturale (mezzo attraverso il quale si svolge la
conversazione) e non in quello formale. La conversazione è governata da un principio generale
approssimativo che ci si aspetterà che i partecipanti osservino: il tuo contributo alla conversazione
sia tale quale è richiesto, allo stadio in cui avviene, dallo scopo o orientamento accettato dallo
scambio linguistico  principio di cooperazione, da cui derivano quattro categorie di ‘massime
conversazionali’ di ‘quantità’, ‘qualità’, ‘relazione’, ‘modo’. La conversazione è governata da queste
massime nel senso che ognuno dovrebbe seguirle e si aspetta che gli altri le seguano. Grice
osserva che una massima, non solo può essere violata, ma anche sfruttata o ‘violata
ostentatamente’, cioè quando l’ascoltatore si accorge della violazione e del fatto che il parlante
vuole far capire che sta violando una massima: si realizzano delle implicature conversazionali. I
risultati di Grice si possono riassumere così: ‘non tutto ciò che è comunicato è detto’. Una volta
riconosciuta l’indiscutibilità di questo risultato, bisogna trovare una spiegazione: Grice fondava il
principio di cooperazione su una generica esigenza di ‘razionalità’, mentre studiosi successivi
hanno cercato di dare una spiegazione più approfondita. Le posizioni principali sono due:
1. La teoria della cortesia (Brown e Levinson), che si inquadra nella linea di ricerca generale
dell’analisi conversazionale o entometodologia (Garfinkel e Sacks). Questa teoria si basa
sulla nozione di ‘faccia’, elaborata da Goffman, ossia la considerazione che una persona
desidera avere nel suo ambiente sociale (nel senso di ‘salvare la faccia’). Si distingue una
‘faccia positiva’, cioè il desiderio di essere approvati, da una ‘faccia negativa’, cioè il
desiderio di mantenere la propria libertà e indipendenza. Nella conversazione, il parlante
tenderebbe a salvaguardare entrambe le ‘facce’ assumendo atteggiamenti di ‘cortesia
positiva’ e ‘negativa’, cercando di accattivarsi la solidarietà dell’ascoltatore ma mostrando di
rispettarne l’indipendenza. Gli usi non letterali del linguaggio sarebbero strategie per
preservare entrambe le ‘facce’.
2. La teoria della pertinenza (Sperber e Wilson). Gli studiosi interpretano in senso cognitivo il
meccanismo della conversazione: comunicare vuol dire modificare in modo intenzionale il
contesto dei nostri interlocutori, il loro ambiente cognitivo, cercando allo stesso tempo di
trasmettere il maggior numero possibile di nuove conoscenze con il minimo sforzo e
realizzando la massima ‘pertinenza’.

4.6 Il ‘programma chomskiano’


Con l’etichetta ‘programma chomskiano’ si fa riferimento alle ricerche di Chomsky e di alcuni suoi
allievi dagli anni ’70 a oggi. Il filo conduttore è la nozione di grammatica universale, definita come
l’insieme di quelle proprietà del linguaggio umano che sono biologicamente determinate e come
teoria della facoltà di linguaggio umano  sviluppo di idee già enunciate in precedenza con due
importanti innovazioni: l’accentuazione in senso biologico del concetto di GU e l’idea che gli
universali linguistici consistono in determinate condizioni sul formato della grammatica di
qualunque lingua umana. Si assiste a un ripensamento delle nozioni di ‘lingua’, ‘grammatica’,
‘parlante ascoltatore-ideale in una comunità linguistica completamente omogenea’ rispetto a come
erano presentate nella teoria standard. Inoltre, Chomsky oppone lingua E(sterna), definita come la
totalità degli enunciati che si possono produrre in una comunità linguistica, a lingua I(nterna), un
qualche elemento della mente della persona che conosce la lingua, acquisito nell’apprendimento e
52
usato nelle funzioni di parlante-ascoltatore. Se si considera la lingua come lingua I, allora la
grammatica è una teoria della lingua I in quanto oggetto d’indagine. In un lavoro successivo,
emerge che la I sta per ‘individuale’, quindi la lingua I riguarda in primo luogo l’individuo e solo
derivativamente una comunità linguistica.
Un allievo di Chomsky, Emonds, aveva dimostrato che le trasformazioni ammissibili nella
grammatica di una qualunque lingua umana si riducono a tre tipi: è possibile interpretare questa
restrizione come una caratteristica biologica della facoltà di linguaggio umana. Mentre il maestro
studiava le condizioni sul loro funzionamento, l’allievo si concentra sulla forma delle trasformazioni.
Le tre condizioni più importanti formulate da Chomsky sono: la ‘condizione di soggiacenza’, la
‘condizione del soggetto specifico’ e la ‘condizione della frase temporalizzata’ (cfr. pagg. esempi).
In seguito, lo stesso Chomsky non mostra più interesse per le trasformazioni come strumenti
descrittivi ma le utilizza come punto di partenza per elaborare ipotesi su una presunta facoltà di
linguaggio innata: e l’innatismo era l’aspetto della teoria standard che aveva incontrato più
resistenze. Egli propone la teoria della traccia che afferma che un elemento spostato per effetto di
una trasformazione lascia una ‘traccia’ nella posizione che occupava nella struttura profonda. Non
si tratta di un puro artificio notazionale ma di un’entità che interviene come tutte le altre categorie
sintattiche nelle operazioni trasformazionali e interpretative, con effetti fonetici e semantici (cfr.
pagg. esempi).
Il modello di grammatica gradualmente elaborato viene così schematizzato:

Forma Fonetica (= rappresentazione fonetica)


Struttura-p  Trasformazioni  Struttura-s
Forma Logica (aspetti rappresentazione semantica
dipendenti dalla grammatica)
La struttura-s, derivata dall’applicazione delle trasformazioni e che contiene le tracce, diventa
l’unico input all’interpretazione semantica e assume il ruolo che nella teoria standard era
assegnato alla struttura profonda (struttura-p); trasformazioni ridotte a schemi più semplici.
Obiettivo: formulare ipotesi più generali per arrivare a individuazione più precisa delle proprietà
della GU. Ciascun essere umano sarebbe provvisto alla nascita di un meccanismo innato costituito
da pochissime regole e pochissimi principi generali. Bisogna però superare una problematica
rilevante: se gli esseri umani sono dotati di un’unica GU, perché le lingue sono diverse? Ricerca
della soluzione introducendo la distinzione tra ‘principi’ e ‘parametri’. I primi sono universali, fissati
alla nascita e invariabili in tutte le lingue; i secondi spiegano la diversità delle lingue (valore
parametro fissato in base all’esperienza), riconducendola all’interno di limiti prefissati dalla GU 
‘modello a principi e parametri’, dove hanno un ruolo particolare le nozioni di ‘reggenza’, quando
un determinato verbo o preposizione reggono un determinato caso, e ‘legamento’, ossia la
possibilità, impossibilità o necessità di un sintagma nominale di avere lo stesso riferimento di un
altro sintagma nominale all’interno di una determinata frase. Chomsky si dedica anche alla
classificazione delle ‘categorie vuote’, cioè gli elementi privi di realizzazione fonetica.
La fase più recente del programma chomskiano è costituita dal programma minimalista o
minimalismo, la cui questione fondamentale è: quanto è perfetto il linguaggio?, dove perfezione
equivale a semplicità, intesa come soluzione più economica. Il minimalismo intende determinare
quali sono i livelli di rappresentazione del linguaggio necessari e sufficienti; quali sono le
operazioni che li mettono in relazione e come li giustificano; quali sono le relazioni del linguaggio
umano con gli altri sistemi cognitivi. Sono conservati soltanto i livelli di rappresentazione ‘forma
logica’ e ‘forma fonetica’, definiti livelli di interfaccia esterna, cioè i punti di contatto del linguaggio
con gli altri sistemi cognitivi: essi sono dovuti a una necessità concettuale virtuale, dato che
un’espressione linguistica non può essere priva di suono (FF) e di significato (FL). Distinzione tra
‘facoltà di linguaggio in senso lato’ e ‘facoltà di linguaggio in senso stretto’: il primo inteso come
capacità di produrre suoni e il secondo caratteristico degli esseri umani. (cfr. pagg. esempi)

53
54

Potrebbero piacerti anche