Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Due Secoli Di Pensiero Linguistico Riassunto
Due Secoli Di Pensiero Linguistico Riassunto
DI PENSIERO
LINGUISTICO
Dai primi
dell’Ottocento a oggi
1
Capitolo 1: Introduzione: panoramica sulla storia della linguistica fino alla fine del
Settecento
2
diciamo che una certa cosa ha una proprietà che effettivamente possiede, il discorso è vero; se
invece non la possiede, il discorso è falso.
Anche Aristotele analizza il linguaggio come strumento tramite il quale si possono fare discorsi
veri o falsi. Nel De interpretatione individua i diversi tipi di discorso e si rende conto che solo quello
enunciativo può essere vero o falso. Egli ritiene che il pensiero sia identico per tutti gli esseri
umani, perché è frutto di un’identica realtà; le differenze tra le lingue sono diversità tra i modi in cui
questi pensieri sono espressi tramite i suoni e la scrittura. Definisce onóma come «una voce che
significa per convenzione, senza tempo», rhêma come voce che «in più significa il tempo» (i nomi
non si flettono al presente, passato, futuro). Aristotele, quindi, sostiene che il linguaggio è una
convenzione. Oltre all’onóma e rhêma, individua ptôseis, in altre parole i casi e le flessioni dei nomi
e dei verbi. Anche se sembrerebbe che a onóma corrisponda il nome e a rhêma il verbo, non è
così semplice. Alcuni studiosi preferiscono parlare di soggetto e predicato. Chiama invece il
discorso lógos. Nella Poetica presenta una classificazione delle entità del linguaggio:
Le entità non dotate di significato: elemento (stoicheîon = sillaba), congiunzione
(sýndesmos = congiunzioni e preposizioni), articolazione (árthron = articolo, pronomi
personali e dimostrativi).
Le entità dotate di significato: onóma, rhêma, ptôsis, lógos. In questo caso rhêma ha un
significato più vicino a quello di ‘verbo’, lógos può essere tradotto con ‘frase’,
‘proposizione’, ‘discorso’.
Qual è la ragione delle differenze tra il De interpretatione e la Poetica? Il primo, essendo un’opera
di logica, si concentra sul lógos enunciativo, che può essere vero o falso a seconda se il predicato
esprime una proprietà che il soggetto effettivamente possiede oppure no: quindi rhêma ha il
significato generico di ‘predicato’ e non si parla di lógos senza rhêma (→ ogni discorso deve avere
un predicato). Invece la Poetica esamina i linguaggi come mezzo di espressione, analizzandolo
sotto l’aspetto fonologico e morfologico: quindi onóma e rhêma sono distinti in base alla loro
diversa morfologia.
Anche lo stoicismo si occupa della storia della lingua. Due autori importanti sono Zenone e
Crisippo (ca. 280-205 a.C.), delle cui opere ci sono giunti solo frammenti, di conseguenza la
ricostruzione del loro pensiero si basa su testimonianze più tarde. La concezione stoica del
linguaggio è orientata verso la concezione naturalistica (phýsei). Infatti, per gli Stoici, il linguaggio è
legato per natura all’uomo poiché si riconduce a quelle ‘nozioni innate’ (prolépseis) che egli
possiede. Di conseguenza le singole parole non sono frutto di arbitrio ma, essendo fondate su
nozioni innate, hanno un certo legame con la natura che si deve scoprire mediante la ricerca del
legame originario tra i suoni di cui una parola è composta e l’entità cui si riferisce: questo è lo
studio dell’etimologia (= studio del vero). Gli Stoici spiegano l’origine delle parole primitive
mediante l’onomatopea o la sinestesia; da queste parole originarie sarebbero derivati altri termini
per somiglianza o per contrasto.
Anche l’epicureismo ha una concezione naturalistica del linguaggio. Secondo Epicuro (341-270
a.C.), gli uomini hanno imposto i nomi alle cose per impulso naturale, cioè come conseguenza
delle emozioni e delle immagini che le cose producevano in loro. Queste emozioni e queste
immagini erano diverse secondo le varie popolazioni e dei vari individui e questo spiega la
diversità delle lingue. In seguito, all’interno delle singole popolazioni si creò un accordo per
designare le stesse cose con suoni identici e furono trovati nomi anche per le cose non viste. di
conseguenza per Epicuro il linguaggio ha origine per impulso naturale, ma si stabilizza in base ad
un accordo.
Gli Stoici, al contrario degli Epicurei, ci hanno tramandato analisi specifiche della struttura del
linguaggio. Individuano nel lógos quattro classi di elementi: il nome (onóma), il verbo (rhêma),
3
l’arthron e il syndesmos. Suddivide il nome in due classi: il nome proprio (idion) e il nome
appellativo (prosēgorikón). Alle quattro classi di elementi aggiungono quella mesótēs, l’avverbio.
Per quanto riguarda la tradizione “bassa” i grammatici, dal III secolo a.C., non hanno solo la
funzione di insegnare a leggere e scrivere, ma anche di analizzare e descrivere il greco (e poi
anche il latino) e di fissare i canoni dello scriver corretto. Dalla fine del IV secolo a.C. le conquiste
di Alessandro Magno (356-323 a.C.) avevano diffuso la cultura greca in un’area vastissima che
comprendeva il Mediterraneo orientale e il Medio Oriente. Tuttavia la maggioranza delle
popolazioni di questi territori non parlava il greco, lingua ufficiale dell’impero: era necessario fissare
una norma del parlare e scrivere in modo corretto. Inoltre, in quest’epoca, si cercava di ricostruire il
testo dei poemi omerici: si trattava di stabilire quale potesse essere la loro versione più attendibile.
A ciò si dedicano i filologi alessandrini, attivi nella città di Alessandria d’Egitto tra il III e il II secolo
a.C. Ma per fare questo era necessario avere una grammatica: il primo trattato di grammatica è
attribuito a Dionisio Trace (ca. 170-90 a.C.), un breve testo in cui si presenta una classificazione
delle parole in classi. Questo trattato individua otto parti del discorso: il nome (onóma), il verbo
(rhêma), il participio (metoché), l’articolo (árthon), il pronome (antōnymía), la preposizione
(próthesis), l’avverbio (epírrhēma), la congiunzione (sýndesmos). Questo elenco si trova identico
nelle grammatiche greche e latine con una sola modifica dovuta alla struttura delle lingue: in latino
non vi è l’articolo. I grammatici latini trattano l’iterazione come parte a sé invece di quelli greci che
la collocavano tra gli avverbi.
Tra i grammatici di epoca classica i più influenti sono Apollonio Discolo tra quelli greci, e Donato e
Prisciano tra quelli latini. Ad Apollonio (II secolo d.C.) si deve il primo trattato dedicato alla
sintassi, cioè alla combinazione di parole, che può essere considerato il primo esempio di
grammatica ragionata dato che spiega il motivo delle forme linguistiche. Donato (IV secolo d.C.)
compone Ars Minor ed Ars Maior, opere di grande efficacia didattica che rappresentarono un
modello per le grammatiche successive. La prima è un elenco delle parti del discorso e delle loro
definizioni secondo uno schema simile ai catechismi (domanda-risposta). L’Ars Maior è divisa in
tre parti: la prima fornisce una classificazione dei suoni, delle sillabe e dei piedi; la seconda tratta
delle parti del discorso; la terza dei difetti e dei pregi del discorso. Prisciano (V-VI secolo d.C.)
compose le Institutiones Grammaticae in diciotto libri, che rappresentavano la grammatica di
riferimento del latino anche per i parlanti che avevano una conoscenza limitata della lingua.
Quest’opera ebbe una diffusione straordinaria e rappresenta la summa delle nozioni elaborate dai
grammatici greci e latini dal II secolo a.C. al VI secolo d.C.
4
Isidoro di Siviglia (ca. 560-636 d.C.) compose l’Etymologiae, una sorta di enciclopedia in venti
libri che spazia dalla grammatica ai legni e agli utensili. Isidoro osserva che il legame naturale tra
le parole e le cose non si realizza sempre, alcuni nomi sono stati imposti per convenzione e non
per natura. Egli ricercò la lingua originaria da cui sarebbero derivare le altre lingue che sostenne
essere l’ebraico, conformemente al racconto della torre di Babele contenuto nel primo libro della
Bibbia.
Nel periodo alto-medievale rimangono semisconosciute alcune delle opere linguistiche più
importanti dell’epoca classica e tardo-antica, a cominciare da quelle di Prisciano e di Boezio.
Rimane costante la conoscenza di Donato utilizzato soprattutto per l’insegnamento del latino;
infatti, il latino è sconosciuto alle popolazioni di origine barbarica e anche quelle di origine romana
stanno progressivamente cambiando la loro lingua quotidiana. Le grammatiche delle lingue volgari
cominciano ad essere scritte solo alcuni secoli più tardi e il latino rimarrà l’unica lingua di cultura
per molto tempo. Le grammatiche dell’alto Medioevo avranno sostanzialmente uno scopo pratico:
insegnare una lingua che nessuno ormai possedeva più come lingua materna e che, tuttavia, era
l’unica ad essere considerata lingua di cultura. Si cercherà di recuperare la tradizione “alta” con la
rinascenza carolingia grazie ad autori come Alcuino di York e Rabano Mauro.
Nell’XI secolo grazie alla riscoperta di Aristotele, di Boezio e delle Istitutiones Grammaticae nasce
la grammatica speculativa che può essere definita come il tentativo di fondare il sistema
grammaticale di Prisciano sulla filosofia di Aristotele. Questo tentativo giunge al culmine con i
Modisti (XIII-XIV secolo): con questi dotti si compie l’incontro tra la tradizione bassa e quella alta.
La tradizione bassa degli studi linguistici non scompare perché ad esse è legata l’esigenza pratica
dell’insegnamento del latino. L’opera più importante di questa tradizione è il Doctrinale (1199) di
Alexander de Villadei: opera in versi che divulga il sistema di Prisciano. In quest’epoca iniziano ad
apparire alcune opere relative alle lingue volgari come il Donatz Proensals (1240) di Uc Faidit o il
Primo trattato grammaticale islandese (XII secolo).
Per quanto riguarda la storia della grammatica speculativa una delle prime opere è il De
grammatica di S. Anselmo di Aosta (1033-1109). Nella tradizione successiva abbiamo Guglielmo
di Conches (ca. 1080-1150) e Abelardo (1079-1142). Tra l’XI e il XII secolo cominciano a
diffondersi i commenti a Prisciano che devono dare una giustificazione razionale alle categorie da
lui introdotte. In esse si trovano concetti nuovi come quelli di soggetto e predicato. Un’altra novità
riguarda la trattazione dell’aggettivo: i grammatici medievali, sempre reverenti nei confronti delle
auctoritates classiche, non osano ancora fare dell’aggettivo una parte del discorso a sé, ma
pongono la distinzione all’interno della classe dei nomi (nomen substantivum e nomen adiectivum).
Alcuni modisti sono Boezio di Dacia, Martino di Dacia, Radulphus Brito, Gentile da Cingoli, Sigieri
di Courtrai e Tommaso di Erfurt. Il termine ‘modisti’ viene dal concetto di ‘modo’ ad indicare i modi
in cui sono organizzati il linguaggio, il pensiero e la realtà. I modisti concepiscono la grammatica
come una scienza. La grammatica modista fu criticata da vari studiosi negli anni ’30 del XIV secolo
e fu riscoperta soltanto nel Novecento.
Nel De vulgari eloquentia Dante Alighieri (1265-1321) ha come obiettivo quello di definire il
volgare illustre. Egli non crede che i volgari italiani derivino dal latino, ma che il volgare sia una
lingua che si impara da piccoli senza bisogno di alcuna regola, mentre il latino si basa su una
grammatica che può essere acquisita solo da pochi. Dante sostiene anche che il linguaggio sia
una proprietà esclusiva degli esseri umani non posseduta dagli animali né dagli angeli. Infatti gli
uomini non sono guidati dall’istinto ma dalla ragione, per questo motivo ciascuno di loro differisce
nelle sue azioni e nelle sue passioni. Gli angeli non hanno bisogno del linguaggio perché
conoscono i pensieri degli altri tramite Dio. Gli animali sono guidati esclusivamente dall’istinto: se
appartengono alla stessa specie non hanno bisogno di comunicare perché hanno in comune gli
stessi atti e passioni, se appartengono a specie diverse il linguaggio sarebbe dannoso perché tra
5
loro non potrebbe esserci alcun rapporto amichevole. Gli uomini hanno scelto un sistema di segni
linguistici che sono da un lato mentali in quanto convenzionali e dall’altro concreti in quanto suoni.
Dante si chiede quale sia la lingua originaria e risponde, rimanendo fedele all’insegnamento
biblico, che è l’ebraico. Ma la novità dell’opera consiste nel presentare uno dei primi tentativi di
classificazione genealogica delle lingue. Gli unici a conservare la lingua originaria furono gli ebrei; i
popoli che migrarono verso l’Europa si divisero in tre gruppi, uno dei quali si stanziò in Europa
meridionale, il secondo nell’Europa settentrionale e il terzo tra l’Europa e l’Asia. Quelli del primo
gruppo parlano una lingua in cui la particella affermativa è oc, oil oppure sì (→lingue romanze),
quelli del secondo lingue in cui essa è jo (→lingue slave e germaniche), quelli del terzo i greci.
Infine Dante si è chiesto perché le lingue cambiano: le lingue (dopo la torre di Babele) sono
prodotti puramente umani e quindi cambiano attraverso il tempo con tutti i costumi degli uomini.
Dal punto di Unica lingua di cultura è il latino. Il Il latino perde la posizione privilegiata.
vista greco è appannaggio di pochi traduttori. Le lingue volgari iniziano ad imporsi
linguistico come lingue di cultura e lingue ufficiali.
Dal punto di Unica religione in Europa occidentale: Con la riforma protestante, il cui inizio si
vista cattolica romana. può collocare nel 1517 con la
religioso pubblicazione delle tesi di Wittenberg, si
rompe l’unità religiosa.
Dal punto di Ideale di uno stato universale Formazione di stati nazionali che
vista politico rappresentato dal Sacro Romano tendono a differenziarsi sempre più
Impero. l’uno dall’altro.
Dal punto di Gli europei che si avventuravano fuori Con le scoperte geografiche i contatti
vista dalle terre conosciute, come Marco con terre lontane aumentano
geografico Polo, erano pochissimi e i contatti con notevolmente. Si formano colonie di
le terre lontane erano sporadici. europei in altri continenti.
Dal punto di Aristotele è un punto fermo per la La dottrina di Aristotele entra in crisi con
vista cultura medievale. Descartes e Locke.
filosofico
Gli umanisti, tra cui Lorenzo Valla (1407-1457), propugnano un “ritorno ai classici”, cioè al latino
usato dagli scrittori dell’antica Roma, da acquisire non mediante lo studio della grammatica, ma
mediante la lettura diretta di tali autori. Gli umanisti, infatti, criticano i dotti medievali non solo per il
tipo di latino utilizzato, ma anche per la prevalenza data agli studi grammaticali rispetto allo studio
diretto degli autori classici. Elegantiarum linguae latinae libri VI del Valla non è una grammatica,
presuppone le nozioni elementari e tratta diffusamente di questioni stilistiche.
6
La situazione è diversa per quanto riguarda le lingue volgari. Infatti per queste lingue non è stata
fissata definitivamente una norma e quindi si avverte la necessità di elaborare delle grammatiche
che si assumano il compito di stabilirla. A questo fine contribuisce notevolmente l’invenzione della
stampa, attribuita a Gutenberg nel 1455. Le grammatiche delle lingue volgari cominciano a fiorire
in questi anni in tutti i paesi europei. La prima grammatica dell’italiano è la cosiddetta
Grammatichetta Vaticana, attribuita a Leon Battista Alberti (1404-1472). Nel Cinquecento
aumenta il numero delle grammatiche delle lingue moderne: le Prose della volgar lingua di Pietro
Bembo (1525). Le grammatiche di questo periodo sono di tipo sostanzialmente pratico, non
filosofico, e si ispirano ai modelli classici di Prisciano e di Donato.
In questi anni si riconosce questa pluralità e diversità delle lingue tanto che gli studiosi si pongono
nuovamente il problema delle lingue originarie e del mutamento linguistico: ci si concentra
principalmente sul rapporto tra il latino e le lingue romanze (in particolare latino e italiano). Nel
Quattrocento si scontravano due idee alternative:
Biondo Flavio: il volgare si è formato grazie alla mescolanza del latino con le lingue dei
barbari invasori;
Leonardo Bruni-Lorenzo Valla: è sempre esistita una lingua volgare latina che è alla base
del volgare moderno.
Per quanto riguarda il problema dell’origine delle lingue emergono delle posizioni laiche che non si
basano più sull’episodio della torre di Babele. Giuseppe Giusto Scaligero (1540-1609) classificò le
lingue europee in base alle loro diverse “lingue madri”, quattro “maggiori” e sette “minori”,
indicando le prime con le diverse parole con cui ciascuna esprime il concetto di ‘Dio’:Deus (lingue
romanze), Theós (greco), Godt (lingue germaniche), Boge (lingue slave). Secondo Scaligero la
parentela si limitava alle lingue derivate delle lingue madri, mentre tra queste ultime non c’era
alcuna relazione di parentela. Un secolo più tardi, Leibniz (1646-1716), pur accettando in linea di
principio il racconto biblico dell’origine delle lingue da un’unica lingua madre, affermava però che lo
sviluppo storico non rendeva più riconoscibile questa lingua arcaica e classificava le lingue
attestate in due grandi specie: le “jafetiche” (le lingue dell’Eurasia) e le “aramaiche” (quelle
dell’Africa e del Vicino Oriente).
Nel 1540 Giulio Cesare Scaligero (1484-1558), padre di Giuseppe Giusto, pubblica a Lione De
causis linguae latinae, opera che manifesta già dal titolo il suo pieno inserimento in un quadro
aristotelico, recupera i tratti caratteristici della grammatica modista e inaugura un filone alternativo
a quello umanista. Un’impostazione filosofica caratterizza anche le opere grammaticali del filosofo
Pierre de la Ramée (1515-1572). Nel 1587, lo spagnolo Francisco Sánchez de las Bronzas (1523-
1601), noto col nome latino Sanctius, pubblica Minervaa seu de causis linguae latinae. Egli dedica
molta attenzione al fenomeno dell’ellissi, ovvero dell’omissione di certe parole in una costruzione,
per esaminare le condizioni in cui essa è possibile. Sanctius considera la lingua degli autori
classici latini come modello, conformemente alla tradizione umanistica, ma cerca di individuare i
principi logici che stanno alla base del suo funzionamento. A lui si devono molte considerazioni
interessanti come la ridefinizione completa delle parti del discorso, da lui ridotte a tre: nome, verbo
e particella. Con questi tre autori si ha una rinascita della grammatica filosofica, anche se essi non
usano ancora questa espressione.
L’idea che esistano due tipi di grammatiche non è palese fino al Seicento quando importanti filosofi
come Francesco Bacone (1561-1626) e Tommaso Campanella (1568-1639) parlano di una
grammatica “filosofica” contrapposta ad un altro tipo di grammatica, che il primo chiama “popolare”
e il secondo “civile”.
Port Royal era un monastero cistercense femminile, non lontano da Parigi, il cui direttore spirituale
era un religioso, l’abate di Saint-Cyran, appartenente alla corrente dei giansenisti, che fu poi
condannata come eretica dalla Chiesa cattolica romana. Intorno a Saint-Cyran si formò un gruppo
7
di intellettuali tra cui Blaise Pascal (1623-1662) e Jean Racine (1639-1699). I “Signori di Port
Royal”, fortemente avversi ai Gesuiti, che svolgevano uno ruolo fondamentale nell’educazione, per
motivi relativi alla dottrina della grazie e dei sacramenti, pensarono di organizzare un loro sistema
di istruzione in cui la riflessione sulla struttura del linguaggio e del pensiero avesse un ruolo
fondamentale. La Grammatica generale e ragionata (1660-1676) e la Logica o l’arte di pensare
(1662-1683) di Port Royal sono frutto di questo esperimento pedagogico. Il loro obiettivo non era
quello di limitarsi ad indicare le forme del parlar corretto, ma determinarne le ragioni. Per i “Signori
di Port Royal” il linguaggio è espressione del pensiero: le espressioni linguistche riflettono le
operazioni della mente, che sono il ‘concepire’ (=dare un semplice sguardo sulle cose), il
‘giudicare’ (=affermare che una cosa che noi concepiamo è tale o non è tale), il ‘ragionare’
(=servirsi di due giudizi per produrne un terzo). All’operazione del concepire corrispondono nel
linguaggio le parole, a quella del giudicare la proposizione, a quella del ragionare il sillogismo. Gli
elementi che compongono una proposizione sono tre: soggetto, copula e predicato. Infatti notano
come tutti i verbi derivino dalla combinazione di altri significati con quello di essere (ad esempio:
vive = è vivente), combinazione dovuta alla tendenza naturale degli uomini ad abbraviare tutte le
espressioni. Nella Logica distinguono le proposizioni semplici da quelle composte: le proposizioni
semplici sono quelle che hanno un solo soggetto e un solo predicato, quelle composte sono quelle
che hanno più di un soggetto e più di un predicato. Tuttavia ci sono delle proposizioni che
apparentemente sono composte, ma che in realtà sono semplici: si tratta delle proposizioni
complesse, le quali hanno propriamente un solo soggetto ed un solo predicato, ma in cui il
soggetto o il predicato è un termine complesso, che racchiude altre proposizioni che possiamo
chiamare incidenti, le quali sono solo parte del soggetto o del predicato essendovi congiunte con il
pronome relativo, la cui proprietà è quella di congiungere più proposizioni in modo che esse ne
compongano una sola.
In Cartesio (1596-1650) non si trovano analisi linguistiche nel senso stretto del termine, ma solo
considerazioni generali sul linguaggio come capacità specificamente umana. I “Signori di Port
Royal” si ispiravano a Cartesio per quanto riguarda la visione generale del linguaggio. Cartesio è
considerato il caposcuola della corrente razionalista, ossia quella che sostiene che la mente
umana possiede conoscenze precedenti e indipendenti dalle impressioni sensoriali. La corrente
opposta, l’empirismo, sostiene, invece, che tutte le conoscenze hanno origine dalle sensazioni.
Caposcuola dell’empirismo è Locke, tra i suoi predecessori vanno ricordati Hobbes e Bacone.
Locke dedica ampio spazio all’analisi dei singoli fatti linguistici. Nel Saggio sull’intelligenza umana
sottolinea come le parole abbiano un ruolo fondamentale nell’organizzazione della nostra
conoscenza poiché servono a fissare la varietà e la molteplicità delle nostre impressioni
sensoriale. Sia Locke che Cartesio considerano il linguaggio come una proprietà esclusiva
dell’uomo. Secondo Locke vi sono due tipi di idee: quelle semplici (come ‘rosso’, parola che non
può essere definita con altre parole, ma mostrando l’oggetto) e quelle complesse (come
‘assassinio’, parola che può essere spiegato con l’utilizzo di altre parole, ‘uccisione di un uomo’).
Mentre le idee semplici derivano da cose reali, le idee complesse o modi misti sono frutto di un
atto arbitrario della nostra mente. Questa arbitrarietà spiega perché molte parole di una lingua non
sono traducibili direttamente in altre. L’arbitrarietà delle lingue umane non sta solo nella mancanza
di corrispondenza naturale tra parola e oggetto ma anche nella mancanza di una relazione stabile
tra parola ed idea espressa. Al saggio di Locke replicò, dal versante razionalista, Leibniz, con i
suoi Nuovi saggi sull’intelletto umano (1765) che hanno la forma di un dialogo tra Filalete
(=opinioni di Locke) e Teofilo (=obiezioni di Leibniz). Leibniz sostiene che le lingue umane sono
diverse, come sono diversi i costumi dei vari popoli, e quindi i contenuti della ragione umana si
possono esprimere in modo diverso, ma questi contenuti sono universali. Leibniz ha tentato di fare
8
una classificazione genealogica delle lingue e di crere una lingua artificiale i cui segni denotine le
cose a cui si riferiscono senza l’ambiguità proprie delle lingue naturali.
È agli autori delle voci linguistiche dell’Enciclopedia (1751-1772), César Chesneau Du Marsais
(1676-1758) e Nicolas Beauzée (1717-1789), che si deve la distinzione tra grammatica generale e
grammatica particolare. La prima è la scienza dei principi immutabili e generali del linguaggio
pronunciato o scritto valido per qualunque lingua; la seconda è l’arte di applicare ai principi
immutabili e generali del linguaggio pronunciato o scritto le istituzioni arbitrarie e usuali di una
lingua particolare. Per quanto riguarda i temi più specifici dell’analisi grammaticale, i grammatici
illuministi o enciclopedisti riprendono Port-Royal, ma non ne seguono precisamente l’impostazione.
Una grande merito di questi grammatici è quella di aver introdotto la nozione di complemento.
Ètienne Bonnot de Condillac (1714-1780), di impostazione empirista, analizza la proposizione
esattamente come i portorealisti, composta da soggetto, verbo e predicato anche se può essere
espressa da due parole.
Giambattista Vico (1668-1744), di impostazione storicista, ritiene che il linguaggio deve essere
considerato come la realizzazione progressiva della coscienza dell’umanità, che si sviluppa
attraverso le cosiddette “tre età” della storia: quella degli dei, degli eroi e degli uomini,
caratterizzate rispettivamente dalla sensazione, dalla fantasia e dalla ragione. L’origine del
linguaggio si ha con l’imitazione dei suoni della natura (onomatopee) e dall’espressione delle
passioni (iterazioni). Successivamente nasceranno i pronomi, i nomi ed infine i verbi.
Condillac cerca di spiegare l’origine del linguaggio immaginando, dopo il diluvio, due bambini, un
maschio e una femmina, smarriti in luoghi deserti prima di conoscere l’uso dei segni. Inizialmente
essi accompagneranno alla propria percezione (ad esempio la fame) con grida e gesti per
stimolare l’altro bambino a soddisfare il bisogno del suo compagno (dargli un frutto). Col passare
del tempo i bambini cominceranno ad collegare sistematicamente queste grida e gesti all’oggetto,
nasce così la prima forma di linguaggio: il linguaggio d’azione. L’uso di questi segni porta i bambini
a perfezionarli e a renderli più famigliari e con le generazioni successive il linguaggio d’azione
diventa un sistema di comunicazione sempre più complesso fino a creare il linguaggio dei suoni
articolati. Condillac descrive anche lo sviluppo delle diverse lingue: le prime parole ad apparire
sono stati i nomi perché si riferiscono ad entità concrete, poi gli aggettivi e gli avverbi per indicare
le qualità di questi oggetti e infine i verbi per esprimere lo stato d’animo.
Jean-Jacques Rousseau (1712-1778) descrive le forme di linguaggio primitivo in modo simile a
quello di Condillac. Tuttavia individua due problemi. Il primo riguarda il rapporto tra nascita della
società e l’origine del linguaggio: secondo Rousseau nello stato di natura gli uomini vivevano
isolati gi uni dali altri e non esisteva quindi la società; il linguaggio ha avuto origine quando gli
uomini hanno abbandonato lo stato di natura e hanno cominciato a sviluppare legami sociali. Il
secondo problema riguarda il rapporto reciproco tra linguaggio e pensiero. Il pensiero presuppone
un linguaggio organizzato, ma il linguaggio presuppone un pensiero che lo organizzi.
Beauzée spiegava l’origine del linguaggio rifacendosi al dettato biblico, tuttavia aggiungeva che i
mutamenti introdotti da Dio nella lingua primitiva non potevano essere diversi da quelli che si
sarebbero verificati se i vari gruppo di uomini si fossero dispersi per cause naturali perché Dio non
agisce contro natura.
Johann Peter Süssmilch (1707-1767) dimostra come il linguaggio non sia stato inventato
dall’uomo ma creato da Dio. Infatti nel primo caso il linguaggio dovrebbe essere collocato tra
l’istinto e la ragione, ma il linguaggio umano non può essere basato sugli istinti altrimenti, come i
sistemi di comunicazioni degli animali, dovrebbe essere uguale in tutto il mondo. Quindi il
linguaggio dovrebbe essere un prodotto della ragione, ma l’uso della ragione è impossibile senza
l’uso dei segni linguistici, quindi il linguaggio non può che essere stato creato da Dio.
9
Alle posizioni di Beauzée e di Süssmilch si opposero James Burnett, noto come Lord Monboddo
(1714-1799), e Johann Gottfried Herder (1744-1803). Per Monboddo la natura umana si sviluppa
parallelamente alla società: il linguaggio umano è in continuo progredire e ciò spiegherebbe il
motivo della differenza tra le varie lingue. Secondo Herder gli uomini possiedono un “linguaggio”
semplicemente perché sono animali; tuttavia questo tipo di “linguaggio” (simile a quello d’azione di
Condillac) non può spiegare l’origine del linguaggio umano. Infatti gli animali sono guidati
unicamente dall’istinto, mentre gli uomini non hanno alcun linguaggio di tipo istintivo: l’uomo è
sprovvisto di istinti animali, ma è dotato di una qualità particolare, la ‘riflessione’, di cui il linguaggio
umano è un prodotto. Secondo Herder la prima parte del discorso a comparire è il verbo, poiché il
linguaggio nasce dall’osservazione delle azioni. L’origine delle parole non onomatopeiche si spiega
come un prodotto del nostro sensorium commune dei diversi processi di sinestesia.
Tutti gli studiosi che abbiamo analizzato dedicano particolare attenzione a ciò che a loro avviso
determina il carattere delle singole lingue: il cosiddetto ‘genio delle lingue’. Ad esempio Condillac
sostiene che ogni lingua esprime il carattere del popolo che la parla: in latino i termini legati
all’agricoltura portano con sé un’idea di nobiltà che non troviamo nella nostra lingua.
L’individuazione delle caratteristiche proprie delle lingue e dei vari gruppi di lingue è alla base
della tipologia linguistica.
Capitolo 2: L’Ottocento
10
La corrente filosofica strettamente più legata al Romanticismo è l’idealismo tedesco. I principali
esponenti sono Johann Gottlieb Fichte (1762-1814), Friedrich Wilhelm Schelling (1775-1854),
Georg Wilhelm Friedrich Hegel (1770-1831). Il loro punto di partenza è la revisione critica del
sistema filosofico di Kant (1724-1804). Kant nella Critica della ragion pura si pose il problema delle
possibilità e dei limiti della conoscenza umana: noi conosciamo soltanto ciò che possiamo
conoscere in base all’organizzazione della nostra intuizione sensibile e del nostro intelletto. La
‘cosa in sé’, cioè la realtà esterna, è inaccessibile alla nostra conoscenza. Questa concezione
limitativa della conoscenza umana fu respinta dai filosofi idealisti che cercarono di creare un
sistema unitario, in cui non esista la contrapposizione tra ‘cosa in sé’ e ‘fenomeno’. Fichte affermò
che questo principio è costituito dall’Io, inteso come attività spirituale; Schelling sostenne
un’identità assoluta tra “lo spirito in noi” e “la natura fuori di noi”; Hegel concepì l’intera realtà come
dovuta allo sviluppo dialettico di forze contrapposte (‘tesi’ e ‘antitesi’) che trovano la loro
coincidenza in un’unità superiore (‘sintesi’), che in un secondo momento dialettico diventa tesi, fino
alla sintesi definitiva. Una caratteristica dei sistemi idealisti è la concezione della filosofia come
forma particolare di conoscenza superiore a quella fornita dalla scienza.
Un’altra corrente filosofica è il positivismo, il cui fondatore è Auguste Comte (1798-1857). Questa
corrente rifiuta di considerare la filosofia come una forma di conoscenza superiore alle altre ed
assume come punto di partenza dell’indagine filosofica i risultati scientifici. I positivisti non
pretendono di giudicare le scienze, ma vogliono definirne i metodi e coglierne le relazioni.
Un elemento comune tra idealismo e positivismo è la visione di pensiero umano nel suo sviluppo
storico (storicismo).
Nell’Ottocento la linguistica si separò abbastanza nettamente dalla logica. Le lingue vengono
concepite come entità storiche soggetto a cambiamento, mentre la logica viene intesa come puro
calcolo formale, analogo ai sistemi matematici. Questo distacco tra la linguistica e la logica avrà
delle conseguenze negative per entrambe le discipline: la prima non comprenderà l’utilità degli
strumenti formali elaborati dalla logica, la quale si disinteresserà sempre di più dall’analisi del
linguaggio naturale.
Le discipline che invece attrassero l’interesse dei vari linguisti dell’Ottocento furono quelle
biologiche: l’anatomia comparata e le teorie evoluzionistiche. L’anatomia comparata, il cui sviluppo
si deve a Georges Cuvier (1769-1832), è quella parte della biologia che studia le correlazioni tra gli
organi delle diverse specie animali, individuandone le omologie. Due organi sono omologhi quando
derivano per discendenza diretta da una stessa struttura presente in antenati comuni delle specie
in questione. Venne presa come modello dai linguisti storico-comparativi: l’individuazione di
corrispondenze sistematiche tra strutture morfologiche o fonologiche di lingue diverse fece
ipotizzare la loro derivazione da una stessa lingua madre. L’evoluzione della specie fu sostenuta
da Jean-Baptiste Lamarck (1744-1829) e da Charles Darwin (1809-1882). Il mutamento delle
specie biologiche è dovuto alla discendenza con modificazioni: selezione naturale. In linguistica
queste teorie ottennero un notevole successo, tanto che il linguista Schleicher le interpretò come
una conferma della propria concezione della storia del linguaggio.
L’Ottocento è anche il secolo in cui nascono la psicologia e la sociologia. Entrambe hanno chiari
rapporti con la linguistica: la prima in quanto il linguaggio ha un aspetto mentale, la seconda in
quanto il linguaggio ha una evidente funzione sociale.
11
Il termine ‘indoeuropeo’ fu coniato nel 1813 da Thomas Young (1773-1829). Ma come si è potuto
delimitare li famiglia linguistica indoeuropea? A partire dalla seconda metà del Settecento l’India
era passata sotto il controllo dell’Inghilterra. Cominciò, così, ad essere noto il sanscrito, la lingua
della religione indù, che fino a pochi anni prima era stata proibita agli occidentali dalla casta
sacerdotale, che finalmente iniziò ad essere studiato. Lo studio del sanscrito da parte degli
occidentali mise in luce la sua notevole somiglianza con le lingue europee, in particolare con quelle
antiche (latino e greco). Dato l’isolamento della cultura indiana rispetto a quella europea tale
somiglianza non poteva essere spiegata come effetto di contatti, di conseguenza era ragionevole
pensare che fosse frutto di un’origine comune. Questa ipotesi si deve a Sir William Jones (1746-
1794), le cui intuizioni furono dimostrate da Franz Bopp (1791-1867).
Anche il tedesco Friedrich Schlegel (1772-1829) mostrò un grande interesse per il sanscrito
perché la scoperta di una lingua di attestazione anteriore al greco e al latino e che mostrava una
parentela con le lingue germaniche provava che l’origine della civiltà non andava più collocata nel
mondo classico. Tuttavia Schlegel pensava che il sanscrito fosse la lingua madre delle altre lingue
indoeuropee e vedeva l’origine della cultura europea in quella indiana. A lui si deve l’assegnazione
di un nuovo significato al termine grammatica comparata, che diventa lo strumento per scoprire le
relazioni di parentela tra le varie lingue → la grammatica comparata diventa storica.
Franz Bopp fu il primo studioso ad occupare la cattedra universitaria di linguistica. Egli imparò il
sanscrito da autodidatta sulla base dei manoscritti conservati alla Biblioteca Nazionale di Parigi.
Quando ottenne la cattedra universitaria a Berlino si dedicò a lavori sistematici, il più importante
dei quali è la grammatica comparata di varie lingue indoeuropee. La differenza tra la grammatica
comparativa nata agli inizi dell’Ottocento e i tentativi di classificazione genealogica delle lingue è il
porre a confronto non parole, ma morfemi (=unità minime dotate sia di suono che di significato). Il
sanscrito ha una struttura morfematica molto più trasparente di quella del greco e del latino e
permette di cogliere delle relazioni tra le lingue che altrimenti rimarrebbero inspiegate. Bopp non
considera il sanscrito come la lingua madre delle varie lingue indoeuropee, ma come la più antica
di esse e dunque come quella che rappresentava più fedelmente la lingua madre originaria (in
realtà si dimostrò successivamente che in certi casi il sanscrito si è differenziato dalla lingua madre
più di altre lingue derivate) . Lo scopo di Bopp non è di spiegare il significato originario delle radici
delle parole, ma di individuare in quale modo si sono combinate per dare origine alle varie parole
che si sono diffuse. Egli individua due tipi di radici: quelle ‘verbali’, da cui derivano i verbi e nomi, e
quelle ‘pronominali’, da cui derivano i pronomi, le preposizioni, le congiunzioni e le particelle. Ad
esempio analizza il verbo latino potest come pot-, -es- (radici verbali), -t (radice pronominale) =
potente-essere-egli. Da quest’analisi si può notare la somiglianza tra Bopp e la grammatica
generale del Sei-Settecento, le cui idee erano ancora vive all’inizio dell’Ottocento. L’innovazione di
Bopp fu quella di applicare un’analisi di questo genere alla comparazione tra il sanscrito e le altre
lingue indoeuropee. Molte idee di Bopp sono state, ormai, superate (ad esempio quella in cui
ritiene che la lingua madre sia una lingua perfetta e che le lingue derivate siano una
manifestazione di decadenza), tuttavia è da considerarsi il padre della grammatica comparata.
Abbiamo detto che la scoperta del sanscrito ha reso più facile il confronto tra le forme grammaticali
e fonetiche delle diverse lingue, ma non era necessario conoscerlo per sviluppare una corretta
grammatica comparata. Così Rasmus Rask (1787-1832), nonostante abbia imparato il sanscrito
negli ultimi anni della sua vita, deve essere considerato uno dei fondatori della linguistica storico-
comparativa indoeuropea insieme a Friederich Schlegel, a Franz Bopp ed a Jacob Grimm.
L’interesse di Rask era rivolto alle lingue nordiche, tra cui la sua lingua madre (il danese). Nel 1814
scrisse un saggio in cui confrontava tali lingue, dando particolar rilievo all’antico islandese, lingua
dotata della tradizione letteraria più prestigiosa, con altre lingue indoeuropea, ad eccezione del
sanscrito che non conosceva. Egli aveva ben chiari i principi di Schlegel e di Bopp, infatti diceva
12
che «la corrispondenza grammaticale è un segno molto più sicuro della parentela o dell’unità
originaria». Rask, come Bopp, concentrava l’analisi sui morfemi, poneva attenzione anche sulla
realizzazione sonora di un determinato segno grafico. Egli si accorse che se nel lessico
“fondamentale” (nelle parole che indicano i numerali, i rapporti di parentela…) di due lingue ci sono
delle coincidenze evidenti, allora c’è una parentela di fondo. Rask, analizzando le corrispondenze
tra le consonanti del latino e del greco da un lato e quelle dell’islandese dall’altro, pur con qualche
incertezza ed imprecisione, aveva individuato quel fenomeno chiamato mutazione consonantica
germanica. Questo fenomeno descrive il comportamento delle consonanti occlusive nel passaggio
dalla lingua madre indoeuropea alle lingue del gruppo germanico:
le occlusive sorde indoeuropee diventano fricative sorde nelle lingue germaniche:
- p → f ( gr. patér → isl. fadir ‘padre’),
- t → Þ=th inglese ( gr. treîs → isl. Þrir ‘tre’),
- k → h ( lat. cornu → isl. horn ‘corno’).
le occlusive sonore indoeuropee diventano occlusive sorde nelle lingue germaniche:
- d → t ( gr. damáō ‘io domo’ → isl. tamr ‘domestico’),
- g → k ( gr. gyné → isl. kona ‘donna’).
le occlusive sonore aspirate indoeuropee diventano occlusive sonore non aspirate nelle lingue
germaniche:
- ph → b ( gr. phérō → isl. ber ‘io porto’),
- th → d ( gr. thýre → isl. dyr ‘porta’),
- ch → g ( gr. cholé → isl. gall ‘bile’).
Rask, non conoscendo il sancrito, non era in grado di illustrare tutti i passaggi che hanno portato a
queste trasformazioni, tuttavia le corrispondenze che aveva individuato erano corrette. Il lavoro di
Rask (1814) ha preceduto quello di Bopp (1816), tuttavia l’opera del secondo ebbe una maggior
diffusione, anche perché l’opera di Rask era in danese, lingua poco diffusa → il suo lavoro rimase
sconosciuto fino a quando fu la sua scoperta della mutazione fu riformulata in tedesco da Grimm.
Jacob Grimm (1785-1863) è noto soprattutto grazie alla raccolta di fiabe popolari tedesche da lui
curata insieme al fratello Wilhelm. Questo suo lavoro mostra il suo interesse per l’analisi della
storia e delle tradizioni culturali delle popolazioni di lingua tedesca. Per quanto riguarda gli studi
linguistici si deve ricordare la Deutsche Grammatik (primo volume:1819-1822, secondo
volume:1826, terzo volume:1831, quarto volume:1827), la storia della lingua tedesca (1848) e il
progetto del grande dizionario etimologico tedesco redatto con il fratello Wilhelm. La Deutsche
Grammatik è una grammatica germanica (non tedesca come potrebbe ingannare il titolo), ovvero
una grammatica storico-comparativa di tutte le lingue appartenenti a questo gruppo della famiglia
indoeuropea (dal gotico fino all’inglese moderno). Il primo volume tratta della fonologia delle lingue
germaniche; i volumi successivi della morfologia, della formazione delle parole e della sintassi.
Nella seconda edizione del primo volume (1822), Grimm riprese le osservazioni già svolte da Rask
sulla mutazione consonantica germanica. Egli collegò alla correlazione tra le consonanti del
germanico e quelle dell’indoeuropeo un’ulteriore correlazione: quella tra le consonanti del gotico e
quelle dell’antico alto tedesco. Anche Rask aveva notato la correlazione tra le consonati del gotico
e dell’antico alto tedesco, ma senza porla in relazione con l’altra. Grimm, trattandole insieme,
poteva interpretare la mutazione come una rotazione (immagine di un movimento circolare). Anche
Grimm fa degli errori. Innanzitutto ritiene che il gotico derivi dal latino e l’antico tedesco dal gotico,
ma in realtà il latino e il gotico derivano entrambi dall’indoeuropeo, mentre l’antico tedesco e il
gotico da una lingua non attestata, chiamata ‘germanico comune’ e derivante dall’indoeuropeo.
Inoltre racchiude sotto il termine “aspirate” suoni molto diversi tra loro (occlusive sorde aspirate del
greco, fricative del gotico e dell’alto tedesco, affricate dell’antico alto-tedesco). Infine non tutte le
mutazioni consonantiche che Grimm ha descritto si sono verificate nella realtà (f gotica dovrebbe
13
diventare b in alto-tedesco ma non avviene). Nonostante i suoi difetti si cominciò a parlare di
“Legge di Grimm”, in particolare:
1. “Prima legge di Grimm” o “prima mutazione consonantica” per indicare le corrispondenze
tra sanscrito, latino e greco da un lato e le lingue germaniche dall’altro;
2. “Seconda legge di Grimm” o “seconda mutazione consonantica” per indicare le
corrispondenze tra gotico da un lato e l’antico tedesco dall’altro.
In realtà Grimm non voleva formulare una legge (= descrizione di un fenomeno privo di eccezioni),
ma aveva sostenuto che la mutazione consonantica in certi casi non si verifica. Ma il termine
“Legge di Grimm” passò alla storia anche se fu Rask a fare questa scoperta, tuttavia Grimm ebbe il
merito di divulgare le scoperte di Rask in una lingua (tedesco) più diffusa del danese.
Grimm nella sua Deutsche Grammatik utilizza l’approccio storico- comparativo: partendo dai fatti
delle singole lingue giunge a risultati generali. Con Grimm la grammatica generale nata con Port-
Royal e sviluppatasi in tutto il Settecento entra in crisi perché i loro punto di vista è astratto, non
tengono conto della realtà effettiva della lingua che è in continua evoluzione.
Per quanto riguarda la terminologia egli utilizza:
- Verbi forti (= forma più antica della coniugazione) e verbi deboli al posto di verbi
irregolari e verbi regolari.
- Metafonia (= modificazione della vocale della radice per effetto della desinenza: Buch
→ bücher la vocale da posteriore diventa anteriore) e apofonia (= alternanza vocalica
tipica dei verbi forti: speak, spoke, spoken).
Wilhelm von Humboldt (1767-1835) si occupa di tematiche riguardanti sia la linguistica storica
che quella generale. Dopo la formazione classica e gli studi giuridici divenne un politico ed un
diplomatico: riformatore dell’università, ambasciatore della Prussia e delegato di questo stato al
congresso di Vienna. Dal 1815 si ritirò a vita provata dedicandosi allo studio del linguaggio. Nella
sua opera linguistica troviamo quattro tematiche:
1. La linguistica generale o teorica = esame delle questioni di fondo sulla natura e la struttura
del linguaggio;
2. La linguistica descrittiva = analisi e descrizione di molte lingue spesso appartenenti a
famiglie diverse;
3. La linguistica storico-comparativa;
4. Il confronto tra le varie lingue (quella che verrà chiamata ‘tipologia linguistica’).
Le lingue possono essere classificate dal punto di vista genealogico, riunendo nella stessa classe
tutte quelle che derivano dalla stessa lingua madre, e dal punto di vista tipologico, classificando
insieme tutte le lingue che presentano le stesse caratteristiche strutturali. Mentre la classificazione
genealogica conobbe uno straordinario sviluppo grazie ai lavori di Schlegel, di Bopp, di Rask e di
Grimm, la classificazione tipologica si sviluppò nello stesso periodo. Humboldt ha un ruolo
fondamentale all’interno delle discussioni sulla tipologia linguistica. La sua opera più importante è
l’introduzione alla sua trattazione del kawi, la lingua sacra all’isola Giava, e si riferisce alla diversità
delle lingue umani. Per Humboldt l’uomo è uomo solo grazie al linguaggio, quindi il linguaggio non
è qualcosa che è stato inventato in un certo momento della storia. Infatti non è stata trovata
nessuna lingua con una grammatica in sviluppo → l’ipotesi di uno sviluppo del linguaggio da una
forma elementare ad una più matura non riceve conferma empirica. Si nota un influsso di Kant: il
linguaggio farebbe parte di quegli elementi che Kant chiamava ‘trascendentali’, cioè non derivati
dall’esperienza, ma senza i quali la conoscenza sarebbe impossibile. Gli elementi trascendentali
fanno parte della natura dell’uomo e un essere che non li dispone non è un essere umano. Il
linguaggio viene definito da Humboldt come «l’istinto intellettuale della ragione». Sostiene anche
che il linguaggio non è un’opera (érgon), ma un’attività (enérgeia) → l’unica realtà linguistica è
l’attività dei singoli individui parlanti, sempre diversa e mai riconducibile a categorie generali: la
14
descrizione grammaticale non un reale fondamento scientifico, ma un’utilità pratica. In realtà
Humboldt è lontano da posizioni di questo genere in quanto tende a conciliare le opposizioni: il
linguaggio come attività non esclude affatto che possa essere analizzato con gli strumenti della
grammatica perché altrimenti sarebbe impossibile coglierne la natura. La grammatica generale
viene utilizzata come strumento per la comparazione tra le lingue. Per Humboldt il linguaggio è
«l’organo formativo del pensiero»: inizia ad utilizzare la nozione di ‘forma linguistica interna’ (innere
Sprachform). Il linguaggio non si limita a rispecchiare la realtà: la parola è «una copia non
dell’oggetto in sé, ma dell’immagine che questo ha prodotto nell’anima» (=forma linguistica interna
riferita al linguaggio generale, cioè come rapporto tra linguaggio e realtà). Ogni lingua però delinea
questo rapporto con la realtà in modo diverso (=forma linguistica interna riferita ad una singola
lingua e al suo rapporto tra linguaggio e realtà). Ogni lingua organizza i propri mezzi espressivi in
modo diverso (= forma linguistica interna riferita al principio formativo di ogni lingua → tipologia).
Anche Friedrich Schlegel aveva anticipato la tipologia linguistica quando aveva suddiviso le
lingue in:
‘organiche’, le cui varie forme grammaticali sono prodotte da uno sviluppo organico della radice
e che si manifesta sia nella variazione vocalica interna (apofonia) sia nel sistema di suffissi e
desinenze;
‘meccaniche’, caratterizzate da una giustapposizione di monosillabi isolati (ex. Cinese).
Era una classificazione genealogica e tipologica insieme in quanto le lingue ‘organiche’ erano
quelle indoeuropee e nelle lingue ‘meccaniche’ erano comprese le lingue più disparate (diverse sia
dal punto di vista genealogico che quello delle caratteristiche strutturali); inoltre tra le stesse lingue
indoeuropee esistono notevoli differenze: classificazione rozza.
Il fratello August Wilhelm Schlegel propone una classificazione tipologica più raffinata,
suddividendo le lingue in:
‘senza struttura grammaticale’ (chiamate poi da Humboldt ‘ isolanti’)
‘con affissi’ (chiamate poi da Humboldt ‘agglutinanti’)
‘flessive’ = lingue indoeuropee suddivise a loro volta in:
- ‘Sintetiche’: lingue che esprimono i rapporti sintattici attraverso desinenze e variazioni
tematiche → lingue indoeuropee antiche, come il latino.
- ‘Analitiche’: lingue che utilizzano l’articolo prima del sostantivo, esprimono il pronome
prima del verbo, hanno i verbi ausiliari, utilizzano le preposizioni → lingue indoeuropee
moderne, come l’italiano.
Sebbene questa classificazione presenta forti limiti (nessuna lingua è nettamente inquadrabile in
una dei tre tipi) aveva un notevole valore pratico.
Una classificazione alternativa viene proposta da Bopp, il quale era convinto che le varie forme
verbali indoeuropee nascevano dalla composizione di radici diverse. La sua classificazione è
quindi tripartita e coincide solo parzialmente con quella di Schlegel:
‘lingue con radici monosillabiche e senza capacità di composizione, quindi senza
organismo, senza grammatica’ → cinese;
‘lingue con radici monosillabiche e capaci di composizione’ → lingue indoeuropee;
‘lingue con radici bisillabiche e formate obbligatoriamente da tre consonanti, che
esprimono il significato fondamentale’ → lingue semitiche.
In questa classificazione le lingue indoeuropee non hanno un ruolo privilegiato. Non c’erano motivi
per preferire l’una o l’altra classificazione, ma fu quella di Schlegel a prevalere.
Ritornando a Humboldt, molte storie della linguistica sostengono che egli abbia adottato la
classificazione di Schlegel aggiungendovi un quarto tipo: le lingue ‘incorporanti’ o ‘polisintetiche’ =
lingue in cui una sola parola racchiude tutte le relazioni grammaticali di una frase → lingue
amerindiane. Certamente Humboldt riconobbe il tipo incorporante e inventò il nome, ma il suo
15
contributo alla tipologia linguistica, incompreso dai linguisti successivi, non si limita a questo. Egli
distinse i vari tipi possibili di parantela linguistica:
Lingue che appartengono allo stesso ceppo in cui constatiamo una somiglianza di concrete
forme grammaticali = parentela genealogica;
Lingue che appartengono alla stessa area che non hanno tale somiglianza di forme
grammaticali, ma condividono una parte del lessico = parentela linguistica areale;
Lingue che appartengono alla stessa classe in quanto non hanno in comune né forme
grammaticali né lessico, ma mostrano affinità dal punto di vista della ‘forma linguistica’ =
parentela linguistica tipologica;
Lingue che non condividono né forme grammaticali, né lessico, né forma linguistica, e che
sono quindi apparentate soltanto per le proprietà comuni a tutte le lingue umane in quanto
tali.
Humboldt ha notato come non esistono lingue appartenenti ad una sola classe (non esistono
lingue solo agglutinanti, o solo flessive, ecc.) ma tutte le lingue presentano più forme al loro
interno. Quindi non esiste la classe linguistica, ma il tipo inteso come entità astratta (novità per il
suo tempo). La tipologia di Humoldt è sintattica, basata sull’analisi della frase, mentre quella dei
suo contemporanei è morfologica, basata sull’analisi della parola. Esaminando il ruolo della parola
nella frase, egli si rende conto di come il tipo flessivo sia superiore agli altri perché delimita
chiaramente i limiti della parola ed esprime in modo chiaro le relazioni che legano le parole tra di
loro. Invece il tipo isolante non esprime queste relazioni; il tipo incorporante non distingue tra
parola e frase; il tipo agglutinante è uno stadio intermedio. Si vede qui come Humboldt è un uomo
del suo tempo: considera il tipo flessivo superiore agli altri e la famiglia linguistica che si avvicina
maggiormente a questo tipo è quella indoeuropea.
Humboldt si lega al “relativismo linguistico”, cioè all’idea che ogni lingua esprima una visione del
mondo diversa a tutte le altre (da qua partiranno Sapir e Whorf). Questa teoria si lega alla nozione
di forma interna, ossia alla concezione del linguaggio come qualcosa che non rispecchia
passivamente la realtà ma la organizza secondo propri schemi.
Con gli anni ’30 dell’Ottocento alla linguistica storico-comparativa viene riconosciuto il suo statuto
scientifico e i suoi risultati iniziano ad essere presentati in forma sistematica. August Friedrich Pott
(1802-1887), alunno di Bopp, compose le “Ricerche etimologiche nel dominio delle lingue
indoeuropee”. Nell’introduzione dell’opera sosteneva che la linguistica storico-comparativa era
ormai una disciplina autonoma avente lo scopo di ricostruire le forme fonologiche e grammaticali
della lingua madre indoeuropea. Forniva un elenco di radici da cui derivavano le parole comuni alle
varie lingue indoeuropee e indicava con sistematicità le corrispondenze fonetiche che
permettevano di giustificare una fonologia ricostruita. Si era accorto che i mutamenti delle lettere
avvengono seguendo delle leggi naturali e coinvolgono suoni prodotti dagli stessi organi o dotati di
caratteristiche simili. Ad esempio s e r sono entrambe prodotte da una forte vibrazione dell’aria; s e
h sono entrambe sibilitanti; h e r non hanno nulla in comune → se alla r di una parola latina
corrisponde una h nella parola persiana allora si può supporre che entrambe derivino da una s
sanscrita. Quindi secondo Pott per dimostrare il legame etimologico tra due parole è necessario
trovare una corrispondenza sistematica tra i suoni e individuare le tappe che dal suono originario
hanno condotto a quelli osservati. Pott fu il primo a formulare le corrispondenze tra i suoni delle
varie lingue indoeuropee in forma di tabelle sistematiche ed è a lui che risale la formulazione della
‘legge di Grimm’, ossia l’indicazione completa e sistematica di quali consonanti sanscrite, greche e
latine corrispondono a quelle delle lingue germaniche.
Intorno alla metà dell’Ottocento aumentarono il numero delle lingue che venivano riconosciute
appartenenti alla famiglia indoeuropea e cominciavano ad essere studiate con i metodi della
grammatica storico-comparativa: Diez pubblica la grammatica delle lingue romanze (1836-44),
16
Miklosich quella delle lingue slave (1852-74); nascono la filologia romanza e quella slava; Zeuss
pubblica una grammatica celtica; Bopp aveva dimostrato che le lingue celtiche, l’albanese e
l’armeno appartenevano alla famiglia indoeuropea. In questi anni si era stabilito che la famiglia
linguistica indoeurope conteneva: indiano (sanscrito), iranico, armeno, greco, albanese, italico
(lingue romanze + latino), slavo, baltico, germanico, celtico. Nel Novecento furono aggiunte il
tocario e l’anatolico, lingue fino a quel momento sconosciute.
August Schleicher (1821-1868), professore a Praga e a Jena, può essere considerato come il
sistematizzatore della linguistica storico-comparativa indoeuropea. Egli chiarificò i rapporti tra
lingua originaria e lingue derivate nella famiglia linguistica indoeuropea: stabilì che il sanscrito non
è la lingua madre delle lingue indoeuropee ma una lingua ‘sorella’ delle altre, anche se era
convinto che il sanscrito fosse la lingua che rispecchiava più da vicino lo stato della lingua
originaria. Ricostruisce le forme della lingua madre segnalandole con l’asterisco (*) essendo
consapevole che vi è differenza tra forme effettivamente attestate e forme ricostruite. Come Bopp
era convinto che le forme verbali indoeuropee derivano dalla combinazione di radici
originariamente autonome e che la derivazione delle lingue indoeuropee dalla lingua originaria sia
stato un processo di una sempre maggiore semplificazione e dunque decadenza. Ipotizzò che
quella fase di decadenza (fase storica) fosse stata preceduta da una fase di sviluppo (fase
preistorica): in origine l’indoeuropeo sarebbe stato di tipo isolante, poi sarebbe diventato
agglutinante ed infine flessivo; nella fase storica le lingue indoeuropee avrebbero perso
progressivamente le loro caratteristiche flessive (influsso della filosofia hegeliana). Questa
concezione schleicheriana verrà molto criticata dai linguisti della generazione successiva, mentre
inizialmente viene accettata. Ad esempio George Curtius affermava che esistono due periodi nella
storia del linguaggio: uno di organizzazione (=unità → indoeuropeo originario) e di formazione
(=molteplicità →differenziazione nelle varie lingue indoeuropee); tuttavia non giudica di
‘decadenza’ il secondo periodo, anche se sosteneva che il mutamento fonetico consiste sempre
nella perdita e mai nell’aggiunta di suoni.
Per rappresentare i rapporti tra le varie lingue indoeuropee Schleicher elabora il modello
dell’albero genealogico: pone alla radice dell’albero la lingua originaria (l’indoeuropeo) che a mano
a mano si ramifica in modo binario.
Questo modello fu fortemente criticato: il fatto che si ramifichi in modo binario appare come una
forzatura (non vi sono prove sufficienti per motivare questa scelta); la scelta di non far ‘incrociare’ i
rami esclude la possibilità che lingue appartenenti a rami diversi possano avere elementi in
comune (oltre a quelli dovuti alla lingua madre). Johannes Schmidt (1843-1901), allievo di
Schleicher, criticò il modello dell’albero genealogico e propose una nuova immagine dei rapporti
tra le lingue indoeuropee. Secondo lui era irrealistico ipotizzare che queste lingue derivino da fonti
diverse senza alcun rapporto le une con le altre, a parte gli element posseduti in lingua originari.
Così decise di sostituire il modello dell’albero genealogico con la teoria delle onde che si
propagano in cerchi concentrici i quali si affievoliscono via via che si allontanano dal centro. Le
17
varie lingue indoeuropee rappresentano una sorta di continuum in cui una trapassa lentamente
nell’altra solo con piccole modificazioni. Comunque non negava che, in certi casi, esistevano
confini linguistici netti, dovuti al fatto che una determinata lingua ha preso il sopravvento su quelle
vicine e le ha rimpiazzate.
Quale dei due modelli risulta più adeguato? Ancora oggi la disputa non è risolta: entrambi sono
insufficienti in se stessi, ma utili per illustrare i vari rapporti tra le lingue indoeuropee. L’albero
genealogico conserva un innegabile valore pratico; la teoria delle onde mostra più realisticamente
le sovrapposizioni parziali di fenomeni.
La concezione che Schleicher ha delle lingue è di derivazione naturalistica in quanto considera il
linguaggio come un oggetto naturale o entità biologica. Secondo lui le lingue sono organismi
naturali che, senza essere determinabili dal volere dell’uomo, sono sorti, cresciuti e sviluppati
secondo leggi fisse (influsso di Darwin – L’origine delle specie 1859). Infine Schleicher restringe il
dominio della linguistica alla fonologia e alla morfologia (= ambiti della grammatica storico-
comparativa), mentre afferma che la sintassi e la stilistica appartengono alla filologia. Con la
concezione naturalistica egli tenta di dare una giustificazione del carattere regolare delle
corrispondenze linguistiche individuate dalla grammatica comparata.
18
Le analisi di Becker sono estremamente importanti per la storia della grammatica. Egli elaborò
anche una classificazione delle frasi subordinate che ebbe molto successo. Il problema delle frasi
subordinate era stato al centro dell’attenzione della ‘Società di studiosi di Francoforte per la lingua
tedesca’: ad esempio Simon Heinrich Adolf Herling (1780-1849) aveva distinto le frasi subordinate
in sostantive, aggettive e avverbiali (stessa funzione di un sintagma nominale, di un aggettivo e di
un avverbio). Becker inizialmente adottò questa classificazione, ma si rese conto che non ci può
essere coincidenza tra funzioni grammaticali e classi di parole (un nome può essere sia soggetto
che oggetto, così come una frase sostantiva può avere sia funzione di soggetto che di oggetto) →
a Becker si attribuisce la distinzione tra analisi grammaticale e analisi logica. La classificazione
delle frasi subordinate adottata nelle grammatiche odierne combina le due classificazione di
Herling e di Becker.
Heymann Steinthal (1823-1899) influenzò, più di quello che si pensa, i neogrammatici. Secondo
Steinthal l’origine e lo sviluppo del linguaggio sono momenti dello sviluppo delle capacità
intellettive dell’individuo, anche se non bisogna dimenticare l’aspetto sociale del linguaggio, in
quanto gli individui appartenenti ad una stessa comunità utilizzano la stessa lingua e le varie
comunità parlano lingue diverse tra loro. Il termine etnolinguistica è stato coniato da Steinthal per
mostrare la natura sociale, oltre che individuale, del linguaggio e le differenze tra le varie lingue.
Egli elaborò anche un sistema di tipologia linguistica diverso da quello di Humboldt. Il suo pensiero
è una sintesi originale di alcuni aspetti dell linguistica di Humboldt, della filosofia di Hegel e della
psicologia di Herbart. La polemica di Steinthal contro la grammatica generale è condotta contro
qualunque impostazione “logicizzante” nello studio del linguaggio (in particolare contro Becker).
Linguaggio e pensiero non coincidono: si può pensare senza ricorrere alla parole (ex. sordomuti)
→ la logica come scienza del pensiero corretto non può identificarsi con la grammatica. Questo è
dimostrato anche dal fatto che i principi in base ai quali un logico o un grammatico giudicano la
buona formazione delle varie frasi sono totalmente diversi: il grammatico si preoccupa delle
relazioni di accordo, il logico della coerenza dei pensieri espressi. Se quindi non si può fondare la
linguistica sulla logica, come faceva la grammatica generale, Steinthal propone di fondarla sulla
psicologia. Per quanto riguarda l’origine del linguaggio, Steinthal sostiene che il bisogno di
comunicazione non condurrebbe mai al linguaggio, ma il linguaggio, una volta scaturito dallo
sviluppo della mente individuale, diventa strumento di comunicazione (influsso di Humboldt). Egli
non considera il linguaggio come una capacità innata, ma assume una posizione intermedia tra chi
sostiene che le idee fondamentali della conoscenza umana sono innate e chi afferma che sono
acquistite. Queste ‘idee fondamentali’, tra cui vi è il linguaggio, non sono analoghe agli istinti
animali, ma non sono nemmeno formate in modo cosciente: esse vengono acquisite
istintivamente. I livelli della ‘forma interna’ sono:
1. Primo livello = interiezioni + onomatopea, intesa come legame del suono con l’intuizione →
le espressioni linguistiche formano un tutto indivisibile, non analizzabile in parole.
2. Secondo livello = distinzione tra soggetto e predicato.
3. Terzo livello = completo allontanarsi del linguaggio dal suo originario aspetto
onomatopeico.
Nella ricostruzione dello sviluppo del linguaggio operata da Steinthal si fondano ipotesi e pensieri
diversi: origine onomatopeica = studiosi settecenteschi; nozione di forma interna = Humboldt;
procedere per triadi = Hegel. Per descrivere il linguaggio allo stato maturo ricorre alla psicologia di
Herbart. Le nozioni chiave di questa psicologia da lui utilizzate sono quelle di ‘rappresentazione’ (=
contenuti mentali, come le immagini derivate dai nostri sensi, ecc.) e ‘meccanica psichica’ (=
associazione tra i contenuti mentali). Lo spazio della nostra coscienza è però ristretto e può
contenere solo un numero limitato di rappresentazioni: quando si aggiungono rappresentazioni
nuove, quelle vecchie sono rimosse e cadono al di sotto di quella che è chiamata ‘soglia della
19
coscienza’; in situazioni favorevoli le rappresentazioni rimosse possono superare nuovamente la
soglia della coscienza. La ristrettezza della coscienza ha conseguenze decisive sulla natura del
linguaggio: aspetto seriale del linguaggio. Per spiegare la diversità del linguaggio egli affianca alla
psicologia generale l’etnolinguistica (psicologia dell’uomo sociale o della società umana), che, oltre
ad avere la funzione di disciplina ausiliaria della linguistica, si occupa di tutti quei fenomeni
descrivibili in base alle interrelazioni tra gli individui all’interno di una comunità, come la morale, la
religione, ecc. La distinzione fondamentale operata da Steinthal è quella tra lingue ‘prive di forma’
e quelle ‘dotate di forme’; all’interno di queste due classi principali sono individuate delle
sottoclassi. Cosa distinguono tali lingue?
lingue ‘prive di forma’ (lingue uralo-altaiche e amerindiane) esprimono le relazioni
grammaticali tramite parole materiali.
lingue ‘dotate di forme’ (lingue semitiche e indoeuropee) esprimono le relazioni
grammaticali tramite la flessione.
La classificazione di Steinthal fu chiamata ‘psicologica’, contrapposta a quella morfologica di
Schlegel, anche se presentano degli elementi in comune: fanno coincidere le classi tipologiche con
le famiglie linguistiche, le lingue sono disposte su una specie di scala di valore (le lingue flessive e
quelle dotate di forma sono considerate superiori alle altre). Con il progresso della tipologia
linguistica queste concezioni vennero abbandonate: si ammetterà che lingue di tipo diverso posso
appartenere alla stessa famiglia linguistica e che non esistono lingue più sviluppate di altre.
Franz Misteli (1841-1903) fu il diretto continuatore di Steinthal. Gabriel Girard (1677-1748) e
Beauzée avevano distinto tra lingue ‘analogiche’, in cui l’ordine delle parole rispecchia quello dei
pensieri (come francese, italiano, spagnolo…), e quelle ‘traspositive’, in cui non c’è alcun
rispecchiamento tra ordine delle parole e dei pensieri (come greco, latino, tedesco…). Henri Weil
(1818-1909) è l’antecedente più importante della tipologia dell’ordine delle parole e critica la
classificazione di Girard-Beauzée perché ritiene che “il cammino sintattico non coincida con quello
delle idee” (idea=qualunque tipo di contenuto mentale). Egli sostituisce alla distinzione tra lingue
‘analogiche’ e lingue ‘traspositive’ quelle tra lingue ‘a costruzione libera’ (come il greco antico e il
latino) e ‘a costruzione fissa’, in cui troviamo l’ordine SVO come il francese, l’italiano, lo spagnolo e
quello SOV come il turco, il tedesco. Per spiegare questi diversi ordini nelle lingue a costruzione
fissa, Weil sostiene che esistono due diversi tipi di costruzione: la costruzione ‘ascendente’, dove
la parola dipendente precede la parola reggente, e la costruzione ‘discendente’ in cui l’ordine è
inverso. Egli non identifica nessuno di questi due tipi con una determinata lingua o una
determinata famiglia linguistica, ma sostiene che entrambi possono combinarsi all’interno della
stessa lingua producendo sistemi differenti. Anche Weil, come Steinthal, dispone le lingue su una
scala di valore: la costruzione ascendente e discendente sono considerate sullo stesso livello,
tuttavia una lingua è più perfetta se fa ricorso ad entrambi i tipi.
Idee simili a quelle di Weil furono elaborate da Georg von der Gabelentz (1840-1893), a cui si
deve l’invenzione del termine ‘tipologia linguistica’. Egli afferma che la linguistica comparata si
divide in due parti:una genealogica e una etnopsicologica; lo scopo di quest’ultima è esporre quale
può essere il rapporto dell’espressione linguistica con i concetti o i pensieri da esprimere.
Abbandona la concezione della tipologia linguistica come una scala di valore sulla quale collocare
le diverse lingue: dimostra come molte delle caratteristiche che dovrebbero dimostrare la
superiorità delle lingue indoeuropee non sono una loro esclusiva e che altre caratteristiche di
queste stesse lingue potrevvere essere una manifestazione di inferiorità. Gabelentz va alla ricerca
di nessi tra la struttura di una lingua e lo spirito dei popoli che la parlano → accetta l’idea di un
rapporto inscindibile tra caratteristiche di una lingua e caratteristiche dei suoi parlanti. La sua
analisi dell’ordine delle parole è molto simile a quella di Weil: analizza la frase in ‘soggetto
psicologico’, ciò verso cui l’emittente dirige l’attenzione del destinatario (=tema del discorso, può
20
non coincidere con il soggetto), e ‘predicato psicologico’, ciò che l’emittente fa pensare al
destinatario a proposito del soggetto psicologico.
L’opera di Weil e di Gabelentz non è ebbe un impatto particolare sui linguisti della loro
generazione: la fama di Weil era legata alla sua attività di filologo classico, mentre Gabelentz morì
prematuramente. L’importanza del loro lavoro è emersa successivamente.
Nella seconda metà dell’Ottocento il linguaggio inizia ad essere concepito come fenomeno sociale
e comunicativo (linguistica come scienza storica e sociale). Tra gli studiosi che hanno sostenuto
tali concezioni troviamo William Dwight Whitney (1827-1894) e Michel Bréal (1832-1915),
entrambi, studiosi di linguistica storico-comparativa, sottolinearono la necessità di una riflessione
teorica generale sul linguaggio. Whitney critica le concezioni di Humboldt secondo le quali il
linguaggio non ha avuto origine da esigenze comunicative. Le concezioni di Whitney possono
essere definiti socio-comunicative: il linguaggio è l’espressione che mira alla comunicazione. Egli,
in contrapposizione a Steinthal, ritiene che sia un errore voler fondare la linguistica sulla
psicologia. Il linguaggio è arbitrario (=possono essere create infinite parole funzionali) e
convenzionale (=la corrispondenza tra significato e significante dipende dalla scelta della società a
cui appartiene il parlante): questo è ciò che lo distingue dai linguaggi animali che sono istintivi.
Secondo Whitney, il linguaggio ha avuto origini dai gridi naturali degli essere umani → posizione
simile a quella di Condillac. Whitney si contrappone anche a Schleicher poiché rifiuta l’esistenza di
due epoche nella storia del linguaggio, una di sviluppo e una di decadenza. Egli sostiene che
esiste una differenza di grado tra le varie lingue e che la storia del linguaggio mostra un’evoluzione
da stadi più primitivi a quelli più sviluppati (=Schhleicher). Afferma che le lingue indoeuropee sono
superiori alle altre grazie alla loro maggior capacità di creare dei nomi astratti; egli comunque
esclude ogni implicazione razzista in quanto osserva che non bisogna confondere lingue e razze e
che la superiorità linguistica di cui parla è acquisita e non innata. Per Bréal la linguistica è una
scienza storica, non naturale, in quanto il linguaggio è un atto dell’uomo, non esiste all’infuori
dell’attività dell’uomo. Anch’egli, come Whitney, è convinto della funzione comunicativa del
linguaggio. Nel 1897 pubblica il volume Semantica, che lo rese famoso: è un trattato di linguistica
storica che volutamente trascura i mutamenti fonetici e si concentra sui mutamenti di significato. Il
termine ‘semantica’ fu coniato da Bréal in opposizione a ‘fonetica’. Nella prima parte dell’opera
contrappone le ‘leggi intellellettuali del linguaggio’ alle ‘leggi fonetiche’. Tra le ‘leggi intellettuali’
troviamo:
‘legge di specialità’ = spiega il passaggio dalla fase sintetica alla fase analitica delle
lingue;
‘legge di suddivisione’ = si intende il fatto che parole derivate dalla stessa radice
assumono nel tempo significati specifici.
Anche il fenomeno dell’analogia è ricondotto da Bréal all’effetto delle leggi intellettuali del
linguaggio. La sua posizione è quindi opposta a quella di Curtius e di Schleicher, ma è vicina a
quella ‘uniformista’ della geologia dell’Ottocento. Infatti sostiene che la storia della lingua mostra
non solo una perdita ma anche acquisizione di forme: ad esempio l’infinito e il passivo sono
acquisizioni recenti delle lingue indoeuropee → come Whitney respinge la teoria delle due epoche
nella storia del linguaggio. Nella seconda parte esamina i casi di restringimenti e di ampliamento
del senso delle parole, il ruolo della metafora nella storia del linguaggio, polisemia ecc. Quasi tutta
la terza parte del volume è dedicata all’esame di vari fenomeni di mutamento sintattico, come la
nascita dei pronomi relativi ecc. Il linguaggio umano è caratterizzato da un elemento di
“soggettività” ineliminabile, che si realizza soprattutto nei modi verbali e nell’opposizione della terza
persona (richiami a Benveniste). Egli appoggia la teoria di Bopp sull’origine delle forme
indoeuropee dalla combinazione di radici indipendenti proprio quando molti suoi contemporanei
l’avevano abbandonata.
21
2.4 La linguistica storico-comparativa tra fine Ottocento e primo Novecento (pag. 142-177)
Karl Brugmann (1849-1919) e Berthold Delbrück (1842-1922) appartenevano alla scuola
linguistica nota come ‘neogrammatici’ (Junggrammatiker=grammatici giovani). Negli anni ’70
dell’Ottocento vi furono tre grandi scoperte:
1. Nasali sonanti, scoperta da Brugmann. Confrontiamo i numerali ‘sette’ e ‘dieci’ in latino e in
greco: rispettivamente septem-heptà, decem-déka: entrambe le coppie sono
evidentemente imparentate l’una all’altra, ma mostrano delle differenze. Una di queste è
facilmente spiegabile: la sibilante s di septem corrisponde all’aspirazione iniziale di heptà.
Come si spiega invece il fatto che a –em finale latina corrisponda –a greca? Normalmente
alle a ed e latine corrispondono in greco queste stesse vocali. Brungmann ipotizza che –em
ed –a derivano da un suono particolare posseduto dalla lingua madre e sviluppatosi in
maniera diversa nelle altre lingue: la nasale sonante, cioè una m o una n formanti da sole
un nucleo tematico. Questa nasale, impronunciabile nelle lingue derivate, avrebbe
sviluppato una vocale d’appoggio: alcune lingue avrebbero conservato sia la nasale che la
vocale d’appoggio (come il latino), altre solo la vocale (come il greco). Questa
corrispondenza è confermata da altri casi analoghi. Brungamm espose la sua ipotesi (oggi
accettata) sulla rivista diretta da Curtius, approfittando di un suo periodo di assenza
dall’università. Curtius, al suo ritorno, fece sospendere la pubblicazione della rivista. Con
questo episodio inizia la ‘rivolta’ di questo gruppo di giovani linguisti contro quelli della
generazione precedente.
2. Legge delle palatali, scoperta contemporaneamente da diversi studiosi, ma fu Hermann
Collitz (1855-1935) a pubblicarla per primo (egli non apparteneva al gruppo dei
neogrammatici). Come si spiega che nel sanscrito davanti alla vocale a vi è alternanza tra
k e c? Anche in questi casi esiste una corrispondenza regolare tra il sanscrito e le altre
lingue indoeuropee: dove il sanscrito ha c davanti ad a, tale a corrisponde in greco e latino
ad una e, mentre dove il sanscrito ha k, alla a sanscrita corrisponde in latino e in greco una
a o una o. Queste corrispondenze tra sanscrito (e lingue iraniche) da un lato e latino (greco
e altre lingue europee) dall’altro si spiegano bene ipotizzando che le lingue del primo
gruppo abbiano mutato il loro sistema vocalico rispetto a quello della lingua madre
indoeuropea: le tre vocali a, e, o di questa lingua si sono fuse in’unica a nel sanscrito e
nelle altre lingue del gruppo ‘indo-iranico’. Nelle lingue di quest’ultimo gruppo, il suono
velare originario k si è dapprima mutato nel suono palatale [ʧ] davanti alla vocale palatale
e, mentre ha continuato ad essere pronunciato [k] davanti alla vocale velare o e alla vocale
centrale a. Questa spiegazione mostrava che il sanscrito non è la lingua più antica e “meno
decaduta” rispetto alle altre della famiglia indoeuropea; anch’essa è soggetta a mutamenti
tanto quanto le sue ‘sorelle’ (il greco è più vicino alla lingua madre per quanto riguarda il
sistema vocalico). In questo modo declinava anche l’idea di una storia del linguaggio divisa
in due epoche, una di progresso e una di decadenza.
3. Legge di Verner, scoperta da Karl Verner nel 1877. La legge di Grimm presentava delle
eccezioni: dove in latino e in sanscrito abbiamo una t, in gotico abbiamo a volte un suono
sordo (come in broÞar ‘fratello’), a volte un suono sonoro (come in fadar ‘padre’). Verner
esaminò le due parole in vedico bhràtar e pitar e si accorse che nella prima parola l’accento
è sulla prima sillaba e quindi precede la t; nella seconda parola è sulla seconda sillaba e
quindi segue la t. Dato che si pensa che la posizione dell’accento nel vedico fosse la stessa
della lingua madre indoeuropea, Verner ipotizzò che tale posizione avesse avuto un ruolo
determinante nel mutamento delle consonanti occlusive dall’indoeuropeo al germanico e
formulò la legge: nel passaggio dall’indoeuropeo alle lingue germaniche, le occlusive sorde
22
indoeuropee diventano dapprima fricative sorde; tali fricative sorde diventano sonore se
l’accento le segue, mentre rimangono sorde se l’accento le precede.
Queste leggi rendevano la linguistica una scienza esatta regolata da leggi le cui eccezioni si
rivelano solo apparenti. Così la scuola neogrammatica introdusse il concetto di legge fonetica.
I neogrammatici furono influenzati dalla concezione psicologistica del linguaggio elaborata da
Steinthal. Quindi non consideravano, al contrario di Schleicher, la linguistica come scienza
naturale ma come scienza dello spirito: nel doppio senso di scienza psicologica e di scienza
storica. Essi inizialmente concepivano le leggi fonetiche come analoghe a quelle delle scienze
naturali, non le consideravano tuttavia estranee all’individuo, ma al contrario come una
descrizione di processi psicologici inconsci che guidano l’attività linguistica. Queste posizioni
sono espresse nella prefazione di Osthoff e di Brugmann del 1878 alla rivista ‘Morphologische
Untersuchungen’, che è considerato il manifesto dei neogrammatici. In questo lavoro,
Brugmann (Osthoff aveva soltanto sottoscritto la prefazione) si lamenta di come fino a quel
momento si fossero analizzate solamente le lingue e poco i parlanti: è convinto che se la
linguistica storica e la psicologia collaborassero più strettamente si schiuderebbero nuovi punti
di vista. Critica il fatto che la linguistica storica si sia interessata soprattutto alle fasi antiche
delle lingue indoeuropee, trascurando le fasi moderne e i dialetti. In realtà anche i
neogrammatici si interessarono principalmente dell fasi antiche della lingua e la contraddizione
tra ciò che dicevano e facevano era stata messa in evidenza dai loro avversari. Ma è grazie a
loro che i dialetti oggi sono considerati come entità sullo stesso piano delle lingue da cui si
differenziano solo per motivi di ordine storico e sociale. Inoltre sottolineava ciò che li
contrapponeva a Schleicher:
1. Le lingue non sono entità biologiche estranee all’uomo, ma elementi della sua psiche;
2. Non si può parlare di un periodo di progresso e uno di decadenza nella storia del
linguaggio.
Su queste premesse egli formulava i principi della scuola neogrammatica:
1. Ineccepibilità delle leggi fonetiche. Ogni mutamento fonetico, fino a dove procede
meccanicamente, si compie secondo leggi ineccepibili; la direzione del moto fonetico è
sempre la stessa, salvo che subentri una scissione dialettale. Le leggi fonetiche non
ammettono eccezioni, le quali sono tutte spiegabili in base all’azione di altri fattori. Se un
suono muta in due diversi, significa che la lingua madre si sta differenziando in una o più
varietà, dialetti.
2. Analogia. L’analogia venne utilizzata dai neogrammatici per spiegare vari fenomeni che
sembrano contraddire il primo principio. Per esempio, in base alle leggi fonetiche nel
passaggio dal latino all’italiano la ĕ latina si trasforma nel dittongo ie solo se è in posizione
accentata: pĕde(m) → piede; pĕdale(m) → pedale. Perché si ha ‘chiede’, in cui –ie- è in
posizione accentata, e ‘chiediamo’, in cui lo stesso dittongo è in posizione atona? La
seconda delle due forme è stata costruita in base all’analogia con la prima.
I neogrammatici, al contrario di quello che si è pensato per molto tempo, dedicarono una buona
parte della loro attività scientifica alla riflessione teorica sul linguaggio. Paul fu il maggiore teorico
della scuola neogrammatica. Egli distingue due tipi di scienze: quelle ‘nomotetiche’, in cui manca
un qualsiasi riferimento allo sviluppo o evoluzione, e quelle ‘storiche’. La linguistica o ‘scienza dei
principi’ è una scienza storica che contiene una componente nomotetica essenziale, ossia la
componente psicologica. La psicologia ha unicamente per soggetto l’individuo → non si può
parlare di etnopsicologia. Infatti una connessione tra stati e processi mentali si verifica soltanto
all’interno della mente dell’individuo. A suo parere i problemi di cui si deve occupare la linguistica
generale sono:
1. Il modo in cui si realizza l’attività linguistica;
23
2. L’apprendimento del linguaggio;
3. Il mutamento delle lingue nel tempo;
4. La frammentazione delle lingue in dialetti;
5. L’origine del linguaggio.
Questi problemi possono essere risolti solo in termini di psicologia individuale, in quanto
l’organizzazione mentale e corporea di tutti gli uomini è fondamentalmente la stessa (uniformità
costituzionale degli individui). L’interazione tra gli individui produce ciò che Paul chiama ‘uso
linguistico’, ovvero quegli aspetti dell’attività linguistica individuale che non sono condivisi da una
pluralità di parlanti. L’uso è sempre secondario rispetto all’attività linguistica dell’individuo, che è
l’unica realtà effettiva. Secondo Paul, uno dei meriti di Steinthal è quello di aver posto in rilievo
l’importanza degli elementi inconsci del linguaggio. L’analisi della dinamica delle rappresentazioni
linguistiche è alla base del concetto di analogia così come è inteso dai neogrammatici. Le varie
entità linguistiche si riuniscono in ‘gruppi formali’ e in ‘gruppi materiali’: i primi sono costituiti dalla
somma di tutti i nomi di azione ecc.; i secondi dalle associazioni di significati parzialmente simili.
L’incrocio dei gruppi formali con i gruppi materiali dà luogo ai ‘gruppi proporzionali’: ad esempio il
latino mensa:mensam:mensae=hortus:hortum:horti. Questi gruppi proporzionali sono responsabili
della maggior parte dei fenomeni analogici. Il potere creativo dell’analogia non agisce soltanto in
campo fonologico, morfologico e lessicale, ma anche in quello sintattico. L’analogia è quindi il
meccanismo fondamentale del funzionamento del linguaggio.
I neogrammatici non negarono mai esplicitamente che una lingua madre indoeuropea fosse
esistita, ma, a differenza dei loro predecessori, non cercarono di costruire in base ad essa ipotesi
sui presunti parlanti di questa lingua, sulla loro sede originaria o sulla loro cultura. Essi quindi
mostrarono assai poco interesse per la “paleontologia linguistica” Nell’opera dei neogrammatici
troviamo i germi di quella che sarà definita la concezione “algebrica” della lingua madre
indoeuropea: le forme ricostruite sono da interpretare come la semplice abbreviazione delle
corrispondenze riscontrate tra le varie lingue e nulla ci possono dire né sul modo in cui tali lingue
erano effettivamente utilizzate, né tanto meno sulla cultura e la storia dei loro utilizzatori. Questa
visione non ebbe successo e la paleontologia durò e dura tuttora.
Graziadio Isaia Ascoli (1829-1907) è il fondatore della linguistica scientifica in Italia: fu il primo ad
applicare i metodi elaborati della linguistica storico-comparativa tedesca da Bopp in poi. Si occupò
sia delle lingue indoeuropee antiche che delle lingue e dialetti romanzi. A lui si devono le
osservazioni che portarono alla ricostruzione del sistema delle consonanti velari.
1. Al latino [k] corrisponde in sanscrito a volte [k], a volte [ś] (che si pronuncia [∫]): cruor
→kravis; centum→śatam.
2. Al sanscrito [k] corrisponde in latino a volte [k], a volte [k] seguito da un arrotondamento di
labbra: kas → quis.
Nel 1870 Ascoli ipotizzò che l’indoeuropeo primitivo aveva tre velari: oltre alla velare pura *k (simile
alla c di casa), una velare con intacco palatale *k’ (simile a ch- di chino) e una labiovelare *kʷ
(suono velare accompagnato da un arrotondamento di labbra). Nessuna delle lingue derivare
conserva tutte e tre queste velari: il latino e le lingue indoeuropee occidentali hanno unificato la
velare palatale e la velare pura, mantenendo distinta la labiovelare; il sanscrito e le altre lingue
orientali hanno mutato la velare palatale in un suono fricativo [s] e unificato la labiovelare con la
velare pura. I risultati di Ascoli furono tra le grandi scoperte della linguistica storico-comparativa
indoeuropea negli anni settanta dell’Ottocento che furono tra le premesse immediate del costituirsi
della scuola neogrammatica. Tuttavia Ascoli era lontano dalle concezioni dei neogrammatici: per
lui la linguistica è una scienza etnologica non naturale. Egli dava importanza ai fenomeni di
sostrato, cioè all’influsso che la lingua originaria di una popolazione avrebbe esercitato su una
nuova lingua da questa stessa popolazione acquisita. Ascoli lamentava il disinteresse crescente
24
per i problemi dell’origine del linguaggio e il progressivo distacco della linguistica dall’antropologia,
egli aveva concepito l’indoeuropeo non solo come un insieme di corrispondenze linguistiche di un
insieme di corrispondenze linguistiche ma come l’espressione di un’unità etnica e antropologica.
Negli anni ’70 fondò la rivista ‘Archivio Glottologico italiano’ in cui mostra l’interesse per i dialetti
italiani. I suoi Saggi ladini inquadravano per la prima volta con grande chiarezza la posizione
linguistica delle parlate ladine (=romancio della Svizzera, ladino delle valli dolomitiche e il friulano)
rispetto alle varietà romanze ed ai dialetti italiani.
Anche Hugo Schuchardt (1842-1927) si interessò ai dialetti, nonostante avesse un’impostazione
differente sia da Ascoli che da i neogrammatici. Egli è un antisistematico, uno scettico riguardo alla
possibilità di formulare ipotesi e costruzioni di carattere generale: la frammentazione dialettale
dimostra che è impossibile porre limiti definiti non solo tra lingua e lingua, ma anche tra dialetto e
dialetto dato che ogni individuo parla un proprio dialetto diverso da quello di qualunque altro,
chiamato idioletto.
Jules Gilliéron (1854-1926) fece diventare la dialettologia una disciplina autonoma, utilizzando la
raccolta sistematica ‘sul campo’ del materiale dialettale. Ascoli si basò su fonti dialettali scritte,
invece Gilliéron acquisì i dati direttamente dai parlanti dei dialetti mediante un sistema di interviste
effettuate da un unico raccoglitore, Edmont, che non era un linguista ma dotato di sensibilità
fonetica. In questo modo i risultati non erano influenzati da opinioni teoriche preconcette e la
raccolta era omogenea. Il questionario fu sottoposto a parlanti dialettali in 639 località della Francia
ed era costituito da più di 1900 parole. Il risultato del loro lavoro fu il ALF Atlas linguistique de la
France (1912): era formato da una carta geografica per ogni parola indagata, in ogni località si
trovano le diverse forme dialettali corrispondenti. In Italia si contano due atlanti linguistici AIS e ALI
di Bartoli. Gilliéron si rese conto che è impossibile tracciare confini definiti tra i vari dialetti; il
confronto tra le varie forme dialettali gli faceva ipotizzare la presenza di cause diverse dai soli
mutamenti fonetici per quanto riguarda la storia delle parole (come le collisioni omonimiche).
Le posizioni dei neogrammatici, in particolar modo la loro affermazione che le leggi fonetiche non
hanno eccezioni, suscitarono un dibattito molto acceso. Le critiche che venivano fatte partivano da
punti di vista diversi ma tutte si rifiutavano di considerare la linguistica come una disciplina
caratterizzata da una metodologia analoga a quella delle scienze naturali. Infatti i neogrammatici
parlando di “leggi” fonetiche sostenevano che le lingue o entità psichiche dovessero essere
analizzate secondo i canoni delle scienze naturali. In effetti nei primi lavori dei neogrammatici le
leggi fonetiche sono paragonate a quelle della fisiologia, della fisica e della chimica.
Successivamente, un’analisi più accurata della natura di queste leggi indurrà i neogrammatici a
modificare le loro posizioni. Se prendiamo in considerazione la Legge di Grimm sappiamo che è
stata attiva solo nel periodo tra il 400 e il 200 a.C., tutte le parole introdotte successivamente non
presenteranno queste mutazioni. Ciò dimostra che le leggi fonetiche sono limitate nel tempo. Ma
esse sono limitate anche nello spazio: la mutazione consonantica germanica si è verificata soltanto
in un’area definita. Invece le leggi naturali non hanno limitazioni di tempo e di spazio.
I neogrammatici si resero conto che le leggi fonetiche non possono essere assimilate a quelle delle
scienze naturali. Lo stesso Paul, rendendosi conto dell’errore, afferma che la legge fonetica si
limita a constatare la regolarità all’interno di un gruppo di determinati fenomeni storici. I
neogrammatici, comunque, non smisero di considerare la linguistica come una disciplina
metodologicamente affine alle scienze della natura. In sintesi le concezioni linguistiche dei
neogrammatici possono essere ridotte a due principi:
1. Le lingue mutano nel tempo con regolarità;
2. I fattori che agiscono nel mutamento linguistico sono gli stessi per ogni lingua e per ogni
epoca.
25
Curtius, pur affermando che l’analogia e le leggi fonetiche siano due nozioni fondamentali, non
appoggiava nessuno dei due principi dei neogrammatici: egli sosteneva che i cambiamenti fonetici
erano sporadici e che l’analogia non poteva aver operato nelle lingue antiche e operare in quelle
moderne. L’analogia, per lui, era un fattore di disturbo nel funzionamento del linguaggio: era un
anti-uniformista. Anche Ascoli era un anti-uniformista. Egli non condivideva nemmeno
l’impostazione psicologica della linguistica propria dei neogrammatici perché vedeva in questa
impostazione l’abbandono dell’analisi del rapporto lingua-popolazione. Mentre lo studioso dava
grande importanza ai fattori etnici, questi erano trascurati dai neogrammatici, i quali non riuscirono
mai ad elaborare ipotesi convincenti sulle cause del mutamento linguistico, limitandosi a
riscontrarne la regolarità. Schuchardt, nel saggio Sulle leggi fonetiche. Contro i neogrammatici,
insisteva sull’esistenza di mutamenti fonetici sporadici. Associare le leggi al significato voleva dire
rimanere ancorati ad una concezione del linguaggio come organismo naturale, mentre si era ormai
scoperto che è un fenomeno sociale. Inoltre per Schuchardt è impossibile mantenere distinti i due
momenti del mutamento fonetico (legge fonetica + analogia) in quanto in entrambi è attivo il fattore
psicologico. Il comportamento linguistico di ogni individuo è in parte spontaneo e in parte frutto
dell’imitazione del comportamento di altri individui → non è possibile distinguere un mutamento
dovuto a una legge fonetica da uno dovuto ad una ‘scissione dialettale’. Infine non si può
nemmeno affermare che le leggi fonetiche valgono solo per un periodo cronologico: è impossibile
determinare l’inizio e la fine di un periodo cronologico nella storia delle lingue poiché ogni stadio
della lingua è uno stadio transitorio. Tuttavia, in uno dei suoi ultimi lavori, riconobbe che le leggi
fonetiche sono le regole fondamentali del lavoro dell’etimologo. Gilliéron con il suo atlante
linguistico mostra come la storia delle parole sia determinata da fattori diversi e più complessi
rispetto alla semplice evoluzione fonetica priva di eccezioni prevista dalla dottrina neogrammatica.
In realtà tutti i linguisti successivi ai neogrammatici (e così anche Gilliéron) che si sono occupati di
cambiamenti linguistici hanno utilizzato le leggi fonetiche come uno strumento essenziale,
riconoscendo al tempo stesso che esse non spiegano tutti i fenomeni di cambiamento linguistico.
Bloomfield chiarì che con l’espressione “le leggi fonetiche non hanno eccezioni” si voleva dire che
i fattori non fonetici come la frequenza o il significato di forme linguistiche particolari non
interferiscono con il mutamento dei fonemi. Al posto di ‘legge fonetica’ egli utilizzava l’espressione ‘
corrispondenza fonetica regolare’: quando questa regolarità non si riscontra bisogna individuarne
le cause. In conclusione possiamo dire che nel dibattito sulle leggi fonetiche i neogrammatici
uscirono vincitori per quanto riguardava la metodologia della ricerca empirica, ma non riuscirono a
guadagnare il consenso generale per quanto riguardava la loro concezione linguistica.
Benedetto Croce (1866-1952) è l’esponente principale del neoidealismo italiano. Nell’opera
Estetica come scienza dell’espressione e linguistica generale (1902) definisce l’estetica come la
scienza del primo momento dello spirito, ossia quello della conoscenza intuitiva a cui segue il
momento della conoscenza logica o universale. Intuizione e concetto sono le uniche due forme
dello spirito conoscitivo. Estetica e logica sono le sole autentiche scienze. L’intuizione è qualcosa
di ben determinato e si identifica con l’espressione. L’espressione non è solo di carattere verbale,
ma ci sono espressioni musicali, pittoriche, ecc. anche se Croce finisce col trattare
prevalentemente l’espressione linguistica, cosicché la linguistica generale finisce a coincidere con
l’estetica (come mostra il titolo dell’opera). Dato che intuizione equivale ad espressione, si può dire
che ogni espressione sia irriducibilmente diversa dall’altra. Quindi l’estetica non può distinguere le
varie espressioni in generi perché una tale distinzione implicherebbe che esistono elementi comuni
alle varie espressioni. La linguistica non può distinguere classi di parole perché vorrebbe dire che
ci sono parole che svolgono la stessa funzione in espressioni diverse → le classi di parole sono
astrazioni: hanno solo valore empirico o pedagogico, sono una raccolta di schemi utili
all’apprendimento delle lingue, senza pretesa alcuna di filosofica verità. Di conseguenza la
26
linguistica scientifica coincide con l’estetica. Lo spazio che Croce lasciava alla linguistica come
scienza autonoma era molto ridotto: i concetti della disciplina sono utili solo allo scopo pratico → il
concetto stesso di lingua è un’astrazione. Anche se una linguistica come scienza autonoma
dovrebbe essere incompativile con l’accettazione dei principi crociano, alcuni studiosi trovarono
nelle dottrine di Croce lo spunto per elaborare teorie linguistiche da contrapporre a quelle dei
neogrammatici. Karl Vossler (1872-1949) compose l’opera Positivismo (=linguistica di
impostazione neogrammatica) e idealismo (=linguistica ispirata a Croce) nella scienza del
linguaggio. Vossler esclude la possibilità di una linguistica generale che non si identifichi con
l’estetica, mentre ammette la possibilità e la legittimità della linguistica storica: un’impostazione del
genere caratterizzerà non solo questo studioso, ma anche buona parte dei linguisti tedeschi e
soprattutto italiani della prima metà del Novecento.
In Italia il gruppo di linguisti che maggiormente si ispirò alle dottrine crociane fu quello dei
neolinguisti, tra cui vi sono Matteo Bartoli (1873-1946) e Giulio Bertoni (1878-1942). Il Breviario di
neolinguistica, che richiama il Breviario di estetica di Croce (1913), è suddiviso in due parti: Principi
generali di Bertoni; Criteri tecnici di Bartoli. I neolinguisti consideravano come propri ispiratori
Gilliéron (Bartoli aveva progettato AIS: Atlante linguistico italiano), Ascoli (per la polemica contro i
neogrammatici; tuttavia alcuni suoi allievi avevano accettato la dottrina neogrammatica → sia
neolinguisti che neogrammatici si credono legittimi eredi di Ascoli) e la linguistica idealista. I
neolinguisti opponevano il loro spiritualismo al materialismo e al naturalismo dei neogrammatici: la
neolinguistica si propone di trasformare la base dell’indagine naturalistica. Bartoli contrapponeva il
metodo dei neolinguisti a quello dei neogrammatici soprattutto per quanto riguardava “tre
domande” che i neolinguisti consideravano fondamentali e alle quali i neogrammatici non hanno
dato risposta:
1. Qual è il rapporto cronologico tra fasi storiche di una lingua?
Per rispondere a questa domanda Bartoli elaborò le sue norme areali. Norma dell’area isolata o
meno esposta: l’area più isolata conserva di solito la fase anteriore (ex: sardo conserva più
arcaismi di altre varietà romanze). Le altre norme sono quelle delle aree laterali, quella dell’area
maggiore e quella dell’area seriore. Sono norme, non leggi → indicano solo una prevalenza di
casi, non una regolarità ineccepibile. Neppure i neolinguisti potevano rinunciare alla nozione di
legge fonetica; quello che li oppone ai neogrammatici era l’interpretazione di questo concetto e la
concezione della linguistica.
2. Qual è la patria dell’innovazione linguistica?
3. Qual è la causa dell’innovazione linguistica?
Antoine Meillet (1866-1936) fu allievo di Saussure negli anni ’80, quando Saussure non aveva
ancora elaborato le sue teorie → le opere di Meillet non appaiono influenzate dalle idee
saussuriane più innovatrici. Egli accettò l’ineccepibilità delle leggi fonetiche e definiva la legge
fonetica come la formula di una corrispondenza regolare sia tra due forme successive che tra due
dialetti di una stessa lingua (cfr Paul). Egli ricerca leggi che possono non solo descrivere ma anche
spiegare i vari tipi di cambiamenti e superino le limitazioni spazio-temporali proprie delle leggi
fonetiche. Queste leggi ricondurranno a cause fisiche, fisiologiche, sociali, ecc. ma avranno un
carattere grammaticale. Esse indicheranno solo una possibilità: non si può mai prevedere a priori
quali cambiamenti si realizzeranno. Sono le situazioni storiche e sociali a determinare quali di
queste possibilità si realizzi: la linguistica è una scienza sociale ed il mutamento linguistico è legato
a quello sociale → scuola sociologica. Meillet sostiene che il metodo della grammatica comparata
non porta alla ricostruzione dell’indoeuropeo, ma ad un insieme definito di corrispondenze tra
lingue storicamente attestate. Egli adotta le posizioni neogrammatiche: afferma che il rapporto
dell’indoeuropeo rispetto all’ittito, al sanscrito, al greco ecc. è lo stesso di quello del latino rispetto
alla lingue romanze → l’indoeuropeo non aveva nessun particolare tratto “primitivo” che lo
27
distingueva, in termini di superiorità e inferiorità, alle lingue da esso derivate. Secondo lui una
“nazione” indoeuropea sarebbe esistita ma avrebbe avuto la forma frammentata delle città della
Grecia antica. La lingua non sarebbe stata uniforme ma costituita da diversi dialetti: la
differenziazione dialettale si sarebbe riprodotta in ciascun gruppo delle lingue romanze. Egli
considera più corretta la teoria delle onde di Schmidt, anche se non rinuncia del tutto ai concetti
dell’albero genealogico, in quanto ha una forte utilità pratica.
28
un’unica metodologia tanto per le scienze esatte tanto per quelle umane. Questo tentativo di
unificazione metodologica ebbe un effetto relativamente limitato sulla linguistica della prima metà
del Novecento, mentre influì considerovelmente su quella successiva.
I linguisti che segnano il passaggio tra Ottocento e Novecento sono Baudoin, Kruszewski, Sweet e
Jespersen. La loro impostazione è nettamente psicologistica, ma aprono prospettive nuove come
la distinzione tra lo studio della lingua nella sua evoluzione storica e in un suo stato in una
determinata epoca. Trattano tematiche diverse da quelle di grammatica storico-comparativa, si
interessano dello studio delle lingue moderne, sia sotto l’aspetto scientifico che sotto quello pratico
dell’insegnamento e dell’apprendimento.
Jan Baudoin de Courtenay (1845-1929) insegnò grammatica comparata all’università di Kazan’,
dove ebbe come allievo Mikolaj Kruszewski (1851-1887), tanto che si parla di scuola di Kazan’.
Questi linguisti polacchi partirono dalle dottrine dei neogrammatici ponendosi in maniera critica.
Kruszewski criticò le posizioni dei neogrammatici riguardo le leggi fonetiche perché avevano
assunto un’interpretazione troppo morbida di tali leggi, considerandole come delle semplici
constatazioni di corrispondenze regolari tra suoni. Secondo le leggi fonetiche sono di due tipi:
quelle statiche, che riguardano le combinazioni possibili o impossibili di suoni all’interno di una
data lingua, e quelle dinamiche, che asseriscono che suoni identici sono soggetti a cambiamenti
identici. Per quanto riguarda lo studio statico dei suoni, la scuola di Kazan’ distingueva uno studio
puramente fisico da un altro riguardante il ruolo dei suoni nel differenziare i significati. Il primo tipo
di studio è detto ‘antropofonico’ e ha per oggetto tutti i suoni del linguaggio umano dal punto di
vista oggettivo della fisica e della fisiologia; ad esso si contrappone lo studio ‘fonetico’, ossia lo
studio dei suoni in rapporto con il senso delle parole. In certi casi, determinati suoni alternano gli
uni con gli altri per cause antropofoniche, cioè puramente fisiche. Ad esempio la s italiana è
sempre sorda davanti a consonanti sorde, come [s]tentato, sempre sonora davanti a consonanti
sonore, come [z]dentato → [s] e [z] vengono definiti suoni ‘divergenti’, a cui si oppongono suoni
‘correlativi’, cioè quelli la cui alternanza oppone due diverse categorie morfologiche come foot-feet,
tooth-teeth. Baudouin concludeva che le grandezze fonetiche che sono correlativi e corrispondenti
devono essere chiamati fonemi, termine coniato da Dufriche-Desgenettes per indicare il ‘suono del
linguaggio’. Nella scuola di Kazan’ questo termine venne utilizzato per la prima volta da
Kruszewski per designare l’unità fonetica che è opposta al termine suono, che designerebbe l’unità
antropomorfica. A Baudouin si deve la creazione del termine morfema, che indica l’unità minima
dotata di significato. Dopo aver lasciato l’università di Kazan’, Baudouin affrontò altre questioni di
linguistica teorica, storica e descrittiva, accettuando sempre di più l’impostazione psicologica. Tale
impostazione fu criticata da alcuni linguisti successivi come Trubeckoj e Jakobson. In sintesi
questa scuola aveva introdotto una distinzione fondamentale tra un aspetto concreto, fisico-
fisiologico, del linguaggio, costituito dai suoni, e un aspetto più astratto, quello dei fonemi.
Henry Sweet (1845-1912) si preoccupò principalmente della descrizione e dell’insegnamento delle
lingue moderne. I suoi contributi più importanti si devono nell’ambito della fonetica. Si rese conto
che l’ortografia di lingue come l’inglese e il francese non corrispondeva più alla pronuncia reale:
era necessario elaborare un sistema di trascrizione fonetica applicabile al maggior numero
possibile di lingue. Sweet si rese conto che questa trascrizione fonetica poteva essere di due tipi:
una trascrizione ‘stretta’, con fini scientifici, che riproduce tutte le proprietà di un determinato
suono, e una trascrizione ‘larga’, con finalità pratiche, che si limita ad indicare quelle distinzioni di
suono che corrispondono a variazioni di significato nella lingua (una distinzione simile era
statafatta da Baudouin). Sweet s’impegnò anche dal punto di vista organizzativo per il
rinnovamento dello studio delle lingue moderne. Il risultato più importante fu nel 1886 la
fondazione dell’International Phonetic Association (IPA), il cui impegno fu quello di creare un
alfabeto fonetico internazionale, che, con qualche aggiustamento, viene utilizzato ancora oggi.
29
Anche Otto Jespersen (1860-1943) fu attivo nei campi della fonetica e dell’insegnamento (Come
si insegna una lingua straniera). Egli affrontò anche i problemi riguardanti il linguaggio in generale;
si dedicò a ricerche di morfologia e sintassi. Jespersen adottò la prospettiva psicologistica, anche
se introdusse alcune novità. Egli tentò di costruire una logica del linguaggio (legame tra logica e
grammatica): da un lato il sistema grammaticale è organizzato in base a leggi proprie (logica del
linguaggio che si manifesta nella dottrina dei ‘tre ranghi’), dall’altro certe nozioni universali vengono
espresse nelle varie lingue tramite strutture sintattiche diverse. Tali nozioni sono chiamate
‘categorie nozionali’ alle quali si contrappongono le ‘categorie formali’: il rapporto tra questi due tipi
+ mediato dalle categorie sintattiche. La grammatica non deriva le sue categorie da quelle della
psicologia, ma ricorre a questa scienza per comprendere ciò che accade nella mente dei parlanti.
Egli afferma che solo una parte dei nostri enunciati consiste nella ripetizione di formule fisse,
mentre un ruolo decisivo è rivestito dalla creazione di enunciati nuovi (ossia espressioni libere)
costruiti in base a un determinato schema. Infatti il bambino, nonostante non conosca ancora le
regole grammaticali, riesce a costruire frasi complesse sulla base di quelle che ha sentito. La
dottrina dei tre ranghi (primario, secondario, terziario): Jespersen riconosce il rango che una parola
può assumere in una determinata configurazione sintattica dalla parte del discorso a cui tale parola
appartiene. Ad esempio un sostantivo può avere rango primario (se utilizzato come soggetto,
oggetto diretto o indiretto); secondario (in casi come weather report in cui weather è secondario e
report è primario); terziario (come part in emotions, part religious, part human); l’aggettivo ha
solitamente la funzione di secondario, eccetto quando è sostantivato che assume il rango primario;
gli avverbi hanno normalmente la funzione di terziario, più raramente possono essere il termine
primario; i verbi di forma finita possono essere soltanto termini secondari, mentre quelli all’infinito
tutti e tre i ranghi. Anche la classificazione delle proposizioni subordinate è riformulata secondo la
dottrina dei tre ranghi: subordinate oggettive e soggettive hanno funzione di termine primario, le
relative di termine secondario, le avverbiali di termine terziario. Jespersen introduce anche
l’opposizione tra ‘giunzione’ e ‘nesso’: egli non dà mai una definizione esplicita, ma è chiaro che
con il primo termine si riferisce alla connessione attributiva, col secondo alla connessione
predicativa.
30
davvero così? Come si può risolvere il problema? Frege distingue tra ‘senso’ (Sinn) e ‘significato’
(Bedeutung): il primo è il modo in cui l’oggetto ci è dato tramite il segno; il secondo è l’oggetto
indicato dal segno. Ad esempio ‘stella del mattino’ e ‘stella della sera’ hanno lo stesso significato
ma senso diverso (entrambi indicano Venere, ma sono espressi in modo diverso). Un’espressione
può avere senso ma non significato, mentre non esistono espressioni che hanno significato ma
non hanno un senso. Egli introduce anche il termine ‘rappresentazione’, intesa come il contenuto
soggettivo che ognuno può associare al segno. Il senso di un enunciato è il pensiero espresso da
quell’enunciato. Il pensiero è qualcosa di oggettivo, comune a tutti gli esseri umani → se i pensieri
fossero entità individuali non sarebbe possibile comunicare. Un pensiero, e quindi l’enunciato che
lo esprime, può essere vero o falso. Questa impostazione non presenta problemi per le frasi
dichiarative, ma è meno chiara per quelle interrogative, imperative ecc, oppure per tutte quegli
enunciati che contengono termini deittici come qui, ora, oggi. Frege sostiene che la questione della
verità non si pone per tutti i tipi di enunciati, come quelli ottativi, imperativi ecc. Oltre agli enunciati
dichiarativi prende in considerazione anche quelli interrogativi la cui risposta può essere ‘sì’ o ‘no’.
Per quanto riguarda gli enunciati che contengono i deittici Frege li considera degli enunciati
incompleti che possono essere analizzati solo se si conosce il contesto. Le nozioni di vero e falso
sono fondamentali anche per quanro riguarda la concezione che Frege ha del significato
dell’enunciato, che definisce ‘valore di verità’: tutti gli enunciati assertori veri avranno come
significato il Vero e tutti quelli falsi il Falso. Egli introduce anche il ‘principio di composizionalità’
secondo cui il significato di un enunciato è ottenuto componendo i significati delle espressioni che
figurano in esso.
Russel e Wittgenstein sono due tra i più importanti filosofi del Novecento, la cui produzione è
particolarmente vasta. Bertrand Russel (1872-1970) con ‘descrizione definita’ intendeva
un’espressione introdotta da un articolo determinativo come ‘la stella del mattino’, ‘il re di Francia’
ecc.: queste espressioni erano fatte rientrare da Frege nella categoria dei nomi, ma Russel, pur
condividendo la distinzione tra senso e significato, non è d’accordo. Se così fosse un nome proprio
potrebbe essere sostituito da una descrizione definita che ha lo stesso significato, ovvero che
indica lo stesso oggetto, e questo ci condurrebbe a conclusioni paradossali. Ad esempio ‘l’attuale
re di Francia è calvo’: è vera o è falsa? Dato che la Francia è una repubblica → il re di Francia non
esiste → non può esserci un re di Francia calvo → poiché il primo enunciato è falso e le due
proposizione sono legate da congiunzione → tutta la proposizione è falsa. Questo problema era
stato già affrontato da Frege ed aveva concluso che la frase così posta era falsa, ma se veniva
inserita la negazione (‘l’attuale re di Francia non è calvo’) diventava vera. Noi non saremmo
d’accordo in quanto il re di Francia non c’è. Secondo lui il problema è che ‘l’attuale re di Francia’ è
un’espressione priva di significato: pertanto anche l’enunciato che la contiene è privo di significato;
e dato che il significato di un enunciato è il suo valore di verità, tale enunciato non è né vero né
falso. La presupposizione di un enunciato A è dunque l’enunciato B che deve essere vero perché
A possa avere un valore di verità. Russel aveva presente la soluzione di Frege, ma ritiene che la
frase sia ambigua, poiché vuol dire tanto “esiste un’entità che è ora il re di Francia e questa entità
non è calva” quanto “è falso che esista un’entitàche ora è il re di Francia ed è calva”. Il dibattito su
quale sia la soluzione più corretta tra quella di Frege e Russel non è ancora risolta. Entrambi gli
studiosi condividevano un analogo atteggiamento nei confronti del linguaggio naturale, considerato
imperfetto: nel caso di Frege, perché contiene nomi senza significato; nel caso di Russel, perché la
forma grammaticale della proposizione è diversa dalla sua forma logica. Anche Ludwing
Wittgenstein (1889-1951) ha un atteggiamento di svalutazione del linguaggio naturale. Il
Tractatus logico-philosophicus ha come scopo quello di mostrare come la struttura imperfetta del
linguaggio naturale sia all’origine dell’insensatezza di molte questioni filosofiche. La sua opera
conteneva anche molte osservazioni di grande rilievo su argomenti di logica, di epistemologia e
31
anche di etica. Questo è uno dei testi alla base del neopositivismo, anche se Wittgenstein non
aderì esplicitamente. Secondo lui il mondo è un insieme di ‘stati di cose’: le proposizioni elementri
sono immagini di stati di cose. Significa che ad ogni elemento della realtà deve corrispondere un
determinato ‘segno semplice’ nella proposizione e che le relazioni tra i vari elementi devono essere
rispecchiate da quelle tra i segni semplici. Wittgenstein considera i nomi e le proposizioni come le
due categorie fondamentali di segni, come Frege, ma attribuisce il ‘significato’ soltanto ai nomi e il
‘senso’, ovvero lo stato di cose che descrivono, soltanto alle proposizioni. Se questo stato di cose
sussiste, la proposizione è vera; altrimenti, è falsa. Nel caso in cui uno dei segni semplici di cui è
costituita la proposizione è privo di significato, cioè non corrisponde ad alcun oggetto della realtà,
la proposizione non è falsa, ma ‘insensata’. Secondo lui le proposizioni della metafisica
tradizionale possono essere benissimo comprensibili, ma nessuna di essa è sensata, perché
contengono nomi a cui non corrispondono oggetti reali → rifiuto della filosofia. A partire dalla
seconda metà del Novecento Wittgensteoi elaborò una nuova concezione del linguaggio in cui le
nozioni di verità e riferimento ebbero poco spazio e diede inizio a quella filosofia del linguaggio
ordinatio che divenne la ase della pragmatica linguisica.
La sistemazione organica di questo tipo di semantica si ebbe con Albert Tarski (1901-1983). Egli
ritiene che la considizione necessaria e sufficiente affinché un enunciaro sia vero è espressa nel
modo seguente: (I) l’enunciato “la neve è bianca” è vero (in italiano) se e solo se la neve è bianca.
Per comprendere questo enunciato, che potrebbe sembrare banale, è necessario distinguere tra
‘metalinguaggio’ e ‘linguaggio oggetto’: con il primo si intende il linguaggio in cui formuliamo la
nostra teoria semantica; con il secondo , il linguaggio di cui questa teoria si occupa. La condizione
(I) è un enunciato del metalinguaggio, mentre ‘la neve bianca’ è un enunciato del linguaggio
oggetto. Per capire la differenza è necessario questo esempio: in (2) il metalinguaggio è l’inglese e
il linguaggio oggetto è l’italiano; in (3) è il contrario.
(2) The sentence “la neve bianca” is true (in italian) if and only if snow is white.
(3) L’enunciato “snow is white” è vero (in italiano) se e sole se la neve è bianca.
Secondo Tarski l’utilizzo di due sistemi linguistici diversi per il metalinguaggio e il linguaggio
oggetto è una necessità: il metalinguaggio è più ‘potente’ rispetto all’altro. Questa necessaria
differenza rende impossibile la costruzione di una semantica adeguata delle lingue naturali. Solo la
semantica delle lingue formalizzate può essere costruita con metodi esatti. In realtà egli sembra
convinto, almeno in un primo momento, che non si possano costruire linguaggi formalizzati la cui
struttura si allontani troppo dalla grammatica delle lingue naturali. In ogni caso il risultato delle sue
ricerche è stato percepito come analogo a quello di Russel e Wittgenstein, quindi fino alla metà del
Novecento non suscitò particolare interesse (eccezione Hjemslev).
34
comunicativo ed è definita ‘concreta’ distinta da quella ‘formale’. L’analisi formale suddivide la frase
in soggetto e predicato, mentre quella concreta in tema e rema (enunciazione, ciò che si dice a
proposito del tema): entrambe sono necessarie perché non sempre coincidono. Al termine della
discussione generale tenuta nel 1928 al Congresso dell’Aja, i due gruppi di studiosi decisero di
fondere le proprie tesi in una formulazione comune, articolata in sei punti. Assistiamo all’incontro
tra sincronia e diacronia e la concezione di sistema. I praghesi superano il neogrammaticismo di
Saussure, che lo portava a parlare di sistema sincronico ma non di sistema diacronico, affermando
che le esigenze del sistema governano anche la diacronia. Le varie posizioni furono riprese e
ampliate nelle dieci Tesi del ’29. La prima (Mathesius + Jakobson) s’intitola Problemi di metodo
derivanti dalla concezione della lingua come sistema (e importanza di tale concezione per le lingue
slave): sottolinea che la lingua è un sistema di mezzi di espressioni appropriati a un fine; l’analisi
sincronica è il mezzo più adeguato per studiare una lingua ma l’opposizione con la diacronia non è
da interpretare in modo assoluto; la comparazione è utile non solo per ricostruire l’origine comune
di lingue apparentate geneticamente ma anche per scoprire leggi strutturali dei sistemi linguistici; si
parla di concatenamento secondo le leggi dei fatti evolutivi, i cambiamenti linguistici non sono più
fenomeni isolati. La seconda tesi (Jakobson), Compiti da affrontare per lo studio di un sistema
linguistico, è divisa in due parti: la parte a riguarda lo studio dei suoni; la parte b lo studio della
parola e dei gruppi di parole. I praghesi distinguono tre discipline: la teoria della parola come
denominazione; la teoria dei processi sintagmatici e la morfologia del nuovo senso che è la teoria
dei sistemi delle forme di parole e gruppi. La terza tesi (Jakobson + altri), Problemi di ricerche
intorno alle langues di diverse funzioni, si dedica alle funzioni della lingua, alla lingua letteraria e
alla lingua poetica. La prima parte afferma che se non si tiene conto della diversità di funzioni della
lingua, il suo studio non può essere adeguato; le distinzioni funzionali da distinguere sono quelle
tra linguaggio interno e manifesto e tra ‘intellettuale’ e ‘affettivo’. Jakobson riprenderà le funzioni
del linguaggio sostenendo che sono in totale sei: la funzione emotiva (emittente), la funzione
conativa (destinatario), la funzione referenziale (contesto), la funzione metalinguistica (codice), la
funzione fàtica (canale di comunicazione) e la funzione poetica (messaggio).
La fonologia praghese indica una teoria precisamente elaborata da questi linguisti. Gli aspetti più
importanti sono:
1. fonetica >< fonologia => la prima può essere definita come scienza del lato materiale del
linguaggio umano (i suoni), la seconda deve studiare quali differenze di suono in una data
lingua sono collegate a differenze di significato. Le particolarità acustiche/articolatorie,
importanti per il fonetista, sono irrilevanti per il fonologo.
2. concetto di fonema (jakobson + Trubeckoj) => chiamiamo fonemi le unità fonologiche che,
dal punto di vista di una data lingua, non si possono dividere in unità fonologiche minori
susseguentisi: sono la più piccola unità fonologica di una data lingua. L’unità fonologica è
quella che distingue i significati, è pertinente: il fonema è l’insieme delle proprietà
fonologicamente pertinenti di una data lingua, mentre il suono linguistico è l’insieme di
quelle pertinenti e non. Secondo le quattro regole elaborate da Trubeckoj, per essere
considerati realizzazioni di due fonemi diversi, due suoni devono poter ricorrere nella
stessa posizione e produrre un cambiamento di significato (coppia minima). Al concetto di
fonema si contrappone quello di variante, cioè di realizzazione diversa di uno stesso
fonema il cui scambio non produce cambiamento di significato. Le varianti si distinguono in
facoltative (suoni diversi che ricorrono nella medesima posizione senza produrre
cambiamento d significato: r francese) e combinatorie (realizzazioni di uno stesso fonema
in contesti diversi)
3. classificazione logica delle opposizioni distintive => Trubeckoj osserva che per opporre due
entità bisogna che esse abbiano almeno una proprietà in comune. Le opposizioni si
classificano in base a tre diversi punti di vista: a) il loro rapporto con l’intero sistema di
opposizioni; b) il rapporto tra i membri dell’opposizione; c) la misura della loro validità
distintivi. Nel primo caso abbiamo opposizioni bilaterali (t >< d), plurilaterali (d >< g >< b),
proporzionali, quando il rapporto tra due membri e identico al quello tra membri di un’altra
opposizione, e isolate (p >< [ ∫ ]). Nel secondo caso ci sono opposizioni privative, quando
uno dei suoi membri è caratterizzato da un tratto assente nell’altro (marcato >< non
marcato), graduali, quando una stessa proprietà è realizzata in gradi diversi, ed
35
equipollenti, in cui i membri stanno logicamente su un piano di parità (patto >< tatto). Il
terzo caso contiene opposizioni costanti e neutralizzabili: la neutralizzazione è un
fenomeno non marcato, mentre il membro opposto è marcato.
4. principi di fonologia storica => il mutamento di suono può non avere effetti fonologici. Si
parla di ‘defonologizzazione’ quando il mutamento di suono abolisce un’opposizione tra
fonemi, mentre si parla di ‘fonologizzazione’ se diventano due fonemi diversi (+
‘rifonologizzazione’, cioè modifica di un’opposizione rispetto alla precedente). Il compito del
cambiamento è ristabilire l’equilibrio, tenendo conto però della possibilità di creare rotture in
altri punti del sistema. Il metodo di Jakobson è definito integrale e si basa sul principio che
ogni modificazione deve essere trattata in funzione del sistema all’interno del quale si è
verificata; adotta un punto di vista sistematico e finalistico superando l’eredità lasciata dai
neogrammatici. Queste osservazioni accentuarono la concezione della linguistica propria
dello strutturalismo, ossia come scienza autonoma, fondata unicamente sulle nozioni di
funzione e struttura, non riconducibile alla metodologia di nessun’altra scienza.
Nelle sue ricerche in ambito fonologico, Jakobson si concentrò su due aspetti: l’acquisizione del
sistema fonologico da parte di un bambino e la sua perdita da parte dell’afasico e una teoria
generale delle opposizioni fonologiche in termini di presenza o assenza di tratti (binarismo). Per la
sua prima ricerca, Jakobson ritiene che l’ordine di acquisizione dei suoni linguistici da parte del
bambino è speculare a quello della loro perdita da parte dell’afasico: i suoni appresi per ultimi dal
bambino sono persi per primi dall’afasico e viceversa. Queste leggi generali dell’acquisizione si
riconducono a leggi generali della struttura dei sistemi fonologici (es. le fricative non vengono
acquisite prima delle occlusive = non esistono sistemi di lingue che hanno fricative ma non
occlusive). Questi enunciati hanno forma implicazionale e sono ‘leggi fonetiche generali’:
intendono essere valide per tutte le lingue del mondo e hanno il loro fondamento nella struttura
generale dei sistemi fonologici, diversamente dalle leggi dei neogrammatici, limitate nel tempo e
nello spazio. La prima formulazione del binarismo di Jakobson risale agli anni ’30 ma la sua
elaborazione è del dopoguerra: l’innovazione consiste nell’affermare che i fonemi sono binari, cioè
caratterizzati dalla presenza o dall’assenza di determinati tratti distintivi, indicati rispettivamente
con i segni ’+’ o ‘-‘ (± vocalico, ± consonantico, ecc.). I tratti sono ipotizzati come universali: in
qualsiasi lingua, i fonemi non possono contenere che questi tratti; le differenze tra varie lingue
sono dovute al fatto che non tutti i tratti sono presenti in tutte, oltre al fatto che certi fonemi
possono avere un valore in una lingua e il valore opposto in un’altra. I tratti binari proposti sono 12.
Martinet (fondatore del ‘Circolo linguistico di New York) ampliò i suoi orizzonti alla fonologia
generale, diacronica e alla teoria generale del linguaggio. Una delle sue preoccupazioni è
individuare le proprietà che distinguono il linguaggio umano da altri sistemi chiamati ‘linguaggi’
come quelli delle varie specie di animali o i codici internazionali. Tali proprietà sono: la funzione
comunicativa, la natura fonica (il linguaggio naturale è essenzialmente un fenomeno vocale) e la
doppia articolazione il fatto che le lingue naturali sono analizzabili in due diverse specie di unità:
quelle di ‘prima articolazione’, cioè i segni, che sono dotati di significante e significato e sono un
numero illimitato; la ‘seconda articolazione’, cioè i fonemi che non hanno un significato proprio ma
sono solo distintive del significato e sono di numero molto limitato. Il fatto che il linguaggio sia
doppiamente articolato è probabilmente dovuto a un motivo di economia. Nel suo lavoro di
fonologia diacronica, Martinet dà importanza non solo ai ‘fattori interni’ ma anche a quelli ‘esterni’
nel cambiamento fonetico: con i primi si intendono quelli relativi al sistema linguistico, con i secondi
ci si riferisce a elementi di condizionamento dati da diversi fattori. La nozione fondamentale è
quella di ‘economia’: da un lato la tendenza a ricorrere al minor numero di elementi e dall’altro
quella di tenerli il più possibile distinti. Egli rifiuta il binarismo di Jakobson, considerandolo troppo
aprioristico, e afferma che un fonema può avere più di due tratti: senza una robusta evidenza
empirica alcune ipotesi non possono nemmeno essere avanzate. Martinet riformula in termini di
economia i fenomeni di mutamento extrafonologico (mutamenti privi d’incidenza sul sitema);
rifonologizzazione (aumento del grado d’integrazione nel sistema); defonologizzazione
(abbandono di opposizioni fonematiche che non offrivano vantaggi) e fonologizzazione
(trasferimento di alcuni tratti distintivi da un segmento all’altro della catena). Riassumere in
concetto di equilibrio del sistema: le lingue sono mutevoli e devono continuamente adattarsi alle
circostanze, per cui è impossibile raggiungere un equilibrio completo.
36
Hjelmslev, della Scuola di Copenaghen, tenta di fondare la linguistica di Saussure sulla filosofia
della scienza neopositivista. Insieme a Uldall elabora la teoria della glossematica: la parola
glossema indica un’unità minima di analisi su qualunque livello. A questa linguistica ‘trascendente’
si contrappone una linguistica ‘immanente’, cioè rivolta solo all’analisi dell’insieme di dipendenze
che costituiscono la struttura di una lingua: la glossematica avrebbe dovuto essere applicata a
tutte le strutture analoghe al linguaggio naturale, ma questo progetto fallì. Per Hjelmslev, la teoria
linguistica deve essere ‘arbitraria’ e ‘adeguata’, cioè indipendente da qualsiasi esperienza,
costituente un sistema deduttivo e che rispetta l’esperienza precedente. Le entità linguistiche
fondamentali sono le funzioni, che costituiscono il principio che sta alla base di quello di
dipendenza e perciò vero principio inerente e costitutivo della struttura. Il compito del linguista
consiste nel ridurre le dipendenze a funzioni = termine che si riferisce alle dipendenze interne che
costituiscono la stessa struttura. Queste dipendenze sono di tre tipi: se i due termini si
presuppongono reciprocamente, si dicono ‘interdipendenze’; se uno dei due termini presuppone
l’altro ma non viceversa, ‘determinazioni’; se i due termini sono compatibili ma nessuno dei due
presuppone l’altro, ‘costellazioni’ (+ combinano con asse dei rapporti sintagmatici e paradigmatici).
Hjelmslev dà importanza all’interdipendenza tra espressione e contenuto: un’espressione è tale
grazie al fatto che è espressione di un contenuto e un contenuto è tale solo in quanto contenuto di
un’espressione. Per analizzare il segno linguistico bisogna partire dalla forma e non dalla sostanza
che vive solo grazie alla forma. Mentre gli studiosi della scuola di Praga limitano la ‘doppia
articolazione’ al piano dell’espressione, Hjelmslev sostiene che entrambi i piani sono analizzabili in
unità più piccole del segno, unità di numero limitato, che egli chiama figure. I fonemi sono le ‘figure
dell’espressione’ mentre le ‘figure del contenuto’ sono le unità semantiche minime che formano le
unità semantiche più grandi (‘uomo’, contenuto di ‘umano’, ‘maschio’, ’adulto’). Le figure
dell’espressione e del contenuto non sono in corrispondenza biunivoca, caratteristica di ogni
sistema di segni che lo studioso chiama semiotica. Altri sistemi di segni che non richiedono la
postulazione di due piani sono definiti ‘sistemi simbolici’ (matematica). La semiotica è un sistema
necessariamente caratterizzato da un piano di contenuto e un piano dell’espressione: si parla di
semiotica ‘denotativa’. Quando il piano dell’espressione è a sua volta una semiotica si parla di
‘connotativa’. Una semiotica che ha una semiotica denotativa come piano del contenuto si
definisce ‘metasemiotica’ o ‘metalingua’, una lingua che verte su un’altra lingua. Una semiotica che
ha come piano del contenuto una semiotica connotativa è una ‘semiologia’ e se ha come
contenuto una semiologia si parla di ‘metasemiologia’. In un altro volume, quelle che Hjelmslev
chiama figure sono definite elementi: la lingua non è un sistema di segni ma un sistema di elementi
destinati a occupare certe determinate posizioni nella catena, ad entrare in certe determinate
relazioni, ad esclusione di certe altre. Gli elementi si organizzano in categorie che costituiscono la
struttura della lingua. I segni appartengono all’uso della lingua. L’oggetto della linguistica storico-
comparativa è la parentela linguistica genetica: essa è definita come una funzione tra elementi
dell’espressione di lingue diverse; le leggi fonetiche dei neogrammatici sono esempi di tali funzioni.
Le apparenti eccezioni alle leggi non sono in realtà che ‘controcasi’ che obbediscono a regole
proprie, per i quali le funzioni degli elementi non sono valide e che devono essere esclusi a priori
dai dati quando si stabiliscono le funzioni degli elementi. Si tratta delle regole di formazione dei
segni che riguardano l’uso della lingua. Oggetto della tipologia è la parentela linguistica tipologica
che è una funzione tra categorie.
La formazione di Benveniste era quella di un linguista storico-comparativo e a lui dobbiamo la
‘teoria della radice’ (legata a ‘coefficienti sonantici’ Saussure): egli sostiene che tutte le radici
indoeuropee sono riconducibili alla scrittura ‘consonante + vocale (e/o) + consonante’. Se alla
vocale segue un coefficiente sonantico, essa si allunga; se precede, la vocale prende timbri diversi
secondo il tipo di coefficiente. I suoi studi si concentrano anche sul concetto saussuriano di
arbitrarietà del segno e soggettività del linguaggio. Benveniste rileva che la frase di Saussure ‘il
legame tra significante e significato è arbitrario’, è sviante perché fa entrare in gioco un terzo
elemento, la realtà: è il rapporto del significato con la realtà a essere arbitrario, mentre il rapporto
del significato con il significante è necessario-. Il significato è tale solo in virtù del significante, e
viceversa. In Saussure, ‘arbitrario’ significa sia non fondato nella realtà, sia differenziale, cioè
legato a un determinato stato di lingua: Benveniste rileva entrambi questi aspetti e chiama il
secondo ‘necessità’ per indicare il fatto che il valore del segno è determinato all’interno di un
sistema no opposto a Saussure, aiuta a eliminare la confusione tra ‘arbitrario’ e ‘convenzionale’.
37
La soggettività del linguaggio indica il fatto che la comunicazione linguistica avviene innanzitutto
grazie all’azione di un io parlante (soggetto dell’enunciazione), il quale può coincidere o meno con
il soggetto dell’enunciato. Analisi nuova delle tre persone grammaticali e del loro rapporto.
Tradizionalmente, la prima, la seconda e la terza sono poste sullo stesso piano: Benveniste
sostiene invece che vanno distinte sulla base di due differenti correlazioni. Quella di ‘personalità’
oppone la terza alle altre due: solo ‘io’ e ‘tu’ sono personaggi del dialogo; la terza, che non
interviene, è la ‘non-persona’. Le prime due rinviano all’emittente o al destinatario dello specifico
atto linguistico e si oppongono tra loro in virtù della correlazione di ‘soggettività (‘persona io’ vs.
‘persona non-io’). Chiarire il fatto che i verbi impersonali siano tutti alla stessa persona, cioè la
terza: si confonde soggetto con persona. Intuisce anche che alcune enunciazioni sono del tutto
particolari e implicano un’azione da svolgere (‘io giuro’, ‘io faccio’..).
41
analisi struttura fonologica: nell’individuazione del fonema evitano ricorso al significato ma
‘test di sostituzione’ (pronunciare fonema modificato e registrare reazione dell’ascoltatore
nativo), di matrice comportamentista + Twaddell che afferma che il fonema è un’entità
fittizia, strumento terminologico nella descrizione delle relazioni fonologiche che esistono
tra gli elementi di una lingua (no identici a strettamente simili), entità astratta ma non per
questo priva di giustificazione + fonema = classe di suoni e allofoni = suoni diversi che
appartengomo alla stessa classe rappresentata da un fonema, con distribuzione
complementare (Whorf);
morfofonemica: (Bloch) studio dell’alternanza tra fonemi corrispondenti in forme diverse
dello stesso morfema (wife – wives). Il morfo è la singola forma di un morfema mentre le
forme o rappresentazioni del medesimo morfema sono i suoi allomorfi: un morfema può
essere rappresentato da un solo morfo ma esistono morfi vuoti, o un morfo che si adatta a
due o più morfemi, no corrispondenza biunivoca (Hockett). Ogni unità grammaticale è
analizzata come la combinazione di morfi, i quali rappresentano morfemi che possono
anche essere discontinui. Approfondita analisi dei costituenti immediati + procedimento dal
morfema all’enunciato (Harris).
Risultato scuola strutturalista americana sta nell’aver posto con chiarezza alcuni obiettivi senza
però dare delle soluzioni soddisfacenti dopo anni cinquanta insufficienza metodi puramente
distribuzionali con necessità di avere metodi > astratti.
4.1 La ‘rivalutazione’ del linguaggio naturale nei logici e nei filosofi del linguaggio
Negli studi degli anni ’30-’40 il linguaggio naturale comincia a essere considerato un’entità da
contrapporre ai linguaggi formai in termini di diversità. Il primo segnale di svolta è rappresentato da
Morris che intendeva tracciare i lineamenti della semiotica (teoria generale dei segni, scienza che
studia cose o proprietà di cose fungenti dai segni e perciò strumento di tutte le scienze). Egli parte
dalla nozione di ‘semiosi’, il processo in cui qualcosa funziona come segno: questo processo si
articola attraverso tre componenti + uno un segno (veicolo segnico) si riferisce a un’entità
(designatum), tramite una certa relazione (interpretante), per un utente del segno stesso
(interprete). La novità di Morris sta nell’aver individuato tre tipi di relazioni all’interno del processo
di semiosi: quella ‘sintattica’, che studia il rapporto dei segni tra loro, quella ‘semantica’, che
riguarda le relazioni dei segni con gli oggetti cui sono applicabili, e quella ‘pragmatica’ che segna la
relazione dei segni con gli interpreti (= pragmatica è una scienza). La pragmatica è una
dimensione propria del linguaggio naturale che porta l’individuo a utilizzare determinate frasi in
contesti specifici. Carnap riprende quasi letteralmente le distinzioni di Morris ma oppone una
sintassi e una semantica ‘pure’, studio dei ‘sistemi semantici’ e ‘sintattici’, alle corrispondenti
discipline ‘descrittive’, che consistevano nella ‘analisi empirica’ delle proprietà semantiche e
sintattiche delle lingue storicamente date. Carnap osserva che una volta che le caratteristiche
semantiche e sintattiche di una lingua sono state scoperte mediante la pragmatica, lo studio di
queste discipline procede in modo indipendente e conclude che la sintassi e la semantica sono
indipendenti dalla pragmatica.
I primi lavori di pragmatica destinati a lasciare un’impronta decisiva nella linguistica e filosofia del
linguaggio si devono a Austin e al ‘secondo Wittengstein’. Nella sua nuova fase di pensiero,
Wittengstein ribalta la prospettiva adottata in precedenza, dove presentava una concezione del
linguaggio umano secondo cui le parole denominano oggetti (presenta in S. Agostino): il significato
delle parole consiste, ora, nel loro uso da parte dei parlanti. Il ruolo della pragmatica è
notevolmente accresciuto in quanto non esistono designata indipendenti dal loro uso e, quindi, non
può esistere, almeno nel linguaggio naturale, una pragmatica indipendente dalla semantica. In
questa prospettiva cambia anche l’atteggiamento nei confronti del rapporto tra ‘forma
grammaticale’ e ‘forma logica’: la ‘forma grammaticale’ è perfettamente legittimata dal suo impiego,
non è più un travestimento di quella ‘logica’ era stato un errore voler giudicare il linguaggio
naturale confrontandolo con i linguaggi della logica e della matematica: rivalutazione proprio da
parte di uno di coloro che aveva tentato di svalutarlo. La concezione di linguaggio naturale come
insieme di pratiche caratterizza anche il pensiero di Austin. Il suo punto di partenza è costituito
42
dalla nozione di enunciato performativo, che serve a compiere un’azione (‘Chiedo scusa’),
contrapposto a quello constativo, caratterizzato dalla proprietà di essere vero o falso. L’enunciato
performativo, può essere criticato in una dimensione diversa da quella del vero e del falso che
Austin chiama ‘felicità’: un enunciato può essere ‘felice’ solo se vengono soddisfatte determinate
condizioni, altrimenti è ‘infelice’. Una volta introdotta la distinzione tra i due enunciati, lo studioso
cerca di superarla:
esiste una forma normale dei performativi? NO, grande varietà di forme grammaticali (ES.
‘Le do il benvenuto’; ‘Stai zitto’; ‘Cane’) non possiamo attenderci alcun criterio verbale
del performativo);
le nozioni di ‘felicità’ e di ‘verità’ possono coinvolgere sia i performativi sia i constativi;
una proposizione troppo netta è inadeguata perché un enunciato può essere vero o falso a
seconda delle sue circostanze di impiego e di chi lo impiega (‘La Francia è esagonale’ può
andare bene per i generali ma non per i geografi, asserzione approssimativa);
proferendo un enunciato, noi compiamo, contemporaneamente, tre tipi di atti linguistici: locutorio
(facciamo qualcosa dicendo qualcosa), illocutorio (domanda, risposta, ordine, avvertimento, ecc.) e
perlocutorio (produzione, tramite l’atto locutorio e illocutorio, di certi effetti consecutivi sui
sentimenti , i pensieri, le azioni di chi sente, o di chi parla, o di altre persone). Importante la
distinzione tra ‘significato’ e forza illocutoria: a volte uno stesso atto locutorio può corrispondere a
due o più atti illocutori (ES. ‘Il gatto è sul letto’ = ‘Non salire sul letto’ O ‘Fai scendere il gatto’).
L’atto illocutorio è convenzionale mentre quello perlocutorio è non convenzionale perché posso
ottenere un certo effetto mediante molti mezzi diversi.
Negli stessi anni vi è una corrente di pensiero che continua a sostenere che il linguaggio naturale
sia analizzabile con gli stessi strumenti dei linguaggi formali. La nozione fondamentale di
Ajdukiewicz è quella di ‘connessione sintattica’: una combinazione di parole è ‘sintatticamente
connessa’ quando è formata da parole dotate di senso e il suo senso deriva dal senso delle parole.
Per spiegare perché certe espressioni siano sintatticamente connesse e altre no, elabora un
sistema di analisi sintattica basato sulle nozioni di ‘categoria fondamentale’ e ‘categoria funtoriale’:
il nome e la frase sono fondamentali mentre le altre categorie sono funtori. Le categorie e le loro
combinazioni sono rappresentate mediante una notazione ‘quasi aritmetica’: frase = s; nome = n e
ai funtori indice frazionario procedimento meccanico per stabilire se espressione è
sintatticamente connessa o no. Reichenbach considera come suo solo nemico la grammatica
tradizionale che non è in grado di cogliere appropriatamente la struttura logica del linguaggio:
sostituisce il sistema delle parti del discorso con una classificazione basata sulla logica dei
predicati e delle relazioni, che distingue tre classi principali di espressioni: ‘argomenti’, ‘funzioni’ e
‘termini logici’. Le sue idee non ebbero particolare seguito all’epoca e in seguito vennero riprese da
pochi, probabilmente perché mancava di un vero e proprio sistema di regole per l’analisi
dell’espressione del linguaggio naturale. Entrambi questi studiosi riconobbero le difficoltà di
analizzare il linguaggio naturale e le sue incoerenze logiche, ma continuarono a considerarlo alla
stregua dei linguaggi formali. La grammatica di Ajdukiewicz fu invece ripresa e approfondita da
molti, tra i quali il più importante è Bar-Hillel, che presentò una grammatica categoriale che
coniugava la notazione quasi-aritmetica con i metodi della linguistica strutturale americana. In
particolare, affronta il problema dei costituenti discontinui, proponendo di considerarli come
collocati in qualche altra posizione rispetto a quella in cui effettivamente ricorrono
insoddisfacente ma anticipa spiegazione di Chomsky, il quale respingerà un’altra proposta dello
studioso, ossia quella di applicare sistematicamente al linguaggio naturale gli strumenti elaborati
dalla teoria dei linguaggi formali (= logica formale utilizzata in costruzione teoria linguistica MA
NON in analisi comportamento linguistico effettivo). La linea tracciata da Bar-Hillel fu seguita da
Montague, il quale poneva la nozione di verità a fondamento della sintassi e della semantica
‘serie’ (≈ Tarski). Questa semantica interpreta le espressioni di una data lingua relativamente a un
modello, cioè un insieme di entità, che sono individui per le espressioni individuali, relazioni tra
oggetti per le espressioni predicative e cos’ via; è inoltre indipendente dalla pragmatica (la
semantica di Brèal & Co. traduce le espressioni di una lingua in quelle di un’altra lingua). Con il
termine grammatica di Montague si designano sia le ricerche compiute dallo studioso, sia lo
sviluppo ad opera di altri studiosi dopo la sua morte: l’atteggiamento nei confronti del linguaggio
naturale è diverso da quello di Tarski perché Montague sostiene che questo tipo di semantica si
43
possa costruire anche per lingue naturali grammatica di M. consiste di struttura sintattica
analizzata secondo il modello della grammatica categoriale e interpretata mediante tecniche di
semantica ‘modellistica’.
44
verbale; Art. = articolo; V = verbo; N = nome). Le frasi non sono rappresentate su una sola
dimensione ma come una struttura gerarchica, raggruppando le singole parole in unità di
livello più alte. Un ‘costituente’ è una sequenza di parole riconducibile a un unico punto
d’origine (etichette dei costituenti = nodi) non adeguato perché non coglie la relazione
che il parlante coglie tra i differenti tipi di frasi.
3. Modello ‘trasformazionale’: è in grado di rendere conto delle relazioni tra le frasi. Si serve di
‘trasformazioni obbligatorie’, da applicarsi per generare frasi grammaticali (cfr. salto di
affisso in inglese che riordina gli elementi ausiliari in modo coerente e grammaticale (s +
have = # has)), e ‘trasformazioni facoltative’, da applicarsi solo in certi casi (trasformazione
passiva o interrogativa). La ricorsività, ossia la possibilità di includere un numero illimitato di
frasi dipendenti in una frase principale, è prodotta dalle trasformazioni. Infine, ci sono le
trasformazioni generalizzate, che inseriscono frasi in altre frasi, e quelle singolari che si
limitano alle frasi semplici.
Mentre in Harris il termine ‘trasformazione’ indica un rapporto tra frasi, in Chomsky si tratta di un
rapporto tra livelli di rappresentazione, ossia strutture, per quanto non consideri tali livelli come
strettamente gerarchizzati (ES. non vede alcun rapporto tra morfemi e fonemi; ogni morfema non è
costituito da fonemi specifici). La grammatica generativa dunque si serve di: regole SS (struttura
sintagmatica), regole trasformazionali e regole morfofonemiche. NB Grammatiche esaminate sono
neutrali rispetto al parlante e all’ascoltatore, semplice descrizione di un certo insieme di enunciati.
La teoria standard, l’aspetto sistematico acquisito dalla teoria di Chomsky, presenta una delle
prime definizioni esplicite di grammatica generativa: ‘un dispositivo che specifica l’insieme infinito
delle frasi ben formate e che assegna a ciascuna di queste una o più descrizioni strutturali’. Lo
studioso suddivide la grammatica in tre componenti: sintattico, fonologico e semantico, di cui solo il
primo è generativo, mentre gli altri due sono interpretativi solo il componente semantico genera
frasi e assegna loro descrizioni strutturali; il componente semantico mette in relazione una struttura
con una rappresentazione semantica e il componente fonologico attribuisce una rappresentazione
fonetica. La struttura generata dal componente sintattico e interpretata dal componente semantico
è la struttura profonda della frase; questa poi è collegata mediante le trasformazioni alla struttura
superficiale che è interpretata dal componente fonologico; da qui la concezione mentalistica della
lingua e della linguistica.
Chomsky afferma che la teoria linguistica si occupa principalmente di un parlante-ascoltatore
ideale, in una comunità linguistica completamente omogenea. Egli distingue poi tra competenza ed
esecuzione. La competenza è ‘un insieme di processi generativi’, cioè un insieme di regole per
generare un numero potenzialmente infinito di frasi: il linguista deve determinare, partendo dai dati
di esecuzione, il sistema sottostante di regole che il parlante-ascoltatore ha acquisito e che mette
in uso nell’esecuzione effettiva. Quindi, la teoria linguistica è mentalistica poiché il suo scopo è
scoprire una realtà mentale sottostante a un comportamento effettivo (‘linguistica cartesiana’ ><
‘linguistica empirica’ cioè quella storico-comparativa). Si hanno diversi livelli di adeguatezza: una
grammatica è adeguata in senso descrittivo nella misura in cui descrive correttamente la
competenza del parlante nativo ideale; è invece esplicativa, quando riesce a scegliere una
grammatica adeguata in senso descrittivo in base ai dati linguistici primari. Il compito fondamentale
di una teoria linguistica diventa rendere conto delle proprietà del dispositivo per l’acquisizione
linguistica che permette al bambino di costruire la sua grammatica da un insieme di alternative
possibili. Secondo Chomsky, il linguaggio e la sua acquisizione sono governate da regole o da
principi specifici. I fenomeno linguistici andrebbero ricondotti a leggi psicologiche generali: la
conclusione è che la capacità del parlante di produrre e comprendere frasi mai udite prima si può
spiegare che il parlante stesso sia dotato di un meccanismo che guida la sua acquisizione del
linguaggio. Essendo innato, deve essere comune a tutti gli esseri umani e quindi universale: ecco il
ritorno della ricerca degli universali linguistici, che sono distinti in materiali (tratti distintivi di
Jakobson) e formali (regole trasformazionali); sono intesi come le caratteristiche del meccanismo
che rende possibile l’acquisizione di una lingua.
1. Componente sintattico = trasformazioni legate alla struttura e non alla frase, si applicano in
cicli dalla F inclusa più profondamente a quella principale. L’applicazione delle regole
trasformazionali alla struttura profonda genera la struttura superficiale; l’azione delle
trasformazioni non modifica il significato della frasi perché condizionata dalla presenza di
simboli astratti nella struttura profonda (solo livello pertinente all’interpretazione della frase).
45
2. Componente semantico (teoria derivata da Katz) = due nozioni fondamentali: quella di
lettura, cioè l’analisi in indicatori semantici di ciascuna unità minima generata dal
componente sintattico (parole), e quella di regola di proiezione, cioè la lettura delle parole
che formano un nodo vista entro un indicatore sintagmatico da cui viene la ‘lettura derivata’
o l’interpretazione semantica (frasi semanticamente non ambigue *Pierino bruciò la scuola*
anomale, se le letture dei due elementi non possono combinarsi *Pierino bruciò l’idea* o
ambigue, se uno o più elementi hanno più letture *Il giudice ha aperto un fascicolo*). La
lettura contiene altri due tipi di informazione: l’indicazione dei tratti sintattici della parola in
questione e l’indicazione delle restrizioni selettive di ogni parola che esprimono le
condizioni necessarie e sufficienti affinché le letture si combinino tra di loro. Interpretazione
semantica di una frase = insieme delle interpretazioni semantiche degli indicatori
sintagmatici soggiacenti a F e l’insieme di descrizioni relative a F che derivano dalle
interpretazioni semantiche. Ipotesi che il bambino abbia un grande bagaglio di conoscenze
a cui dover semplicemente attribuire etichette diverse da lingua a lingua.
3. Componente fonologico = interpretativo e traduce in segnali fonetici la struttura superficiale
generata dal componente sintattico. La struttura superficiale diventa la rappresentazione
fonologica concretizzata dalla rappresentazione fonetica. Le regole per derivare
quest’ultima dalla prima sono riassumibili nella formula ‘A B / X – Y’ = l’unità A è
realizzata dall’unità B nei contesti X (a sinistra di A) o Y (a destra di A). Per esempio:
disayd (decide) > disaisiv (decisive) è rappresentabile come 1) disayd + (confine di
morfema) iv ‘d z / – + [i]’; 2) disayz + iv ‘z s / – + iv’ disays + iv; i fonemi in
questione assumono una serie di tratti in connessione con determinati altri. Si può
riscontrare l’abbandono del cosiddetto ‘livello fonemico’ (> Halle) poiché postulare un livello
di rappresentazione fonemica renderebbe l’analisi inutilmente più complicata. Nella
fonologia generativa rimane l’analisi dei tratti distintivi (> strutturalismo): vengono fatte delle
modifiche al concetto di marcatezza, che ha valori universali e innati e considera un
elemento marcato o non marcato a seconda del contesto in cui ricorre.
La fonologia generativa è dinamica in quanto il suo oggetto è lo studio dei processi fonologici e
descrive la generazione delle rappresentazioni fonologiche dalle strutture superficiali della sintassi.
Ci sono alcune proposte di modifica del modello ‘classico’ di Chomsky, che era ‘lineare’ o
‘segmentale’ e considerava la rappresentazione fonologica come derivata esclusivamente dalla
struttura sintattica superficiale. Per superare le difficoltà legate a questo modello vengono
elaborate: la fonologia autosegmentale (vari elementi della rappresentazione fonologica posti su
più livelli); la fonologia lessicale (ruolo che la formazione delle parole ha sulla loro
rappresentazione fonologica); la fonologia metrica (descrizione dei processi fonologici deve
prendere in considerazione non solo i singoli segmenti ma anche unità più ampie) e la fonologia
prosodica (applicazione regole fonologiche non è determinata solo da struttura sintattica
superficiale ma anche da struttura gerarchica della rappresentazione fonologica).
47
La tipologia linguistica si è sviluppata parallelamente alla grammatica generativa: non può essere
definita una scuola in quanto è un campo di studi che può essere coltivato sia da punti di vista
diversi da quello della grammatica generativa, sia da quest’ultimo. È opportuno distinguere la
‘tipologia linguistica’ dalla ‘linguistica tipologica’, che indica una teoria che, partendo dall’analisi
tipologica delle lingue, ha elaborato alternative alla grammatica generativa.
Greenberg è il fondatore della tipologia contemporanea che, grazie a lui, diventa un ramo molto
produttivo della linguistica: il progetto della classificazione tipologica delle lingue non è più basato
sulla struttura della parola ma sull’ordine delle parole nella frase; vengono formulati enunciati
implicazionali (‘se una lingua X ha una caratteristica Y, allora ha la caratteristica Z’) formulare in
termini implicazionali la tipologia dell’ordine delle parole, ravviando tradizione in parte dimenticata.
Greenberg si basa su un campione di trenta lingue (anche se le lingue citate sono molte di più) e
parte dall’esame di tre fenomeni di ordine delle parole che si possono realizzare nelle varie lingue
in modo alternativo:
1. la presenza di preposizioni o posposizioni;
2. la posizione del verbo (V) rispetto al soggetto (S) e all’oggetto diretto (O): dei sei ordini
teoricamente possibili solo tre occorrono come ordini dominanti (VSO, SVO, SOV);
3. l’ordine dell’aggettivo (A) rispetto al nome (N).
Una volta stabiliti questi ordini possibili, Greenberg formula 45 universali: i primi sette enunciano le
correlazioni sistematiche tra le tre opposizioni d’ordine, con l’aggiunta di una quarta opzione
Genitivo-Nome (GN) >< Nome-Genitivo (NG); gli universali dall’8 al 25 riguardano la sintassi; quelli
dal 26 al 45 la morfologia. Gli universali sono di due tipi: ‘assoluti’, quando affermano che ‘se una
lingua ha la caratteristica X, allora ha sempre anche la caratteristica Y’, e ‘statistici’. La parte finale
dello studio cerca di formulare i principi che stanno alla base degli universali implicazionali,
ricorrendo a due nozioni principali: quella di ordine ‘dominante o ‘recessivo’ e quella di relazioni
‘concordi’ o ‘discordi’ tra regole d’ordine. ‘Dominante’ per Greenberg significa ‘incondizionato’: ad
esempio, l’universale 25 dice che, se in una lingua l’oggetto diretto espresso mediante un pronome
segue il verbo, allora lo segue anche l’oggetto espresso mediante il nome. L’ordine VO è
incondizionato, in quanto l’oggetto nominale può seguire il verbo indipendentemente dal fatto che
l’oggetto pronominale lo segua oppure lo preceda; l’ordine OV, al contrario, si può avere solo se
l’oggetto pronominale precede il verbo VO dominante >< OV recessivo. Per quanto riguarda le
relazioni ‘concordi’ e ‘discordi’, le prime si hanno sia nelle lingue preposizionali e posposizionali:
Nome-Proposizione è concorde a Nome-Genitivo perché appartengono entrambi a lingue
preposizionali MA è discorde con Genitivo-Nome perché appartiene a lingue posposizionali.
Il funzionalismo rappresentava un’alternativa alla grammatica generativa: bisogna distinguere tra le
scuole funzionaliste nate prima della GG, di matrice europea e con un atteggiamento più sfumato,
e quelle sorte successivamente, statunitensi e tendenti a respingere in blocco la GG. Tra i
funzionalisti più legati all’eredità di Mathesius ricordiamo Daneš e Firbas: entrambi prendono le
mosse dall’analisi concreta della frase di Mathesius che consiste nella distinzione tra tema e rema.
Daneš afferma però che questa analisi è soltanto uno dei tre livelli della sintassi, ossia quello della
‘organizzazione dell’enunciato’ + ‘struttura grammaticale’ e ‘struttura semantica’. Quest’ultimi due
livelli vanno tenuti distinti perché, mentre la struttura semantica è universale, quella grammatica
varia da lingua in lingua; la nozione centrale della struttura grammaticale è il ‘modello di frase, uno
schema astratto su cui si possono basare varie sequenze di parole specifiche per formare
enunciati specifici. Firbas parla di ‘prospettiva funzionale di frase’, ordinando gli elementi secondo
una scala di dinamismo comunicativo che supera il dinamismo di Mathesius: egli lo definisce come
la misura relativa in cui un elemento contribuisce allo sviluppo ulteriore della comunicazione. Gli
elementi che hanno il grado più basso sono detti ‘tematici’ (pronomi personali, legati al contesto),
quelli con il grado più alto ‘rematici’ (sostantivi) e gli elementi di terzo tipo sono definiti ‘di
transizione’ (verbi). Firbas sostiene che l’ordine oggettivo, in cui, secondo Mathesius, il tema
precede sempre il rema, rappresenta la distribuzione elementare del dinamismo comunicativo, da
cui le lingue possono deviare a causa del contesto o della struttura semantica.
Tra gli altri linguisti praghesi abbiamo:
1. Sgall, il quale cercò di mediare tra funzionalismo e grammatica generativa elaborando una
descrizione funzionale generativa: non considerava l’approccio generativo errato ma
parziale, così come per il funzionalismo. Oppone ‘rappresentazioni tettogrammaticali’ alla
‘sintassi di superficie’.
48
Molto più critiche nei confronti della GG le altre principali scuole funzionaliste europee:
2. Halliday, grammatica sistemico-funzionale = distingue tra funzioni del linguaggio, ‘ideativa’,
‘interpersonale’ e ‘testuale’. ES. al livello delle funzioni ideative il soggetto è l’elemento che
indica l’agente; al livello delle funzioni interpersonali è il tradizionale soggetto grammaticale
e ha la funzione di definire il ruolo di comunicazione adottato dal parlante; al livello delle
funzioni testuali è chiamato soggetto ‘psicologico’. Le funzioni dei tre livelli sono identiche.
3. Dik, grammatica funzionale = individua tre componenti principali nel linguaggio, il ‘fondo’, la
‘struttura di frase soggiacente’ e ‘le regole di espressione’, e tre tipi di funzioni,
‘semantiche’, ‘sintattiche’ e ‘pragmatiche’. L’assegnazione di tutti i tipi di funzioni produce la
‘struttura di frase soggiacente, input delle ‘regole d’espressione’. Le regole che
determinano l’ordine dei costituenti hanno unicamente delle tendenze.
Tutte e tre le teorie insistono sulla distinzione tra ruoli semantici e funzioni grammaticali +
differenze principalmente terminologiche.
Dopo la pubblicazione del saggio di Greenberg, si cercò di trovare una spiegazione più
approfondita delle ‘relazioni concordi’. In primo luogo abbiamo Lehmann con la formulazione del
‘principio strutturale’, secondo il quale i modificatori si collocano dal lato opposto di un elemento
sintattico di base (verbi e nomi) rispetto a quello del suo concomitante primario (oggetto diretto). Il
modello di sintassi ipotizza una struttura sottostante non ordinata linearmente e quindi il principio
strutturale riguarda l’ordine che i vari elementi vengono ad assumere nella struttura superficiale.
Riduce i sei ordini di Greenberg a solo due: VO e OV perché non considera il soggetto come
elemento primario della frase. Il principio strutturale di Lehmann fornisce una spiegazione agli
ordini ‘concordi’ ma non a quelli ‘discordi’, salvo attribuirli al fatto che le lingue cambiano
costantemente. L’italiano Antinucci presenta una spiegazione più elaborata. Egli sostiene che
l’ordine degli elementi è governato da tre principi fondamentali: il ‘principio costruttivo’, il ‘principio
di accrescimento’ e il ‘principio di formazione del soggetto’. I primi due appartengono al sistema
strutturale del linguaggio, il terzo al sistema comunicativo: il terzo principio può trovarsi in contrasto
con gli altri due. Il principio costruttivo stabilisce che una lingua disporrà gli argomenti a destra o a
sinistra del predicato (OV-VO); il principio di accrescimento determina l’ordine rispettivo degli
argomenti. PROBLEMA perché in una lingua che costruisce a destra, come l’italiano, il soggetto è
a sinistra del verbo? Per il principio di formazione del soggetto che sceglie un argomento e lo
colloca in posizione iniziale di frase, lo topicalizza. La scelta dell’argomento è governata dalla
‘gerarchia naturale del topic’ che considera la capacità/incapacità di essere la causa di un
determinato stato di cose e la ‘scala di animatezza’ (elementi che stanno più in alto nella scala
sono usati come soggetti). Il concetto di gerarchia, che Antinucci usa per indicare le diverse
probabilità dei vari argomenti di diventare il soggetto, acquista un impiego sempre più largo:
importante è il lavoro di Keenan e Comrie. I due studiosi, sulla base di un campione di 50 lingue,
sostengono che non in tutte le lingue si può avere qualsiasi tipo di frase relativa, ma che la
formazione di quest’ultima è condizionata dalla funzione grammaticale dell’elemento che la
introduce (soggetto < oggetto diretto < obliquo < genitivo < secondo termine di paragone = le
possibilità defluiscono mano a mano che si procede verso la fine della gerarchia). Propongono una
spiegazione psicologica di questa gerarchia: le relazioni più facilmente comprensibili sarebbero
quelle più facilmente relativizzabili. Il soggetto è più comprensibile perché caratterizzato dalla
proprietà di ‘indipendenza referenziale’, cioè il riferimento al soggetto non può dipendere da quello
di un altro elemento della frase. Altre due nozioni capitali sono quella di continuum e di prototipo:
se tutte le proprietà di un elemento ricorrono insieme, esso è ‘prototipico’, mentre le deviazioni dal
prototipo si dispongono lungo un continuum.
La grammatica cognitiva è stata elaborata indipendentemente da Lakoff e Langacker. Secondo
quest’ultimo, la grammatica cognitiva si è sviluppata parallelamente alla semantica generativa ma
non la si può considerare una filiazione, anche se presenta dei punti di contatto. Importante è l’idea
che le figure retoriche, e in particolare la metafora, rappresentino un aspetto fondamentale del
linguaggio. Il linguaggio è la sua acquisizione sono considerati il frutto di abilità cognitive più
generali: può esserci una componente innata il cui sviluppo è legato a quello di altre capacità
cognitive. I concetti chiave della grammatica cognitiva sono quelli di ‘prototipo’ e ‘figuratività
convenzionale’; gli universali non sono più assoluti ma sono tendenze a raggrupparsi intorno a un
prototipo; le strutture concettuali interamente corrispondenti ai prototipi sono ‘schematizzate
interamente’, altre invece ‘parzialmente’ (ES. quando le estensioni metaforiche diventano
49
convenzionali si ha un mutamento della lingua). Esplicito abbandono dell’apparato formale e
affermazione che la formazioni di nuove espressioni non riguarda la grammatica ma i parlanti
GC rappresenta il passaggio di studiosi generativisti all’impostazione funzionalista.
Nell’ambito della tipologia, lo studioso che più rappresenta l’impostazione funzionalista e
cognitivista è Givòn: la differenza fondamentale con l’approccio generativista è il fatto che
descrivere una struttura senza descrivere la sua funzione è impossibile. Una categoria non è
invalidata perché ha margini sfumati e l’appartenenza a una categoria non richiede tutti i tratti del
gruppo; è anche possibile l’appartenenza di esemplari meno prototipici. I costituenti sintattici sono
basati su proprietà cognitive, semantiche e pragmatiche generali.
Nell’ambito del funzionalismo/cognitivismo in fonologia, Vennemann elabora la fonologia
generativa naturale che rinuncia alle rappresentazioni fonologiche ‘soggiacenti’, diverse dalle
rappresentazioni fonetiche osservabili. Da questo tipo di fonologia bisogna distinguere la fonologia
naturale: il distacco dalle precedenti teorie riguarda una concezione diversa dei meccanismi
cognitivi che stanno alla base dell’acquisizione del linguaggio da parte del bambino e che sono da
ricondurre a capacità cognitive generali. Il bambino apprende il sistema fonologico della propria
lingua materna limitando o sopprimendo processi innati (‘lenizione’, che tende a indebolire un
suono e diminuire il contrasto con quelli vicini, e ‘rafforzamento’, che tende ad aumentare le
differenze tra i suoni il primo è funzionale al parlante perché facilita la pronuncia, il secondo
all’ascoltatore perché semplifica l’ascolto). La teoria dell’ottimalità prende avvio dalla nozione di
marcatezza, che è definita come proprietà delle rappresentazioni fonetiche. La marcatezza è una
delle due forze contrastanti che agiscono nel linguaggio umano, insieme alla fedeltà; inoltre, un
elemento non è marcato in se ma in confronto ad altri e la marcatezza si fonda su sistemi
articolatori e percettivi. Le ‘restrizioni di marcatezza’ si fondano su tali proprietà, mentre le
‘restrizioni di fedeltà’ richiedono che le uscite conservino le proprietà delle loro forme di base,
conservando una somiglianza tra l’ingresso e l’uscita: esse permettono di mantenere i contrasti
lessicali e impediscono che le realizzazioni di un solo morfema differiscano eccessivamente l’una
dall’altra un’uscita è ottimale quando comporta la violazione minima di un insieme di restrizioni,
tenendo conto del loro ordinamento gerarchico. Teoria della capacità linguistica umana che opera
con una serie di restrizioni ordinate secondo una gerarchia.
53
54