DUE SECOLI
DI PENSIERO
LINGUISTICO
Dai primi
dell’Ottocento a oggi
Capitolo 1: Introduzione: panoramica sulla storia della linguistica fino alla fine del
Settecento
Anche Aristotele analizza il linguaggio come strumento tramite il quale si possono fare discorsi
veri o falsi. Nel De interpretatione individua i diversi tipi di discorso e si rende conto che solo quello
enunciativo può essere vero o falso. Egli ritiene che il pensiero sia identico per tutti gli esseri
umani, perché è frutto di un’identica realtà; le differenze tra le lingue sono diversità tra i modi in cui
questi pensieri sono espressi tramite i suoni e la scrittura. Definisce onóma come «una voce che
significa per convenzione, senza tempo», rhêma come voce che «in più significa il tempo» (i nomi
non si flettono al presente, passato, futuro). Aristotele, quindi, sostiene che il linguaggio è una
convenzione. Oltre all’onóma e rhêma, individua ptôseis, in altre parole i casi e le flessioni dei nomi
e dei verbi. Anche se sembrerebbe che a onóma corrisponda il nome e a rhêma il verbo, non è
così semplice. Alcuni studiosi preferiscono parlare di soggetto e predicato. Chiama invece il
discorso lógos. Nella Poetica presenta una classificazione delle entità del linguaggio:
Le entità non dotate di significato: elemento (stoicheîon = sillaba), congiunzione
(sýndesmos = congiunzioni e preposizioni), articolazione (árthron = articolo, pronomi
personali e dimostrativi).
Le entità dotate di significato: onóma, rhêma, ptôsis, lógos. In questo caso rhêma ha un
significato più vicino a quello di ‘verbo’, lógos può essere tradotto con ‘frase’,
‘proposizione’, ‘discorso’.
Qual è la ragione delle differenze tra il De interpretatione e la Poetica? Il primo, essendo un’opera
di logica, si concentra sul lógos enunciativo, che può essere vero o falso a seconda se il predicato
esprime una proprietà che il soggetto effettivamente possiede oppure no: quindi rhêma ha il
significato generico di ‘predicato’ e non si parla di lógos senza rhêma (→ ogni discorso deve avere
un predicato). Invece la Poetica esamina i linguaggi come mezzo di espressione, analizzandolo
sotto l’aspetto fonologico e morfologico: quindi onóma e rhêma sono distinti in base alla loro
diversa morfologia.
Anche lo stoicismo si occupa della storia della lingua. Due autori importanti sono Zenone e
Crisippo (ca. 280-205 a.C.), delle cui opere ci sono giunti solo frammenti, di conseguenza la
ricostruzione del loro pensiero si basa su testimonianze più tarde. La concezione stoica del
linguaggio è orientata verso la concezione naturalistica (phýsei). Infatti, per gli Stoici, il linguaggio è
legato per natura all’uomo poiché si riconduce a quelle ‘nozioni innate’ (prolépseis) che egli
possiede. Di conseguenza le singole parole non sono frutto di arbitrio ma, essendo fondate su
nozioni innate, hanno un certo legame con la natura che si deve scoprire mediante la ricerca del
legame originario tra i suoni di cui una parola è composta e l’entità cui si riferisce: questo è lo
studio dell’etimologia (= studio del vero). Gli Stoici spiegano l’origine delle parole primitive
mediante l’onomatopea o la sinestesia; da queste parole originarie sarebbero derivati altri termini
per somiglianza o per contrasto.
Anche l’epicureismo ha una concezione naturalistica del linguaggio. Secondo Epicuro (341-270
a.C.), gli uomini hanno imposto i nomi alle cose per impulso naturale, cioè come conseguenza
delle emozioni e delle immagini che le cose producevano in loro. Queste emozioni e queste
immagini erano diverse secondo le varie popolazioni e dei vari individui e questo spiega la
diversità delle lingue. In seguito, all’interno delle singole popolazioni si creò un accordo per
designare le stesse cose con suoni identici e furono trovati nomi anche per le cose non viste. di
conseguenza per Epicuro il linguaggio ha origine per impulso naturale, ma si stabilizza in base ad
un accordo.
Gli Stoici, al contrario degli Epicurei, ci hanno tramandato analisi specifiche della struttura del
linguaggio. Individuano nel lógos quattro classi di elementi: il nome (onóma), il verbo (rhêma),
l’arthron e il syndesmos. Suddivide il nome in due classi: il nome proprio (idion) e il nome
appellativo (prosēgorikón). Alle quattro classi di elementi aggiungono quella mesótēs, l’avverbio.
Per quanto riguarda la tradizione “bassa” i grammatici, dal III secolo a.C., non hanno solo la
funzione di insegnare a leggere e scrivere, ma anche di analizzare e descrivere il greco (e poi
3
anche il latino) e di fissare i canoni dello scriver corretto. Dalla fine del IV secolo a.C. le conquiste
di Alessandro Magno (356-323 a.C.) avevano diffuso la cultura greca in un’area vastissima che
comprendeva il Mediterraneo orientale e il Medio Oriente. Tuttavia la maggioranza delle
popolazioni di questi territori non parlava il greco, lingua ufficiale dell’impero: era necessario fissare
una norma del parlare e scrivere in modo corretto. Inoltre, in quest’epoca, si cercava di ricostruire il
testo dei poemi omerici: si trattava di stabilire quale potesse essere la loro versione più attendibile.
A ciò si dedicano i filologi alessandrini, attivi nella città di Alessandria d’Egitto tra il III e il II secolo
a.C. Ma per fare questo era necessario avere una grammatica: il primo trattato di grammatica è
attribuito a Dionisio Trace (ca. 170-90 a.C.), un breve testo in cui si presenta una classificazione
delle parole in classi. Questo trattato individua otto parti del discorso: il nome (onóma), il verbo
(rhêma), il participio (metoché), l’articolo (árthon), il pronome (antōnymía), la preposizione
(próthesis), l’avverbio (epírrhēma), la congiunzione (sýndesmos). Questo elenco si trova identico
nelle grammatiche greche e latine con una sola modifica dovuta alla struttura delle lingue: in latino
non vi è l’articolo. I grammatici latini trattano l’iterazione come parte a sé invece di quelli greci che
la collocavano tra gli avverbi.
Tra i grammatici di epoca classica i più influenti sono Apollonio Discolo tra quelli greci, e Donato e
Prisciano tra quelli latini. Ad Apollonio (II secolo d.C.) si deve il primo trattato dedicato alla
sintassi, cioè alla combinazione di parole, che può essere considerato il primo esempio di
grammatica ragionata dato che spiega il motivo delle forme linguistiche. Donato (IV secolo d.C.)
compone Ars Minor ed Ars Maior, opere di grande efficacia didattica che rappresentarono un
modello per le grammatiche successive. La prima è un elenco delle parti del discorso e delle loro
definizioni secondo uno schema simile ai catechismi (domanda-risposta). L’Ars Maior è divisa in
tre parti: la prima fornisce una classificazione dei suoni, delle sillabe e dei piedi; la seconda tratta
delle parti del discorso; la terza dei difetti e dei pregi del discorso. Prisciano (V-VI secolo d.C.)
compose le Institutiones Grammaticae in diciotto libri, che rappresentavano la grammatica di
riferimento del latino anche per i parlanti che avevano una conoscenza limitata della lingua.
Quest’opera ebbe una diffusione straordinaria e rappresenta la summa delle nozioni elaborate dai
grammatici greci e latini dal II secolo a.C. al VI secolo d.C.
essere l’ebraico, conformemente al racconto della torre di Babele contenuto nel primo libro della
Bibbia.
Nel periodo alto-medievale rimangono semisconosciute alcune delle opere linguistiche più
importanti dell’epoca classica e tardo-antica, a cominciare da quelle di Prisciano e di Boezio.
Rimane costante la conoscenza di Donato utilizzato soprattutto per l’insegnamento del latino;
infatti, il latino è sconosciuto alle popolazioni di origine barbarica e anche quelle di origine romana
stanno progressivamente cambiando la loro lingua quotidiana. Le grammatiche delle lingue volgari
cominciano ad essere scritte solo alcuni secoli più tardi e il latino rimarrà l’unica lingua di cultura
per molto tempo. Le grammatiche dell’alto Medioevo avranno sostanzialmente uno scopo pratico:
insegnare una lingua che nessuno ormai possedeva più come lingua materna e che, tuttavia, era
l’unica ad essere considerata lingua di cultura. Si cercherà di recuperare la tradizione “alta” con la
rinascenza carolingia grazie ad autori come Alcuino di York e Rabano Mauro.
Nell’XI secolo grazie alla riscoperta di Aristotele, di Boezio e delle Istitutiones Grammaticae nasce
la grammatica speculativa che può essere definita come il tentativo di fondare il sistema
grammaticale di Prisciano sulla filosofia di Aristotele. Questo tentativo giunge al culmine con i
Modisti (XIII-XIV secolo): con questi dotti si compie l’incontro tra la tradizione bassa e quella alta.
La tradizione bassa degli studi linguistici non scompare perché ad esse è legata l’esigenza pratica
dell’insegnamento del latino. L’opera più importante di questa tradizione è il Doctrinale (1199) di
Alexander de Villadei: opera in versi che divulga il sistema di Prisciano. In quest’epoca iniziano ad
apparire alcune opere relative alle lingue volgari come il Donatz Proensals (1240) di Uc Faidit o il
Primo trattato grammaticale islandese (XII secolo).
Per quanto riguarda la storia della grammatica speculativa una delle prime opere è il De
grammatica di S. Anselmo di Aosta (1033-1109). Nella tradizione successiva abbiamo Guglielmo
di Conches (ca. 1080-1150) e Abelardo (1079-1142). Tra l’XI e il XII secolo cominciano a
diffondersi i commenti a Prisciano che devono dare una giustificazione razionale alle categorie da
lui introdotte. In esse si trovano concetti nuovi come quelli di soggetto e predicato. Un’altra novità
riguarda la trattazione dell’aggettivo: i grammatici medievali, sempre reverenti nei confronti delle
auctoritates classiche, non osano ancora fare dell’aggettivo una parte del discorso a sé, ma
pongono la distinzione all’interno della classe dei nomi (nomen substantivum e nomen adiectivum).
Alcuni modisti sono Boezio di Dacia, Martino di Dacia, Radulphus Brito, Gentile da Cingoli, Sigieri
di Courtrai e Tommaso di Erfurt. Il termine ‘modisti’ viene dal concetto di ‘modo’ ad indicare i modi
in cui sono organizzati il linguaggio, il pensiero e la realtà. I modisti concepiscono la grammatica
come una scienza. La grammatica modista fu criticata da vari studiosi negli anni ’30 del XIV secolo
e fu riscoperta soltanto nel Novecento.
Nel De vulgari eloquentia Dante Alighieri (1265-1321) ha come obiettivo quello di definire il
volgare illustre. Egli non crede che i volgari italiani derivino dal latino, ma che il volgare sia una
lingua che si impara da piccoli senza bisogno di alcuna regola, mentre il latino si basa su una
grammatica che può essere acquisita solo da pochi. Dante sostiene anche che il linguaggio sia
una proprietà esclusiva degli esseri umani non posseduta dagli animali né dagli angeli. Infatti gli
uomini non sono guidati dall’istinto ma dalla ragione, per questo motivo ciascuno di loro differisce
nelle sue azioni e nelle sue passioni. Gli angeli non hanno bisogno del linguaggio perché
conoscono i pensieri degli altri tramite Dio. Gli animali sono guidati esclusivamente dall’istinto: se
appartengono alla stessa specie non hanno bisogno di comunicare perché hanno in comune gli
stessi atti e passioni, se appartengono a specie diverse il linguaggio sarebbe dannoso perché tra
loro non potrebbe esserci alcun rapporto amichevole. Gli uomini hanno scelto un sistema di segni
linguistici che sono da un lato mentali in quanto convenzionali e dall’altro concreti in quanto suoni.
Dante si chiede quale sia la lingua originaria e risponde, rimanendo fedele all’insegnamento
biblico, che è l’ebraico. Ma la novità dell’opera consiste nel presentare uno dei primi tentativi di
classificazione genealogica delle lingue. Gli unici a conservare la lingua originaria furono gli ebrei; i
popoli che migrarono verso l’Europa si divisero in tre gruppi, uno dei quali si stanziò in Europa
meridionale, il secondo nell’Europa settentrionale e il terzo tra l’Europa e l’Asia. Quelli del primo
gruppo parlano una lingua in cui la particella affermativa è oc, oil oppure sì (→lingue romanze),
quelli del secondo lingue in cui essa è jo (→lingue slave e germaniche), quelli del terzo i greci.
Infine Dante si è chiesto perché le lingue cambiano: le lingue (dopo la torre di Babele) sono
prodotti puramente umani e quindi cambiano attraverso il tempo con tutti i costumi degli uomini.
Dal punto di Unica lingua di cultura è il latino. Il Il latino perde la posizione privilegiata.
vista greco è appannaggio di pochi traduttori. Le lingue volgari iniziano ad imporsi
linguistico come lingue di cultura e lingue ufficiali.
Dal punto di Unica religione in Europa occidentale: Con la riforma protestante, il cui inizio si
vista cattolica romana. può collocare nel 1517 con la
religioso pubblicazione delle tesi di Wittenberg, si
rompe l’unità religiosa.
Dal punto di Ideale di uno stato universale Formazione di stati nazionali che
vista politico rappresentato dal Sacro Romano tendono a differenziarsi sempre più
Impero. l’uno dall’altro.
Dal punto di Gli europei che si avventuravano fuori Con le scoperte geografiche i contatti
vista dalle terre conosciute, come Marco con terre lontane aumentano
geografico Polo, erano pochissimi e i contatti con notevolmente. Si formano colonie di
le terre lontane erano sporadici. europei in altri continenti.
Dal punto di Aristotele è un punto fermo per la La dottrina di Aristotele entra in crisi con
vista cultura medievale. Descartes e Locke.
filosofico
Gli umanisti, tra cui Lorenzo Valla (1407-1457), propugnano un “ritorno ai classici”, cioè al latino
usato dagli scrittori dell’antica Roma, da acquisire non mediante lo studio della grammatica, ma
mediante la lettura diretta di tali autori. Gli umanisti, infatti, criticano i dotti medievali non solo per il
tipo di latino utilizzato, ma anche per la prevalenza data agli studi grammaticali rispetto allo studio
diretto degli autori classici. Elegantiarum linguae latinae libri VI del Valla non è una grammatica,
presuppone le nozioni elementari e tratta diffusamente di questioni stilistiche.
La situazione è diversa per quanto riguarda le lingue volgari. Infatti per queste lingue non è stata
fissata definitivamente una norma e quindi si avverte la necessità di elaborare delle grammatiche
che si assumano il compito di stabilirla. A questo fine contribuisce notevolmente l’invenzione della
stampa, attribuita a Gutenberg nel 1455. Le grammatiche delle lingue volgari cominciano a fiorire
6
(1662-1683) di Port Royal sono frutto di questo esperimento pedagogico. Il loro obiettivo non era
quello di limitarsi ad indicare le forme del parlar corretto, ma determinarne le ragioni. Per i “Signori
di Port Royal” il linguaggio è espressione del pensiero: le espressioni linguistche riflettono le
operazioni della mente, che sono il ‘concepire’ (=dare un semplice sguardo sulle cose), il
‘giudicare’ (=affermare che una cosa che noi concepiamo è tale o non è tale), il ‘ragionare’
(=servirsi di due giudizi per produrne un terzo). All’operazione del concepire corrispondono nel
linguaggio le parole, a quella del giudicare la proposizione, a quella del ragionare il sillogismo. Gli
elementi che compongono una proposizione sono tre: soggetto, copula e predicato. Infatti notano
come tutti i verbi derivino dalla combinazione di altri significati con quello di essere (ad esempio:
vive = è vivente), combinazione dovuta alla tendenza naturale degli uomini ad abbraviare tutte le
espressioni. Nella Logica distinguono le proposizioni semplici da quelle composte: le proposizioni
semplici sono quelle che hanno un solo soggetto e un solo predicato, quelle composte sono quelle
che hanno più di un soggetto e più di un predicato. Tuttavia ci sono delle proposizioni che
apparentemente sono composte, ma che in realtà sono semplici: si tratta delle proposizioni
complesse, le quali hanno propriamente un solo soggetto ed un solo predicato, ma in cui il
soggetto o il predicato è un termine complesso, che racchiude altre proposizioni che possiamo
chiamare incidenti, le quali sono solo parte del soggetto o del predicato essendovi congiunte con il
pronome relativo, la cui proprietà è quella di congiungere più proposizioni in modo che esse ne
compongano una sola.
In Cartesio (1596-1650) non si trovano analisi linguistiche nel senso stretto del termine, ma solo
considerazioni generali sul linguaggio come capacità specificamente umana. I “Signori di Port
Royal” si ispiravano a Cartesio per quanto riguarda la visione generale del linguaggio. Cartesio è
considerato il caposcuola della corrente razionalista, ossia quella che sostiene che la mente
umana possiede conoscenze precedenti e indipendenti dalle impressioni sensoriali. La corrente
opposta, l’empirismo, sostiene, invece, che tutte le conoscenze hanno origine dalle sensazioni.
Caposcuola dell’empirismo è Locke, tra i suoi predecessori vanno ricordati Hobbes e Bacone.
Locke dedica ampio spazio all’analisi dei singoli fatti linguistici. Nel Saggio sull’intelligenza umana
sottolinea come le parole abbiano un ruolo fondamentale nell’organizzazione della nostra
conoscenza poiché servono a fissare la varietà e la molteplicità delle nostre impressioni
sensoriale. Sia Locke che Cartesio considerano il linguaggio come una proprietà esclusiva
dell’uomo. Secondo Locke vi sono due tipi di idee: quelle semplici (come ‘rosso’, parola che non
può essere definita con altre parole, ma mostrando l’oggetto) e quelle complesse (come
‘assassinio’, parola che può essere spiegato con l’utilizzo di altre parole, ‘uccisione di un uomo’).
Mentre le idee semplici derivano da cose reali, le idee complesse o modi misti sono frutto di un
atto arbitrario della nostra mente. Questa arbitrarietà spiega perché molte parole di una lingua non
sono traducibili direttamente in altre. L’arbitrarietà delle lingue umane non sta solo nella mancanza
di corrispondenza naturale tra parola e oggetto ma anche nella mancanza di una relazione stabile
tra parola ed idea espressa. Al saggio di Locke replicò, dal versante razionalista, Leibniz, con i
suoi Nuovi saggi sull’intelletto umano (1765) che hanno la forma di un dialogo tra Filalete
(=opinioni di Locke) e Teofilo (=obiezioni di Leibniz). Leibniz sostiene che le lingue umane sono
diverse, come sono diversi i costumi dei vari popoli, e quindi i contenuti della ragione umana si
possono esprimere in modo diverso, ma questi contenuti sono universali. Leibniz ha tentato di fare
una classificazione genealogica delle lingue e di crere una lingua artificiale i cui segni denotine le
cose a cui si riferiscono senza l’ambiguità proprie delle lingue naturali.
È agli autori delle voci linguistiche dell’Enciclopedia (1751-1772), César Chesneau Du Marsais
(1676-1758) e Nicolas Beauzée (1717-1789), che si deve la distinzione tra grammatica generale e
grammatica particolare. La prima è la scienza dei principi immutabili e generali del linguaggio
pronunciato o scritto valido per qualunque lingua; la seconda è l’arte di applicare ai principi
immutabili e generali del linguaggio pronunciato o scritto le istituzioni arbitrarie e usuali di una
8
lingua particolare. Per quanto riguarda i temi più specifici dell’analisi grammaticale, i grammatici
illuministi o enciclopedisti riprendono Port-Royal, ma non ne seguono precisamente l’impostazione.
Una grande merito di questi grammatici è quella di aver introdotto la nozione di complemento.
Ètienne Bonnot de Condillac (1714-1780), di impostazione empirista, analizza la proposizione
esattamente come i portorealisti, composta da soggetto, verbo e predicato anche se può essere
espressa da due parole.
Giambattista Vico (1668-1744), di impostazione storicista, ritiene che il linguaggio deve essere
considerato come la realizzazione progressiva della coscienza dell’umanità, che si sviluppa
attraverso le cosiddette “tre età” della storia: quella degli dei, degli eroi e degli uomini,
caratterizzate rispettivamente dalla sensazione, dalla fantasia e dalla ragione. L’origine del
linguaggio si ha con l’imitazione dei suoni della natura (onomatopee) e dall’espressione delle
passioni (iterazioni). Successivamente nasceranno i pronomi, i nomi ed infine i verbi.
Condillac cerca di spiegare l’origine del linguaggio immaginando, dopo il diluvio, due bambini, un
maschio e una femmina, smarriti in luoghi deserti prima di conoscere l’uso dei segni. Inizialmente
essi accompagneranno alla propria percezione (ad esempio la fame) con grida e gesti per
stimolare l’altro bambino a soddisfare il bisogno del suo compagno (dargli un frutto). Col passare
del tempo i bambini cominceranno ad collegare sistematicamente queste grida e gesti all’oggetto,
nasce così la prima forma di linguaggio: il linguaggio d’azione. L’uso di questi segni porta i bambini
a perfezionarli e a renderli più famigliari e con le generazioni successive il linguaggio d’azione
diventa un sistema di comunicazione sempre più complesso fino a creare il linguaggio dei suoni
articolati. Condillac descrive anche lo sviluppo delle diverse lingue: le prime parole ad apparire
sono stati i nomi perché si riferiscono ad entità concrete, poi gli aggettivi e gli avverbi per indicare
le qualità di questi oggetti e infine i verbi per esprimere lo stato d’animo.
Jean-Jacques Rousseau (1712-1778) descrive le forme di linguaggio primitivo in modo simile a
quello di Condillac. Tuttavia individua due problemi. Il primo riguarda il rapporto tra nascita della
società e l’origine del linguaggio: secondo Rousseau nello stato di natura gli uomini vivevano
isolati gi uni dali altri e non esisteva quindi la società; il linguaggio ha avuto origine quando gli
uomini hanno abbandonato lo stato di natura e hanno cominciato a sviluppare legami sociali. Il
secondo problema riguarda il rapporto reciproco tra linguaggio e pensiero. Il pensiero presuppone
un linguaggio organizzato, ma il linguaggio presuppone un pensiero che lo organizzi.
Beauzée spiegava l’origine del linguaggio rifacendosi al dettato biblico, tuttavia aggiungeva che i
mutamenti introdotti da Dio nella lingua primitiva non potevano essere diversi da quelli che si
sarebbero verificati se i vari gruppo di uomini si fossero dispersi per cause naturali perché Dio non
agisce contro natura.
Johann Peter Süssmilch (1707-1767) dimostra come il linguaggio non sia stato inventato
dall’uomo ma creato da Dio. Infatti nel primo caso il linguaggio dovrebbe essere collocato tra
l’istinto e la ragione, ma il linguaggio umano non può essere basato sugli istinti altrimenti, come i
sistemi di comunicazioni degli animali, dovrebbe essere uguale in tutto il mondo. Quindi il
linguaggio dovrebbe essere un prodotto della ragione, ma l’uso della ragione è impossibile senza
l’uso dei segni linguistici, quindi il linguaggio non può che essere stato creato da Dio.
Alle posizioni di Beauzée e di Süssmilch si opposero James Burnett, noto come Lord Monboddo
(1714-1799), e Johann Gottfried Herder (1744-1803). Per Monboddo la natura umana si sviluppa
parallelamente alla società: il linguaggio umano è in continuo progredire e ciò spiegherebbe il
motivo della differenza tra le varie lingue. Secondo Herder gli uomini possiedono un “linguaggio”
semplicemente perché sono animali; tuttavia questo tipo di “linguaggio” (simile a quello d’azione di
Condillac) non può spiegare l’origine del linguaggio umano. Infatti gli animali sono guidati
unicamente dall’istinto, mentre gli uomini non hanno alcun linguaggio di tipo istintivo: l’uomo è
sprovvisto di istinti animali, ma è dotato di una qualità particolare, la ‘riflessione’, di cui il linguaggio
umano è un prodotto. Secondo Herder la prima parte del discorso a comparire è il verbo, poiché il
9
linguaggio nasce dall’osservazione delle azioni. L’origine delle parole non onomatopeiche si spiega
come un prodotto del nostro sensorium commune dei diversi processi di sinestesia.
Tutti gli studiosi che abbiamo analizzato dedicano particolare attenzione a ciò che a loro avviso
determina il carattere delle singole lingue: il cosiddetto ‘genio delle lingue’. Ad esempio Condillac
sostiene che ogni lingua esprime il carattere del popolo che la parla: in latino i termini legati
all’agricoltura portano con sé un’idea di nobiltà che non troviamo nella nostra lingua.
L’individuazione delle caratteristiche proprie delle lingue e dei vari gruppi di lingue è alla base
della tipologia linguistica.
Capitolo 2: L’Ottocento
un’identità assoluta tra “lo spirito in noi” e “la natura fuori di noi”; Hegel concepì l’intera realtà come
dovuta allo sviluppo dialettico di forze contrapposte (‘tesi’ e ‘antitesi’) che trovano la loro
coincidenza in un’unità superiore (‘sintesi’), che in un secondo momento dialettico diventa tesi, fino
alla sintesi definitiva. Una caratteristica dei sistemi idealisti è la concezione della filosofia come
forma particolare di conoscenza superiore a quella fornita dalla scienza.
Un’altra corrente filosofica è il positivismo, il cui fondatore è Auguste Comte (1798-1857). Questa
corrente rifiuta di considerare la filosofia come una forma di conoscenza superiore alle altre ed
assume come punto di partenza dell’indagine filosofica i risultati scientifici. I positivisti non
pretendono di giudicare le scienze, ma vogliono definirne i metodi e coglierne le relazioni.
Un elemento comune tra idealismo e positivismo è la visione di pensiero umano nel suo sviluppo
storico (storicismo).
Nell’Ottocento la linguistica si separò abbastanza nettamente dalla logica. Le lingue vengono
concepite come entità storiche soggetto a cambiamento, mentre la logica viene intesa come puro
calcolo formale, analogo ai sistemi matematici. Questo distacco tra la linguistica e la logica avrà
delle conseguenze negative per entrambe le discipline: la prima non comprenderà l’utilità degli
strumenti formali elaborati dalla logica, la quale si disinteresserà sempre di più dall’analisi del
linguaggio naturale.
Le discipline che invece attrassero l’interesse dei vari linguisti dell’Ottocento furono quelle
biologiche: l’anatomia comparata e le teorie evoluzionistiche. L’anatomia comparata, il cui sviluppo
si deve a Georges Cuvier (1769-1832), è quella parte della biologia che studia le correlazioni tra gli
organi delle diverse specie animali, individuandone le omologie. Due organi sono omologhi quando
derivano per discendenza diretta da una stessa struttura presente in antenati comuni delle specie
in questione. Venne presa come modello dai linguisti storico-comparativi: l’individuazione di
corrispondenze sistematiche tra strutture morfologiche o fonologiche di lingue diverse fece
ipotizzare la loro derivazione da una stessa lingua madre. L’evoluzione della specie fu sostenuta
da Jean-Baptiste Lamarck (1744-1829) e da Charles Darwin (1809-1882). Il mutamento delle
specie biologiche è dovuto alla discendenza con modificazioni: selezione naturale. In linguistica
queste teorie ottennero un notevole successo, tanto che il linguista Schleicher le interpretò come
una conferma della propria concezione della storia del linguaggio.
L’Ottocento è anche il secolo in cui nascono la psicologia e la sociologia. Entrambe hanno chiari
rapporti con la linguistica: la prima in quanto il linguaggio ha un aspetto mentale, la seconda in
quanto il linguaggio ha una evidente funzione sociale.
11
Anche il tedesco Friedrich Schlegel (1772-1829) mostrò un grande interesse per il sanscrito
perché la scoperta di una lingua di attestazione anteriore al greco e al latino e che mostrava una
parentela con le lingue germaniche provava che l’origine della civiltà non andava più collocata nel
mondo classico. Tuttavia Schlegel pensava che il sanscrito fosse la lingua madre delle altre lingue
indoeuropee e vedeva l’origine della cultura europea in quella indiana. A lui si deve l’assegnazione
di un nuovo significato al termine grammatica comparata, che diventa lo strumento per scoprire le
relazioni di parentela tra le varie lingue → la grammatica comparata diventa storica.
Franz Bopp fu il primo studioso ad occupare la cattedra universitaria di linguistica. Egli imparò il
sanscrito da autodidatta sulla base dei manoscritti conservati alla Biblioteca Nazionale di Parigi.
Quando ottenne la cattedra universitaria a Berlino si dedicò a lavori sistematici, il più importante
dei quali è la grammatica comparata di varie lingue indoeuropee. La differenza tra la grammatica
comparativa nata agli inizi dell’Ottocento e i tentativi di classificazione genealogica delle lingue è il
porre a confronto non parole, ma morfemi (=unità minime dotate sia di suono che di significato). Il
sanscrito ha una struttura morfematica molto più trasparente di quella del greco e del latino e
permette di cogliere delle relazioni tra le lingue che altrimenti rimarrebbero inspiegate. Bopp non
considera il sanscrito come la lingua madre delle varie lingue indoeuropee, ma come la più antica
di esse e dunque come quella che rappresentava più fedelmente la lingua madre originaria (in
realtà si dimostrò successivamente che in certi casi il sanscrito si è differenziato dalla lingua madre
più di altre lingue derivate) . Lo scopo di Bopp non è di spiegare il significato originario delle radici
delle parole, ma di individuare in quale modo si sono combinate per dare origine alle varie parole
che si sono diffuse. Egli individua due tipi di radici: quelle ‘verbali’, da cui derivano i verbi e nomi, e
quelle ‘pronominali’, da cui derivano i pronomi, le preposizioni, le congiunzioni e le particelle. Ad
esempio analizza il verbo latino potest come pot-, -es- (radici verbali), -t (radice pronominale) =
potente-essere-egli. Da quest’analisi si può notare la somiglianza tra Bopp e la grammatica
generale del Sei-Settecento, le cui idee erano ancora vive all’inizio dell’Ottocento. L’innovazione di
Bopp fu quella di applicare un’analisi di questo genere alla comparazione tra il sanscrito e le altre
lingue indoeuropee. Molte idee di Bopp sono state, ormai, superate (ad esempio quella in cui
ritiene che la lingua madre sia una lingua perfetta e che le lingue derivate siano una
manifestazione di decadenza), tuttavia è da considerarsi il padre della grammatica comparata.
Abbiamo detto che la scoperta del sanscrito ha reso più facile il confronto tra le forme grammaticali
e fonetiche delle diverse lingue, ma non era necessario conoscerlo per sviluppare una corretta
grammatica comparata. Così Rasmus Rask (1787-1832), nonostante abbia imparato il sanscrito
negli ultimi anni della sua vita, deve essere considerato uno dei fondatori della linguistica storico-
comparativa indoeuropea insieme a Friederich Schlegel, a Franz Bopp ed a Jacob Grimm.
L’interesse di Rask era rivolto alle lingue nordiche, tra cui la sua lingua madre (il danese). Nel 1814
scrisse un saggio in cui confrontava tali lingue, dando particolar rilievo all’antico islandese, lingua
dotata della tradizione letteraria più prestigiosa, con altre lingue indoeuropea, ad eccezione del
sanscrito che non conosceva. Egli aveva ben chiari i principi di Schlegel e di Bopp, infatti diceva
che «la corrispondenza grammaticale è un segno molto più sicuro della parentela o dell’unità
originaria». Rask, come Bopp, concentrava l’analisi sui morfemi, poneva attenzione anche sulla
realizzazione sonora di un determinato segno grafico. Egli si accorse che se nel lessico
“fondamentale” (nelle parole che indicano i numerali, i rapporti di parentela…) di due lingue ci sono
delle coincidenze evidenti, allora c’è una parentela di fondo. Rask, analizzando le corrispondenze
tra le consonanti del latino e del greco da un lato e quelle dell’islandese dall’altro, pur con qualche
incertezza ed imprecisione, aveva individuato quel fenomeno chiamato mutazione consonantica
germanica. Questo fenomeno descrive il comportamento delle consonanti occlusive nel passaggio
dalla lingua madre indoeuropea alle lingue del gruppo germanico:
le occlusive sorde indoeuropee diventano fricative sorde nelle lingue germaniche:
- p → f ( gr. patér → isl. fadir ‘padre’),
12
Royal e sviluppatasi in tutto il Settecento entra in crisi perché i loro punto di vista è astratto, non
tengono conto della realtà effettiva della lingua che è in continua evoluzione.
Per quanto riguarda la terminologia egli utilizza:
- Verbi forti (= forma più antica della coniugazione) e verbi deboli al posto di verbi
irregolari e verbi regolari.
- Metafonia (= modificazione della vocale della radice per effetto della desinenza: Buch
→ bücher la vocale da posteriore diventa anteriore) e apofonia (= alternanza vocalica
tipica dei verbi forti: speak, spoke, spoken).
Wilhelm von Humboldt (1767-1835) si occupa di tematiche riguardanti sia la linguistica storica
che quella generale. Dopo la formazione classica e gli studi giuridici divenne un politico ed un
diplomatico: riformatore dell’università, ambasciatore della Prussia e delegato di questo stato al
congresso di Vienna. Dal 1815 si ritirò a vita provata dedicandosi allo studio del linguaggio. Nella
sua opera linguistica troviamo quattro tematiche:
1. La linguistica generale o teorica = esame delle questioni di fondo sulla natura e la struttura
del linguaggio;
2. La linguistica descrittiva = analisi e descrizione di molte lingue spesso appartenenti a
famiglie diverse;
3. La linguistica storico-comparativa;
4. Il confronto tra le varie lingue (quella che verrà chiamata ‘tipologia linguistica’).
Le lingue possono essere classificate dal punto di vista genealogico, riunendo nella stessa classe
tutte quelle che derivano dalla stessa lingua madre, e dal punto di vista tipologico, classificando
insieme tutte le lingue che presentano le stesse caratteristiche strutturali. Mentre la classificazione
genealogica conobbe uno straordinario sviluppo grazie ai lavori di Schlegel, di Bopp, di Rask e di
Grimm, la classificazione tipologica si sviluppò nello stesso periodo. Humboldt ha un ruolo
fondamentale all’interno delle discussioni sulla tipologia linguistica. La sua opera più importante è
l’introduzione alla sua trattazione del kawi, la lingua sacra all’isola Giava, e si riferisce alla diversità
delle lingue umani. Per Humboldt l’uomo è uomo solo grazie al linguaggio, quindi il linguaggio non
è qualcosa che è stato inventato in un certo momento della storia. Infatti non è stata trovata
nessuna lingua con una grammatica in sviluppo → l’ipotesi di uno sviluppo del linguaggio da una
forma elementare ad una più matura non riceve conferma empirica. Si nota un influsso di Kant: il
linguaggio farebbe parte di quegli elementi che Kant chiamava ‘trascendentali’, cioè non derivati
dall’esperienza, ma senza i quali la conoscenza sarebbe impossibile. Gli elementi trascendentali
fanno parte della natura dell’uomo e un essere che non li dispone non è un essere umano. Il
linguaggio viene definito da Humboldt come «l’istinto intellettuale della ragione». Sostiene anche
che il linguaggio non è un’opera (érgon), ma un’attività (enérgeia) → l’unica realtà linguistica è
l’attività dei singoli individui parlanti, sempre diversa e mai riconducibile a categorie generali: la
descrizione grammaticale non un reale fondamento scientifico, ma un’utilità pratica. In realtà
Humboldt è lontano da posizioni di questo genere in quanto tende a conciliare le opposizioni: il
linguaggio come attività non esclude affatto che possa essere analizzato con gli strumenti della
grammatica perché altrimenti sarebbe impossibile coglierne la natura. La grammatica generale
viene utilizzata come strumento per la comparazione tra le lingue. Per Humboldt il linguaggio è
«l’organo formativo del pensiero»: inizia ad utilizzare la nozione di ‘forma linguistica interna’
(innere Sprachform). Il linguaggio non si limita a rispecchiare la realtà: la parola è «una copia non
dell’oggetto in sé, ma dell’immagine che questo ha prodotto nell’anima» (=forma linguistica interna
riferita al linguaggio generale, cioè come rapporto tra linguaggio e realtà). Ogni lingua però delinea
questo rapporto con la realtà in modo diverso (=forma linguistica interna riferita ad una singola
lingua e al suo rapporto tra linguaggio e realtà). Ogni lingua organizza i propri mezzi espressivi in
modo diverso (= forma linguistica interna riferita al principio formativo di ogni lingua → tipologia).
14
Anche Friedrich Schlegel aveva anticipato la tipologia linguistica quando aveva suddiviso le
lingue in:
‘organiche’, le cui varie forme grammaticali sono prodotte da uno sviluppo organico della radice
e che si manifesta sia nella variazione vocalica interna (apofonia) sia nel sistema di suffissi e
desinenze;
‘meccaniche’, caratterizzate da una giustapposizione di monosillabi isolati (ex. Cinese).
Era una classificazione genealogica e tipologica insieme in quanto le lingue ‘organiche’ erano
quelle indoeuropee e nelle lingue ‘meccaniche’ erano comprese le lingue più disparate (diverse sia
dal punto di vista genealogico che quello delle caratteristiche strutturali); inoltre tra le stesse lingue
indoeuropee esistono notevoli differenze: classificazione rozza.
Il fratello August Wilhelm Schlegel propone una classificazione tipologica più raffinata,
suddividendo le lingue in:
‘senza struttura grammaticale’ (chiamate poi da Humboldt ‘ isolanti’)
‘con affissi’ (chiamate poi da Humboldt ‘agglutinanti’)
‘flessive’ = lingue indoeuropee suddivise a loro volta in:
- ‘Sintetiche’: lingue che esprimono i rapporti sintattici attraverso desinenze e variazioni
tematiche → lingue indoeuropee antiche, come il latino.
- ‘Analitiche’: lingue che utilizzano l’articolo prima del sostantivo, esprimono il pronome
prima del verbo, hanno i verbi ausiliari, utilizzano le preposizioni → lingue indoeuropee
moderne, come l’italiano.
Sebbene questa classificazione presenta forti limiti (nessuna lingua è nettamente inquadrabile in
una dei tre tipi) aveva un notevole valore pratico.
Una classificazione alternativa viene proposta da Bopp, il quale era convinto che le varie forme
verbali indoeuropee nascevano dalla composizione di radici diverse. La sua classificazione è
quindi tripartita e coincide solo parzialmente con quella di Schlegel:
‘lingue con radici monosillabiche e senza capacità di composizione, quindi senza
organismo, senza grammatica’ → cinese;
‘lingue con radici monosillabiche e capaci di composizione’ → lingue indoeuropee;
‘lingue con radici bisillabiche e formate obbligatoriamente da tre consonanti, che
esprimono il significato fondamentale’ → lingue semitiche.
In questa classificazione le lingue indoeuropee non hanno un ruolo privilegiato. Non c’erano motivi
per preferire l’una o l’altra classificazione, ma fu quella di Schlegel a prevalere.
Ritornando a Humboldt, molte storie della linguistica sostengono che egli abbia adottato la
classificazione di Schlegel aggiungendovi un quarto tipo: le lingue ‘incorporanti’ o ‘polisintetiche’ =
lingue in cui una sola parola racchiude tutte le relazioni grammaticali di una frase → lingue
amerindiane. Certamente Humboldt riconobbe il tipo incorporante e inventò il nome, ma il suo
contributo alla tipologia linguistica, incompreso dai linguisti successivi, non si limita a questo. Egli
distinse i vari tipi possibili di parantela linguistica:
Lingue che appartengono allo stesso ceppo in cui constatiamo una somiglianza di concrete
forme grammaticali = parentela genealogica;
Lingue che appartengono alla stessa area che non hanno tale somiglianza di forme
grammaticali, ma condividono una parte del lessico = parentela linguistica areale;
Lingue che appartengono alla stessa classe in quanto non hanno in comune né forme
grammaticali né lessico, ma mostrano affinità dal punto di vista della ‘forma linguistica’ =
parentela linguistica tipologica;
Lingue che non condividono né forme grammaticali, né lessico, né forma linguistica, e che
sono quindi apparentate soltanto per le proprietà comuni a tutte le lingue umane in quanto
tali.
15
Humboldt ha notato come non esistono lingue appartenenti ad una sola classe (non esistono
lingue solo agglutinanti, o solo flessive, ecc.) ma tutte le lingue presentano più forme al loro
interno. Quindi non esiste la classe linguistica, ma il tipo inteso come entità astratta (novità per il
suo tempo). La tipologia di Humoldt è sintattica, basata sull’analisi della frase, mentre quella dei
suo contemporanei è morfologica, basata sull’analisi della parola. Esaminando il ruolo della parola
nella frase, egli si rende conto di come il tipo flessivo sia superiore agli altri perché delimita
chiaramente i limiti della parola ed esprime in modo chiaro le relazioni che legano le parole tra di
loro. Invece il tipo isolante non esprime queste relazioni; il tipo incorporante non distingue tra
parola e frase; il tipo agglutinante è uno stadio intermedio. Si vede qui come Humboldt è un uomo
del suo tempo: considera il tipo flessivo superiore agli altri e la famiglia linguistica che si avvicina
maggiormente a questo tipo è quella indoeuropea.
Humboldt si lega al “relativismo linguistico”, cioè all’idea che ogni lingua esprima una visione del
mondo diversa a tutte le altre (da qua partiranno Sapir e Whorf). Questa teoria si lega alla nozione
di forma interna, ossia alla concezione del linguaggio come qualcosa che non rispecchia
passivamente la realtà ma la organizza secondo propri schemi.
Con gli anni ’30 dell’Ottocento alla linguistica storico-comparativa viene riconosciuto il suo statuto
scientifico e i suoi risultati iniziano ad essere presentati in forma sistematica. August Friedrich Pott
(1802-1887), alunno di Bopp, compose le “Ricerche etimologiche nel dominio delle lingue
indoeuropee”. Nell’introduzione dell’opera sosteneva che la linguistica storico-comparativa era
ormai una disciplina autonoma avente lo scopo di ricostruire le forme fonologiche e grammaticali
della lingua madre indoeuropea. Forniva un elenco di radici da cui derivavano le parole comuni alle
varie lingue indoeuropee e indicava con sistematicità le corrispondenze fonetiche che
permettevano di giustificare una fonologia ricostruita. Si era accorto che i mutamenti delle lettere
avvengono seguendo delle leggi naturali e coinvolgono suoni prodotti dagli stessi organi o dotati di
caratteristiche simili. Ad esempio s e r sono entrambe prodotte da una forte vibrazione dell’aria; s e
h sono entrambe sibilitanti; h e r non hanno nulla in comune → se alla r di una parola latina
corrisponde una h nella parola persiana allora si può supporre che entrambe derivino da una s
sanscrita. Quindi secondo Pott per dimostrare il legame etimologico tra due parole è necessario
trovare una corrispondenza sistematica tra i suoni e individuare le tappe che dal suono originario
hanno condotto a quelli osservati. Pott fu il primo a formulare le corrispondenze tra i suoni delle
varie lingue indoeuropee in forma di tabelle sistematiche ed è a lui che risale la formulazione della
‘legge di Grimm’, ossia l’indicazione completa e sistematica di quali consonanti sanscrite, greche e
latine corrispondono a quelle delle lingue germaniche.
Intorno alla metà dell’Ottocento aumentarono il numero delle lingue che venivano riconosciute
appartenenti alla famiglia indoeuropea e cominciavano ad essere studiate con i metodi della
grammatica storico-comparativa: Diez pubblica la grammatica delle lingue romanze (1836-44),
Miklosich quella delle lingue slave (1852-74); nascono la filologia romanza e quella slava; Zeuss
pubblica una grammatica celtica; Bopp aveva dimostrato che le lingue celtiche, l’albanese e
l’armeno appartenevano alla famiglia indoeuropea. In questi anni si era stabilito che la famiglia
linguistica indoeurope conteneva: indiano (sanscrito), iranico, armeno, greco, albanese, italico
(lingue romanze + latino), slavo, baltico, germanico, celtico. Nel Novecento furono aggiunte il
tocario e l’anatolico, lingue fino a quel momento sconosciute.
August Schleicher (1821-1868), professore a Praga e a Jena, può essere considerato come il
sistematizzatore della linguistica storico-comparativa indoeuropea. Egli chiarificò i rapporti tra
lingua originaria e lingue derivate nella famiglia linguistica indoeuropea: stabilì che il sanscrito non
è la lingua madre delle lingue indoeuropee ma una lingua ‘sorella’ delle altre, anche se era
convinto che il sanscrito fosse la lingua che rispecchiava più da vicino lo stato della lingua
originaria. Ricostruisce le forme della lingua madre segnalandole con l’asterisco (*) essendo
consapevole che vi è differenza tra forme effettivamente attestate e forme ricostruite. Come Bopp
16
era convinto che le forme verbali indoeuropee derivano dalla combinazione di radici
originariamente autonome e che la derivazione delle lingue indoeuropee dalla lingua originaria sia
stato un processo di una sempre maggiore semplificazione e dunque decadenza. Ipotizzò che
quella fase di decadenza (fase storica) fosse stata preceduta da una fase di sviluppo (fase
preistorica): in origine l’indoeuropeo sarebbe stato di tipo isolante, poi sarebbe diventato
agglutinante ed infine flessivo; nella fase storica le lingue indoeuropee avrebbero perso
progressivamente le loro caratteristiche flessive (influsso della filosofia hegeliana). Questa
concezione schleicheriana verrà molto criticata dai linguisti della generazione successiva, mentre
inizialmente viene accettata. Ad esempio George Curtius affermava che esistono due periodi nella
storia del linguaggio: uno di organizzazione (=unità → indoeuropeo originario) e di formazione
(=molteplicità →differenziazione nelle varie lingue indoeuropee); tuttavia non giudica di
‘decadenza’ il secondo periodo, anche se sosteneva che il mutamento fonetico consiste sempre
nella perdita e mai nell’aggiunta di suoni.
Per rappresentare i rapporti tra le varie lingue indoeuropee Schleicher elabora il modello
dell’albero genealogico: pone alla radice dell’albero la lingua originaria (l’indoeuropeo) che a mano
a mano si ramifica in modo binario.
Questo modello fu fortemente criticato: il fatto che si ramifichi in modo binario appare come una
forzatura (non vi sono prove sufficienti per motivare questa scelta); la scelta di non far ‘incrociare’ i
rami esclude la possibilità che lingue appartenenti a rami diversi possano avere elementi in
comune (oltre a quelli dovuti alla lingua madre). Johannes Schmidt (1843-1901), allievo di
Schleicher, criticò il modello dell’albero genealogico e propose una nuova immagine dei rapporti
tra le lingue indoeuropee. Secondo lui era irrealistico ipotizzare che queste lingue derivino da fonti
diverse senza alcun rapporto le une con le altre, a parte gli element posseduti in lingua originari.
Così decise di sostituire il modello dell’albero genealogico con la teoria delle onde che si
propagano in cerchi concentrici i quali si affievoliscono via via che si allontanano dal centro. Le
varie lingue indoeuropee rappresentano una sorta di continuum in cui una trapassa lentamente
nell’altra solo con piccole modificazioni. Comunque non negava che, in certi casi, esistevano
confini linguistici netti, dovuti al fatto che una determinata lingua ha preso il sopravvento su quelle
vicine e le ha rimpiazzate.
17
Quale dei due modelli risulta più adeguato? Ancora oggi la disputa non è risolta: entrambi sono
insufficienti in se stessi, ma utili per illustrare i vari rapporti tra le lingue indoeuropee. L’albero
genealogico conserva un innegabile valore pratico; la teoria delle onde mostra più realisticamente
le sovrapposizioni parziali di fenomeni.
La concezione che Schleicher ha delle lingue è di derivazione naturalistica in quanto considera il
linguaggio come un oggetto naturale o entità biologica. Secondo lui le lingue sono organismi
naturali che, senza essere determinabili dal volere dell’uomo, sono sorti, cresciuti e sviluppati
secondo leggi fisse (influsso di Darwin – L’origine delle specie 1859). Infine Schleicher restringe il
dominio della linguistica alla fonologia e alla morfologia (= ambiti della grammatica storico-
comparativa), mentre afferma che la sintassi e la stilistica appartengono alla filologia. Con la
concezione naturalistica egli tenta di dare una giustificazione del carattere regolare delle
corrispondenze linguistiche individuate dalla grammatica comparata.
18
un avverbio). Becker inizialmente adottò questa classificazione, ma si rese conto che non ci può
essere coincidenza tra funzioni grammaticali e classi di parole (un nome può essere sia soggetto
che oggetto, così come una frase sostantiva può avere sia funzione di soggetto che di oggetto) →
a Becker si attribuisce la distinzione tra analisi grammaticale e analisi logica. La classificazione
delle frasi subordinate adottata nelle grammatiche odierne combina le due classificazione di
Herling e di Becker.
Heymann Steinthal (1823-1899) influenzò, più di quello che si pensa, i neogrammatici. Secondo
Steinthal l’origine e lo sviluppo del linguaggio sono momenti dello sviluppo delle capacità
intellettive dell’individuo, anche se non bisogna dimenticare l’aspetto sociale del linguaggio, in
quanto gli individui appartenenti ad una stessa comunità utilizzano la stessa lingua e le varie
comunità parlano lingue diverse tra loro. Il termine etnolinguistica è stato coniato da Steinthal per
mostrare la natura sociale, oltre che individuale, del linguaggio e le differenze tra le varie lingue.
Egli elaborò anche un sistema di tipologia linguistica diverso da quello di Humboldt. Il suo pensiero
è una sintesi originale di alcuni aspetti dell linguistica di Humboldt, della filosofia di Hegel e della
psicologia di Herbart. La polemica di Steinthal contro la grammatica generale è condotta contro
qualunque impostazione “logicizzante” nello studio del linguaggio (in particolare contro Becker).
Linguaggio e pensiero non coincidono: si può pensare senza ricorrere alla parole (ex. sordomuti)
→ la logica come scienza del pensiero corretto non può identificarsi con la grammatica. Questo è
dimostrato anche dal fatto che i principi in base ai quali un logico o un grammatico giudicano la
buona formazione delle varie frasi sono totalmente diversi: il grammatico si preoccupa delle
relazioni di accordo, il logico della coerenza dei pensieri espressi. Se quindi non si può fondare la
linguistica sulla logica, come faceva la grammatica generale, Steinthal propone di fondarla sulla
psicologia. Per quanto riguarda l’origine del linguaggio, Steinthal sostiene che il bisogno di
comunicazione non condurrebbe mai al linguaggio, ma il linguaggio, una volta scaturito dallo
sviluppo della mente individuale, diventa strumento di comunicazione (influsso di Humboldt). Egli
non considera il linguaggio come una capacità innata, ma assume una posizione intermedia tra chi
sostiene che le idee fondamentali della conoscenza umana sono innate e chi afferma che sono
acquistite. Queste ‘idee fondamentali’, tra cui vi è il linguaggio, non sono analoghe agli istinti
animali, ma non sono nemmeno formate in modo cosciente: esse vengono acquisite
istintivamente. I livelli della ‘forma interna’ sono:
1. Primo livello = interiezioni + onomatopea, intesa come legame del suono con l’intuizione →
le espressioni linguistiche formano un tutto indivisibile, non analizzabile in parole.
2. Secondo livello = distinzione tra soggetto e predicato.
3. Terzo livello = completo allontanarsi del linguaggio dal suo originario aspetto
onomatopeico.
Nella ricostruzione dello sviluppo del linguaggio operata da Steinthal si fondano ipotesi e pensieri
diversi: origine onomatopeica = studiosi settecenteschi; nozione di forma interna = Humboldt;
procedere per triadi = Hegel. Per descrivere il linguaggio allo stato maturo ricorre alla psicologia di
Herbart. Le nozioni chiave di questa psicologia da lui utilizzate sono quelle di ‘rappresentazione’ (=
contenuti mentali, come le immagini derivate dai nostri sensi, ecc.) e ‘meccanica psichica’ (=
associazione tra i contenuti mentali). Lo spazio della nostra coscienza è però ristretto e può
contenere solo un numero limitato di rappresentazioni: quando si aggiungono rappresentazioni
nuove, quelle vecchie sono rimosse e cadono al di sotto di quella che è chiamata ‘soglia della
coscienza’; in situazioni favorevoli le rappresentazioni rimosse possono superare nuovamente la
soglia della coscienza. La ristrettezza della coscienza ha conseguenze decisive sulla natura del
linguaggio: aspetto seriale del linguaggio. Per spiegare la diversità del linguaggio egli affianca alla
psicologia generale l’etnolinguistica (psicologia dell’uomo sociale o della società umana), che, oltre
ad avere la funzione di disciplina ausiliaria della linguistica, si occupa di tutti quei fenomeni
descrivibili in base alle interrelazioni tra gli individui all’interno di una comunità, come la morale, la
19
religione, ecc. La distinzione fondamentale operata da Steinthal è quella tra lingue ‘prive di forma’
e quelle ‘dotate di forme’; all’interno di queste due classi principali sono individuate delle
sottoclassi. Cosa distinguono tali lingue?
lingue ‘prive di forma’ (lingue uralo-altaiche e amerindiane) esprimono le relazioni
grammaticali tramite parole materiali.
lingue ‘dotate di forme’ (lingue semitiche e indoeuropee) esprimono le relazioni
grammaticali tramite la flessione.
La classificazione di Steinthal fu chiamata ‘psicologica’, contrapposta a quella morfologica di
Schlegel, anche se presentano degli elementi in comune: fanno coincidere le classi tipologiche con
le famiglie linguistiche, le lingue sono disposte su una specie di scala di valore (le lingue flessive e
quelle dotate di forma sono considerate superiori alle altre). Con il progresso della tipologia
linguistica queste concezioni vennero abbandonate: si ammetterà che lingue di tipo diverso posso
appartenere alla stessa famiglia linguistica e che non esistono lingue più sviluppate di altre.
Franz Misteli (1841-1903) fu il diretto continuatore di Steinthal. Gabriel Girard (1677-1748) e
Beauzée avevano distinto tra lingue ‘analogiche’, in cui l’ordine delle parole rispecchia quello dei
pensieri (come francese, italiano, spagnolo…), e quelle ‘traspositive’, in cui non c’è alcun
rispecchiamento tra ordine delle parole e dei pensieri (come greco, latino, tedesco…). Henri Weil
(1818-1909) è l’antecedente più importante della tipologia dell’ordine delle parole e critica la
classificazione di Girard-Beauzée perché ritiene che “il cammino sintattico non coincida con quello
delle idee” (idea=qualunque tipo di contenuto mentale). Egli sostituisce alla distinzione tra lingue
‘analogiche’ e lingue ‘traspositive’ quelle tra lingue ‘a costruzione libera’ (come il greco antico e il
latino) e ‘a costruzione fissa’, in cui troviamo l’ordine SVO come il francese, l’italiano, lo spagnolo e
quello SOV come il turco, il tedesco. Per spiegare questi diversi ordini nelle lingue a costruzione
fissa, Weil sostiene che esistono due diversi tipi di costruzione: la costruzione ‘ascendente’, dove
la parola dipendente precede la parola reggente, e la costruzione ‘discendente’ in cui l’ordine è
inverso. Egli non identifica nessuno di questi due tipi con una determinata lingua o una
determinata famiglia linguistica, ma sostiene che entrambi possono combinarsi all’interno della
stessa lingua producendo sistemi differenti. Anche Weil, come Steinthal, dispone le lingue su una
scala di valore: la costruzione ascendente e discendente sono considerate sullo stesso livello,
tuttavia una lingua è più perfetta se fa ricorso ad entrambi i tipi.
Idee simili a quelle di Weil furono elaborate da Georg von der Gabelentz (1840-1893), a cui si
deve l’invenzione del termine ‘tipologia linguistica’. Egli afferma che la linguistica comparata si
divide in due parti:una genealogica e una etnopsicologica; lo scopo di quest’ultima è esporre quale
può essere il rapporto dell’espressione linguistica con i concetti o i pensieri da esprimere.
Abbandona la concezione della tipologia linguistica come una scala di valore sulla quale collocare
le diverse lingue: dimostra come molte delle caratteristiche che dovrebbero dimostrare la
superiorità delle lingue indoeuropee non sono una loro esclusiva e che altre caratteristiche di
queste stesse lingue potrevvere essere una manifestazione di inferiorità. Gabelentz va alla ricerca
di nessi tra la struttura di una lingua e lo spirito dei popoli che la parlano → accetta l’idea di un
rapporto inscindibile tra caratteristiche di una lingua e caratteristiche dei suoi parlanti. La sua
analisi dell’ordine delle parole è molto simile a quella di Weil: analizza la frase in ‘soggetto
psicologico’, ciò verso cui l’emittente dirige l’attenzione del destinatario (=tema del discorso, può
non coincidere con il soggetto), e ‘predicato psicologico’, ciò che l’emittente fa pensare al
destinatario a proposito del soggetto psicologico.
L’opera di Weil e di Gabelentz non è ebbe un impatto particolare sui linguisti della loro
generazione: la fama di Weil era legata alla sua attività di filologo classico, mentre Gabelentz morì
prematuramente. L’importanza del loro lavoro è emersa successivamente.
Nella seconda metà dell’Ottocento il linguaggio inizia ad essere concepito come fenomeno sociale
e comunicativo (linguistica come scienza storica e sociale). Tra gli studiosi che hanno sostenuto
20
tali concezioni troviamo William Dwight Whitney (1827-1894) e Michel Bréal (1832-1915),
entrambi, studiosi di linguistica storico-comparativa, sottolinearono la necessità di una riflessione
teorica generale sul linguaggio. Whitney critica le concezioni di Humboldt secondo le quali il
linguaggio non ha avuto origine da esigenze comunicative. Le concezioni di Whitney possono
essere definiti socio-comunicative: il linguaggio è l’espressione che mira alla comunicazione. Egli,
in contrapposizione a Steinthal, ritiene che sia un errore voler fondare la linguistica sulla
psicologia. Il linguaggio è arbitrario (=possono essere create infinite parole funzionali) e
convenzionale (=la corrispondenza tra significato e significante dipende dalla scelta della società a
cui appartiene il parlante): questo è ciò che lo distingue dai linguaggi animali che sono istintivi.
Secondo Whitney, il linguaggio ha avuto origini dai gridi naturali degli essere umani → posizione
simile a quella di Condillac. Whitney si contrappone anche a Schleicher poiché rifiuta l’esistenza di
due epoche nella storia del linguaggio, una di sviluppo e una di decadenza. Egli sostiene che
esiste una differenza di grado tra le varie lingue e che la storia del linguaggio mostra un’evoluzione
da stadi più primitivi a quelli più sviluppati (=Schhleicher). Afferma che le lingue indoeuropee sono
superiori alle altre grazie alla loro maggior capacità di creare dei nomi astratti; egli comunque
esclude ogni implicazione razzista in quanto osserva che non bisogna confondere lingue e razze e
che la superiorità linguistica di cui parla è acquisita e non innata. Per Bréal la linguistica è una
scienza storica, non naturale, in quanto il linguaggio è un atto dell’uomo, non esiste all’infuori
dell’attività dell’uomo. Anch’egli, come Whitney, è convinto della funzione comunicativa del
linguaggio. Nel 1897 pubblica il volume Semantica, che lo rese famoso: è un trattato di linguistica
storica che volutamente trascura i mutamenti fonetici e si concentra sui mutamenti di significato. Il
termine ‘semantica’ fu coniato da Bréal in opposizione a ‘fonetica’. Nella prima parte dell’opera
contrappone le ‘leggi intellellettuali del linguaggio’ alle ‘leggi fonetiche’. Tra le ‘leggi intellettuali’
troviamo:
‘legge di specialità’ = spiega il passaggio dalla fase sintetica alla fase analitica delle
lingue;
‘legge di suddivisione’ = si intende il fatto che parole derivate dalla stessa radice
assumono nel tempo significati specifici.
Anche il fenomeno dell’analogia è ricondotto da Bréal all’effetto delle leggi intellettuali del
linguaggio. La sua posizione è quindi opposta a quella di Curtius e di Schleicher, ma è vicina a
quella ‘uniformista’ della geologia dell’Ottocento. Infatti sostiene che la storia della lingua mostra
non solo una perdita ma anche acquisizione di forme: ad esempio l’infinito e il passivo sono
acquisizioni recenti delle lingue indoeuropee → come Whitney respinge la teoria delle due epoche
nella storia del linguaggio. Nella seconda parte esamina i casi di restringimenti e di ampliamento
del senso delle parole, il ruolo della metafora nella storia del linguaggio, polisemia ecc. Quasi tutta
la terza parte del volume è dedicata all’esame di vari fenomeni di mutamento sintattico, come la
nascita dei pronomi relativi ecc. Il linguaggio umano è caratterizzato da un elemento di
“soggettività” ineliminabile, che si realizza soprattutto nei modi verbali e nell’opposizione della terza
persona (richiami a Benveniste). Egli appoggia la teoria di Bopp sull’origine delle forme
indoeuropee dalla combinazione di radici indipendenti proprio quando molti suoi contemporanei
l’avevano abbandonata.
2.4 La linguistica storico-comparativa tra fine Ottocento e primo Novecento (pag. 142-177)
Karl Brugmann (1849-1919) e Berthold Delbrück (1842-1922) appartenevano alla scuola
linguistica nota come ‘neogrammatici’ (Junggrammatiker=grammatici giovani). Negli anni ’70
dell’Ottocento vi furono tre grandi scoperte:
1. Nasali sonanti, scoperta da Brugmann. Confrontiamo i numerali ‘sette’ e ‘dieci’ in latino e in
greco: rispettivamente septem-heptà, decem-déka: entrambe le coppie sono
evidentemente imparentate l’una all’altra, ma mostrano delle differenze. Una di queste è
facilmente spiegabile: la sibilante s di septem corrisponde all’aspirazione iniziale di heptà.
21
Come si spiega invece il fatto che a –em finale latina corrisponda –a greca? Normalmente
alle a ed e latine corrispondono in greco queste stesse vocali. Brungmann ipotizza che –
em ed –a derivano da un suono particolare posseduto dalla lingua madre e sviluppatosi in
maniera diversa nelle altre lingue: la nasale sonante, cioè una m o una n formanti da sole
un nucleo tematico. Questa nasale, impronunciabile nelle lingue derivate, avrebbe
sviluppato una vocale d’appoggio: alcune lingue avrebbero conservato sia la nasale che la
vocale d’appoggio (come il latino), altre solo la vocale (come il greco). Questa
corrispondenza è confermata da altri casi analoghi. Brungamm espose la sua ipotesi (oggi
accettata) sulla rivista diretta da Curtius, approfittando di un suo periodo di assenza
dall’università. Curtius, al suo ritorno, fece sospendere la pubblicazione della rivista. Con
questo episodio inizia la ‘rivolta’ di questo gruppo di giovani linguisti contro quelli della
generazione precedente.
2. Legge delle palatali, scoperta contemporaneamente da diversi studiosi, ma fu Hermann
Collitz (1855-1935) a pubblicarla per primo (egli non apparteneva al gruppo dei
neogrammatici). Come si spiega che nel sanscrito davanti alla vocale a vi è alternanza tra
k e c? Anche in questi casi esiste una corrispondenza regolare tra il sanscrito e le altre
lingue indoeuropee: dove il sanscrito ha c davanti ad a, tale a corrisponde in greco e latino
ad una e, mentre dove il sanscrito ha k, alla a sanscrita corrisponde in latino e in greco una
a o una o. Queste corrispondenze tra sanscrito (e lingue iraniche) da un lato e latino (greco
e altre lingue europee) dall’altro si spiegano bene ipotizzando che le lingue del primo
gruppo abbiano mutato il loro sistema vocalico rispetto a quello della lingua madre
indoeuropea: le tre vocali a, e, o di questa lingua si sono fuse in’unica a nel sanscrito e
nelle altre lingue del gruppo ‘indo-iranico’. Nelle lingue di quest’ultimo gruppo, il suono
velare originario k si è dapprima mutato nel suono palatale [ʧ] davanti alla vocale palatale
e, mentre ha continuato ad essere pronunciato [k] davanti alla vocale velare o e alla vocale
centrale a. Questa spiegazione mostrava che il sanscrito non è la lingua più antica e “meno
decaduta” rispetto alle altre della famiglia indoeuropea; anch’essa è soggetta a mutamenti
tanto quanto le sue ‘sorelle’ (il greco è più vicino alla lingua madre per quanto riguarda il
sistema vocalico). In questo modo declinava anche l’idea di una storia del linguaggio divisa
in due epoche, una di progresso e una di decadenza.
3. Legge di Verner, scoperta da Karl Verner nel 1877. La legge di Grimm presentava delle
eccezioni: dove in latino e in sanscrito abbiamo una t, in gotico abbiamo a volte un suono
sordo (come in broÞar ‘fratello’), a volte un suono sonoro (come in fadar ‘padre’). Verner
esaminò le due parole in vedico bhràtar e pitar e si accorse che nella prima parola l’accento
è sulla prima sillaba e quindi precede la t; nella seconda parola è sulla seconda sillaba e
quindi segue la t. Dato che si pensa che la posizione dell’accento nel vedico fosse la stessa
della lingua madre indoeuropea, Verner ipotizzò che tale posizione avesse avuto un ruolo
determinante nel mutamento delle consonanti occlusive dall’indoeuropeo al germanico e
formulò la legge: nel passaggio dall’indoeuropeo alle lingue germaniche, le occlusive sorde
indoeuropee diventano dapprima fricative sorde; tali fricative sorde diventano sonore se
l’accento le segue, mentre rimangono sorde se l’accento le precede.
Queste leggi rendevano la linguistica una scienza esatta regolata da leggi le cui eccezioni si
rivelano solo apparenti. Così la scuola neogrammatica introdusse il concetto di legge fonetica.
I neogrammatici furono influenzati dalla concezione psicologistica del linguaggio elaborata da
Steinthal. Quindi non consideravano, al contrario di Schleicher, la linguistica come scienza
naturale ma come scienza dello spirito: nel doppio senso di scienza psicologica e di scienza
storica. Essi inizialmente concepivano le leggi fonetiche come analoghe a quelle delle scienze
naturali, non le consideravano tuttavia estranee all’individuo, ma al contrario come una
descrizione di processi psicologici inconsci che guidano l’attività linguistica. Queste posizioni
22
sono espresse nella prefazione di Osthoff e di Brugmann del 1878 alla rivista ‘Morphologische
Untersuchungen’, che è considerato il manifesto dei neogrammatici. In questo lavoro,
Brugmann (Osthoff aveva soltanto sottoscritto la prefazione) si lamenta di come fino a quel
momento si fossero analizzate solamente le lingue e poco i parlanti: è convinto che se la
linguistica storica e la psicologia collaborassero più strettamente si schiuderebbero nuovi punti
di vista. Critica il fatto che la linguistica storica si sia interessata soprattutto alle fasi antiche
delle lingue indoeuropee, trascurando le fasi moderne e i dialetti. In realtà anche i
neogrammatici si interessarono principalmente dell fasi antiche della lingua e la contraddizione
tra ciò che dicevano e facevano era stata messa in evidenza dai loro avversari. Ma è grazie a
loro che i dialetti oggi sono considerati come entità sullo stesso piano delle lingue da cui si
differenziano solo per motivi di ordine storico e sociale. Inoltre sottolineava ciò che li
contrapponeva a Schleicher:
1. Le lingue non sono entità biologiche estranee all’uomo, ma elementi della sua psiche;
2. Non si può parlare di un periodo di progresso e uno di decadenza nella storia del
linguaggio.
Su queste premesse egli formulava i principi della scuola neogrammatica:
1. Ineccepibilità delle leggi fonetiche. Ogni mutamento fonetico, fino a dove procede
meccanicamente, si compie secondo leggi ineccepibili; la direzione del moto fonetico è
sempre la stessa, salvo che subentri una scissione dialettale. Le leggi fonetiche non
ammettono eccezioni, le quali sono tutte spiegabili in base all’azione di altri fattori. Se un
suono muta in due diversi, significa che la lingua madre si sta differenziando in una o più
varietà, dialetti.
2. Analogia. L’analogia venne utilizzata dai neogrammatici per spiegare vari fenomeni che
sembrano contraddire il primo principio. Per esempio, in base alle leggi fonetiche nel
passaggio dal latino all’italiano la ĕ latina si trasforma nel dittongo ie solo se è in posizione
accentata: pĕde(m) → piede; pĕdale(m) → pedale. Perché si ha ‘chiede’, in cui –ie- è in
posizione accentata, e ‘chiediamo’, in cui lo stesso dittongo è in posizione atona? La
seconda delle due forme è stata costruita in base all’analogia con la prima.
I neogrammatici, al contrario di quello che si è pensato per molto tempo, dedicarono una buona
parte della loro attività scientifica alla riflessione teorica sul linguaggio. Paul fu il maggiore teorico
della scuola neogrammatica. Egli distingue due tipi di scienze: quelle ‘nomotetiche’, in cui manca
un qualsiasi riferimento allo sviluppo o evoluzione, e quelle ‘storiche’. La linguistica o ‘scienza dei
principi’ è una scienza storica che contiene una componente nomotetica essenziale, ossia la
componente psicologica. La psicologia ha unicamente per soggetto l’individuo → non si può
parlare di etnopsicologia. Infatti una connessione tra stati e processi mentali si verifica soltanto
all’interno della mente dell’individuo. A suo parere i problemi di cui si deve occupare la linguistica
generale sono:
1. Il modo in cui si realizza l’attività linguistica;
2. L’apprendimento del linguaggio;
3. Il mutamento delle lingue nel tempo;
4. La frammentazione delle lingue in dialetti;
5. L’origine del linguaggio.
Questi problemi possono essere risolti solo in termini di psicologia individuale, in quanto
l’organizzazione mentale e corporea di tutti gli uomini è fondamentalmente la stessa (uniformità
costituzionale degli individui). L’interazione tra gli individui produce ciò che Paul chiama ‘uso
linguistico’, ovvero quegli aspetti dell’attività linguistica individuale che non sono condivisi da una
pluralità di parlanti. L’uso è sempre secondario rispetto all’attività linguistica dell’individuo, che è
l’unica realtà effettiva. Secondo Paul, uno dei meriti di Steinthal è quello di aver posto in rilievo
l’importanza degli elementi inconsci del linguaggio. L’analisi della dinamica delle rappresentazioni
23
linguistiche è alla base del concetto di analogia così come è inteso dai neogrammatici. Le varie
entità linguistiche si riuniscono in ‘gruppi formali’ e in ‘gruppi materiali’: i primi sono costituiti dalla
somma di tutti i nomi di azione ecc.; i secondi dalle associazioni di significati parzialmente simili.
L’incrocio dei gruppi formali con i gruppi materiali dà luogo ai ‘gruppi proporzionali’: ad esempio il
latino mensa:mensam:mensae=hortus:hortum:horti. Questi gruppi proporzionali sono responsabili
della maggior parte dei fenomeni analogici. Il potere creativo dell’analogia non agisce soltanto in
campo fonologico, morfologico e lessicale, ma anche in quello sintattico. L’analogia è quindi il
meccanismo fondamentale del funzionamento del linguaggio.
I neogrammatici non negarono mai esplicitamente che una lingua madre indoeuropea fosse
esistita, ma, a differenza dei loro predecessori, non cercarono di costruire in base ad essa ipotesi
sui presunti parlanti di questa lingua, sulla loro sede originaria o sulla loro cultura. Essi quindi
mostrarono assai poco interesse per la “paleontologia linguistica” Nell’opera dei neogrammatici
troviamo i germi di quella che sarà definita la concezione “algebrica” della lingua madre
indoeuropea: le forme ricostruite sono da interpretare come la semplice abbreviazione delle
corrispondenze riscontrate tra le varie lingue e nulla ci possono dire né sul modo in cui tali lingue
erano effettivamente utilizzate, né tanto meno sulla cultura e la storia dei loro utilizzatori. Questa
visione non ebbe successo e la paleontologia durò e dura tuttora.
Graziadio Isaia Ascoli (1829-1907) è il fondatore della linguistica scientifica in Italia: fu il primo ad
applicare i metodi elaborati della linguistica storico-comparativa tedesca da Bopp in poi. Si occupò
sia delle lingue indoeuropee antiche che delle lingue e dialetti romanzi. A lui si devono le
osservazioni che portarono alla ricostruzione del sistema delle consonanti velari.
1. Al latino [k] corrisponde in sanscrito a volte [k], a volte [ś] (che si pronuncia [∫]): cruor
→kravis; centum→śatam.
2. Al sanscrito [k] corrisponde in latino a volte [k], a volte [k] seguito da un arrotondamento di
labbra: kas → quis.
Nel 1870 Ascoli ipotizzò che l’indoeuropeo primitivo aveva tre velari: oltre alla velare pura *k (simile
alla c di casa), una velare con intacco palatale *k’ (simile a ch- di chino) e una labiovelare *kʷ
(suono velare accompagnato da un arrotondamento di labbra). Nessuna delle lingue derivare
conserva tutte e tre queste velari: il latino e le lingue indoeuropee occidentali hanno unificato la
velare palatale e la velare pura, mantenendo distinta la labiovelare; il sanscrito e le altre lingue
orientali hanno mutato la velare palatale in un suono fricativo [s] e unificato la labiovelare con la
velare pura. I risultati di Ascoli furono tra le grandi scoperte della linguistica storico-comparativa
indoeuropea negli anni settanta dell’Ottocento che furono tra le premesse immediate del costituirsi
della scuola neogrammatica. Tuttavia Ascoli era lontano dalle concezioni dei neogrammatici: per
lui la linguistica è una scienza etnologica non naturale. Egli dava importanza ai fenomeni di
sostrato, cioè all’influsso che la lingua originaria di una popolazione avrebbe esercitato su una
nuova lingua da questa stessa popolazione acquisita. Ascoli lamentava il disinteresse crescente
per i problemi dell’origine del linguaggio e il progressivo distacco della linguistica dall’antropologia,
egli aveva concepito l’indoeuropeo non solo come un insieme di corrispondenze linguistiche di un
insieme di corrispondenze linguistiche ma come l’espressione di un’unità etnica e antropologica.
Negli anni ’70 fondò la rivista ‘Archivio Glottologico italiano’ in cui mostra l’interesse per i dialetti
italiani. I suoi Saggi ladini inquadravano per la prima volta con grande chiarezza la posizione
linguistica delle parlate ladine (=romancio della Svizzera, ladino delle valli dolomitiche e il friulano)
rispetto alle varietà romanze ed ai dialetti italiani.
Anche Hugo Schuchardt (1842-1927) si interessò ai dialetti, nonostante avesse un’impostazione
differente sia da Ascoli che da i neogrammatici. Egli è un antisistematico, uno scettico riguardo alla
possibilità di formulare ipotesi e costruzioni di carattere generale: la frammentazione dialettale
dimostra che è impossibile porre limiti definiti non solo tra lingua e lingua, ma anche tra dialetto e
24
dialetto dato che ogni individuo parla un proprio dialetto diverso da quello di qualunque altro,
chiamato idioletto.
Jules Gilliéron (1854-1926) fece diventare la dialettologia una disciplina autonoma, utilizzando la
raccolta sistematica ‘sul campo’ del materiale dialettale. Ascoli si basò su fonti dialettali scritte,
invece Gilliéron acquisì i dati direttamente dai parlanti dei dialetti mediante un sistema di interviste
effettuate da un unico raccoglitore, Edmont, che non era un linguista ma dotato di sensibilità
fonetica. In questo modo i risultati non erano influenzati da opinioni teoriche preconcette e la
raccolta era omogenea. Il questionario fu sottoposto a parlanti dialettali in 639 località della Francia
ed era costituito da più di 1900 parole. Il risultato del loro lavoro fu il ALF Atlas linguistique de la
France (1912): era formato da una carta geografica per ogni parola indagata, in ogni località si
trovano le diverse forme dialettali corrispondenti. In Italia si contano due atlanti linguistici AIS e ALI
di Bartoli. Gilliéron si rese conto che è impossibile tracciare confini definiti tra i vari dialetti; il
confronto tra le varie forme dialettali gli faceva ipotizzare la presenza di cause diverse dai soli
mutamenti fonetici per quanto riguarda la storia delle parole (come le collisioni omonimiche).
Le posizioni dei neogrammatici, in particolar modo la loro affermazione che le leggi fonetiche non
hanno eccezioni, suscitarono un dibattito molto acceso. Le critiche che venivano fatte partivano da
punti di vista diversi ma tutte si rifiutavano di considerare la linguistica come una disciplina
caratterizzata da una metodologia analoga a quella delle scienze naturali. Infatti i neogrammatici
parlando di “leggi” fonetiche sostenevano che le lingue o entità psichiche dovessero essere
analizzate secondo i canoni delle scienze naturali. In effetti nei primi lavori dei neogrammatici le
leggi fonetiche sono paragonate a quelle della fisiologia, della fisica e della chimica.
Successivamente, un’analisi più accurata della natura di queste leggi indurrà i neogrammatici a
modificare le loro posizioni. Se prendiamo in considerazione la Legge di Grimm sappiamo che è
stata attiva solo nel periodo tra il 400 e il 200 a.C., tutte le parole introdotte successivamente non
presenteranno queste mutazioni. Ciò dimostra che le leggi fonetiche sono limitate nel tempo. Ma
esse sono limitate anche nello spazio: la mutazione consonantica germanica si è verificata soltanto
in un’area definita. Invece le leggi naturali non hanno limitazioni di tempo e di spazio.
I neogrammatici si resero conto che le leggi fonetiche non possono essere assimilate a quelle delle
scienze naturali. Lo stesso Paul, rendendosi conto dell’errore, afferma che la legge fonetica si
limita a constatare la regolarità all’interno di un gruppo di determinati fenomeni storici. I
neogrammatici, comunque, non smisero di considerare la linguistica come una disciplina
metodologicamente affine alle scienze della natura. In sintesi le concezioni linguistiche dei
neogrammatici possono essere ridotte a due principi:
1. Le lingue mutano nel tempo con regolarità;
2. I fattori che agiscono nel mutamento linguistico sono gli stessi per ogni lingua e per ogni
epoca.
Curtius, pur affermando che l’analogia e le leggi fonetiche siano due nozioni fondamentali, non
appoggiava nessuno dei due principi dei neogrammatici: egli sosteneva che i cambiamenti fonetici
erano sporadici e che l’analogia non poteva aver operato nelle lingue antiche e operare in quelle
moderne. L’analogia, per lui, era un fattore di disturbo nel funzionamento del linguaggio: era un
anti-uniformista. Anche Ascoli era un anti-uniformista. Egli non condivideva nemmeno
l’impostazione psicologica della linguistica propria dei neogrammatici perché vedeva in questa
impostazione l’abbandono dell’analisi del rapporto lingua-popolazione. Mentre lo studioso dava
grande importanza ai fattori etnici, questi erano trascurati dai neogrammatici, i quali non riuscirono
mai ad elaborare ipotesi convincenti sulle cause del mutamento linguistico, limitandosi a
riscontrarne la regolarità. Schuchardt, nel saggio Sulle leggi fonetiche. Contro i neogrammatici,
insisteva sull’esistenza di mutamenti fonetici sporadici. Associare le leggi al significato voleva dire
rimanere ancorati ad una concezione del linguaggio come organismo naturale, mentre si era ormai
scoperto che è un fenomeno sociale. Inoltre per Schuchardt è impossibile mantenere distinti i due
25
momenti del mutamento fonetico (legge fonetica + analogia) in quanto in entrambi è attivo il fattore
psicologico. Il comportamento linguistico di ogni individuo è in parte spontaneo e in parte frutto
dell’imitazione del comportamento di altri individui → non è possibile distinguere un mutamento
dovuto a una legge fonetica da uno dovuto ad una ‘scissione dialettale’. Infine non si può
nemmeno affermare che le leggi fonetiche valgono solo per un periodo cronologico: è impossibile
determinare l’inizio e la fine di un periodo cronologico nella storia delle lingue poiché ogni stadio
della lingua è uno stadio transitorio. Tuttavia, in uno dei suoi ultimi lavori, riconobbe che le leggi
fonetiche sono le regole fondamentali del lavoro dell’etimologo. Gilliéron con il suo atlante
linguistico mostra come la storia delle parole sia determinata da fattori diversi e più complessi
rispetto alla semplice evoluzione fonetica priva di eccezioni prevista dalla dottrina neogrammatica.
In realtà tutti i linguisti successivi ai neogrammatici (e così anche Gilliéron) che si sono occupati di
cambiamenti linguistici hanno utilizzato le leggi fonetiche come uno strumento essenziale,
riconoscendo al tempo stesso che esse non spiegano tutti i fenomeni di cambiamento linguistico.
Bloomfield chiarì che con l’espressione “le leggi fonetiche non hanno eccezioni” si voleva dire che
i fattori non fonetici come la frequenza o il significato di forme linguistiche particolari non
interferiscono con il mutamento dei fonemi. Al posto di ‘legge fonetica’ egli utilizzava l’espressione ‘
corrispondenza fonetica regolare’: quando questa regolarità non si riscontra bisogna individuarne
le cause. In conclusione possiamo dire che nel dibattito sulle leggi fonetiche i neogrammatici
uscirono vincitori per quanto riguardava la metodologia della ricerca empirica, ma non riuscirono a
guadagnare il consenso generale per quanto riguardava la loro concezione linguistica.
Benedetto Croce (1866-1952) è l’esponente principale del neoidealismo italiano. Nell’opera
Estetica come scienza dell’espressione e linguistica generale (1902) definisce l’estetica come la
scienza del primo momento dello spirito, ossia quello della conoscenza intuitiva a cui segue il
momento della conoscenza logica o universale. Intuizione e concetto sono le uniche due forme
dello spirito conoscitivo. Estetica e logica sono le sole autentiche scienze. L’intuizione è qualcosa
di ben determinato e si identifica con l’espressione. L’espressione non è solo di carattere verbale,
ma ci sono espressioni musicali, pittoriche, ecc. anche se Croce finisce col trattare
prevalentemente l’espressione linguistica, cosicché la linguistica generale finisce a coincidere con
l’estetica (come mostra il titolo dell’opera). Dato che intuizione equivale ad espressione, si può dire
che ogni espressione sia irriducibilmente diversa dall’altra. Quindi l’estetica non può distinguere le
varie espressioni in generi perché una tale distinzione implicherebbe che esistono elementi comuni
alle varie espressioni. La linguistica non può distinguere classi di parole perché vorrebbe dire che
ci sono parole che svolgono la stessa funzione in espressioni diverse → le classi di parole sono
astrazioni: hanno solo valore empirico o pedagogico, sono una raccolta di schemi utili
all’apprendimento delle lingue, senza pretesa alcuna di filosofica verità. Di conseguenza la
linguistica scientifica coincide con l’estetica. Lo spazio che Croce lasciava alla linguistica come
scienza autonoma era molto ridotto: i concetti della disciplina sono utili solo allo scopo pratico → il
concetto stesso di lingua è un’astrazione. Anche se una linguistica come scienza autonoma
dovrebbe essere incompativile con l’accettazione dei principi crociano, alcuni studiosi trovarono
nelle dottrine di Croce lo spunto per elaborare teorie linguistiche da contrapporre a quelle dei
neogrammatici. Karl Vossler (1872-1949) compose l’opera Positivismo (=linguistica di
impostazione neogrammatica) e idealismo (=linguistica ispirata a Croce) nella scienza del
linguaggio. Vossler esclude la possibilità di una linguistica generale che non si identifichi con
l’estetica, mentre ammette la possibilità e la legittimità della linguistica storica: un’impostazione del
genere caratterizzerà non solo questo studioso, ma anche buona parte dei linguisti tedeschi e
soprattutto italiani della prima metà del Novecento.
In Italia il gruppo di linguisti che maggiormente si ispirò alle dottrine crociane fu quello dei
neolinguisti, tra cui vi sono Matteo Bartoli (1873-1946) e Giulio Bertoni (1878-1942). Il Breviario
di neolinguistica, che richiama il Breviario di estetica di Croce (1913), è suddiviso in due parti:
26
Principi generali di Bertoni; Criteri tecnici di Bartoli. I neolinguisti consideravano come propri
ispiratori Gilliéron (Bartoli aveva progettato AIS: Atlante linguistico italiano), Ascoli (per la polemica
contro i neogrammatici; tuttavia alcuni suoi allievi avevano accettato la dottrina neogrammatica →
sia neolinguisti che neogrammatici si credono legittimi eredi di Ascoli) e la linguistica idealista. I
neolinguisti opponevano il loro spiritualismo al materialismo e al naturalismo dei neogrammatici: la
neolinguistica si propone di trasformare la base dell’indagine naturalistica. Bartoli contrapponeva il
metodo dei neolinguisti a quello dei neogrammatici soprattutto per quanto riguardava “tre
domande” che i neolinguisti consideravano fondamentali e alle quali i neogrammatici non hanno
dato risposta:
1. Qual è il rapporto cronologico tra fasi storiche di una lingua?
Per rispondere a questa domanda Bartoli elaborò le sue norme areali. Norma dell’area isolata o
meno esposta: l’area più isolata conserva di solito la fase anteriore (ex: sardo conserva più
arcaismi di altre varietà romanze). Le altre norme sono quelle delle aree laterali, quella dell’area
maggiore e quella dell’area seriore. Sono norme, non leggi → indicano solo una prevalenza di
casi, non una regolarità ineccepibile. Neppure i neolinguisti potevano rinunciare alla nozione di
legge fonetica; quello che li oppone ai neogrammatici era l’interpretazione di questo concetto e la
concezione della linguistica.
2. Qual è la patria dell’innovazione linguistica?
3. Qual è la causa dell’innovazione linguistica?
Antoine Meillet (1866-1936) fu allievo di Saussure negli anni ’80, quando Saussure non aveva
ancora elaborato le sue teorie → le opere di Meillet non appaiono influenzate dalle idee
saussuriane più innovatrici. Egli accettò l’ineccepibilità delle leggi fonetiche e definiva la legge
fonetica come la formula di una corrispondenza regolare sia tra due forme successive che tra due
dialetti di una stessa lingua (cfr Paul). Egli ricerca leggi che possono non solo descrivere ma anche
spiegare i vari tipi di cambiamenti e superino le limitazioni spazio-temporali proprie delle leggi
fonetiche. Queste leggi ricondurranno a cause fisiche, fisiologiche, sociali, ecc. ma avranno un
carattere grammaticale. Esse indicheranno solo una possibilità: non si può mai prevedere a priori
quali cambiamenti si realizzeranno. Sono le situazioni storiche e sociali a determinare quali di
queste possibilità si realizzi: la linguistica è una scienza sociale ed il mutamento linguistico è legato
a quello sociale → scuola sociologica. Meillet sostiene che il metodo della grammatica comparata
non porta alla ricostruzione dell’indoeuropeo, ma ad un insieme definito di corrispondenze tra
lingue storicamente attestate. Egli adotta le posizioni neogrammatiche: afferma che il rapporto
dell’indoeuropeo rispetto all’ittito, al sanscrito, al greco ecc. è lo stesso di quello del latino rispetto
alla lingue romanze → l’indoeuropeo non aveva nessun particolare tratto “primitivo” che lo
distingueva, in termini di superiorità e inferiorità, alle lingue da esso derivate. Secondo lui una
“nazione” indoeuropea sarebbe esistita ma avrebbe avuto la forma frammentata delle città della
Grecia antica. La lingua non sarebbe stata uniforme ma costituita da diversi dialetti: la
differenziazione dialettale si sarebbe riprodotta in ciascun gruppo delle lingue romanze. Egli
considera più corretta la teoria delle onde di Schmidt, anche se non rinuncia del tutto ai concetti
dell’albero genealogico, in quanto ha una forte utilità pratica.
data lingua, e quelle dinamiche, che asseriscono che suoni identici sono soggetti a cambiamenti
identici. Per quanto riguarda lo studio statico dei suoni, la scuola di Kazan’ distingueva uno studio
puramente fisico da un altro riguardante il ruolo dei suoni nel differenziare i significati. Il primo tipo
di studio è detto ‘antropofonico’ e ha per oggetto tutti i suoni del linguaggio umano dal punto di
vista oggettivo della fisica e della fisiologia; ad esso si contrappone lo studio ‘fonetico’, ossia lo
studio dei suoni in rapporto con il senso delle parole. In certi casi, determinati suoni alternano gli
uni con gli altri per cause antropofoniche, cioè puramente fisiche. Ad esempio la s italiana è
sempre sorda davanti a consonanti sorde, come [s]tentato, sempre sonora davanti a consonanti
sonore, come [z]dentato → [s] e [z] vengono definiti suoni ‘divergenti’, a cui si oppongono suoni
‘correlativi’, cioè quelli la cui alternanza oppone due diverse categorie morfologiche come foot-feet,
tooth-teeth. Baudouin concludeva che le grandezze fonetiche che sono correlativi e corrispondenti
devono essere chiamati fonemi, termine coniato da Dufriche-Desgenettes per indicare il ‘suono del
linguaggio’. Nella scuola di Kazan’ questo termine venne utilizzato per la prima volta da
Kruszewski per designare l’unità fonetica che è opposta al termine suono, che designerebbe l’unità
antropomorfica. A Baudouin si deve la creazione del termine morfema, che indica l’unità minima
dotata di significato. Dopo aver lasciato l’università di Kazan’, Baudouin affrontò altre questioni di
linguistica teorica, storica e descrittiva, accettuando sempre di più l’impostazione psicologica. Tale
impostazione fu criticata da alcuni linguisti successivi come Trubeckoj e Jakobson. In sintesi
questa scuola aveva introdotto una distinzione fondamentale tra un aspetto concreto, fisico-
fisiologico, del linguaggio, costituito dai suoni, e un aspetto più astratto, quello dei fonemi.
Henry Sweet (1845-1912) si preoccupò principalmente della descrizione e dell’insegnamento delle
lingue moderne. I suoi contributi più importanti si devono nell’ambito della fonetica. Si rese conto
che l’ortografia di lingue come l’inglese e il francese non corrispondeva più alla pronuncia reale:
era necessario elaborare un sistema di trascrizione fonetica applicabile al maggior numero
possibile di lingue. Sweet si rese conto che questa trascrizione fonetica poteva essere di due tipi:
una trascrizione ‘stretta’, con fini scientifici, che riproduce tutte le proprietà di un determinato
suono, e una trascrizione ‘larga’, con finalità pratiche, che si limita ad indicare quelle distinzioni di
suono che corrispondono a variazioni di significato nella lingua (una distinzione simile era
statafatta da Baudouin). Sweet s’impegnò anche dal punto di vista organizzativo per il
rinnovamento dello studio delle lingue moderne. Il risultato più importante fu nel 1886 la
fondazione dell’International Phonetic Association (IPA), il cui impegno fu quello di creare un
alfabeto fonetico internazionale, che, con qualche aggiustamento, viene utilizzato ancora oggi.
Anche Otto Jespersen (1860-1943) fu attivo nei campi della fonetica e dell’insegnamento (Come
si insegna una lingua straniera). Egli affrontò anche i problemi riguardanti il linguaggio in generale;
si dedicò a ricerche di morfologia e sintassi. Jespersen adottò la prospettiva psicologistica, anche
se introdusse alcune novità. Egli tentò di costruire una logica del linguaggio (legame tra logica e
grammatica): da un lato il sistema grammaticale è organizzato in base a leggi proprie (logica del
linguaggio che si manifesta nella dottrina dei ‘tre ranghi’), dall’altro certe nozioni universali vengono
espresse nelle varie lingue tramite strutture sintattiche diverse. Tali nozioni sono chiamate
‘categorie nozionali’ alle quali si contrappongono le ‘categorie formali’: il rapporto tra questi due tipi
+ mediato dalle categorie sintattiche. La grammatica non deriva le sue categorie da quelle della
psicologia, ma ricorre a questa scienza per comprendere ciò che accade nella mente dei parlanti.
Egli afferma che solo una parte dei nostri enunciati consiste nella ripetizione di formule fisse,
mentre un ruolo decisivo è rivestito dalla creazione di enunciati nuovi (ossia espressioni libere)
costruiti in base a un determinato schema. Infatti il bambino, nonostante non conosca ancora le
regole grammaticali, riesce a costruire frasi complesse sulla base di quelle che ha sentito. La
dottrina dei tre ranghi (primario, secondario, terziario): Jespersen riconosce il rango che una parola
può assumere in una determinata configurazione sintattica dalla parte del discorso a cui tale parola
appartiene. Ad esempio un sostantivo può avere rango primario (se utilizzato come soggetto,
29
oggetto diretto o indiretto); secondario (in casi come weather report in cui weather è secondario e
report è primario); terziario (come part in emotions, part religious, part human); l’aggettivo ha
solitamente la funzione di secondario, eccetto quando è sostantivato che assume il rango primario;
gli avverbi hanno normalmente la funzione di terziario, più raramente possono essere il termine
primario; i verbi di forma finita possono essere soltanto termini secondari, mentre quelli all’infinito
tutti e tre i ranghi. Anche la classificazione delle proposizioni subordinate è riformulata secondo la
dottrina dei tre ranghi: subordinate oggettive e soggettive hanno funzione di termine primario, le
relative di termine secondario, le avverbiali di termine terziario. Jespersen introduce anche
l’opposizione tra ‘giunzione’ e ‘nesso’: egli non dà mai una definizione esplicita, ma è chiaro che
con il primo termine si riferisce alla connessione attributiva, col secondo alla connessione
predicativa.
significato il Vero e tutti quelli falsi il Falso. Egli introduce anche il ‘principio di composizionalità’
secondo cui il significato di un enunciato è ottenuto componendo i significati delle espressioni che
figurano in esso.
Russel e Wittgenstein sono due tra i più importanti filosofi del Novecento, la cui produzione è
particolarmente vasta. Bertrand Russel (1872-1970) con ‘descrizione definita’ intendeva
un’espressione introdotta da un articolo determinativo come ‘la stella del mattino’, ‘il re di Francia’
ecc.: queste espressioni erano fatte rientrare da Frege nella categoria dei nomi, ma Russel, pur
condividendo la distinzione tra senso e significato, non è d’accordo. Se così fosse un nome proprio
potrebbe essere sostituito da una descrizione definita che ha lo stesso significato, ovvero che
indica lo stesso oggetto, e questo ci condurrebbe a conclusioni paradossali. Ad esempio ‘l’attuale
re di Francia è calvo’: è vera o è falsa? Dato che la Francia è una repubblica → il re di Francia non
esiste → non può esserci un re di Francia calvo → poiché il primo enunciato è falso e le due
proposizione sono legate da congiunzione → tutta la proposizione è falsa. Questo problema era
stato già affrontato da Frege ed aveva concluso che la frase così posta era falsa, ma se veniva
inserita la negazione (‘l’attuale re di Francia non è calvo’) diventava vera. Noi non saremmo
d’accordo in quanto il re di Francia non c’è. Secondo lui il problema è che ‘l’attuale re di Francia’ è
un’espressione priva di significato: pertanto anche l’enunciato che la contiene è privo di significato;
e dato che il significato di un enunciato è il suo valore di verità, tale enunciato non è né vero né
falso. La presupposizione di un enunciato A è dunque l’enunciato B che deve essere vero perché
A possa avere un valore di verità. Russel aveva presente la soluzione di Frege, ma ritiene che la
frase sia ambigua, poiché vuol dire tanto “esiste un’entità che è ora il re di Francia e questa entità
non è calva” quanto “è falso che esista un’entitàche ora è il re di Francia ed è calva”. Il dibattito su
quale sia la soluzione più corretta tra quella di Frege e Russel non è ancora risolta. Entrambi gli
studiosi condividevano un analogo atteggiamento nei confronti del linguaggio naturale, considerato
imperfetto: nel caso di Frege, perché contiene nomi senza significato; nel caso di Russel, perché la
forma grammaticale della proposizione è diversa dalla sua forma logica. Anche Ludwing
Wittgenstein (1889-1951) ha un atteggiamento di svalutazione del linguaggio naturale. Il
Tractatus logico-philosophicus ha come scopo quello di mostrare come la struttura imperfetta del
linguaggio naturale sia all’origine dell’insensatezza di molte questioni filosofiche. La sua opera
conteneva anche molte osservazioni di grande rilievo su argomenti di logica, di epistemologia e
anche di etica. Questo è uno dei testi alla base del neopositivismo, anche se Wittgenstein non
aderì esplicitamente. Secondo lui il mondo è un insieme di ‘stati di cose’: le proposizioni elementri
sono immagini di stati di cose. Significa che ad ogni elemento della realtà deve corrispondere un
determinato ‘segno semplice’ nella proposizione e che le relazioni tra i vari elementi devono essere
rispecchiate da quelle tra i segni semplici. Wittgenstein considera i nomi e le proposizioni come le
due categorie fondamentali di segni, come Frege, ma attribuisce il ‘significato’ soltanto ai nomi e il
‘senso’, ovvero lo stato di cose che descrivono, soltanto alle proposizioni. Se questo stato di cose
sussiste, la proposizione è vera; altrimenti, è falsa. Nel caso in cui uno dei segni semplici di cui è
costituita la proposizione è privo di significato, cioè non corrisponde ad alcun oggetto della realtà,
la proposizione non è falsa, ma ‘insensata’. Secondo lui le proposizioni della metafisica
tradizionale possono essere benissimo comprensibili, ma nessuna di essa è sensata, perché
contengono nomi a cui non corrispondono oggetti reali → rifiuto della filosofia. A partire dalla
seconda metà del Novecento Wittgensteoi elaborò una nuova concezione del linguaggio in cui le
nozioni di verità e riferimento ebbero poco spazio e diede inizio a quella filosofia del linguaggio
ordinatio che divenne la ase della pragmatica linguisica.
La sistemazione organica di questo tipo di semantica si ebbe con Albert Tarski (1901-1983). Egli
ritiene che la considizione necessaria e sufficiente affinché un enunciaro sia vero è espressa nel
modo seguente: (I) l’enunciato “la neve è bianca” è vero (in italiano) se e solo se la neve è bianca.
Per comprendere questo enunciato, che potrebbe sembrare banale, è necessario distinguere tra
31
l’utilizzazione concreta. Nei suoi appunti, Saussure indica una terza distinzione, quella di
langage che, non solo è definito come l’oggetto multiforme da suddividere in langue e
parole, ma è anche la facoltà che permette agli esseri umani di acquisire una lingue (><
Gabelentz.
2) sincronia vs. diacronia => Saussure definisce la diacronia come una serie di avvenimenti
indipendenti l’uno dall’altro, mentre la sincronia riguarda sempre il rapporto tra elementi
simultanei. La sincronia è un sistema (pl. Gäste >< sg. Gast); la diacronia è invece un
insieme di cambiamenti irrelati l’uno con l’altro e che si producono fuori da ogni intenzione
(gasti < Gäste). I fatti sincronici sono sistematici e significativi, quelli diacronici isolati e
ateleologici. Lo studio sincronico comincerà a prevalere su quello diacronico. Questa
opposizione induce Saussure a rielaborare il concetto di legge linguistica: un’entità sociale
che deve essere ‘imperativa’ e ‘generale’ e imporsi a tutti, entro certi limiti di tempo e luogo.
Le leggi sincroniche sono generali ma non imperative in quanto descrivono una regolarità
che può essere violata, dando origine a un nuovo stato di lingua; le leggi diacroniche sono
invece imperative, perché registrano corrispondenze che si sono sempre verificate, ma non
sono generali perché non riguardano il sistema nel suo complesso. NON esistono leggi nel
senso giuridico e un punto di vista pancronico non raggiunge mai i fatti particolari di una
lingua.
3) significante/signifiant vs. significato/signifié => il segno linguistico è un’entità psichica a
due facce, un concetto e un’immagine acustica, ed è arbitrario. Il rapporto tra significato e
significante, non è prima di tutto un rapporto tra linguaggio e realtà ma un rapporto interno
al linguaggio stesso. Il segno ha un rapporto determinato solo dal suo rapporto con gli altri
segni del sistema linguistico a cui appartiene. il significato è il valore dal punto di vista del
contenuto, il significante dall’espressione. Il valore di un segno è puramente differenziale e
oppositivo: è lo spazio che non è occupato dagli altri segni. Le lingue sono insiemi di valori
determinati dal loro rapporto reciproco, che si riferiscono alla realtà in modi diversi: ogni
lingua si rapporta diversamente alla realtà e ogni significato è distinto da altrettanti
significati. Dato che i segni linguistici non hanno alcun valore intrinseco, l’unica garanzia
della loro stabilità sta nel fatto che appartengono a un sistema condiviso da un gruppo
sociale, la langue (linguistica parte della semiologia, che studia la vita dei segni nel quadro
della vita sociale).
4) rapporti sintagmatici vs. rapporti paradigmatici (associativi) => unica divisione
razionale della grammatica. I rapporti paradigmatici appartengono alla langue; per ciò che
riguarda quelli sintagmatici, De Mauro è giunto alla conclusione che le frasi e i sintagmi
appartengono alla parole in ciò che hanno di dipendente dalla volontà individuale, quindi
non in tutta la loro realtà.
33
SCUOLA DI PRAGA. È la scuola che mostra più coesione interna: tra i suoi membri ricordiamo
Mathesius, fondatore nel 1926 del ‘Circolo linguistico di Praga’, Jakobson e Trubeckoj.
Quest’ultimo è noto soprattutto per i suoi studi di fonologia; tra i suoi risultati, la nozione di lega
linguistica (Sprachbund), cioè l’insieme di quelle lingue che mostrano caratteri comuni sviluppati
per contatto reciproco, e un ripensamento della nozione di ‘famiglia linguistica indoeuropea’, cioè
un insieme di lingue i cui caratteri comuni derivano da una stessa lingua madre. Distinguendo lega
linguistica da famiglia linguistica ma sostenendo la necessità di entrambe le nozioni, Trubeckoj
veniva a conciliare la teoria delle onde di Schmidt con il modello ad albero genealogico di
Schleicher. Le posizioni della Scuola di Praga, negli anni ’30 del novecento, si possono riassumere
in: a) un atteggiamento antistoricistico; b) una concezione dinamica del sistema linguistico; c)
antipsicologismo; d) un interesse per i fenomeni di convergenza linguistica (lega linguistica); e)
un’attenzione per i problemi del linguaggio poetico. L’impostazione si può definire srtuttural-
funzionalista.
SCUOLA DI COPENAGHEN. Fondata nel 1931, i componenti più importanti erano Brøndal e
Hjelmslev, entrambi condividevano un punto di vista decisamente strutturalista. Mentre il primo
sosteneva che il linguaggio si basava sulla logica e cercava di fornire un’analisi basandosi sugli
strumenti della logica, lo scopo del secondo era quello di fondare la linguistica sulla logica, nel
senso di logica della scienza. Brøndal definiva la struttura come un oggetto autonomo e di
conseguenza come non derivabile dagli elementi di cui non è né l’aggregato né la somma.
Potremmo definire il funzionalismo come il tentativo di spiegare le strutture del linguaggio in base
al suo uso come strumento di comunicazione. Per Bally, il linguaggio naturale comprende tanto un
aspetto ‘intellettuale’ quanto un aspetto ‘affettivo’: l’uso concreto del linguaggio implica sempre una
relazione dialogica, in cui il parlante non solo vuole trasmettere all’ascoltatore determinati
contenuti, ma anche comunicargli le sue emozioni, raggiungere determinati scopi etc. (>> affettività
ed espressività). Lo studioso chiama ‘stilistica’ la disciplina che deve descrivere l’azione combinata
dell’aspetto intellettuale e dell’aspetto affettivo del linguaggio: il suo compito è cercare i tipi
espressivi che, in un periodo dato, servono a realizzare i moti del pensiero e del sentimento dei
soggetti parlanti e studiare gli effetti prodotti spontaneamente nei soggetti che ascoltano. Il
contrasto tra langue e parole è da lui interpretato come ‘attualizzazione’, intendendo il fatto che
tutti i concetti di langue sono virtuali e nella realtà gli oggetti devono essere accompagnati da
‘attualizzatori’ (es. deittici); la langue precede la parole dal punto di vista statico, viceversa nella
genesi del linguaggio. Mathesius tracciava una distinzione tra un modo ‘statico’ e uno ‘dinamico’
di analizzate il linguaggio (sincronia><diacronia). Un aspetto importante delle sue ricerche riguarda
la sintassi: adottando un’impostazione funzionalistica, l’analisi della frase è di puro impianto
comunicativo ed è definita ‘concreta’ distinta da quella ‘formale’. L’analisi formale suddivide la frase
in soggetto e predicato, mentre quella concreta in tema e rema (enunciazione, ciò che si dice a
proposito del tema): entrambe sono necessarie perché non sempre coincidono. Al termine della
discussione generale tenuta nel 1928 al Congresso dell’Aja, i due gruppi di studiosi decisero di
fondere le proprie tesi in una formulazione comune, articolata in sei punti. Assistiamo all’incontro
tra sincronia e diacronia e la concezione di sistema. I praghesi superano il neogrammaticismo di
Saussure, che lo portava a parlare di sistema sincronico ma non di sistema diacronico, affermando
che le esigenze del sistema governano anche la diacronia. Le varie posizioni furono riprese e
ampliate nelle dieci Tesi del ’29. La prima (Mathesius + Jakobson) s’intitola Problemi di metodo
derivanti dalla concezione della lingua come sistema (e importanza di tale concezione per le lingue
slave): sottolinea che la lingua è un sistema di mezzi di espressioni appropriati a un fine; l’analisi
sincronica è il mezzo più adeguato per studiare una lingua ma l’opposizione con la diacronia non è
da interpretare in modo assoluto; la comparazione è utile non solo per ricostruire l’origine comune
di lingue apparentate geneticamente ma anche per scoprire leggi strutturali dei sistemi linguistici; si
parla di concatenamento secondo le leggi dei fatti evolutivi, i cambiamenti linguistici non sono più
fenomeni isolati. La seconda tesi (Jakobson), Compiti da affrontare per lo studio di un sistema
linguistico, è divisa in due parti: la parte a riguarda lo studio dei suoni; la parte b lo studio della
parola e dei gruppi di parole. I praghesi distinguono tre discipline: la teoria della parola come
denominazione; la teoria dei processi sintagmatici e la morfologia del nuovo senso che è la teoria
dei sistemi delle forme di parole e gruppi. La terza tesi (Jakobson + altri), Problemi di ricerche
intorno alle langues di diverse funzioni, si dedica alle funzioni della lingua, alla lingua letteraria e
alla lingua poetica. La prima parte afferma che se non si tiene conto della diversità di funzioni della
34
lingua, il suo studio non può essere adeguato; le distinzioni funzionali da distinguere sono quelle
tra linguaggio interno e manifesto e tra ‘intellettuale’ e ‘affettivo’. Jakobson riprenderà le funzioni
del linguaggio sostenendo che sono in totale sei: la funzione emotiva (emittente), la funzione
conativa (destinatario), la funzione referenziale (contesto), la funzione metalinguistica (codice), la
funzione fàtica (canale di comunicazione) e la funzione poetica (messaggio).
La fonologia praghese indica una teoria precisamente elaborata da questi linguisti. Gli aspetti più
importanti sono:
1. fonetica >< fonologia => la prima può essere definita come scienza del lato materiale del
linguaggio umano (i suoni), la seconda deve studiare quali differenze di suono in una data
lingua sono collegate a differenze di significato. Le particolarità acustiche/articolatorie,
importanti per il fonetista, sono irrilevanti per il fonologo.
2. concetto di fonema (jakobson + Trubeckoj) => chiamiamo fonemi le unità fonologiche che,
dal punto di vista di una data lingua, non si possono dividere in unità fonologiche minori
susseguentisi: sono la più piccola unità fonologica di una data lingua. L’unità fonologica è
quella che distingue i significati, è pertinente: il fonema è l’insieme delle proprietà
fonologicamente pertinenti di una data lingua, mentre il suono linguistico è l’insieme di
quelle pertinenti e non. Secondo le quattro regole elaborate da Trubeckoj, per essere
considerati realizzazioni di due fonemi diversi, due suoni devono poter ricorrere nella
stessa posizione e produrre un cambiamento di significato (coppia minima). Al concetto di
fonema si contrappone quello di variante, cioè di realizzazione diversa di uno stesso
fonema il cui scambio non produce cambiamento di significato. Le varianti si distinguono in
facoltative (suoni diversi che ricorrono nella medesima posizione senza produrre
cambiamento d significato: r francese) e combinatorie (realizzazioni di uno stesso fonema
in contesti diversi)
3. classificazione logica delle opposizioni distintive => Trubeckoj osserva che per opporre due
entità bisogna che esse abbiano almeno una proprietà in comune. Le opposizioni si
classificano in base a tre diversi punti di vista: a) il loro rapporto con l’intero sistema di
opposizioni; b) il rapporto tra i membri dell’opposizione; c) la misura della loro validità
distintivi. Nel primo caso abbiamo opposizioni bilaterali (t >< d), plurilaterali (d >< g >< b),
proporzionali, quando il rapporto tra due membri e identico al quello tra membri di un’altra
opposizione, e isolate (p >< [ ∫ ]). Nel secondo caso ci sono opposizioni privative, quando
uno dei suoi membri è caratterizzato da un tratto assente nell’altro (marcato >< non
marcato), graduali, quando una stessa proprietà è realizzata in gradi diversi, ed
equipollenti, in cui i membri stanno logicamente su un piano di parità (patto >< tatto). Il
terzo caso contiene opposizioni costanti e neutralizzabili: la neutralizzazione è un
fenomeno non marcato, mentre il membro opposto è marcato.
4. principi di fonologia storica => il mutamento di suono può non avere effetti fonologici. Si
parla di ‘defonologizzazione’ quando il mutamento di suono abolisce un’opposizione tra
fonemi, mentre si parla di ‘fonologizzazione’ se diventano due fonemi diversi (+
‘rifonologizzazione’, cioè modifica di un’opposizione rispetto alla precedente). Il compito del
cambiamento è ristabilire l’equilibrio, tenendo conto però della possibilità di creare rotture in
altri punti del sistema. Il metodo di Jakobson è definito integrale e si basa sul principio che
ogni modificazione deve essere trattata in funzione del sistema all’interno del quale si è
verificata; adotta un punto di vista sistematico e finalistico superando l’eredità lasciata dai
neogrammatici. Queste osservazioni accentuarono la concezione della linguistica propria
dello strutturalismo, ossia come scienza autonoma, fondata unicamente sulle nozioni di
funzione e struttura, non riconducibile alla metodologia di nessun’altra scienza.
Nelle sue ricerche in ambito fonologico, Jakobson si concentrò su due aspetti: l’acquisizione del
sistema fonologico da parte di un bambino e la sua perdita da parte dell’afasico e una teoria
generale delle opposizioni fonologiche in termini di presenza o assenza di tratti (binarismo). Per la
sua prima ricerca, Jakobson ritiene che l’ordine di acquisizione dei suoni linguistici da parte del
bambino è speculare a quello della loro perdita da parte dell’afasico: i suoni appresi per ultimi dal
bambino sono persi per primi dall’afasico e viceversa. Queste leggi generali dell’acquisizione si
riconducono a leggi generali della struttura dei sistemi fonologici (es. le fricative non vengono
acquisite prima delle occlusive = non esistono sistemi di lingue che hanno fricative ma non
35
occlusive). Questi enunciati hanno forma implicazionale e sono ‘leggi fonetiche generali’:
intendono essere valide per tutte le lingue del mondo e hanno il loro fondamento nella struttura
generale dei sistemi fonologici, diversamente dalle leggi dei neogrammatici, limitate nel tempo e
nello spazio. La prima formulazione del binarismo di Jakobson risale agli anni ’30 ma la sua
elaborazione è del dopoguerra: l’innovazione consiste nell’affermare che i fonemi sono binari, cioè
caratterizzati dalla presenza o dall’assenza di determinati tratti distintivi, indicati rispettivamente
con i segni ’+’ o ‘-‘ (± vocalico, ± consonantico, ecc.). I tratti sono ipotizzati come universali: in
qualsiasi lingua, i fonemi non possono contenere che questi tratti; le differenze tra varie lingue
sono dovute al fatto che non tutti i tratti sono presenti in tutte, oltre al fatto che certi fonemi
possono avere un valore in una lingua e il valore opposto in un’altra. I tratti binari proposti sono 12.
Martinet (fondatore del ‘Circolo linguistico di New York) ampliò i suoi orizzonti alla fonologia
generale, diacronica e alla teoria generale del linguaggio. Una delle sue preoccupazioni è
individuare le proprietà che distinguono il linguaggio umano da altri sistemi chiamati ‘linguaggi’
come quelli delle varie specie di animali o i codici internazionali. Tali proprietà sono: la funzione
comunicativa, la natura fonica (il linguaggio naturale è essenzialmente un fenomeno vocale) e la
doppia articolazione il fatto che le lingue naturali sono analizzabili in due diverse specie di unità:
quelle di ‘prima articolazione’, cioè i segni, che sono dotati di significante e significato e sono un
numero illimitato; la ‘seconda articolazione’, cioè i fonemi che non hanno un significato proprio ma
sono solo distintive del significato e sono di numero molto limitato. Il fatto che il linguaggio sia
doppiamente articolato è probabilmente dovuto a un motivo di economia. Nel suo lavoro di
fonologia diacronica, Martinet dà importanza non solo ai ‘fattori interni’ ma anche a quelli ‘esterni’
nel cambiamento fonetico: con i primi si intendono quelli relativi al sistema linguistico, con i secondi
ci si riferisce a elementi di condizionamento dati da diversi fattori. La nozione fondamentale è
quella di ‘economia’: da un lato la tendenza a ricorrere al minor numero di elementi e dall’altro
quella di tenerli il più possibile distinti. Egli rifiuta il binarismo di Jakobson, considerandolo troppo
aprioristico, e afferma che un fonema può avere più di due tratti: senza una robusta evidenza
empirica alcune ipotesi non possono nemmeno essere avanzate. Martinet riformula in termini di
economia i fenomeni di mutamento extrafonologico (mutamenti privi d’incidenza sul sitema);
rifonologizzazione (aumento del grado d’integrazione nel sistema); defonologizzazione
(abbandono di opposizioni fonematiche che non offrivano vantaggi) e fonologizzazione
(trasferimento di alcuni tratti distintivi da un segmento all’altro della catena). Riassumere in
concetto di equilibrio del sistema: le lingue sono mutevoli e devono continuamente adattarsi alle
circostanze, per cui è impossibile raggiungere un equilibrio completo.
Hjelmslev, della Scuola di Copenaghen, tenta di fondare la linguistica di Saussure sulla filosofia
della scienza neopositivista. Insieme a Uldall elabora la teoria della glossematica: la parola
glossema indica un’unità minima di analisi su qualunque livello. A questa linguistica ‘trascendente’
si contrappone una linguistica ‘immanente’, cioè rivolta solo all’analisi dell’insieme di dipendenze
che costituiscono la struttura di una lingua: la glossematica avrebbe dovuto essere applicata a
tutte le strutture analoghe al linguaggio naturale, ma questo progetto fallì. Per Hjelmslev, la teoria
linguistica deve essere ‘arbitraria’ e ‘adeguata’, cioè indipendente da qualsiasi esperienza,
costituente un sistema deduttivo e che rispetta l’esperienza precedente. Le entità linguistiche
fondamentali sono le funzioni, che costituiscono il principio che sta alla base di quello di
dipendenza e perciò vero principio inerente e costitutivo della struttura. Il compito del linguista
consiste nel ridurre le dipendenze a funzioni = termine che si riferisce alle dipendenze interne che
costituiscono la stessa struttura. Queste dipendenze sono di tre tipi: se i due termini si
presuppongono reciprocamente, si dicono ‘interdipendenze’; se uno dei due termini presuppone
l’altro ma non viceversa, ‘determinazioni’; se i due termini sono compatibili ma nessuno dei due
presuppone l’altro, ‘costellazioni’ (+ combinano con asse dei rapporti sintagmatici e paradigmatici).
Hjelmslev dà importanza all’interdipendenza tra espressione e contenuto: un’espressione è tale
grazie al fatto che è espressione di un contenuto e un contenuto è tale solo in quanto contenuto di
un’espressione. Per analizzare il segno linguistico bisogna partire dalla forma e non dalla sostanza
che vive solo grazie alla forma. Mentre gli studiosi della scuola di Praga limitano la ‘doppia
articolazione’ al piano dell’espressione, Hjelmslev sostiene che entrambi i piani sono analizzabili in
unità più piccole del segno, unità di numero limitato, che egli chiama figure. I fonemi sono le ‘figure
dell’espressione’ mentre le ‘figure del contenuto’ sono le unità semantiche minime che formano le
unità semantiche più grandi (‘uomo’, contenuto di ‘umano’, ‘maschio’, ’adulto’). Le figure
36
l’altro ‘subordinato’ e insieme formano un nodo verbale. Tesnière elabora degli schemi a cui dà il
nome di ‘stemmi’, che forniscono l’ordine strutturale della frase: il nodo più alto di uno stemma è
detto ‘nodo centrale’ ed è sempre il verbo. All’ordine strutturale si oppone l’ordine lineare, la
successione delle parole nella frase. In un gruppo nominale, articolo e aggettivo sono subordinati
al nome. Il modo in cui le varie lingue realizzano questa quadratura è alla base della
classificazione tipologica, di tipo sincronico, mentre la classificazione di tipo diacronico è quella
genealogica; la prima si basa sulla comunanza di struttura, la seconda sulla comunanza di origine
tra le lingue. Ci sono due tipi di ordine lineare: uno discendente, dove il reggente precede il
subordinato, e uno ascendente, dove il subordinato precede il reggente. La prima distinzione sarà
tra lingue centrifughe e centripete; l’ordine può essere marcato oppure attenuato (quest’ultimo si
ha nelle lingue in cui un determinato ordine è prevalente ma anche l’altro può presentarsi).
Tesnière non si limita a costruire ‘stemmi’ per ciascuna delle varie frasi che analizza ma elabora
anche degli schemi virtuali che possono rappresentare tutte le frasi di identica struttura. Egli
definisce ‘parole piene’ i sostantivi, gli aggettivi, i verbi e gli avverbi (O,A,I,E = schemi costruiti
mediante queste lettere). Il concetto di valenza è quello più noto della teoria sintattica dello
studioso, tanto che si parla di ‘grammatica della valenza’. Il verbo è l’elemento fondamentale della
frase e può esercitare la sua forza di attrazione su un numero maggiore o minore di attanti del
processo espresso dal verbo. La frase contiene altri elementi, detti circostanti, che esprimono le
condizioni in cui questo processo ha luogo. Gli attanti sono sempre dei nomi o degli equivalenti di
nomi, mentre i circostanti sono avverbi o equivalenti di avverbi; i primi sono obbligatori, i secondi
facoltativi. Il numero degli attanti varia secondo la classe a cui appartiene il verbo; i verbi privi di
attanti sono chiamati ‘zero-valenti’ (= impersonali); i verbi che richiedono un solo attante sono
‘monovalenti’ (= intransitivi); due attanti, ‘bivalenti’ (= transitivi) e infine, tre attanti, ‘trivalenti’ (=
dire, fare). Tesnière non assegna nessun ruolo particolare al soggetto che è rappresentato come
un attante al pari degli altri; distingue semplicemente tra primo e secondo attante (soggetto e
oggetto) abbandono esplicito di un’analisi della frase in soggetto e predicato, fondata su una
sovrapposizione ingiustificata delle categorie logiche su quelle grammaticali.
SCUOLA DI LONDRA. Gruppo di linguisti formato da Firth, titolare della prima cattedra generale di
Linguistica Generale in Gran Bretagna, e dai suoi allievi. In Gran Bretagna la linguistica storico-
comparativa si sviluppò per l’influsso degli studiosi tedeschi, contemporaneamente allo studio delle
lingue moderne, a opera di Sweet + Jones nuova definizione di fonema: famiglia di suoni
linguistici pronunciati in una data lingua, che dal punto di vista pratico contano come se fossero un
solo identico suono ≠ Trubeckoj. I linguisti britannici erano a conoscenza delle teorie del continente
ma non le condividevano a pieno. Gardiner elabora i concetti saussuriani di langue e parole in
termini di speech e language: il primo indica un insieme di reazioni agli stimoli esterni al fine di
ottenere collaborazione da parte di altre persone (frase); il secondo indica la parola. Le parole
appartengono alla memoria del parlante e dell’ascoltatore e hanno un carattere diacronico, mentre
le frasi vengono enunciate in un particolare istante e quindi sono sincroniche. Per Firth è centrale
la nozione di contesto e in particolare contesto di situazione, con cui si intende il partecipante o i
partecipanti umani, quello che dicono e ciò che avviene. La sua linguistica si basa sull’analisi del
processo comunicativo nel comportamento dei singoli esseri umani e delle singole situazioni:
esistono dei contesti di situazione tipici, all’interno dei quali è possibile descrivere e classificare tipi
di funzione linguistica (costrutto schematico da applicare a venti ripetitivi in contesto sociale). Il
linguaggio è un insieme di comportamenti socialmente definiti dei quali è possibile costruire una
tipologia; modo di agire e far si che gli altri agiscano, efficienza pragmatica inserito in un
contesto l’essere umano apprende quegli elementi che gli permettono di comunicare come il suo
partner si aspetterebbe. Il significato non appartiene alle parole e alle proposizioni ma è una
funzione del contesto di situazione, in cui sono coinvolte grammatica, lessicografia, semantica e
fonetica: lo studio di un livello deve tener conto dei risultati degli altri livelli. Firth ha elaborato
anche i concetti di:
fonologia prosodica => con il termine prosodia, il linguista non intende solo le entità come
l’accento, l’intonazione, ecc., ma anche qualunque entità definita in base alla sua funzione
nella catena parlata. La distinzione tra elementi fonematici e prosodie dipende dalla
struttura di ogni singola lingua (vocale neutra in inglese /ə/)
38
39
chiamata classe di forme. La nozione di classe di forme deve sostituire quella tradizionale di ‘parte
del discorso’, la cui definizione è basata su criteri semantici troppo vaghi per poter essere utilizzata
in un discorso scientifico. Per individuare le classi di forme, Bloomfield ha elaborato l’analisi in
costituenti immediati: un costituente è un componente di una forma complessa ed è immediato
quando non fa parte di un altro costituente; si applica tanto alla sintassi quanto alla morfologia
perché si applica sia a gruppi di parole sia a parole singole. I costituenti immediati vengono
individuati, per la maggior parte, in base all’intuizione dei parlanti. I costituenti di una forma
complessa, considerati nei loro rapporti reciproci, formano una costruzione: endocentrica, quando
un sintagma ha la stessa funzione di uno o più dei suoi costituenti, esocentrica, quando un
sintagma non ha la stessa funzione di nessuno dei suoi costituenti immediati. Bloomfield mette in
risalto l’aspetto creativo del linguaggio: dato che la maggior parte delle forme linguistiche è
regolare, un parlante che conosca i costituenti e la struttura grammaticale può pronunciarle senza
averle mai udite; l’osservatore non può sperare di elencarle poiché le possibilità di combinazione
sono infinite. Questa possibilità di creare combinazioni nuove si basa sul meccanismo
dell’analogia, che permette al parlante di pronunciare forme linguistiche che non ha mai udito;
pronuncia per analogia le forme che ha udito.
La linguistica statunitense tra gli anni trenta e cinquanta è nota come linguistica post-
bloomfieldiana: alcuni dei più importanti esponenti, come Harris e Hockett, furono
considerevolmente influenzati da Sapir. Il discrimine temporale è dovuto al fatto che, a partire dagli
anni cinquanta, coloro che si dedicavano a questo tipo di studi linguistici dovettero subire la
concorrenza della grammatica generativa di Chomsky. Della linguistica strutturale americana
possiamo distinguere due periodi: uno dalla metà degli anni trenta, subito dopo la pubblicazione di
Bloomfield, fino ai primi anni cinquanta, dove assistiamo a un approfondimento e un
perfezionamento delle nozioni e delle tecniche elaborate da B., e uno successivo, durante il quale
si elaborarono modelli nuovi. Nel primo periodo si accentuarono il comportamentismo e il
distribuzionalismo. Hockett definisce un atto di linguaggio come un’entità del comportamento
umano con certe caratteristiche fisiologiche e sociologiche. Harris da la definizione di distribuzione
di un elemento come il totale di tutti i contesti in cui ricorre, ossia la somma di tutte le posizioni (o
occorrenze) di un elemento rispetto all’occorrenza degli altri elementi. La linguistica strutturale
americana cerca di definire tutte le unità linguistiche in base ai contesti in cui ricorrono in una
determinata lingua. Generale impostazione proceduralista: il compito fondamentale del linguista è
visto come quello di elaborare delle procedure per individuare i fonemi, morfemi, classi di parole,
ecc. di una data lingua, preferibilmente una lingua non studiata in precedenza (> l. amerindiane)
seguire principio della separazione dei livelli, non ci deve essere circolarità. Livelli di analisi:
analisi struttura fonologica: nell’individuazione del fonema evitano ricorso al significato ma
‘test di sostituzione’ (pronunciare fonema modificato e registrare reazione dell’ascoltatore
nativo), di matrice comportamentista + Twaddell che afferma che il fonema è un’entità
fittizia, strumento terminologico nella descrizione delle relazioni fonologiche che esistono
tra gli elementi di una lingua (no identici a strettamente simili), entità astratta ma non per
questo priva di giustificazione + fonema = classe di suoni e allofoni = suoni diversi che
appartengomo alla stessa classe rappresentata da un fonema, con distribuzione
complementare (Whorf);
morfofonemica: (Bloch) studio dell’alternanza tra fonemi corrispondenti in forme diverse
dello stesso morfema (wife – wives). Il morfo è la singola forma di un morfema mentre le
forme o rappresentazioni del medesimo morfema sono i suoi allomorfi: un morfema può
essere rappresentato da un solo morfo ma esistono morfi vuoti, o un morfo che si adatta a
due o più morfemi, no corrispondenza biunivoca (Hockett). Ogni unità grammaticale è
analizzata come la combinazione di morfi, i quali rappresentano morfemi che possono
anche essere discontinui. Approfondita analisi dei costituenti immediati + procedimento dal
morfema all’enunciato (Harris).
Risultato scuola strutturalista americana sta nell’aver posto con chiarezza alcuni obiettivi senza
però dare delle soluzioni soddisfacenti dopo anni cinquanta insufficienza metodi puramente
distribuzionali con necessità di avere metodi > astratti.
41
4.1 La ‘rivalutazione’ del linguaggio naturale nei logici e nei filosofi del linguaggio
Negli studi degli anni ’30-’40 il linguaggio naturale comincia a essere considerato un’entità da
contrapporre ai linguaggi formai in termini di diversità. Il primo segnale di svolta è rappresentato da
Morris che intendeva tracciare i lineamenti della semiotica (teoria generale dei segni, scienza che
studia cose o proprietà di cose fungenti dai segni e perciò strumento di tutte le scienze). Egli parte
dalla nozione di ‘semiosi’, il processo in cui qualcosa funziona come segno: questo processo si
articola attraverso tre componenti + uno un segno (veicolo segnico) si riferisce a un’entità
(designatum), tramite una certa relazione (interpretante), per un utente del segno stesso
(interprete). La novità di Morris sta nell’aver individuato tre tipi di relazioni all’interno del processo
di semiosi: quella ‘sintattica’, che studia il rapporto dei segni tra loro, quella ‘semantica’, che
riguarda le relazioni dei segni con gli oggetti cui sono applicabili, e quella ‘pragmatica’ che segna la
relazione dei segni con gli interpreti (= pragmatica è una scienza). La pragmatica è una
dimensione propria del linguaggio naturale che porta l’individuo a utilizzare determinate frasi in
contesti specifici. Carnap riprende quasi letteralmente le distinzioni di Morris ma oppone una
sintassi e una semantica ‘pure’, studio dei ‘sistemi semantici’ e ‘sintattici’, alle corrispondenti
discipline ‘descrittive’, che consistevano nella ‘analisi empirica’ delle proprietà semantiche e
sintattiche delle lingue storicamente date. Carnap osserva che una volta che le caratteristiche
semantiche e sintattiche di una lingua sono state scoperte mediante la pragmatica, lo studio di
queste discipline procede in modo indipendente e conclude che la sintassi e la semantica sono
indipendenti dalla pragmatica.
I primi lavori di pragmatica destinati a lasciare un’impronta decisiva nella linguistica e filosofia del
linguaggio si devono a Austin e al ‘secondo Wittengstein’. Nella sua nuova fase di pensiero,
Wittengstein ribalta la prospettiva adottata in precedenza, dove presentava una concezione del
linguaggio umano secondo cui le parole denominano oggetti (presenta in S. Agostino): il significato
delle parole consiste, ora, nel loro uso da parte dei parlanti. Il ruolo della pragmatica è
notevolmente accresciuto in quanto non esistono designata indipendenti dal loro uso e, quindi, non
può esistere, almeno nel linguaggio naturale, una pragmatica indipendente dalla semantica. In
questa prospettiva cambia anche l’atteggiamento nei confronti del rapporto tra ‘forma
grammaticale’ e ‘forma logica’: la ‘forma grammaticale’ è perfettamente legittimata dal suo impiego,
non è più un travestimento di quella ‘logica’ era stato un errore voler giudicare il linguaggio
naturale confrontandolo con i linguaggi della logica e della matematica: rivalutazione proprio da
parte di uno di coloro che aveva tentato di svalutarlo. La concezione di linguaggio naturale come
insieme di pratiche caratterizza anche il pensiero di Austin. Il suo punto di partenza è costituito
dalla nozione di enunciato performativo, che serve a compiere un’azione (‘Chiedo scusa’),
contrapposto a quello constativo, caratterizzato dalla proprietà di essere vero o falso. L’enunciato
performativo, può essere criticato in una dimensione diversa da quella del vero e del falso che
Austin chiama ‘felicità’: un enunciato può essere ‘felice’ solo se vengono soddisfatte determinate
condizioni, altrimenti è ‘infelice’. Una volta introdotta la distinzione tra i due enunciati, lo studioso
cerca di superarla:
esiste una forma normale dei performativi? NO, grande varietà di forme grammaticali (ES.
‘Le do il benvenuto’; ‘Stai zitto’; ‘Cane’) non possiamo attenderci alcun criterio verbale
del performativo);
le nozioni di ‘felicità’ e di ‘verità’ possono coinvolgere sia i performativi sia i constativi;
una proposizione troppo netta è inadeguata perché un enunciato può essere vero o falso a
seconda delle sue circostanze di impiego e di chi lo impiega (‘La Francia è esagonale’ può
andare bene per i generali ma non per i geografi, asserzione approssimativa);
proferendo un enunciato, noi compiamo, contemporaneamente, tre tipi di atti linguistici: locutorio
(facciamo qualcosa dicendo qualcosa), illocutorio (domanda, risposta, ordine, avvertimento, ecc.) e
perlocutorio (produzione, tramite l’atto locutorio e illocutorio, di certi effetti consecutivi sui
sentimenti , i pensieri, le azioni di chi sente, o di chi parla, o di altre persone). Importante la
distinzione tra ‘significato’ e forza illocutoria: a volte uno stesso atto locutorio può corrispondere a
due o più atti illocutori (ES. ‘Il gatto è sul letto’ = ‘Non salire sul letto’ O ‘Fai scendere il gatto’).
L’atto illocutorio è convenzionale mentre quello perlocutorio è non convenzionale perché posso
ottenere un certo effetto mediante molti mezzi diversi.
42
Negli stessi anni vi è una corrente di pensiero che continua a sostenere che il linguaggio naturale
sia analizzabile con gli stessi strumenti dei linguaggi formali. La nozione fondamentale di
Ajdukiewicz è quella di ‘connessione sintattica’: una combinazione di parole è ‘sintatticamente
connessa’ quando è formata da parole dotate di senso e il suo senso deriva dal senso delle parole.
Per spiegare perché certe espressioni siano sintatticamente connesse e altre no, elabora un
sistema di analisi sintattica basato sulle nozioni di ‘categoria fondamentale’ e ‘categoria funtoriale’:
il nome e la frase sono fondamentali mentre le altre categorie sono funtori. Le categorie e le loro
combinazioni sono rappresentate mediante una notazione ‘quasi aritmetica’: frase = s; nome = n e
ai funtori indice frazionario procedimento meccanico per stabilire se espressione è
sintatticamente connessa o no. Reichenbach considera come suo solo nemico la grammatica
tradizionale che non è in grado di cogliere appropriatamente la struttura logica del linguaggio:
sostituisce il sistema delle parti del discorso con una classificazione basata sulla logica dei
predicati e delle relazioni, che distingue tre classi principali di espressioni: ‘argomenti’, ‘funzioni’ e
‘termini logici’. Le sue idee non ebbero particolare seguito all’epoca e in seguito vennero riprese da
pochi, probabilmente perché mancava di un vero e proprio sistema di regole per l’analisi
dell’espressione del linguaggio naturale. Entrambi questi studiosi riconobbero le difficoltà di
analizzare il linguaggio naturale e le sue incoerenze logiche, ma continuarono a considerarlo alla
stregua dei linguaggi formali. La grammatica di Ajdukiewicz fu invece ripresa e approfondita da
molti, tra i quali il più importante è Bar-Hillel, che presentò una grammatica categoriale che
coniugava la notazione quasi-aritmetica con i metodi della linguistica strutturale americana. In
particolare, affronta il problema dei costituenti discontinui, proponendo di considerarli come
collocati in qualche altra posizione rispetto a quella in cui effettivamente ricorrono
insoddisfacente ma anticipa spiegazione di Chomsky, il quale respingerà un’altra proposta dello
studioso, ossia quella di applicare sistematicamente al linguaggio naturale gli strumenti elaborati
dalla teoria dei linguaggi formali (= logica formale utilizzata in costruzione teoria linguistica MA
NON in analisi comportamento linguistico effettivo). La linea tracciata da Bar-Hillel fu seguita da
Montague, il quale poneva la nozione di verità a fondamento della sintassi e della semantica
‘serie’ (≈ Tarski). Questa semantica interpreta le espressioni di una data lingua relativamente a un
modello, cioè un insieme di entità, che sono individui per le espressioni individuali, relazioni tra
oggetti per le espressioni predicative e cos’ via; è inoltre indipendente dalla pragmatica (la
semantica di Brèal & Co. traduce le espressioni di una lingua in quelle di un’altra lingua). Con il
termine grammatica di Montague si designano sia le ricerche compiute dallo studioso, sia lo
sviluppo ad opera di altri studiosi dopo la sua morte: l’atteggiamento nei confronti del linguaggio
naturale è diverso da quello di Tarski perché Montague sostiene che questo tipo di semantica si
possa costruire anche per lingue naturali grammatica di M. consiste di struttura sintattica
analizzata secondo il modello della grammatica categoriale e interpretata mediante tecniche di
semantica ‘modellistica’.
43
delle frasi ben formate e che assegna a ciascuna di queste una o più descrizioni strutturali’. Lo
studioso suddivide la grammatica in tre componenti: sintattico, fonologico e semantico, di cui solo il
primo è generativo, mentre gli altri due sono interpretativi solo il componente semantico genera
frasi e assegna loro descrizioni strutturali; il componente semantico mette in relazione una struttura
con una rappresentazione semantica e il componente fonologico attribuisce una rappresentazione
fonetica. La struttura generata dal componente sintattico e interpretata dal componente semantico
è la struttura profonda della frase; questa poi è collegata mediante le trasformazioni alla struttura
superficiale che è interpretata dal componente fonologico; da qui la concezione mentalistica della
lingua e della linguistica.
Chomsky afferma che la teoria linguistica si occupa principalmente di un parlante-ascoltatore
ideale, in una comunità linguistica completamente omogenea. Egli distingue poi tra competenza ed
esecuzione. La competenza è ‘un insieme di processi generativi’, cioè un insieme di regole per
generare un numero potenzialmente infinito di frasi: il linguista deve determinare, partendo dai dati
di esecuzione, il sistema sottostante di regole che il parlante-ascoltatore ha acquisito e che mette
in uso nell’esecuzione effettiva. Quindi, la teoria linguistica è mentalistica poiché il suo scopo è
scoprire una realtà mentale sottostante a un comportamento effettivo (‘linguistica cartesiana’ ><
‘linguistica empirica’ cioè quella storico-comparativa). Si hanno diversi livelli di adeguatezza: una
grammatica è adeguata in senso descrittivo nella misura in cui descrive correttamente la
competenza del parlante nativo ideale; è invece esplicativa, quando riesce a scegliere una
grammatica adeguata in senso descrittivo in base ai dati linguistici primari. Il compito fondamentale
di una teoria linguistica diventa rendere conto delle proprietà del dispositivo per l’acquisizione
linguistica che permette al bambino di costruire la sua grammatica da un insieme di alternative
possibili. Secondo Chomsky, il linguaggio e la sua acquisizione sono governate da regole o da
principi specifici. I fenomeno linguistici andrebbero ricondotti a leggi psicologiche generali: la
conclusione è che la capacità del parlante di produrre e comprendere frasi mai udite prima si può
spiegare che il parlante stesso sia dotato di un meccanismo che guida la sua acquisizione del
linguaggio. Essendo innato, deve essere comune a tutti gli esseri umani e quindi universale: ecco il
ritorno della ricerca degli universali linguistici, che sono distinti in materiali (tratti distintivi di
Jakobson) e formali (regole trasformazionali); sono intesi come le caratteristiche del meccanismo
che rende possibile l’acquisizione di una lingua.
1. Componente sintattico = trasformazioni legate alla struttura e non alla frase, si applicano in
cicli dalla F inclusa più profondamente a quella principale. L’applicazione delle regole
trasformazionali alla struttura profonda genera la struttura superficiale; l’azione delle
trasformazioni non modifica il significato della frasi perché condizionata dalla presenza di
simboli astratti nella struttura profonda (solo livello pertinente all’interpretazione della frase).
2. Componente semantico (teoria derivata da Katz) = due nozioni fondamentali: quella di
lettura, cioè l’analisi in indicatori semantici di ciascuna unità minima generata dal
componente sintattico (parole), e quella di regola di proiezione, cioè la lettura delle parole
che formano un nodo vista entro un indicatore sintagmatico da cui viene la ‘lettura derivata’
o l’interpretazione semantica (frasi semanticamente non ambigue *Pierino bruciò la scuola*
anomale, se le letture dei due elementi non possono combinarsi *Pierino bruciò l’idea* o
ambigue, se uno o più elementi hanno più letture *Il giudice ha aperto un fascicolo*). La
lettura contiene altri due tipi di informazione: l’indicazione dei tratti sintattici della parola in
questione e l’indicazione delle restrizioni selettive di ogni parola che esprimono le
condizioni necessarie e sufficienti affinché le letture si combinino tra di loro. Interpretazione
semantica di una frase = insieme delle interpretazioni semantiche degli indicatori
sintagmatici soggiacenti a F e l’insieme di descrizioni relative a F che derivano dalle
interpretazioni semantiche. Ipotesi che il bambino abbia un grande bagaglio di conoscenze
a cui dover semplicemente attribuire etichette diverse da lingua a lingua.
3. Componente fonologico = interpretativo e traduce in segnali fonetici la struttura superficiale
generata dal componente sintattico. La struttura superficiale diventa la rappresentazione
fonologica concretizzata dalla rappresentazione fonetica. Le regole per derivare
quest’ultima dalla prima sono riassumibili nella formula ‘A B / X – Y’ = l’unità A è
realizzata dall’unità B nei contesti X (a sinistra di A) o Y (a destra di A). Per esempio:
disayd (decide) > disaisiv (decisive) è rappresentabile come 1) disayd + (confine di
morfema) iv ‘d z / – + [i]’; 2) disayz + iv ‘z s / – + iv’ disays + iv; i fonemi in
45
questione assumono una serie di tratti in connessione con determinati altri. Si può
riscontrare l’abbandono del cosiddetto ‘livello fonemico’ (> Halle) poiché postulare un livello
di rappresentazione fonemica renderebbe l’analisi inutilmente più complicata. Nella
fonologia generativa rimane l’analisi dei tratti distintivi (> strutturalismo): vengono fatte delle
modifiche al concetto di marcatezza, che ha valori universali e innati e considera un
elemento marcato o non marcato a seconda del contesto in cui ricorre.
La fonologia generativa è dinamica in quanto il suo oggetto è lo studio dei processi fonologici e
descrive la generazione delle rappresentazioni fonologiche dalle strutture superficiali della sintassi.
Ci sono alcune proposte di modifica del modello ‘classico’ di Chomsky, che era ‘lineare’ o
‘segmentale’ e considerava la rappresentazione fonologica come derivata esclusivamente dalla
struttura sintattica superficiale. Per superare le difficoltà legate a questo modello vengono
elaborate: la fonologia autosegmentale (vari elementi della rappresentazione fonologica posti su
più livelli); la fonologia lessicale (ruolo che la formazione delle parole ha sulla loro
rappresentazione fonologica); la fonologia metrica (descrizione dei processi fonologici deve
prendere in considerazione non solo i singoli segmenti ma anche unità più ampie) e la fonologia
prosodica (applicazione regole fonologiche non è determinata solo da struttura sintattica
superficiale ma anche da struttura gerarchica della rappresentazione fonologica).
46
dello studio cerca di formulare i principi che stanno alla base degli universali implicazionali,
ricorrendo a due nozioni principali: quella di ordine ‘dominante o ‘recessivo’ e quella di relazioni
‘concordi’ o ‘discordi’ tra regole d’ordine. ‘Dominante’ per Greenberg significa ‘incondizionato’: ad
esempio, l’universale 25 dice che, se in una lingua l’oggetto diretto espresso mediante un pronome
segue il verbo, allora lo segue anche l’oggetto espresso mediante il nome. L’ordine VO è
incondizionato, in quanto l’oggetto nominale può seguire il verbo indipendentemente dal fatto che
l’oggetto pronominale lo segua oppure lo preceda; l’ordine OV, al contrario, si può avere solo se
l’oggetto pronominale precede il verbo VO dominante >< OV recessivo. Per quanto riguarda le
relazioni ‘concordi’ e ‘discordi’, le prime si hanno sia nelle lingue preposizionali e posposizionali:
Nome-Proposizione è concorde a Nome-Genitivo perché appartengono entrambi a lingue
preposizionali MA è discorde con Genitivo-Nome perché appartiene a lingue posposizionali.
Il funzionalismo rappresentava un’alternativa alla grammatica generativa: bisogna distinguere tra le
scuole funzionaliste nate prima della GG, di matrice europea e con un atteggiamento più sfumato,
e quelle sorte successivamente, statunitensi e tendenti a respingere in blocco la GG. Tra i
funzionalisti più legati all’eredità di Mathesius ricordiamo Daneš e Firbas: entrambi prendono le
mosse dall’analisi concreta della frase di Mathesius che consiste nella distinzione tra tema e rema.
Daneš afferma però che questa analisi è soltanto uno dei tre livelli della sintassi, ossia quello della
‘organizzazione dell’enunciato’ + ‘struttura grammaticale’ e ‘struttura semantica’. Quest’ultimi due
livelli vanno tenuti distinti perché, mentre la struttura semantica è universale, quella grammatica
varia da lingua in lingua; la nozione centrale della struttura grammaticale è il ‘modello di frase, uno
schema astratto su cui si possono basare varie sequenze di parole specifiche per formare
enunciati specifici. Firbas parla di ‘prospettiva funzionale di frase’, ordinando gli elementi secondo
una scala di dinamismo comunicativo che supera il dinamismo di Mathesius: egli lo definisce come
la misura relativa in cui un elemento contribuisce allo sviluppo ulteriore della comunicazione. Gli
elementi che hanno il grado più basso sono detti ‘tematici’ (pronomi personali, legati al contesto),
quelli con il grado più alto ‘rematici’ (sostantivi) e gli elementi di terzo tipo sono definiti ‘di
transizione’ (verbi). Firbas sostiene che l’ordine oggettivo, in cui, secondo Mathesius, il tema
precede sempre il rema, rappresenta la distribuzione elementare del dinamismo comunicativo, da
cui le lingue possono deviare a causa del contesto o della struttura semantica.
Tra gli altri linguisti praghesi abbiamo:
1. Sgall, il quale cercò di mediare tra funzionalismo e grammatica generativa elaborando una
descrizione funzionale generativa: non considerava l’approccio generativo errato ma
parziale, così come per il funzionalismo. Oppone ‘rappresentazioni tettogrammaticali’ alla
‘sintassi di superficie’.
Molto più critiche nei confronti della GG le altre principali scuole funzionaliste europee:
2. Halliday, grammatica sistemico-funzionale = distingue tra funzioni del linguaggio, ‘ideativa’,
‘interpersonale’ e ‘testuale’. ES. al livello delle funzioni ideative il soggetto è l’elemento che
indica l’agente; al livello delle funzioni interpersonali è il tradizionale soggetto grammaticale
e ha la funzione di definire il ruolo di comunicazione adottato dal parlante; al livello delle
funzioni testuali è chiamato soggetto ‘psicologico’. Le funzioni dei tre livelli sono identiche.
3. Dik, grammatica funzionale = individua tre componenti principali nel linguaggio, il ‘fondo’, la
‘struttura di frase soggiacente’ e ‘le regole di espressione’, e tre tipi di funzioni,
‘semantiche’, ‘sintattiche’ e ‘pragmatiche’. L’assegnazione di tutti i tipi di funzioni produce la
‘struttura di frase soggiacente, input delle ‘regole d’espressione’. Le regole che
determinano l’ordine dei costituenti hanno unicamente delle tendenze.
Tutte e tre le teorie insistono sulla distinzione tra ruoli semantici e funzioni grammaticali +
differenze principalmente terminologiche.
Dopo la pubblicazione del saggio di Greenberg, si cercò di trovare una spiegazione più
approfondita delle ‘relazioni concordi’. In primo luogo abbiamo Lehmann con la formulazione del
‘principio strutturale’, secondo il quale i modificatori si collocano dal lato opposto di un elemento
sintattico di base (verbi e nomi) rispetto a quello del suo concomitante primario (oggetto diretto). Il
modello di sintassi ipotizza una struttura sottostante non ordinata linearmente e quindi il principio
strutturale riguarda l’ordine che i vari elementi vengono ad assumere nella struttura superficiale.
Riduce i sei ordini di Greenberg a solo due: VO e OV perché non considera il soggetto come
elemento primario della frase. Il principio strutturale di Lehmann fornisce una spiegazione agli
ordini ‘concordi’ ma non a quelli ‘discordi’, salvo attribuirli al fatto che le lingue cambiano
48
costantemente. L’italiano Antinucci presenta una spiegazione più elaborata. Egli sostiene che
l’ordine degli elementi è governato da tre principi fondamentali: il ‘principio costruttivo’, il ‘principio
di accrescimento’ e il ‘principio di formazione del soggetto’. I primi due appartengono al sistema
strutturale del linguaggio, il terzo al sistema comunicativo: il terzo principio può trovarsi in contrasto
con gli altri due. Il principio costruttivo stabilisce che una lingua disporrà gli argomenti a destra o a
sinistra del predicato (OV-VO); il principio di accrescimento determina l’ordine rispettivo degli
argomenti. PROBLEMA perché in una lingua che costruisce a destra, come l’italiano, il soggetto è
a sinistra del verbo? Per il principio di formazione del soggetto che sceglie un argomento e lo
colloca in posizione iniziale di frase, lo topicalizza. La scelta dell’argomento è governata dalla
‘gerarchia naturale del topic’ che considera la capacità/incapacità di essere la causa di un
determinato stato di cose e la ‘scala di animatezza’ (elementi che stanno più in alto nella scala
sono usati come soggetti). Il concetto di gerarchia, che Antinucci usa per indicare le diverse
probabilità dei vari argomenti di diventare il soggetto, acquista un impiego sempre più largo:
importante è il lavoro di Keenan e Comrie. I due studiosi, sulla base di un campione di 50 lingue,
sostengono che non in tutte le lingue si può avere qualsiasi tipo di frase relativa, ma che la
formazione di quest’ultima è condizionata dalla funzione grammaticale dell’elemento che la
introduce (soggetto < oggetto diretto < obliquo < genitivo < secondo termine di paragone = le
possibilità defluiscono mano a mano che si procede verso la fine della gerarchia). Propongono una
spiegazione psicologica di questa gerarchia: le relazioni più facilmente comprensibili sarebbero
quelle più facilmente relativizzabili. Il soggetto è più comprensibile perché caratterizzato dalla
proprietà di ‘indipendenza referenziale’, cioè il riferimento al soggetto non può dipendere da quello
di un altro elemento della frase. Altre due nozioni capitali sono quella di continuum e di prototipo:
se tutte le proprietà di un elemento ricorrono insieme, esso è ‘prototipico’, mentre le deviazioni dal
prototipo si dispongono lungo un continuum.
La grammatica cognitiva è stata elaborata indipendentemente da Lakoff e Langacker. Secondo
quest’ultimo, la grammatica cognitiva si è sviluppata parallelamente alla semantica generativa ma
non la si può considerare una filiazione, anche se presenta dei punti di contatto. Importante è l’idea
che le figure retoriche, e in particolare la metafora, rappresentino un aspetto fondamentale del
linguaggio. Il linguaggio è la sua acquisizione sono considerati il frutto di abilità cognitive più
generali: può esserci una componente innata il cui sviluppo è legato a quello di altre capacità
cognitive. I concetti chiave della grammatica cognitiva sono quelli di ‘prototipo’ e ‘figuratività
convenzionale’; gli universali non sono più assoluti ma sono tendenze a raggrupparsi intorno a un
prototipo; le strutture concettuali interamente corrispondenti ai prototipi sono ‘schematizzate
interamente’, altre invece ‘parzialmente’ (ES. quando le estensioni metaforiche diventano
convenzionali si ha un mutamento della lingua). Esplicito abbandono dell’apparato formale e
affermazione che la formazioni di nuove espressioni non riguarda la grammatica ma i parlanti
GC rappresenta il passaggio di studiosi generativisti all’impostazione funzionalista.
Nell’ambito della tipologia, lo studioso che più rappresenta l’impostazione funzionalista e
cognitivista è Givòn: la differenza fondamentale con l’approccio generativista è il fatto che
descrivere una struttura senza descrivere la sua funzione è impossibile. Una categoria non è
invalidata perché ha margini sfumati e l’appartenenza a una categoria non richiede tutti i tratti del
gruppo; è anche possibile l’appartenenza di esemplari meno prototipici. I costituenti sintattici sono
basati su proprietà cognitive, semantiche e pragmatiche generali.
Nell’ambito del funzionalismo/cognitivismo in fonologia, Vennemann elabora la fonologia
generativa naturale che rinuncia alle rappresentazioni fonologiche ‘soggiacenti’, diverse dalle
rappresentazioni fonetiche osservabili. Da questo tipo di fonologia bisogna distinguere la fonologia
naturale: il distacco dalle precedenti teorie riguarda una concezione diversa dei meccanismi
cognitivi che stanno alla base dell’acquisizione del linguaggio da parte del bambino e che sono da
ricondurre a capacità cognitive generali. Il bambino apprende il sistema fonologico della propria
lingua materna limitando o sopprimendo processi innati (‘lenizione’, che tende a indebolire un
suono e diminuire il contrasto con quelli vicini, e ‘rafforzamento’, che tende ad aumentare le
differenze tra i suoni il primo è funzionale al parlante perché facilita la pronuncia, il secondo
all’ascoltatore perché semplifica l’ascolto). La teoria dell’ottimalità prende avvio dalla nozione di
marcatezza, che è definita come proprietà delle rappresentazioni fonetiche. La marcatezza è una
delle due forze contrastanti che agiscono nel linguaggio umano, insieme alla fedeltà; inoltre, un
elemento non è marcato in se ma in confronto ad altri e la marcatezza si fonda su sistemi
49
appropriato da ciò che è inappropriato in un certo contesto, ciò che è raro da ciò che è abituale
produzioni che si collegano nella produzione e nella interpretazione del comportamento culturale
europeo. Le lingue, inoltre, non sono sistemi isolati ma tra loro si verificano numerose interferenze
‘sociolinguistiche’, perché coinvolgono al contempo le caratteristiche del linguaggio e del suo uso.
Concetti chiave della sociolinguistica: ‘repertorio verbale’, ‘pratiche linguistiche’ e ‘domini del
comportamento linguistico’.
Il tentativo più sistematico di applicare le nozioni tecniche della grammatica generativa alle
ricerche sociolinguistiche fu operato da Labov. Il suo obiettivo era quello di fornire una descrizione
formale e sistematica delle differenze linguistiche dovute alle differenze di classe sociale, età,
etnia, ecc. Per descrivere questi fenomeni, elaborò il concetto di ‘regola variabile’ (nozione di
regola della GG): una regola di struttura sintagmatica con un’applicazione condizionata da alcuni
fattori probabilistici, di natura linguistica ed extralinguistica rendere conto delle diverse
realizzazioni di uno stesso fenomeno grammaticale in diversi gruppi sociali (ES. eliminazione
copula in inglese dei neri d’America = we’re late >< we late). PROBLEMA le regole variabili
appartengono alla competenza o all’esecuzione? Neanche Labov sapeva cosa rispondere <
solleva dibattito >appare chiaro che grammatica generativa e sociolinguistica hanno obiettivi
diversi: la prima va alla ricerca di ciò che è invariabile nel linguaggio, la seconda è interessata alla
variabilità.
Searle conduce un’analisi degli atti linguistici che si distacca da quella di Austin perché egli tenta
di ricondurre tali atti a fatti di langue e di spiegarli mediante regole comprese nella ‘competenza
linguistica dei parlanti’. Una nozione centrale del suo pensiero è quella di ‘regola’ (parlare significa
eseguire degli atti secondo certe regole); introduce una distinzione tra regole ‘costitutive’, che
costituiscono un’attività la cui esistenza è indipendente dalle regole (ES. giochi), e ‘regolative’, che
regolano un’attività preesistente (ES. galateo) la distinzione permette di rispondere a una
domanda come: che differenza c’è tra promettere e andare a pesca? Il pescare consiste in
un’attività fisica naturale, mentre il promettere è una questione di convenzione che l’enunciazione
di una data espressione in certe condizioni conti come il fare una promessa. Nonostante le regole
di Searle siano diverse da quelle di Chomsky, entrambi concordano sul fatto che le regole del
linguaggio sono qualcosa che i parlanti seguono in modo inconscio. La differenza più importante
rispetto all’analisi degli atti linguistici di Austin è la rinuncia alla nozione di atto locutorio che si
sdoppia in ‘atto enunciativo’, che consiste nell’enunciazione di parole e morfemi, e in ‘atto
proposizionale’, che consiste nelle operazioni di riferimento e predicazione. L’atto illocutorio
continua a essere individuato in un’asserzione, una domanda, ecc. Quando si realizza un atto
enunciativo si realizzano contemporaneamente gli altri; la distinzione tra atto illocutorio e atto
proposizionale permette a Searle di dare una rappresentazione formale della nozione di forza
illocutoria (tentativo di rappresentare gli atti illocutori mediante le tecniche della sintassi
generativa). La sua attenzione per l’aspetto linguistico lo porta ad analizzare gli ‘atti linguistici
indiretti’, riferendosi con questo termine a espressione come ‘puoi passarmi il sale?’ che, pur
essendo una frase interrogativa, come atto interlocutorio non è una domanda, ma un ordine o una
preghiera tramite tali atti il parlante comunica all’ascoltatore più di quanto effettivamente non
dica, in quanto fa affidamento sul bagaglio di cognizioni linguistiche e non da entrambi condiviso e
sulla facoltà di ragionamento dell’ascoltatore. A differenza di Searle, il punto di partenza di Grice
non era la teoria degli atti linguistici ma il problema dell’imperfezione del linguaggio naturale
rispetto agli standard della logica: egli osservava che ci sono delle discrepanze tra il valore degli
operatori logici e quello delle espressioni corrispondenti del linguaggio naturale. Grice sostiene che
‘formalisti’ e ‘informalisti’ sbagliano nell’attribuire un differente significato alle espressioni della
logica formale e a quelle corrispondenti del linguaggio naturale: secondo lui, questa differenza di
significato non esiste e le divergenze derivano da determinate condizioni che governano la
conversazione, che si applicano al linguaggio naturale (mezzo attraverso il quale si svolge la
conversazione) e non in quello formale. La conversazione è governata da un principio generale
approssimativo che ci si aspetterà che i partecipanti osservino: il tuo contributo alla conversazione
sia tale quale è richiesto, allo stadio in cui avviene, dallo scopo o orientamento accettato dallo
scambio linguistico principio di cooperazione, da cui derivano quattro categorie di ‘massime
conversazionali’ di ‘quantità’, ‘qualità’, ‘relazione’, ‘modo’. La conversazione è governata da queste
massime nel senso che ognuno dovrebbe seguirle e si aspetta che gli altri le seguano. Grice
osserva che una massima, non solo può essere violata, ma anche sfruttata o ‘violata
51
ostentatamente’, cioè quando l’ascoltatore si accorge della violazione e del fatto che il parlante
vuole far capire che sta violando una massima: si realizzano delle implicature conversazionali. I
risultati di Grice si possono riassumere così: ‘non tutto ciò che è comunicato è detto’. Una volta
riconosciuta l’indiscutibilità di questo risultato, bisogna trovare una spiegazione: Grice fondava il
principio di cooperazione su una generica esigenza di ‘razionalità’, mentre studiosi successivi
hanno cercato di dare una spiegazione più approfondita. Le posizioni principali sono due:
1. La teoria della cortesia (Brown e Levinson), che si inquadra nella linea di ricerca generale
dell’analisi conversazionale o entometodologia (Garfinkel e Sacks). Questa teoria si basa
sulla nozione di ‘faccia’, elaborata da Goffman, ossia la considerazione che una persona
desidera avere nel suo ambiente sociale (nel senso di ‘salvare la faccia’). Si distingue una
‘faccia positiva’, cioè il desiderio di essere approvati, da una ‘faccia negativa’, cioè il
desiderio di mantenere la propria libertà e indipendenza. Nella conversazione, il parlante
tenderebbe a salvaguardare entrambe le ‘facce’ assumendo atteggiamenti di ‘cortesia
positiva’ e ‘negativa’, cercando di accattivarsi la solidarietà dell’ascoltatore ma mostrando di
rispettarne l’indipendenza. Gli usi non letterali del linguaggio sarebbero strategie per
preservare entrambe le ‘facce’.
2. La teoria della pertinenza (Sperber e Wilson). Gli studiosi interpretano in senso cognitivo il
meccanismo della conversazione: comunicare vuol dire modificare in modo intenzionale il
contesto dei nostri interlocutori, il loro ambiente cognitivo, cercando allo stesso tempo di
trasmettere il maggior numero possibile di nuove conoscenze con il minimo sforzo e
realizzando la massima ‘pertinenza’.
53