Piergiorgio Odifreddi

Insegna Logica Matematica presso le Università di Torino e di Cornell (USA).
Collabora con il quotidiano la Repubblica e ha vinto nel 1998 il Premio Galileo assegnatogli dall'Unione matematica italiana per la sua attività di divulgazione

 


UNA LINGUA NON BIFORCUTA

Piergiorgio Odifreddi


Come recita il Vangelo secondo Giovanni, "in principio era la Parola". Infatti, nelle mitologie della creazione i creatori parlano spesso e abbondantemente. Parla Iahvè nel Genesi, dando inizio allo spettacolo con: "Sia fatta la luce". Parla Ptah nella Pietra di Shabaka, producendo ogni cosa mediante il pensiero del cuore e il suono della lingua. Parlano Tepeu e Gucumatz nel Popul Vuh, questa volta in dialogo invece che in monologo. E cosí via.

Quali fossero le supposte lingue divine non ci è dato sapere, ma possiamo immaginare che fossero perfette. Quelle umane invece non lo sono per niente, essendosi sviluppate per tentativi ed errori nel corso dell'evoluzione in un processo casuale e caotico simboleggiato dal mito della torre di Babele. Altrettanto imperfetta è la scrittura, nonostante la sua supposta origine divina o eroica. La tradizione occidentale attribuisce infatti la sua invenzione al dio Toth, e l'introduzione dell'alfabeto al leggendario Cadmi, figlio del re di Tiro.

Le deficienze della lingua e le imperfezioni della scrittura sono più facilmente evitabili nei linguaggi artificiali che in quelli naturali. O meglio, lo sarebbero, se l'avidità dei produttori di software non li spingesse alla prematura release di prodotti incompleti e raffazzonati. Almeno in teoria, comunque, i metodi della Logica matematica permettono di costruire linguaggi artificiali con una sintassi e una semantica perfettamente definite.

Per i linguaggi naturali, invece, le cose si complicano notevolmente già a partire dalla fonetica, che stabilisce il collegamento fra i segni della scrittura e i suoni dell'oralità. In prima approssimazione, l'alfabeto greco ha risolto il problema in maniera abbastanza soddisfacente ed è stato celebrato verso il 435 a.C. da Callia nello Spettacolo delle lettere, in cui ciascuno dei 24 componenti del coro rappresentava appunto uno dei segni dell'alfabeto.

In seconda approssimazione la fonetica ha invece molti difetti, esemplificati mirabilmente dall'osservazione di George Bernard Shaw che in inglese ghoti potrebbe essere letto fish (gh come in rough, o come in women, e ti come in nation). Se la fonetica inglese ha le travi negli occhi, quella italiana ha comunque le sue pagliuzze: ad esempio, è costretta a rappresentare in maniera pasticciata i suoi 28 suoni con sole 21 lettere.

Anzitutto, per quanto riguarda le vocali, ci sono soltanto 5 segni per 7 suoni. E cioè, le vocali fondamentali:

a i u,

più la e e la o, che possono essere sia chiuse che aperte. La cosa si potrebbe però rimediare facilmente, usando accenti gravi o acuti:

é è ó ò.

Per quanto riguarda le consonanti, togliendo la h (che è muta) e la q (che è una c dura) rimangono invece 14 segni per 21 suoni. E cioè, le consonanti fondamentali:

b d f l m n p r t v.

più la c e la g, che possono essere sia molli che dure e si scrivono di solito:

c ch g gh.

In più la s e la z, che possono essere sia sonanti che occlusive e si possono approssimare con:

s ss z zz.

Bisogna a questo punto ancora considerare i tre suoni aggiuntivi che si scrivono normalmente come:

gl gn sc.


Naturalmente i 28 suoni della lingua della lingua italiana non vengono affatto scritti usando i 28 segni che abbiamo elencati, secondo il motto un suono, un segno (cosa che invece fanno sia il volapük che l'esperanto, entrambi con 28 suoni e segni). Il risultato è un'anarchia fonetica che rende estremamente complicata l'enunciazione delle regole di pronuncia. Esse vengono apprese non in teoria ma con la pratica e sono conosciute consciamente solo dai linguisti.

Prendiamo, ad esempio, la questione degli accenti. In italiano li scriviamo soltanto in funzione tonica, per indicare cioè quale sillaba di una parola accentare. Ma poichè le parole sono in genere piane, cioè con l'accento sulla penultima sillaba, si indicano soltanto gli accenti delle parole tronche, sdrucciole o bisdrucciole, che cadono sull'ultima, la terzultima o la quartultima sillaba. Il che significa che la maggior parte delle volte una vocale tonica non viene accentata: tragicamente, perchè e ed o sono sempre chiuse se atone ed è proprio quando sono toniche che un accento fonetico servirebbe a indicare se sono chiuse o aperte.

Questa ambiguità produce il fenomeno degli omografi, che si scrivono ugualmente ma si pronunciano diversamente: ad esempio, colto e volto, che possono essere letti come cólto (istruito) e vólto (viso), oppure come còlto (preso) e vòlto (girato). Un fenomeno complementare è quello degli omofoni, che si pronunciano ugualmente ma si scrivono diversamente. In italiano sono rari: ad esempio, vizi e vizzi, o loro e l'oro, ma in francese abbondano e si chiamano calembours (che noi usiamo nel senso più generico di gioco di parole).

Parole che si scrivono e si leggono ugualmente possono comunque essere omonime, cioè la stessa parola con significati diversi. Ad esempio sei (verbo o numero) in sei uno, siete sei. Un fenomeno complementare è quello dei sinonimi, che sono parole diverse con lo stesso significato. Mentre però il mancato isomorfismo fonetico fra suoni e segni è un difetto, il mancato isomorfismo lessicale fra parole e significati è un pregio che rende una lingua umana e non meccanica, permettendo ad esempio i doppi sensi e i giochi di parole. Forse per questo, i dizionari di sinonimi (e contrari) abbondano, mentre quelli di omografi, omofoni e omonimi sono più unici che rari, e in italiano si riducono a Una voce poco fa di Raffaele Aragona (Zanichelli, 1994)

Tra pregi e difetti, i linguaggi naturali sono comunque lungi dall'essere ottimali. La ricerca della lingua perfetta, narrata da Umberto Eco in un omonimo libro (Laterza, 1993), ha dunque una lunga storia, oscillante tra due estremi: la retrograda speranza di ritrovare la perfezione in qualche lingua particolare del passato (ebraico, egiziano, cinese, indoeuropeo), la progressista determinazione di immetterla in una universale del futuro (volapük, esperanto, interlingua) passando attraverso la semplificazione, la razionalizzazione e l'unificazione di quelle del presente.

In un filone parallelo si situano i tentativi di costruire lingue più o meno immaginarie, e più o meno balzane, classificati da Paolo Albani e Berlinghiero Buonarroti nel dizionario Aga Magéra Difúra (Zanichelli, 1994): dall'alfabeto tattile per ciechi di Braille al lessico gestuale per sordomuti di de l'Epée, dal linguaggio degli uccelli di Aristofane alla neolingua oceanica di Orwell. Una classe particolarmente interessante, dal punto di vista logico, è quella dei linguaggi a priori, che cercano di rispecchiare nelle lettere e nelle parole la struttura dei suoni e dei concetti.

Nelle lingue naturali, infatti, si realizzano solo raramente e imperfettamente gli obiettivi complementari di rappresentare suoni simili mediante simboli simili (ad esempio, é-è o "b-p) e concetti simili mediante parole simili (ad esempio, figlio-figlia o genitore-genitori). L'idioma analitico di John Wilkins, descritto da Borges in un omonimo saggio, cercò invece di farlo in maniera sistematica, proponendo nel 1668 un lessico costituito di parole strutturate come formule chimiche.

L'idea è geniale in teoria, ma fallimentare in pratica: nessun filosofo, da Aristotele a Kant, è mai riuscito a isolare una tavola sensata di categorie atomiche alle quali ridurre le molecole concettuali. Come nota Borges, la ragione è molto semplice: non sappiamo che cos'è l'universo. E non sapendolo, dovremo perennemente accontentarci di lingue imperfette, condannate a riflettere più l'arbitrarietà del pensiero umano che la struttura del mondo.