Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
…………………………………………………… ……………………………………………………
Si affermano sempre più le app capaci di elaborare risposte, scrivere mail, ricette, canzoni, e testi
scientifici. Ma anche di produrre testi di disinformazione con possibili pericoli per la privacy e il
mondo del lavoro. Di Alessandro Longo. Febbraio 2023.
«Questa novità cambierà il mondo come hanno fatto i computer e Internet» dice Bill Gates. Il padre
di Microsoft e dell’informatica moderna giudica come rivoluzionario l’avvento di un’intelligenza
artificiale «generativa» che risponde a domande su tutto, scrive per noi mail, ricette, canzoni e saggi
scientifici (tra le altre cose).
Ma ciò che è risultato evidente al mondo, è che ChatGpt era solo l’inizio di un cambiamento nel
modo in cui accediamo alle informazioni su Internet. Invece di una lista di risultati che portano a siti
esterni, il motore ci dà la risposta immediata e dettagliata. Consigli per una cena vegetariana per
quattro persone, quale auto comprare per una famiglia che è attenta all’ambiente, e anche i motivi
della guerra in Ucraina. Tutto subito disponibile.
Qui troviamo alcune caratteristiche pericolose per chi scrive mail, articoli, presentazioni, ecc. Alcuni
professionisti troveranno dei vantaggi dall’Ai mentre quelli che producono testi di livello medio
basso, rischiano di essere sostituiti dalla stessa» Si teme un aumento di diseguaglianze e
licenziamenti.
Forte impatto per la scuola e l’università perché l’Ai può già scrivere compiti al posto degli studenti.
Si dovrà cambiare i metodi d’insegnamento. Alcuni insegnanti, negli Usa, cominciano a farlo,
spingendo gli studenti a usare ChatGpt come un ulteriore strumento di apprendimento.
L’altro fronte di rischi riguarda l’accesso all’informazione. Già negli Usa escono studi sulla possibilità
di usare ChatGpt per produrre in automatico testi di disinformazione politica. Poi l’Ai risente del
fatto che i dati con cui è stata addestrata contengono pregiudizi (contro donne, minoranze...) e
disinformazione.
C’è anche un problema di privacy. «A queste Ai siamo portati a dire i nostri fatti personali, che le
aziende potrebbero usare per conoscerci; e, per la loro natura conversazionale, potremmo dare loro
molto credito, anche per questioni delicate come farmaci e salute».