È cominciata la retromarcia. Tutti a cercare il freno d’emergenza sull’intelligenza artificiale. Una lettera aperta di ricercatori e manager avverte: troppi rischi per l’umanità, non sappiamo controllare le menti digitali.

Solo che nessuno lo tirerà davvero, il freno d’emergenza, in un mondo in cui le regole sono sempre arrivate dopo il problema. E, spesso, anche troppo tardi.

Allora dobbiamo essere pronti all’impatto. Con cosa? Con uno scenario tipo “Blade Runner” o “2001 Odissea nello spazio”?

Per quanto mi riguarda, sarà interessante capire se, e come, potranno essere individuabili contenuti (testi) elaborati dall’intelligenza artificiale come ChatGPT, Bing di Microsoft e Google Bard. Questi sistemi sono già in grado di creare conversazioni molto simili a quelle di un essere umano, possono scrivere saggi e portare a termine decine di compiti complessi, ma anche creare notizie, immagini e video non reali (il piumino del Papa lo avete visto?).

Uno dei (tanti) problemi sarà, dunque, anche quello di distinguere ciò che è frutto della mente umana da ciò che ha creato l’intelligenza artificiale. Volete un esempio? Quello che segue è un testo che ChatGPT ha redatto su mia richiesta (“scrivi un post in meno di 200 parole per descrivere le difficoltà di distinguere un testo realizzato da un essere umano da un testo realizzato da intelligenza artificiale”):

“Con il sempre crescente utilizzo dell’intelligenza artificiale (IA) nel campo del linguaggio naturale, si è posta una nuova sfida: distinguere se un testo è stato scritto da un essere umano o da un algoritmo di IA. Questo può essere particolarmente difficile perché le IA stanno diventando sempre più sofisticate e in grado di produrre testi molto simili a quelli umani.

Le IA utilizzano tecniche di apprendimento automatico, come il deep learning, per analizzare grandi quantità di testo e imparare a produrre testo simile a quello umano. Possono anche essere addestrate per replicare lo stile di scrittura di autori specifici o per produrre testi che sembrano essere stati scritti da un particolare gruppo di persone.

La sfida di distinguere tra testi umani e quelli generati dall’IA può avere implicazioni importanti, ad esempio nell’ambito della lotta alle fake news o della verifica dell’autenticità di documenti. Ci sono tuttavia alcune tecniche che possono aiutare a identificare la provenienza di un testo, come l’analisi delle frasi, la scelta del lessico, la coerenza semantica e la presenza di errori grammaticali.

In generale, la distinzione tra testo generato dall’IA e testo umano è destinata a diventare sempre più difficile, ma lo sviluppo di tecniche di analisi sempre più sofisticate può aiutare a mantenere la trasparenza e l’onestà nel mondo digitale.”

ChatGPT, 30 marzo 2023

Articolo visibile anche su: LinkedIn, Facebook, Retoricamente, Visiones.


© Gianluca Sposito