Stabilire se un testo è stato prodotto da un’intelligenza artificiale

PROMPT: È possibile stabilire con relativa certezza se un certo testo è stato prodotto da un umano o da un’intelligenza artificiale?

RISPOSTA DI GEMINI

La risposta breve è: no, non con certezza assoluta.

Nonostante esistano numerosi strumenti di rilevamento (i cosiddetti “AI detectors”), la sfida è un continuo gioco al gatto e al topo. Man mano che i modelli linguistici diventano più sofisticati, le tracce che lasciano diventano quasi indistinguibili dalla scrittura umana.

Ecco un’analisi onesta di dove ci troviamo oggi:


1. Come funzionano i rilevatori (e perché falliscono)

I software di rilevamento non “capiscono” il testo, ma cercano due indicatori statistici principali:

  • Perplessità (Perplexity): Misura quanto il testo sia “sorprendente”. Se un modello può prevedere facilmente la parola successiva, la perplessità è bassa e il testo viene marcato come IA.

  • Variabilità (Burstiness): Gli umani tendono a variare la struttura delle frasi (alcune lunghe e complesse, altre brevi e secche). L’IA tende a essere più uniforme e costante.

Il problema? Un umano che scrive in modo molto formale o tecnico può essere scambiato per un’IA (falso positivo), mentre un’IA a cui viene chiesto di scrivere in modo “caotico” può ingannare i sensori.


2. I segnali rivelatori dell’IA

Anche se non c’è certezza matematica, ci sono dei “campanelli d’allarme” che spesso tradiscono l’origine artificiale:

  • Eccessiva cortesia e neutralità: L’IA evita opinioni forti e usa spesso frasi fatte come “È importante notare che…”.

  • Allucinazioni sicure di sé: L’IA può inventare fatti o citazioni con un tono estremamente autorevole.

  • Ripetizioni strutturali: L’uso frequente di liste puntate o conclusioni che iniziano sempre con “In sintesi” o “In conclusione”.

  • Mancanza di riferimenti personali: Un’IA raramente inserisce aneddoti specifici, sensoriali o emotivamente complessi che non siano generici.


3. Il “Watermarking” e il futuro

Le aziende come Google e OpenAI stanno lavorando sul watermarking digitale: inserire segnali invisibili (scelte di parole specifiche basate su pattern matematici) all’interno del testo generato.

Tuttavia, basta riscrivere parzialmente il testo o tradurlo in un’altra lingua e poi riportarlo all’originale per “lavare via” queste impronte digitali.


Conclusione

Oggi siamo in una zona grigia. Se un testo è breve o scritto con un “prompt” molto semplice, è facile individuarlo. Se invece è frutto di una collaborazione tra umano e IA (l’umano guida, l’IA scrive, l’umano corregge), distinguerli è praticamente impossibile.

Nota di trasparenza: Anche se io sono un’IA, se mi chiedessi di scrivere un racconto imitando lo stile di uno scrittore specifico con i suoi tic linguistici, molti rilevatori fallirebbero il test.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *