“PCWorld sta scavando a fondo per trovare messaggi che risuonino con i lettori e creando un’opera multiforme che trasmetta un’immagine profonda e ricca”. Questa assurdità sembra generata da un’IA, ma in realtà è stata scritta da una persona in carne e ossa: io. Google lo chiama SynthID, un modo per “aggiungere una filigrana e identificare i contenuti generati dall’IA”. Precedentemente limitato ai sistemi di generazione di linguaggio e immagini di Google, l’azienda ha annunciato che SynthID sarà rilasciato come codice open source e potrà essere applicato ad altri sistemi di generazione di testo basati sull’IA.
Ma in parole povere – almeno nella misura in cui questo profano può effettivamente capire – SynthID nasconde schemi specifici in immagini e testo, solitamente troppo sottili per essere individuati dagli esseri umani, e li rileva tramite uno schema durante i test. Secondo un post sul database open source di machine learning Hugging Face, SynthID può “codificare filigrane in testo generato dall’IA per aiutarti a determinare se il testo è stato generato dal tuo LLM, senza influenzare il funzionamento dell’LLM sottostante o compromettere la qualità della generazione”.
La buona notizia è che Google afferma che queste filigrane possono essere integrate con quasi tutti gli strumenti di generazione di testo basati sull’IA”. La cattiva notizia è che non è ancora chiaro come rilevarle effettivamente. “Il testo di SynthID non è progettato per impedire direttamente ai malintenzionati di causare danni”, afferma Google. (Francamente, penso che anche se Google sviluppasse una panacea per la disinformazione generata dall’LLM, esiterebbe a definirla tale per motivi di responsabilità). Richiede inoltre che il sistema di filigrane sia integrato in uno strumento di generazione di testo prima di poter essere effettivamente utilizzato, quindi nulla impedisce a qualcuno di scegliere di non farlo, come spesso fanno i malintenzionati degli stati nazionali e persino strumenti “gratuiti” come Grok di xIA
In effetti, può essere difficile stabilire se un particolare testo sia generato dall’intelligenza artificiale o scritto da un essere umano. Google spera di semplificare il processo di identificazione rendendo open source i suoi nuovi strumenti software. Devo sottolineare che Google non è esattamente socievole in questo senso. Anche se l’azienda promuove i propri strumenti di intelligenza artificiale a consumatori e aziende, il suo prodotto di ricerca principale sta affrontando minacce informatiche, poiché il web sembra essere rapidamente inondato di testo e immagini generati automaticamente. I concorrenti di Google, come OpenAI potrebbero non utilizzare questi strumenti esclusivamente per scopi commerciali, ma potrebbero invece voler creare i propri standard per orientare il mercato verso i propri prodotti.