Denunciato grammaticalmente per uso non autorizzato delle identità “deepfake” degli scrittori

0
13

Grammarly, il popolare strumento di assistenza alla scrittura, sta affrontando un’azione legale collettiva per aver attribuito falsamente suggerimenti di modifica a scrittori di spicco senza il loro consenso. La causa, depositata presso il tribunale distrettuale degli Stati Uniti, sostiene che Superhuman, la società madre di Grammarly, ha violato i diritti di pubblicità creando personaggi di editori “deepfake”, compresi quelli della giornalista Julia Angwin (la querelante principale), dell’autore Stephen King e del defunto Bell Hooks.

Come funzionava il sistema

Il servizio a pagamento di Grammarly consentiva agli utenti di ricevere consigli di editing presumibilmente da personaggi noti. Ad esempio, un utente potrebbe vedere un suggerimento attribuito a “Julia Angwin” che consiglia tecniche di scrittura specifiche. La causa sottolinea che questi suggerimenti sono stati generati dall’intelligenza artificiale, non dagli autori effettivi, e sono stati utilizzati per migliorare la credibilità dello strumento. La società non ha chiesto il permesso a nessuno degli individui le cui identità sono state divulgate in questo modo.

Perché è importante

Il caso si basa su leggi secolari sul diritto di pubblicità, che proteggono il nome e l’immagine di un individuo dallo sfruttamento commerciale senza consenso. Almeno 25 stati hanno tali leggi. La causa sostiene che Superhuman ha tratto profitto implicando falsamente l’approvazione di voci rispettate, inducendo in errore i clienti a credere di ricevere informazioni dirette da quelle figure.

Questo incidente evidenzia come le piattaforme basate sull’intelligenza artificiale possano offuscare il confine tra competenza autentica e attribuzione sintetica. Sottolinea inoltre una lacuna critica nei quadri giuridici: mentre l’intelligenza artificiale pone nuove sfide, le leggi esistenti possono ancora affrontare l’uso commerciale non autorizzato dell’identità personale. I querelanti non chiedono una nuova legislazione: stanno sfruttando i diritti consolidati per ritenere l’azienda responsabile.

Il risultato finale

La causa funge da precedente legale per il furto di identità legato all’intelligenza artificiale. Dimostra che anche senza nuove normative specifiche sull’intelligenza artificiale, le leggi attuali possono essere applicate per proteggere gli individui dall’abuso aziendale della loro personalità pubblica. Il caso probabilmente stabilirà gli standard su come le aziende tecnologiche otterranno il consenso e divulgheranno i contenuti generati dall’intelligenza artificiale in futuro.