India: diritto d’autore e Generative AI

Home / Blog / India: diritto d’autore e Generative AI

E’ stato analizzato il lato del risultato dei modelli di Intelligenza Artificiale Generativa (Generative AI). Si è visto che, se il risultato generato da questi modelli è sostanzialmente simile a un’opera protetta da copyright o è una sua semplice modifica, potrebbe violare i diritti d’autore. Il dubbio principale e’ pero’ quello di individuare chi sia responsabile per tale violazione: l’utente, lo sviluppatore del modello, entrambi o nessuno?

In questo caso si presentano tre situazioni distinte:

  • La responsabilità per violazione diretta ricade sullo sviluppatore del modello/fornitore del servizio, considerando che la violazione diretta del copyright è un reato di responsabilità oggettiva?
  • La responsabilità per violazione diretta ricade sull’utente del modello, che immette determinati comandi che producono risultati in violazione del copyright, mentre la responsabilità per violazione indiretta ricadrebbe sullo sviluppatore/fornitore del modello?
  • Sia lo sviluppatore del modello che l’utente possono essere responsabili congiuntamente per la violazione diretta?

La risposta alle varie domande si basa su delle considerazioni fattuali:

  1. Sviluppatore con Misure di Protezione: Se lo sviluppatore ha preso tutte le misure ragionevoli e tecnicamente disponibili per evitare che il modello produca risultati simili ai dati di addestramento, è improbabile che venga ritenuto responsabile per le violazioni. Queste misure includono la prevenzione della memorizzazione di contenuti protetti e la limitazione delle risposte che potrebbero violare i diritti d’autore.
  2. Utente che Abusa del Modello: Se l’utente sfrutta le vulnerabilità del modello per ottenere risultati che violano il copyright, come l’inserimento di prompt specifici per generare contenuti illeciti, la responsabilità per la violazione diretta è più probabile che ricada sull’utente.
  3. Modelli che Riproducono Dati di Addestramento: Se il modello produce contenuti che riflettono direttamente i dati di addestramento anche con richieste generiche, esiste un rischio maggiore di violazione. In tali casi, la responsabilità per la violazione diretta potrebbe ricadere sull’utente che ha fornito il prompt.
  4. Modelli Adattatori di Contenuti: Se un modello è progettato per adattare contenuti protetti in un formato diverso (ad esempio, da un’opera letteraria a un’opera drammatica) e consente il caricamento di tali contenuti, la responsabilità potrebbe essere complessa e coinvolgere sia lo sviluppatore che l’utente.

La Sezione 51(a)(i) condanna la violazione del diritto d’autore. Cio’ avviene quando un soggetto fa qualcosa senza il permesso / licenza del titolare del diritto d’autore. La Legge sul Copyright afferma che il titolare del diritto d’autore ha il diritto esclusivo di concedere detta licenza. Questa disposizione di responsabilità oggettiva richiede tuttavia l’esistenza della “causation”. La violazione riguarda il comportamento volontario, diverso dalla violazione indiretta. Ad esempio, una copisteria che permette ai clienti di usare le fotocopiatrici non commette una violazione diretta, ma una copisteria che realizza fotocopie che violano il copyright si. La violazione diretta implica un certo grado di “autorizzazione” o “controllo” sul risultato prodotto dallo sviluppatore.

Quando l’Intelligenza Artificiale Generativa apprende e amplia il suo dataset di addestramento attraverso i prompt degli utenti, non è sotto il controllo dello sviluppatore. È improbabile che il requisito della volontarietà venga soddisfatto, specialmente quando lo sviluppatore ha preso tutte le misure ragionevoli per garantire che il modello non riproduca contenuti memorizzati o risultati simili a qualsiasi dato di addestramento inserito. Se il modello viene addestrato a produrre adattamenti dei contenuti inseriti o ripetizioni memorizzate, potrebbe essere considerato in possesso del requisito della volontarietà, attirando così una responsabilità diretta.