Il lancio dello strumento di AI generativa, ChatGPT, alla fine del 2022, ha scatenato una serie di commenti negativi e positivi, tra cui la previsione del giorno in cui le macchine prenderanno il sopravvento da un lato, e le visioni utopiche di una maggiore efficienza aziendale e di una maggiore soddisfazione dei clienti e di un miglioramento dei profitti dall’altro.
Come per ogni nuova tecnologia, nel mix di opportunità e costi commerciali si nascondono una serie di rischi legali che spesso vengono trascurati fino a quando qualcosa non va storto.
Cosa fa ChatGPT?
ChatGPT utilizza la tecnologia dell’intelligenza artificiale (AI) per eseguire compiti di “elaborazione del linguaggio naturale”. Può essere utilizzato per consentire alle persone di avere conversazioni simili a quelle umane (alcuni dicono che sia una chatbot che funziona davvero), o per generare contenuti in modo incredibilmente rapido. Il ChatGPT e altri strumenti di “AI generativa” sono già utilizzati dalle aziende che cercano di trovare efficienza in mercati sempre più competitivi.
Rischi per il settore dei pub e i bar
Come molti strumenti di intelligenza artificiale, ha bisogno di un apporto costante di nuovi contenuti per imparare e migliorare: la sua capacità di elaborare il linguaggio in modo naturale dipende dalla sua capacità di vedere un’ampia gamma di linguaggi e altri contenuti. Qualsiasi pub o bar che utilizzi ChatGPT nelle sue attività lo alimenterà con informazioni da cui potrà imparare.
Se si tratta di materiale originale creato da qualcun altro (magari una campagna di marketing intelligente che volete adattare alla vostra proprietà, un format di pub quiz che volete usare nei vostri pub, o un menu di un marchio concorrente che state usando come ispirazione, o una campagna di social media che volete imitare), allora inserirlo in ChatGPT potrebbe essere una violazione dei diritti di proprietà intellettuale di cui siete responsabili. La legge sulla proprietà intellettuale non smette di essere applicata solo perché si sta diffondendo una nuova tecnologia.
Come gestire i rischi
Ci sono tre fasi fondamentali per gestire i rischi legati all’utilizzo degli strumenti di AI:
- Valutare bene quali informazioni si stanno inserendo nello strumento e assicurarsi di avere i diritti necessari per farlo. Questo potrebbe significare revisionare i vecchi contratti per l’acquisto dei contenuti da utilizzare nell’attività: se questi contratti non garantiscono espressamente i diritti di utilizzare i contenuti con gli strumenti di intelligenza artificiale generativa, andra’ considerata la possibilità di tornare dal proprietario della proprietà intellettuale per ottenere i diritti.
- Considerare cosa dicono le informative sulla privacy in merito all’uso dell’IA generativa e cosa coprono le autorizzazioni pertinenti e decidere se le informative sono sufficientemente trasparenti e le autorizzazioni sufficientemente ampie da permettere di incoraggiare i clienti a condividere i loro dati personali con un’azienda. Potrebbe essere necessario definire linee guida chiare per l’utilizzo di strumenti di intelligenza artificiale online, per essere certi che i clienti comprendano cosa succede ai loro dati se utilizzano tali strumenti.
- Come la maggior parte delle IA generative, ChatGPT è ancora in fase di sviluppo e i suoi output non sono sempre accurati, non corrispondono sempre al brief che gli è stato dato e potrebbero potenzialmente dare adito a reclami o azioni legali da parte di singoli individui. L’aggiunta di un elemento umano al processo per verificare almeno il senso dei risultati può aiutare a evitare gli errori legali più evidenti.