Come elaborare una politica efficace sull'utilizzo dell'intelligenza artificiale per il marketing
Pubblicato: 2023-09-26La tecnologia, come l’arte, suscita emozioni e stimola idee e discussioni. L’emergere dell’intelligenza artificiale (AI) nel marketing non fa eccezione. Mentre milioni di persone sono entusiaste di adottare l’intelligenza artificiale per ottenere maggiore velocità e agilità all’interno delle proprie organizzazioni, ce ne sono altri che rimangono scettici, cosa piuttosto comune nelle prime fasi dei cicli di adozione della tecnologia.
In effetti, il modello rispecchia gli albori del cloud computing, quando la tecnologia sembrava un territorio inesplorato. La maggior parte delle aziende non era sicura di questa tecnologia innovativa, preoccupata per la sicurezza dei dati e i requisiti di conformità. Altri sono saltati sul carro senza comprendere veramente le complessità della migrazione o i costi associati. Eppure oggi il cloud computing è onnipresente. Si è evoluto in una forza trasformativa, dalla facilitazione del lavoro a distanza all’intrattenimento in streaming.
Man mano che la tecnologia avanza a una velocità vertiginosa e i leader riconoscono il valore dell’intelligenza artificiale per l’innovazione e la competitività aziendale, elaborare una politica di utilizzo dell’intelligenza artificiale a livello di organizzazione è diventato molto importante. In questo articolo, facciamo luce sul motivo per cui il tempo è essenziale per stabilire un quadro di utilizzo interno dell’intelligenza artificiale ben definito e sugli elementi importanti che i leader dovrebbero tenere in considerazione in esso.
Nota: le informazioni fornite in questo articolo non costituiscono e non intendono costituire una consulenza legale formale. Si prega di rivedere il nostro disclaimer completo prima di leggere oltre.
Perché le organizzazioni hanno bisogno di una policy sull'utilizzo dell'intelligenza artificiale
Gli esperti di marketing stanno già investendo nell’intelligenza artificiale per aumentare l’efficienza. Infatti, The State of Social Report 2023 mostra che il 96% dei leader ritiene che le capacità di intelligenza artificiale e machine learning (ML) possano aiutarli a migliorare in modo significativo i processi decisionali. Un altro 93% mira inoltre ad aumentare gli investimenti nell’intelligenza artificiale per ampliare le funzioni di assistenza clienti nei prossimi tre anni. I marchi che adottano attivamente gli strumenti di intelligenza artificiale avranno probabilmente un vantaggio maggiore rispetto a coloro che sono titubanti.
Data questa ripida traiettoria ascendente nell’adozione dell’intelligenza artificiale, è altrettanto necessario affrontare i rischi che i marchi devono affrontare quando non esistono chiare linee guida interne sull’uso dell’intelligenza artificiale. Per gestire efficacemente questi rischi, la politica di utilizzo dell’intelligenza artificiale di un’azienda dovrebbe incentrarsi su tre elementi chiave:
Rischi del venditore
Prima di integrare qualsiasi fornitore di intelligenza artificiale nel tuo flusso di lavoro, è importante che i team IT e di conformità legale della tua azienda conducano un processo di verifica approfondito. Questo per garantire che i fornitori aderiscano a normative rigorose, rispettino le licenze open source e mantengano adeguatamente la loro tecnologia.
Il direttore e consulente generale associato di Sprout, Michael Rispin, fornisce il suo punto di vista sull'argomento. “Ogni volta che un’azienda afferma di avere una funzionalità di intelligenza artificiale, devi chiedere loro: come la stai alimentando? Qual è lo strato fondamentale?”
È inoltre fondamentale prestare particolare attenzione ai termini e alle condizioni (T&C) poiché la situazione è unica nel caso dei fornitori di intelligenza artificiale. “Dovrai dare un'occhiata da vicino non solo ai termini e alle condizioni del tuo fornitore di intelligenza artificiale, ma anche a qualsiasi intelligenza artificiale di terze parti che sta utilizzando per alimentare la sua soluzione perché sarai soggetto ai T&C di entrambi. Ad esempio, Zoom utilizza OpenAI per potenziare le sue capacità di intelligenza artificiale”, aggiunge.
Mitiga questi rischi garantendo una stretta collaborazione tra team legali, responsabili funzionali e team IT in modo che scelgano gli strumenti di intelligenza artificiale appropriati per i dipendenti e garantiscano che i fornitori siano attentamente controllati.
Rischi legati agli input dell’IA
Gli strumenti di intelligenza artificiale generativa accelerano diverse funzioni come copywriting, progettazione e persino codifica. Molti dipendenti utilizzano già strumenti di intelligenza artificiale gratuiti come collaboratori per creare contenuti di maggiore impatto o per lavorare in modo più efficiente. Tuttavia, una delle maggiori minacce ai diritti di proprietà intellettuale (IP) deriva dall’immissione di dati negli strumenti di intelligenza artificiale senza rendersi conto delle conseguenze, come un dipendente Samsung si è reso conto solo troppo tardi.
"Loro (Samsung) potrebbero aver perso un'importante protezione legale per quell'informazione", afferma Rispin riguardo alla recente fuga di dati da parte di Samsung. “Quando inserisci qualcosa in ChatGPT, stai inviando i dati all'esterno dell'azienda. Ciò significa che tecnicamente non è più un segreto e ciò può mettere in pericolo i diritti di proprietà intellettuale di un'azienda", avverte.
Educare i dipendenti sui rischi associati e sui casi d’uso chiaramente definiti per i contenuti generati dall’intelligenza artificiale aiuta ad alleviare questo problema. Inoltre, migliora in modo sicuro l'efficienza operativa in tutta l'organizzazione.
Rischi legati all’output dell’IA
Analogamente ai rischi di input, l’output degli strumenti di intelligenza artificiale rappresenta una seria minaccia se vengono utilizzati senza verificarne l’accuratezza o il plagio.
Per comprendere più a fondo questo problema, è importante approfondire i meccanismi degli strumenti di intelligenza artificiale basati su modelli generativi pre-addestrati (GPT). Questi strumenti si basano su modelli linguistici di grandi dimensioni (LLM) che vengono spesso formati su contenuti Internet disponibili al pubblico, inclusi libri, tesi di laurea e opere d'arte. In alcuni casi, ciò significa che hanno avuto accesso a dati proprietari o a fonti potenzialmente illegali nel dark web.
Questi modelli di intelligenza artificiale apprendono e generano contenuti analizzando i modelli presenti nella grande quantità di dati che consumano quotidianamente, rendendo molto probabile che il loro risultato non sia del tutto originale. Trascurare di individuare il plagio rappresenta un enorme rischio per la reputazione di un marchio, portando anche a conseguenze legali, se un dipendente utilizza tali dati.
In effetti, è in corso una causa intentata da Sarah Silverman contro ChatGPT per aver importato e fornito riepiloghi dal suo libro anche se non è gratuito per il pubblico. Anche altri autori famosi come George RR Martin e John Grisham hanno fatto causa alla società madre, OpenAI, per violazione del copyright. Considerando questi casi e le ripercussioni future, la Federal Trade Commission degli Stati Uniti ha stabilito un precedente costringendo le aziende a cancellare i propri dati AI raccolti con mezzi senza scrupoli.
Un altro grosso problema con l’intelligenza artificiale generativa come ChatGPT è che utilizza dati vecchi, portando a risultati imprecisi. Se si fosse verificato un cambiamento recente nelle aree che stai ricercando utilizzando l'intelligenza artificiale, è molto probabile che lo strumento avrebbe trascurato tali informazioni poiché non avrebbe avuto il tempo di incorporare i nuovi dati. Poiché questi modelli richiedono tempo per addestrarsi sulle nuove informazioni, potrebbero trascurare le informazioni appena aggiunte. Questo è più difficile da rilevare rispetto a qualcosa di completamente impreciso.
Per affrontare queste sfide, è necessario disporre di un framework interno per l'uso dell'intelligenza artificiale che specifichi gli scenari in cui sono necessari controlli di plagio e accuratezza quando si utilizza l'intelligenza artificiale generativa. Questo approccio è particolarmente utile quando si ridimensiona l’uso dell’intelligenza artificiale e lo si integra anche nell’organizzazione più ampia.
Come in tutte le cose innovative, esistono dei rischi. Ma è possibile affrontarli in tutta sicurezza attraverso un approccio ponderato e intenzionale.
Cosa dovrebbero sostenere i leader del marketing in una politica sull’uso dell’intelligenza artificiale
Man mano che gli strumenti di intelligenza artificiale si evolvono e diventano più intuitivi, una politica completa sull’uso dell’intelligenza artificiale garantirà responsabilità a tutti i livelli. Perfino la Federal Trade Commission (FTC) non ha usato mezzi termini, avvertendo i fornitori di intelligenza artificiale di praticare un marketing etico nel tentativo di impedire loro di promettere eccessivamente le proprie capacità.
Ora è il momento per i leader di avviare un quadro fondamentale per integrare strategicamente l’intelligenza artificiale nel loro stack tecnologico. Ecco alcuni fattori pratici da considerare.
Responsabilità e governance
La policy aziendale sull’utilizzo dell’IA deve descrivere chiaramente i ruoli e le responsabilità degli individui o dei team incaricati della governance e della responsabilità dell’IA all’interno dell’azienda. Le responsabilità dovrebbero includere l’attuazione di audit regolari per garantire che i sistemi di IA siano conformi a tutte le licenze e raggiungano gli obiettivi previsti. È inoltre importante rivedere frequentemente la politica in modo da essere aggiornato sui nuovi sviluppi del settore, comprese la legislazione e le leggi che potrebbero essere applicabili.
La politica sull’intelligenza artificiale dovrebbe anche servire da guida per educare i dipendenti, spiegando i rischi derivanti dall’immissione di informazioni personali, riservate o proprietarie in uno strumento di intelligenza artificiale. Dovrebbe anche discutere i rischi derivanti dall’utilizzo imprudente dei risultati dell’IA, come la pubblicazione letterale dei risultati dell’IA, l’affidamento all’IA per consulenza su argomenti complessi o la mancata revisione sufficiente dei risultati dell’IA per individuare possibili plagi.
Implementazione pianificata
Un modo intelligente per mitigare i rischi relativi alla privacy dei dati e al copyright è introdurre strumenti di intelligenza artificiale in tutta l’organizzazione in modo graduale. Come dice Rispin: “Dobbiamo essere più intenzionali, più attenti a come usiamo l’intelligenza artificiale. Vuoi assicurarti che quando lo distribuisci, lo fai periodicamente in modo limitato e osservi ciò che stai cercando di fare. L'implementazione graduale dell'intelligenza artificiale in un ambiente controllato consente di monitorare l'utilizzo e gestire in modo proattivo gli intoppi, consentendo in seguito un'implementazione più fluida su scala più ampia.
Ciò è particolarmente importante in quanto gli strumenti di intelligenza artificiale forniscono anche approfondimenti sul marchio vitali per i team interorganizzativi come l’esperienza del cliente e il marketing del prodotto. Introducendo l'intelligenza artificiale in modo strategico, è possibile estenderne l'efficienza a questi team multifunzionali in modo sicuro, affrontando gli ostacoli in modo più efficace.
Casi d'uso chiari
La tua policy interna sull'uso dell'IA dovrebbe elencare tutti gli strumenti AI autorizzati per l'uso. Definire chiaramente lo scopo e l'ambito del loro utilizzo, citando casi d'uso specifici. Ad esempio, documentando esempi di attività a basso o alto rischio e quali dovrebbero essere completamente evitate.
Le attività a basso rischio che probabilmente non danneggeranno il tuo marchio potrebbero assomigliare al team dei social media che utilizza l'intelligenza artificiale generativa per redigere post o didascalie più coinvolgenti. Oppure, i team dell'assistenza clienti utilizzano la copia assistita dall'intelligenza artificiale per risposte più personalizzate.
Allo stesso modo, la politica di utilizzo dell’IA dovrebbe specificare esempi ad alto rischio in cui l’uso dell’IA generativa dovrebbe essere limitato, come la fornitura di consulenza legale o di marketing, comunicazioni ai clienti, presentazioni di prodotti o la produzione di risorse di marketing contenenti informazioni riservate.
"Vuoi pensarci due volte prima di offrirlo alle persone il cui compito è gestire informazioni che non potresti mai condividere esternamente, come il tuo team cliente o il team di ingegneri. Ma non dovresti semplicemente fare tutto o niente. Questo è uno spreco perché i team di marketing, anche quelli legali e di successo, fondamentalmente svolgono molte funzioni di back office: la loro produttività può essere accelerata utilizzando strumenti di intelligenza artificiale come ChatGPT", spiega Rispin.
Diritti di proprietà intellettuale
Considerando la crescente capacità dell’intelligenza artificiale generativa e la necessità di produrre rapidamente contenuti complessi, la politica di utilizzo dell’intelligenza artificiale della vostra azienda dovrebbe affrontare chiaramente la minaccia ai diritti di proprietà intellettuale. Questo è fondamentale perché l’uso dell’intelligenza artificiale generativa per sviluppare materiale rivolto all’esterno, come rapporti e invenzioni, può significare che le risorse non possono essere protette da copyright o brevettate.
“Supponiamo che tu abbia pubblicato un prezioso report di settore per tre anni consecutivi e nel quarto anno decida di produrre il report utilizzando l'intelligenza artificiale generativa. In uno scenario del genere, non hai alcuna possibilità di avere un copyright su quel nuovo rapporto perché è stato prodotto senza alcun grande coinvolgimento umano. Lo stesso varrebbe per la grafica o il codice software generato dall’intelligenza artificiale”, osserva Rispin.
Un’altra considerazione è l’utilizzo di account di intelligenza artificiale generativa a livello aziendale con l’azienda come amministratore e i dipendenti come utenti. Ciò consente all'azienda di controllare importanti impostazioni di privacy e condivisione delle informazioni che riducono il rischio legale. Ad esempio, disabilitare determinati tipi di condivisione delle informazioni con ChatGPT ridurrà il rischio di perdere preziosi diritti di proprietà intellettuale.
Dettagli divulgativi
Allo stesso modo, la tua policy sull’utilizzo dell’intelligenza artificiale deve garantire che gli operatori di marketing rivelino a un pubblico esterno che stanno utilizzando contenuti generati dall’intelligenza artificiale. La Commissione Europea considera questo un aspetto molto importante dell’uso responsabile ed etico dell’IA generativa. Negli Stati Uniti, l’AI Disclosure Act del 2023 Bill ha ulteriormente rafforzato questo requisito, mantenendo che qualsiasi output dell’IA debba includere un disclaimer. Questa legislazione incarica la FTC di far rispettare le norme.
Le piattaforme di social media come Instagram stanno già implementando modi per informare gli utenti sui contenuti generati dall’intelligenza artificiale attraverso etichette e filigrane. Lo strumento di intelligenza artificiale generativa di Google, Imagen, ora incorpora anche filigrane digitali su copie e immagini generate dall'intelligenza artificiale utilizzando SynthID. La tecnologia incorpora filigrane direttamente nei pixel dell'immagine, rendendoli rilevabili per l'identificazione ma impercettibili all'occhio umano. Ciò significa che le etichette non possono essere modificate anche con l'aggiunta di filtri o colori alterati.
Integra l'intelligenza artificiale in modo strategico e sicuro
La crescente adozione dell’intelligenza artificiale nel marketing è innegabile, così come lo sono i potenziali rischi e le preoccupazioni sulla sicurezza del marchio che sorgono in assenza di linee guida ben definite. Utilizza questi suggerimenti pratici per creare una politica di utilizzo dell'intelligenza artificiale efficace che ti consenta di sfruttare in modo strategico e sicuro i vantaggi degli strumenti di intelligenza artificiale per flussi di lavoro più intelligenti e processi decisionali intelligenti.
Scopri di più su come i leader del marketing di tutto il mondo si stanno avvicinando all'intelligenza artificiale e al machine learning per favorire l'impatto sul business.
DISCLAIMER
Le informazioni fornite in questo articolo non costituiscono e non intendono costituire una consulenza legale formale; tutte le informazioni, i contenuti, i punti e i materiali sono a scopo informativo generale. Le informazioni contenute in questo sito Web potrebbero non costituire le informazioni legali o di altro tipo più aggiornate. L'incorporazione delle linee guida fornite in questo articolo non garantisce la riduzione del rischio legale. I lettori di questo articolo dovrebbero contattare il proprio team legale o avvocato per ottenere consulenza in merito a qualsiasi questione legale particolare e dovrebbero astenersi dall'agire sulla base delle informazioni contenute in questo articolo senza prima richiedere una consulenza legale indipendente. L'uso e l'accesso a questo articolo o a uno qualsiasi dei collegamenti o delle risorse contenuti nel sito non creano una relazione avvocato-cliente tra il lettore, l'utente o il browser e gli eventuali contributori. Le opinioni espresse dai contributori a questo articolo sono le loro e non riflettono le opinioni di Sprout Social. Si declina espressamente ogni responsabilità rispetto ad azioni intraprese o non intraprese in base al contenuto di questo articolo.