Cum să creați o politică eficientă de utilizare a AI pentru marketing
Publicat: 2023-09-26Tehnologia, ca și arta, stârnește emoții și stârnește idei și discuții. Apariția inteligenței artificiale (IA) în marketing nu face excepție. În timp ce milioane de oameni sunt entuziasmați de adoptarea AI pentru a obține o viteză și agilitate mai mare în cadrul organizațiilor lor, există alții care rămân sceptici – destul de frecvente în fazele incipiente ale ciclurilor de adoptare a tehnologiei.
De fapt, modelul oglindește primele zile ale cloud computing-ului, când tehnologia se simțea ca un teritoriu neexplorat. Majoritatea companiilor nu erau sigure de tehnologia revoluționară – preocupate de cerințele de securitate și de conformitate a datelor. Alții s-au aruncat pe val fără să înțeleagă cu adevărat complexitățile migrației sau costurile asociate. Cu toate acestea, astăzi, cloud computing este omniprezent. A evoluat într-o forță transformatoare, de la facilitarea lucrului de la distanță la divertisment în flux.
Pe măsură ce tehnologia avansează cu o viteză vertiginoasă, iar liderii recunosc valoarea AI pentru inovația și competitivitatea afacerilor, elaborarea unei politici de utilizare a AI la nivel de organizație a devenit foarte importantă. În acest articol, facem lumină de ce timpul este esențial pentru stabilirea unui cadru intern de utilizare a AI bine definit și elementele importante pe care liderii ar trebui să le ia în considerare.
Vă rugăm să rețineți: informațiile furnizate în acest articol nu constituie și nu sunt destinate să constituie consultanță juridică oficială. Vă rugăm să consultați clauza noastră completă de declinare a răspunderii înainte de a citi mai departe.
De ce organizațiile au nevoie de o politică de utilizare a inteligenței artificiale
Specialiștii în marketing investesc deja în AI pentru a crește eficiența. De fapt, The State of Social Report 2023 arată că 96% dintre lideri cred că capacitățile AI și machine learning (ML) îi pot ajuta să îmbunătățească procesele de luare a deciziilor în mod semnificativ. Alte 93% urmăresc, de asemenea, să crească investițiile în inteligența artificială pentru a extinde funcțiile de asistență clienți în următorii trei ani. Mărcile care adoptă în mod activ instrumente AI vor avea probabil un avantaj mai mare față de cei care ezită.
Având în vedere această traiectorie ascendentă abruptă în adoptarea AI, este la fel de necesar să se abordeze riscurile cu care se confruntă mărcile atunci când nu există linii directoare interne clare de utilizare a AI. Pentru a gestiona eficient aceste riscuri, politica de utilizare a IA a unei companii ar trebui să se concentreze pe trei elemente cheie:
Riscurile vânzătorului
Înainte de a integra orice furnizor de AI în fluxul dvs. de lucru, este important ca echipele IT și de conformitate juridică ale companiei dvs. să efectueze un proces de verificare amănunțit. Acest lucru este pentru a ne asigura că vânzătorii respectă reglementările stricte, respectă licențele open-source și își mențin tehnologia în mod corespunzător.
Directorul lui Sprout, consilier general asociat, Michael Rispin, oferă perspectivele sale asupra subiectului. „Ori de câte ori o companie spune că are o caracteristică AI, trebuie să-i întrebați – Cum o alimentați? Care este stratul de bază?”
De asemenea, este esențial să acordați o atenție deosebită termenilor și condițiilor (T&C), deoarece situația este unică în cazul furnizorilor de AI. „Va trebui să aruncați o privire atentă nu numai la termenii și condițiile furnizorului dvs. de AI, ci și la orice IA terță parte pe care o utilizează pentru a-și alimenta soluția, deoarece veți fi supus T&C-urilor ambilor. De exemplu, Zoom folosește OpenAI pentru a-și dezvolta capacitățile AI”, adaugă el.
Reduceți aceste riscuri asigurând o colaborare strânsă între echipele juridice, managerii funcționali și echipele dvs. IT, astfel încât acestea să aleagă instrumentele AI adecvate pentru angajați și să se asigure că furnizorii sunt verificați îndeaproape.
Riscuri de intrare AI
Instrumentele AI generative accelerează mai multe funcții, cum ar fi copywriting, design și chiar codificare. Mulți angajați folosesc deja instrumente gratuite de inteligență artificială ca colaboratori pentru a crea conținut cu mai mult impact sau pentru a lucra mai eficient. Cu toate acestea, una dintre cele mai mari amenințări la adresa drepturilor de proprietate intelectuală (IP) apare din introducerea datelor în instrumentele AI fără a realiza consecințele, așa cum și-a dat seama prea târziu un angajat Samsung.
„Ei (Samsung) ar fi putut pierde o protecție legală majoră pentru acea informație”, spune Rispin cu privire la recenta scurgere de date a Samsung. „Când introduci ceva în ChatGPT, trimiți datele în afara companiei. Făcând asta înseamnă că din punct de vedere tehnic nu mai este un secret și acest lucru poate pune în pericol drepturile de proprietate intelectuală ale unei companii”, avertizează el.
Educarea angajaților despre riscurile asociate și cazurile de utilizare clar definite pentru conținutul generat de inteligență artificială ajută la atenuarea acestei probleme. În plus, îmbunătățește în siguranță eficiența operațională în întreaga organizație.
Riscuri de ieșire AI
Similar riscurilor de intrare, rezultatele din instrumentele AI reprezintă o amenințare serioasă dacă sunt utilizate fără a verifica acuratețea sau plagiatul.
Pentru a obține o înțelegere mai profundă a acestei probleme, este important să se aprofundeze în mecanica instrumentelor AI alimentate de modele generative pre-antrenate (GPT). Aceste instrumente se bazează pe modele lingvistice mari (LLM) care sunt frecvent instruite pe conținut de internet disponibil public, inclusiv cărți, disertații și lucrări de artă. În unele cazuri, aceasta înseamnă că au accesat date proprietare sau surse potențial ilegale de pe dark web.
Aceste modele de inteligență artificială învață și generează conținut prin analizarea tiparelor în cantitatea mare de date pe care o consumă zilnic, ceea ce face foarte probabil ca rezultatul lor să nu fie în întregime original. Neglijarea de a detecta plagiatul prezintă un risc uriaș pentru reputația unei mărci, ducând și la consecințe legale, dacă un angajat folosește acele date.
De fapt, există un proces activ depus de Sarah Silverman împotriva ChatGPT pentru ingerarea și furnizarea de rezumate din cartea ei, deși nu este gratuită pentru public. Alți autori cunoscuți, precum George RR Martin și John Grisham, dau în judecată compania-mamă, OpenAI, pentru încălcarea drepturilor de autor. Având în vedere aceste cazuri și repercusiunile viitoare, Comisia Federală pentru Comerț din SUA a creat un precedent, forțând companiile să-și ștergă datele AI colectate prin mijloace fără scrupule.
O altă problemă majoră cu IA generativă, cum ar fi ChatGPT, este că utilizează date vechi, ceea ce duce la rezultate incorecte. Dacă a existat o schimbare recentă în domeniile pe care le cercetați folosind AI, există o mare probabilitate ca instrumentul să fi trecut cu vederea acele informații, deoarece nu ar fi avut timp să încorporeze noile date. Deoarece aceste modele necesită timp pentru a se instrui cu privire la informații noi, ele pot trece cu vederea informațiile nou adăugate. Acest lucru este mai greu de detectat decât ceva complet inexact.
Pentru a face față acestor provocări, ar trebui să aveți un cadru intern de utilizare a AI care specifică scenarii în care sunt necesare verificări de plagiat și acuratețe atunci când utilizați AI generativă. Această abordare este utilă în special atunci când se extinde utilizarea AI și se integrează și în organizația mai mare.
Ca în toate lucrurile inovatoare, există riscuri care există. Dar ele pot fi navigate în siguranță printr-o abordare atentă, intenționată.
Ce ar trebui să susțină liderii de marketing într-o politică de utilizare a inteligenței artificiale
Pe măsură ce instrumentele AI evoluează și devin mai intuitive, o politică cuprinzătoare de utilizare a AI va asigura responsabilitatea și responsabilitatea la nivel general. Chiar și Comisia Federală pentru Comerț (FTC) nu a tocat cuvintele, avertizând vânzătorii de inteligență artificială să practice marketingul etic în încercarea de a-i opri de la capacități prea promițătoare.
Acum este momentul ca liderii să inițieze un cadru de bază pentru integrarea strategică a AI în stack-ul lor de tehnologie. Iată câțiva factori practici de care trebuie să luați în considerare.
Responsabilitate și guvernare
Politica dvs. corporativă de utilizare a AI trebuie să descrie în mod clar rolurile și responsabilitățile persoanelor sau echipelor cărora le sunt încredințate guvernarea și responsabilitatea AI în companie. Responsabilitățile ar trebui să includă implementarea de audituri regulate pentru a se asigura că sistemele AI sunt conforme cu toate licențele și își realizează obiectivele vizate. De asemenea, este important să revizuiți politica în mod frecvent, astfel încât să fiți la curent cu noile evoluții din industrie, inclusiv cu legislația și legile care ar putea fi aplicabile.
Politica de inteligență artificială ar trebui, de asemenea, să servească drept ghid pentru educarea angajaților, explicând riscurile introducerii de informații personale, confidențiale sau de proprietate într-un instrument de inteligență artificială. De asemenea, ar trebui să discute despre riscurile utilizării neînțelepte a rezultatelor AI, cum ar fi publicarea textuală a rezultatelor AI, bazarea pe AI pentru consiliere pe subiecte complexe sau neexaminarea suficientă a rezultatelor AI pentru plagiat.
Implementare planificată
O modalitate inteligentă de a atenua riscurile privind confidențialitatea datelor și drepturile de autor este introducerea instrumentelor AI în organizație într-o manieră treptată. După cum spune Rispin, „Trebuie să fim mai intenționați, mai atenți la modul în care folosim inteligența artificială. Vrei să te asiguri că atunci când o lansezi, o faci periodic într-un mod limitat și observi ceea ce încerci să faci.” Implementarea treptată a AI într-un mediu controlat vă permite să monitorizați utilizarea și să gestionați proactiv sughițurile, permițând o implementare mai ușoară la o scară mai largă mai târziu.
Acest lucru este deosebit de important, deoarece instrumentele AI oferă, de asemenea, informații despre marcă vitale pentru echipele interorganizaționale, cum ar fi experiența clienților și marketingul de produs. Prin introducerea strategică a inteligenței artificiale, îi puteți extinde eficiența acestor echipe multifuncționale în siguranță, în timp ce abordați obstacolele mai eficient.
Cazuri de utilizare clare
Politica dvs. internă de utilizare a AI ar trebui să enumere toate instrumentele AI cu licență aprobate pentru utilizare. Definiți în mod clar scopul și scopul utilizării acestora, citând cazuri de utilizare specifice. De exemplu, documentarea unor exemple despre sarcinile cu risc scăzut sau ridicat și care ar trebui evitate complet.
Sarcinile cu risc scăzut, care nu sunt susceptibile să vă dăuneze brandului, pot arăta ca echipa de social media care folosește AI generativă pentru a redacta postări sau subtitrări mai captivante. Sau, echipele de servicii pentru clienți care folosesc copie asistată de AI pentru răspunsuri mai personalizate.
În mod similar, politica de utilizare a IA ar trebui să specifice exemple cu risc ridicat în care utilizarea IA generativă ar trebui restricționată, cum ar fi oferirea de sfaturi juridice sau de marketing, comunicări cu clienții, prezentări de produse sau producerea de active de marketing care conțin informații confidențiale.
„Vrei să te gândești de două ori înainte de a le distribui oamenilor a căror sarcină este să se ocupe de informații pe care nu le-ai putea împărtăși niciodată extern, cum ar fi echipa ta de clienți sau echipa de ingineri. Dar nu ar trebui să faci totul sau nimic. Este o risipă, deoarece echipele de marketing, chiar și echipele juridice și echipele de succes, o mulțime de funcții de back office funcționează practic – productivitatea lor poate fi accelerată prin utilizarea instrumentelor AI precum ChatGPT”, explică Rispin.
Drepturi pentru proprietate intelectuala
Având în vedere capacitatea în creștere a IA generativă și nevoia de a produce rapid conținut complex, politica de utilizare a IA a companiei dvs. ar trebui să abordeze în mod clar amenințarea la adresa drepturilor de proprietate intelectuală. Acest lucru este esențial, deoarece utilizarea IA generativă pentru a dezvolta materiale externe, cum ar fi rapoarte și invenții, poate însemna că activele nu pot fi protejate prin drepturi de autor sau brevetate.
„Să presupunem că ați publicat un raport valoros al industriei timp de trei ani consecutivi și, în al patrulea an, decideți să produceți raportul folosind IA generativă. Într-un astfel de scenariu, nu aveți dreptul de a avea drepturi de autor asupra noului raport, deoarece a fost produs fără nicio implicare umană majoră. Același lucru ar fi valabil și pentru codul de artă sau software generat de AI”, notează Rispin.
O altă considerație este utilizarea conturilor AI generative la nivel de întreprindere cu compania ca administrator și angajații ca utilizatori. Acest lucru permite companiei să controleze setările importante de confidențialitate și de partajare a informațiilor care reduc riscul juridic. De exemplu, dezactivarea anumitor tipuri de partajare a informațiilor cu ChatGPT va reduce riscul de a pierde drepturile de proprietate intelectuală valoroase.
Detalii de dezvăluire
În mod similar, politica dvs. de utilizare a inteligenței artificiale trebuie să se asigure că specialiștii în marketing dezvăluie că folosesc conținut generat de inteligență artificială către publicul extern. Comisia Europeană consideră că acesta este un aspect foarte important al utilizării responsabile și etice a IA generativă. În SUA, AI Disclosure Act din 2023 a consolidat și mai mult această cerință, menținerea oricărei rezultate din AI trebuie să includă o declinare a răspunderii. Această legislație încredințează FTC cu aplicarea.
Platformele de social media precum Instagram implementează deja modalități de a informa utilizatorii despre conținutul generat de AI prin etichete și filigrane. Instrumentul AI generativ de la Google, Imagen, încorporează acum și filigrane digitale pe copii și imagini generate de AI folosind SynthID. Tehnologia încorporează filigrane direct în pixelii imaginii, făcându-le detectabile pentru identificare, dar imperceptibile pentru ochiul uman. Aceasta înseamnă că etichetele nu pot fi modificate chiar și cu filtre adăugate sau culori modificate.
Integrați AI strategic și în siguranță
Adoptarea tot mai mare a AI în marketing este incontestabilă, la fel ca și riscurile potențiale și preocupările legate de siguranța mărcii care apar în absența unor linii directoare bine definite. Folosiți aceste sfaturi practice pentru a construi o politică eficientă de utilizare a AI, care vă permite să valorificați în mod strategic și sigur beneficiile instrumentelor AI pentru fluxuri de lucru mai inteligente și luare a deciziilor inteligente.
Aflați mai multe despre modul în care liderii de marketing din întreaga lume abordează AI și ML pentru a genera impactul asupra afacerii.
DISCLAIMER
Informațiile furnizate în acest articol nu constituie și nu intenționează să constituie consultanță juridică formală; toate informațiile, conținutul, punctele și materialele au scop informativ general. Este posibil ca informațiile de pe acest site web să nu constituie cele mai actualizate informații legale sau de altă natură. Încorporarea oricăror linii directoare prevăzute în acest articol nu garantează că riscul dumneavoastră legal este redus. Cititorii acestui articol ar trebui să contacteze echipa lor juridică sau avocatul pentru a obține sfaturi cu privire la orice problemă juridică specială și ar trebui să se abțină de la a acționa pe baza informațiilor din acest articol fără a solicita mai întâi consiliere juridică independentă. Utilizarea și accesul la acest articol sau la oricare dintre legăturile sau resursele conținute în site nu creează o relație avocat-client între cititor, utilizator sau browser și orice colaborator. Părerile exprimate de orice colaborator la acest articol sunt proprii și nu reflectă opiniile Sprout Social. Toată răspunderea cu privire la acțiunile întreprinse sau neîntreprinse pe baza conținutului acestui articol este declinată în mod expres prin prezenta.