Jak stworzyć skuteczną politykę wykorzystania AI w marketingu

Opublikowany: 2023-09-26

Technologia, podobnie jak sztuka, budzi emocje, inicjuje pomysły i dyskusje. Pojawienie się sztucznej inteligencji (AI) w marketingu nie jest wyjątkiem. Podczas gdy miliony ludzi są entuzjastycznie nastawione do wykorzystania sztucznej inteligencji w celu osiągnięcia większej szybkości i zwinności w swoich organizacjach, są inni, którzy pozostają sceptyczni – co jest dość powszechne we wczesnych fazach cykli wdrażania technologii.

W rzeczywistości wzór odzwierciedla początki przetwarzania w chmurze, kiedy technologia ta wydawała się niezbadanym terytorium. Większość firm nie miała pewności co do przełomowej technologii – obawiały się wymagań dotyczących bezpieczeństwa danych i zgodności. Inni poszli za modą, nie rozumiejąc w pełni złożoności migracji i związanych z nią kosztów. Jednak dzisiaj przetwarzanie w chmurze jest wszechobecne. Przekształciło się w siłę transformacyjną, od ułatwiania pracy zdalnej po rozrywkę strumieniową.

Ponieważ technologia rozwija się w zawrotnym tempie, a liderzy dostrzegają wartość sztucznej inteligencji dla innowacji biznesowych i konkurencyjności, bardzo ważne stało się opracowanie polityki wykorzystania sztucznej inteligencji obejmującej całą organizację. W tym artykule rzucamy światło na to, dlaczego czas jest kluczowy dla ustalenia dobrze zdefiniowanych wewnętrznych ram wykorzystania sztucznej inteligencji i jakie ważne elementy powinni uwzględnić w nim liderzy.

Uwaga: informacje zawarte w tym artykule nie stanowią i nie mają stanowić formalnej porady prawnej. Przed przeczytaniem dalszej części prosimy o zapoznanie się z naszym pełnym zastrzeżeniem.

Dlaczego organizacje potrzebują polityki wykorzystania sztucznej inteligencji

Marketerzy już inwestują w sztuczną inteligencję, aby zwiększyć efektywność. Z raportu The State of Social Report 2023 wynika, że ​​96% liderów wierzy, że sztuczna inteligencja i uczenie maszynowe (ML) mogą im pomóc znacząco usprawnić procesy decyzyjne. Kolejne 93% zamierza w ciągu najbliższych trzech lat zwiększyć inwestycje w sztuczną inteligencję, aby skalować funkcje obsługi klienta. Marki aktywnie wdrażające narzędzia AI prawdopodobnie będą miały większą przewagę nad tymi, którzy się wahają.

Karta objaśniająca wizualizację danych, z której wynika, że ​​96% liderów biznesu wierzy, że sztuczna inteligencja i uczenie maszynowe mogą znacząco usprawnić proces podejmowania decyzji.

Biorąc pod uwagę tę stromą tendencję wzrostową w zakresie wdrażania sztucznej inteligencji, równie konieczne jest zajęcie się ryzykiem, na jakie narażają się marki, gdy nie istnieją jasne wewnętrzne wytyczne dotyczące stosowania sztucznej inteligencji. Aby skutecznie zarządzać tymi ryzykami, polityka firmy dotycząca wykorzystania sztucznej inteligencji powinna skupiać się wokół trzech kluczowych elementów:

Ryzyko dostawcy

Przed włączeniem jakichkolwiek dostawców sztucznej inteligencji do swojego przepływu pracy ważne jest, aby zespoły IT i zespoły ds. zgodności z prawem w Twojej firmie przeprowadziły dokładny proces weryfikacji. Ma to na celu zapewnienie, że dostawcy będą przestrzegać rygorystycznych przepisów, licencji typu open source i odpowiednio utrzymywać swoją technologię.

Dyrektor Sprout, zastępca głównego radcy prawnego, Michael Rispin, przedstawia swoje spostrzeżenia na ten temat. „Za każdym razem, gdy firma twierdzi, że ma funkcję sztucznej inteligencji, musisz ją zapytać: Jak to możliwe? Jaka jest warstwa podstawowa?”

Bardzo ważne jest również zwrócenie szczególnej uwagi na warunki handlowe (T&C), ponieważ sytuacja jest wyjątkowa w przypadku dostawców sztucznej inteligencji. „Będziesz musiał dokładnie przyjrzeć się warunkom dostawcy sztucznej inteligencji, ale także sztucznej inteligencji innej firmy, której używa do zasilania swojego rozwiązania, ponieważ będziesz podlegać warunkom obu z nich. Na przykład Zoom korzysta z OpenAI, aby zwiększyć możliwości swoich rozwiązań w zakresie sztucznej inteligencji” – dodaje.

Złagodź to ryzyko, zapewniając ścisłą współpracę między zespołami prawnymi, menedżerami funkcjonalnymi i zespołami IT, aby wybierały one odpowiednie narzędzia sztucznej inteligencji dla pracowników i zapewniały ścisłą weryfikację dostawców.

Ryzyko związane z danymi wejściowymi AI

Narzędzia generatywnej sztucznej inteligencji przyspieszają kilka funkcji, takich jak copywriting, projektowanie, a nawet kodowanie. Wielu pracowników już korzysta z bezpłatnych narzędzi AI jako współpracownicy, aby tworzyć bardziej wpływowe treści lub pracować wydajniej. Jednak jedno z największych zagrożeń dla praw własności intelektualnej (IP) wynika z wprowadzania danych do narzędzi AI bez zdawania sobie sprawy z konsekwencji, o czym pracownik firmy Samsung zdał sobie sprawę zbyt późno.

„Oni (Samsung) mogli utracić znaczącą ochronę prawną dotyczącą tej informacji” – mówi Rispin w związku z niedawnym wyciekiem danych firmy Samsung. „Kiedy umieszczasz coś w ChatGPT, wysyłasz dane poza firmę. Takie postępowanie oznacza, że ​​z technicznego punktu widzenia nie jest to już tajemnicą i może zagrozić prawom własności intelektualnej firmy” – ostrzega.

Edukowanie pracowników na temat powiązanych zagrożeń i jasno zdefiniowanych przypadków użycia treści generowanych przez sztuczną inteligencję pomaga złagodzić ten problem. Ponadto w bezpieczny sposób zwiększa efektywność operacyjną w całej organizacji.

Ryzyko związane z wynikami AI

Podobnie jak ryzyko danych wejściowych, dane wyjściowe narzędzi AI stanowią poważne zagrożenie, jeśli są używane bez sprawdzenia ich dokładności lub plagiatu.

Aby uzyskać głębsze zrozumienie tego zagadnienia, ważne jest, aby zagłębić się w mechanikę narzędzi AI opartych na generatywnych, wstępnie wytrenowanych modelach (GPT). Narzędzia te opierają się na dużych modelach językowych (LLM), które często są szkolone na podstawie publicznie dostępnych treści internetowych, w tym książek, rozpraw doktorskich i dzieł sztuki. W niektórych przypadkach oznacza to, że uzyskali dostęp do zastrzeżonych danych lub potencjalnie nielegalnych źródeł w ciemnej sieci.

Te modele sztucznej inteligencji uczą się i generują treści, analizując wzorce w ogromnej ilości danych, które codziennie wykorzystują, co zwiększa prawdopodobieństwo, że ich dane wyjściowe nie są całkowicie oryginalne. Zaniedbanie wykrycia plagiatu stwarza ogromne ryzyko dla reputacji marki, a w przypadku wykorzystania tych danych przez pracownika może skutkować także konsekwencjami prawnymi.

W rzeczywistości Sarah Silverman toczy pozew przeciwko ChatGPT w związku z pobieraniem i udostępnianiem streszczeń jej książki, mimo że nie jest ona dostępna publicznie. Inni znani autorzy, tacy jak George RR Martin i John Grisham, również pozywają spółkę-matkę, OpenAI, w związku z naruszeniem praw autorskich. Biorąc pod uwagę te przypadki i przyszłe konsekwencje, Federalna Komisja Handlu Stanów Zjednoczonych ustanowiła precedens, zmuszając firmy do usuwania danych dotyczących sztucznej inteligencji zebranych w sposób pozbawiony skrupułów.

Innym poważnym problemem związanym z generatywną sztuczną inteligencją, taką jak ChatGPT, jest to, że wykorzystuje ona stare dane, co prowadzi do niedokładnych wyników. Jeśli niedawno nastąpiła zmiana w obszarach, które badasz przy użyciu sztucznej inteligencji, istnieje duże prawdopodobieństwo, że narzędzie przeoczyłoby tę informację, ponieważ nie miałoby czasu na uwzględnienie nowych danych. Ponieważ modele te potrzebują czasu, aby nauczyć się nowych informacji, mogą przeoczyć nowo dodane informacje. Trudniej to wykryć niż coś całkowicie niedokładnego.

Aby sprostać tym wyzwaniom, należy posiadać wewnętrzne ramy wykorzystania sztucznej inteligencji, które określają scenariusze, w których w przypadku korzystania z generatywnej sztucznej inteligencji konieczne są kontrole pod kątem plagiatu i dokładności. Takie podejście jest szczególnie pomocne przy skalowaniu wykorzystania sztucznej inteligencji i integrowaniu jej również z większą organizacją.

Jak we wszystkim, co innowacyjne, istnieje ryzyko. Można jednak po nich bezpiecznie poruszać się dzięki przemyślanemu, celowemu podejściu.

Za czym powinni opowiadać się liderzy marketingu w polityce wykorzystania sztucznej inteligencji

W miarę jak narzędzia sztucznej inteligencji ewoluują i stają się coraz bardziej intuicyjne, kompleksowa polityka dotycząca wykorzystania sztucznej inteligencji zapewni odpowiedzialność i odpowiedzialność wszystkich osób. Nawet Federalna Komisja Handlu (FTC) nie przebierała w słowach, ostrzegając dostawców sztucznej inteligencji, aby stosowali etyczny marketing, aby powstrzymać ich przed nadmiernymi oczekiwaniami.

Nadszedł czas, aby liderzy zainicjowali podstawowe ramy strategicznej integracji sztucznej inteligencji ze stosem technologii. Oto kilka praktycznych czynników, które należy wziąć pod uwagę.

Karta wizualizacji danych, która zawiera listę tego, za czym powinni opowiadać się liderzy marketingu w polityce wykorzystania sztucznej inteligencji. Lista obejmuje odpowiedzialność i zarządzanie, planowane wdrożenie, jasne przypadki użycia, prawa własności intelektualnej i szczegóły ujawniania.

Odpowiedzialność i zarządzanie

Twoja korporacyjna polityka dotycząca korzystania ze sztucznej inteligencji musi jasno opisywać role i obowiązki osób lub zespołów, którym powierzono zarządzanie sztuczną inteligencją i odpowiedzialność za nią w firmie. Obowiązki powinny obejmować wdrażanie regularnych audytów, aby zapewnić zgodność systemów sztucznej inteligencji ze wszystkimi licencjami i realizację zamierzonych celów. Ważne jest również częste przeglądanie zasad, aby być na bieżąco z nowymi wydarzeniami w branży, w tym z ustawodawstwem i przepisami, które mogą mieć zastosowanie.

Polityka sztucznej inteligencji powinna również służyć jako przewodnik służący edukacji pracowników, wyjaśniający ryzyko związane z wprowadzaniem informacji osobistych, poufnych lub zastrzeżonych do narzędzia sztucznej inteligencji. Należy również omówić ryzyko związane z nierozsądnym wykorzystaniem wyników sztucznej inteligencji, takie jak dosłowne publikowanie wyników sztucznej inteligencji, poleganie na sztucznej inteligencji w zakresie porad w złożonych tematach lub niedostateczna kontrola wyników sztucznej inteligencji pod kątem plagiatu.

Planowana realizacja

Inteligentnym sposobem na ograniczenie zagrożeń związanych z prywatnością danych i prawami autorskimi jest stopniowe wprowadzanie narzędzi AI w całej organizacji. Jak to ujął Rispin: „Musimy działać bardziej świadomie i ostrożniej, jeśli chodzi o to, jak wykorzystujemy sztuczną inteligencję. Chcesz mieć pewność, że kiedy już go wdrożysz, będziesz to robić okresowo, w ograniczonym zakresie i obserwować, co próbujesz zrobić”. Stopniowe wdrażanie sztucznej inteligencji w kontrolowanym środowisku umożliwia monitorowanie użycia i proaktywne zarządzanie czkawkami, umożliwiając później płynniejsze wdrożenie na szerszą skalę.

Jest to szczególnie ważne, ponieważ narzędzia AI zapewniają również wiedzę o marce niezbędną dla zespołów międzyorganizacyjnych, takich jak obsługa klienta i marketing produktów. Wprowadzając sztuczną inteligencję w sposób strategiczny, możesz bezpiecznie zwiększyć jej efektywność na te wielofunkcyjne zespoły, jednocześnie skuteczniej eliminując przeszkody.

Wyczyść przypadki użycia

Twoja wewnętrzna polityka dotycząca korzystania ze sztucznej inteligencji powinna zawierać listę wszystkich licencjonowanych narzędzi sztucznej inteligencji, które zostały zatwierdzone do użytku. Jasno określ cel i zakres ich stosowania, podając konkretne przypadki użycia. Na przykład dokumentowanie przykładów tego, jakie zadania wiążą się z niskim lub wysokim ryzykiem, a których należy całkowicie unikać.

Zadania niskiego ryzyka, które prawdopodobnie nie zaszkodzą Twojej marce, mogą wyglądać tak, jak zespół mediów społecznościowych wykorzystujący generatywną sztuczną inteligencję do tworzenia bardziej angażujących postów lub podpisów. Lub zespoły obsługi klienta korzystające z kopii wspomaganej sztuczną inteligencją w celu uzyskania bardziej spersonalizowanych odpowiedzi.

W podobnym duchu polityka dotycząca stosowania sztucznej inteligencji powinna określać przykłady wysokiego ryzyka, w których należy ograniczyć stosowanie generatywnej sztucznej inteligencji, takie jak udzielanie porad prawnych lub marketingowych, komunikacja z klientami, prezentacje produktów lub tworzenie aktywów marketingowych zawierających informacje poufne.

„Chcesz się dwa razy zastanowić, zanim udostępnisz to rozwiązanie osobom, których zadaniem jest radzenie sobie z informacjami, których nigdy nie możesz udostępnić na zewnątrz, np. zespołowi klienta lub zespołowi inżynierów. Ale nie powinieneś po prostu robić wszystkiego albo nic. To strata czasu, ponieważ zespoły marketingowe, a nawet zespoły prawne i zespoły zajmujące się sukcesem, to w zasadzie wiele funkcji back-office – ich produktywność można przyspieszyć, korzystając z narzędzi sztucznej inteligencji, takich jak ChatGPT” – wyjaśnia Rispin.

Prawa własności intelektualnej

Biorąc pod uwagę rosnące możliwości generatywnej sztucznej inteligencji i potrzebę szybkiego tworzenia złożonych treści, polityka Twojej firmy dotycząca wykorzystania sztucznej inteligencji powinna wyraźnie uwzględniać zagrożenie dla praw własności intelektualnej. Ma to kluczowe znaczenie, ponieważ wykorzystanie generatywnej sztucznej inteligencji do opracowywania materiałów przeznaczonych do użytku zewnętrznego, takich jak raporty i wynalazki, może oznaczać, że zasoby nie będą objęte prawami autorskimi ani patentami.

„Załóżmy, że przez trzy kolejne lata publikowałeś wartościowy raport branżowy, a w czwartym roku zdecydowałeś się sporządzić raport z wykorzystaniem generatywnej sztucznej inteligencji. W takim scenariuszu nie masz możliwości posiadania praw autorskich do nowego raportu, ponieważ został on stworzony bez większego zaangażowania człowieka. To samo dotyczyłoby grafiki lub kodu oprogramowania generowanego przez sztuczną inteligencję” – zauważa Rispin.

Inną kwestią jest użycie kont generatywnych AI na poziomie przedsiębiorstwa, w których firma jest administratorem, a pracownicy – ​​użytkownikami. Pozwala to firmie kontrolować ważne ustawienia prywatności i udostępniania informacji, co zmniejsza ryzyko prawne. Na przykład wyłączenie niektórych rodzajów udostępniania informacji za pomocą ChatGPT zmniejszy ryzyko utraty cennych praw własności intelektualnej.

Szczegóły ujawnienia

Podobnie zasady korzystania ze sztucznej inteligencji muszą zapewniać, że marketerzy ujawnią odbiorcom zewnętrznym, że korzystają z treści generowanych przez sztuczną inteligencję. Komisja Europejska uważa to za bardzo ważny aspekt odpowiedzialnego i etycznego wykorzystania generatywnej sztucznej inteligencji. W Stanach Zjednoczonych ustawa o ujawnianiu informacji o sztucznej inteligencji z 2023 r. dodatkowo ugruntowała ten wymóg, przy czym wszelkie wyniki sztucznej inteligencji muszą zawierać zastrzeżenie. Przepisy te nakładają na FTC obowiązek egzekwowania przepisów.

Platformy mediów społecznościowych, takie jak Instagram, już wdrażają sposoby informowania użytkowników o treściach generowanych przez sztuczną inteligencję za pomocą etykiet i znaków wodnych. Narzędzie Google do generowania sztucznej inteligencji, Imagen, teraz osadza cyfrowe znaki wodne na kopiach i obrazach generowanych przez sztuczną inteligencję za pomocą SynthID. Technologia ta osadza znaki wodne bezpośrednio w pikselach obrazu, dzięki czemu są one wykrywalne w celu identyfikacji, ale niezauważalne dla ludzkiego oka. Oznacza to, że etykiet nie można zmieniać nawet po dodaniu filtrów lub zmianie kolorów.

Integruj sztuczną inteligencję strategicznie i bezpiecznie

Nie można zaprzeczyć rosnącemu zastosowaniu sztucznej inteligencji w marketingu, podobnie jak potencjalnym zagrożeniom i obawom dotyczącym bezpieczeństwa marki, które pojawiają się w przypadku braku dobrze zdefiniowanych wytycznych. Skorzystaj z tych praktycznych wskazówek, aby zbudować skuteczną politykę wykorzystania sztucznej inteligencji, która umożliwi strategiczne i bezpieczne wykorzystanie zalet narzędzi sztucznej inteligencji na potrzeby inteligentniejszych przepływów pracy i inteligentnego podejmowania decyzji.

Dowiedz się więcej o tym, jak liderzy marketingu na całym świecie wykorzystują sztuczną inteligencję i uczenie maszynowe, aby zwiększyć wpływ na biznes.

ZASTRZEŻENIE

Informacje zawarte w tym artykule nie stanowią i nie mają stanowić formalnej porady prawnej; wszelkie informacje, treści, punkty i materiały służą celom informacyjnym. Informacje zawarte na tej stronie mogą nie stanowić najbardziej aktualnych informacji prawnych lub innych. Uwzględnienie jakichkolwiek wytycznych zawartych w tym artykule nie gwarantuje zmniejszenia ryzyka prawnego. Czytelnicy tego artykułu powinni skontaktować się ze swoim zespołem prawnym lub prawnikiem w celu uzyskania porady dotyczącej jakiejkolwiek konkretnej kwestii prawnej i powinni powstrzymać się od działania na podstawie informacji na temat tego artykułu bez uprzedniego zasięgnięcia niezależnej porady prawnej. Korzystanie i dostęp do tego artykułu lub jakichkolwiek łączy lub zasobów zawartych w witrynie nie tworzy relacji prawnik-klient pomiędzy czytelnikiem, użytkownikiem lub przeglądarką a jakimkolwiek współautorem. Poglądy wyrażone przez wszystkich autorów tego artykułu są ich własnymi i nie odzwierciedlają poglądów Sprout Social. Wszelka odpowiedzialność w związku z działaniami podjętymi lub niepodjętymi w oparciu o treść tego artykułu zostaje niniejszym wyraźnie zrzekana się.