如何制定有效的人工智慧使用政策進行行銷

已發表: 2023-09-26

科技就像藝術一樣,能夠激發情感、激發想法和討論。 人工智慧(AI)在行銷領域的出現也不例外。 儘管數百萬人熱衷於採用人工智慧來在組織內實現更高的速度和敏捷性,但也有其他人仍然持懷疑態度——這在技術採用週期的早期階段很常見。

事實上,這種模式反映了雲端運算的早期階段,當時這項技術感覺像是未知的領域。 大多數公司對突破性技術並不確定—擔心資料安全和合規性要求。 其他人在沒有真正了解遷移複雜性或相關成本的情況下就加入了這股潮流。 然而今天,雲端運算已經無所不在。 它已經發展成為一股變革力量,從促進遠距工作到串流娛樂。

隨著科技快速發展,領導者意識到人工智慧對業務創新和競爭力的價值,制定組織範圍內的人工智慧使用政策變得非常重要。 在本文中,我們闡明了為什麼時間對於建立明確的內部人工智慧使用框架至關重要,以及領導者應考慮的重要元素。

請注意:本文提供的資訊並不構成也無意構成正式的法律建議。 在繼續閱讀之前,請先查看我們的完整免責聲明。

為什麼組織需要人工智慧使用政策

行銷人員已經在投資人工智慧以提高效率。 事實上,《2023 年社會狀況報告》顯示,96% 的領導者相信人工智慧和機器學習 (ML) 功能可以幫助他們顯著改善決策流程。 另外 93% 的受訪者也計劃在未來三年內增加人工智慧投資,以擴大客戶服務功能。 積極採用人工智慧工具的品牌可能比那些猶豫不決的品牌擁有更大的優勢。

數據視覺化標註卡指出,96% 的企業領導者相信人工智慧和機器學習可以顯著改善決策。

鑑於人工智慧採用率急劇上升,同樣有必要解決品牌在沒有製定明確的內部人工智慧使用指南時所面臨的風險。 為了有效管理這些風險,公司的人工智慧使用政策應圍繞三個關鍵要素:

供應商風險

在將任何人工智慧供應商整合到您的工作流程之前,公司的 IT 和法律合規團隊必須執行徹底的審查流程。 這是為了確保供應商遵守嚴格的法規、遵守開源許可證並適當維護其技術。

Sprout 董事、副總法律顧問 Michael Rispin 提供了他對此主題的見解。 「每當一家公司說他們有人工智慧功能時,你必須問他們——你是如何支援這個功能的? 什麼是基礎層?”

由於人工智慧供應商的情況是獨一無二的,因此仔細注意條款和條件 (T&C) 也很重要。 「你不僅需要仔細查看人工智慧供應商的條款和條件,還需要仔細查看他們用來支援其解決方案的任何第三方人工智慧,因為你將受到他們雙方的條款和條件的約束。 例如,Zoom 使用 OpenAI 來幫助增強其人工智慧功能,」他補充道。

透過確保法律團隊、職能經理和 IT 團隊之間的密切合作來減輕這些風險,以便他們為員工選擇合適的 AI 工具,並確保供應商經過嚴格審查。

AI輸入風險

生成式人工智慧工具可加速文案寫作、設計甚至編碼等多種功能。 許多員工已經在使用免費的人工智慧工具作為協作者來創建更具影響力的內容或更有效率地工作。 然而,智慧財產權 (IP) 面臨的最大威脅之一是在沒有意識到後果的情況下將資料輸入人工智慧工具,而一名三星員工意識到為時已晚。

「他們(三星)可能已經失​​去了對該資訊的主要法律保護,」里斯平在談到三星最近的資料外洩事件時說道。 「當您將某些內容放入 ChatGPT 時,您就是在將資料傳送到公司外部。 這樣做意味著它在技術上不再是秘密,這可能會危及公司的智慧財產權,」他警告。

對員工進行有關人工智慧生成內容的相關風險和明確定義的用例的教育有助於緩解這一問題。 此外,它還能安全地提高整個組織的營運效率。

AI輸出風險

與輸入風險類似,人工智慧工具的輸出如果在不檢查準確性或抄襲的情況下使用,就會構成嚴重威脅。

為了更深入地了解這個問題,深入研究由生成式預訓練模型(GPT)支援的人工智慧工具的機制非常重要。 這些工具依賴大型語言模型 (LLM),這些模型經常根據公開的網路內容(包括書籍、論文和藝術品)進行訓練。 在某些情況下,這意味著他們存取了暗網上的專有資料或潛在的非法來源。

這些人工智慧模型透過分析每天消耗的大量數據中的模式來學習和產生內容,因此它們的輸出很可能不完全是原創的。 忽視偵測抄襲會對品牌聲譽帶來巨大風險,如果員工使用這些數據,還會導致法律後果。

事實上,莎拉·西爾弗曼 (Sarah Silverman) 對 ChatGPT 提起了一項積極的訴訟,指控其收錄並提供她書中的摘要,儘管該書不是免費向公眾開放的。 喬治·R·R·馬丁 (George RR Martin) 和約翰·格里沙姆 (John Grisham) 等其他知名作家也正在起訴母公司 OpenAI,指控其侵犯版權。 考慮到這些情況和未來的影響,美國聯邦貿易委員會開創了先例,迫使企業刪除透過不擇手段收集的人工智慧資料。

像 ChatGPT 這樣的生成式人工智慧的另一個主要問題是它使用舊數據,導致輸出不準確。 如果您使用人工智慧研究的領域最近發生了變化,那麼該工具很可能會忽略該訊息,因為它沒有時間合併新數據。 由於這些模型需要時間來訓練自己接受新訊息,因此它們可能會忽略新添加的資訊。 這比完全不準確的事情更難檢測。

為了應對這些挑戰,您應該有一個內部人工智慧使用框架,指定使用生成式人工智慧時需要進行抄襲和準確性檢查的場景。 當擴展人工智慧的使用並將其整合到更大的組織中時,這種方法特別有用。

正如所有創新事物一樣,也存在風險。 但可以透過深思熟慮、有意識的方法來安全地引導它們。

行銷領導者應在人工智慧使用政策中倡導什麼

隨著人工智慧工具的發展並變得更加直觀,全面的人工智慧使用政策將確保全面的問責制和責任。 就連美國聯邦貿易委員會(FTC)也毫不猶豫地警告人工智慧供應商進行道德行銷,以阻止他們過度承諾能力。

現在,領導者應該啟動一個基礎框架,將人工智慧策略性地整合到他們的技術堆疊中。 以下是一些需要考慮的實際因素。

數據視覺化卡列出了行銷領導者應在人工智慧使用政策中倡導的內容。該清單包括問責制和治理、計劃實施、明確的用例、智慧財產權和揭露細節。

問責和治理

您的企業人工智慧使用政策必須明確描述公司中負責人工智慧治理和問責的個人或團隊的角色和責任。 職責應包括實施定期審計,以確保人工智慧系統符合所有許可證並實現其預期目標。 經常重新審視該政策也很重要,這樣您就可以了解行業的最新發展,包括可能適用的立法和法律。

人工智慧政策也應作為教育員工的指南,解釋將個人、機密或專有資訊輸入人工智慧工具的風險。 它還應該討論不明智地使用人工智慧輸出的風險,例如逐字發佈人工智慧輸出、依賴人工智慧就複雜主題提供建議,或者未能充分審查人工智慧輸出是否存在抄襲。

計劃實施

降低資料隱私和版權風險的一個明智方法是在整個組織內分階段引入人工智慧工具。 正如 Rispin 所說,「我們需要更有意識、更謹慎地使用人工智慧。 你要確保當你真的推出它時,你會以有限的方式定期進行,並觀察你想要做什麼。” 在受控環境中逐步實施人工智慧使您能夠監控使用情況並主動管理問題,從而在以後更廣泛地實現更順利的實施。

這一點尤其重要,因為人工智慧工具還提供對跨組織團隊至關重要的品牌洞察,例如客戶體驗和產品行銷。 透過策略性地引入人工智慧,您可以安全地將其效率擴展到這些多功能團隊,同時更有效地解決障礙。

清晰的用例

您的內部人工智慧使用政策應列出所有批准使用的授權人工智慧工具。 明確定義使用它們的目的和範圍,並引用具體的用例。 例如,記錄哪些任務風險低或風險高以及哪些任務應該完全避免的範例。

不太可能損害您的品牌的低風險任務可能看起來像是社群媒體團隊使用生成式人工智慧來起草更具吸引力的貼文或標題。 或者,客戶服務團隊使用人工智慧輔助文案來提供更個人化的回應。

同樣,人工智慧使用政策應指定應限制生成式人工智慧使用的高風險範例,例如提供法律或行銷建議、客戶溝通、產品演示或包含機密資訊的行銷資產的製作。

「您需要三思而行,將其推廣給那些工作是處理您永遠無法與外部共享的資訊的人,例如您的客戶團隊或工程團隊。 但你不應該只做全部或不做。 這是一種浪費,因為行銷團隊,甚至是法律團隊和成功團隊,基本上都有很多後台職能——他們的生產力可以透過使用 ChatGPT 等人工智慧工具來提高,」Rispin 解釋道。

智慧財產

考慮到生成式人工智慧的能力不斷增長以及快速生成複雜內容的需求,貴公司的人工智慧使用政策應明確解決對智慧財產權的威脅。 這一點至關重要,因為使用生成式人工智慧來開發面向外部的材料(例如報告和發明)可能意味著這些資產無法獲得版權或專利。

「假設您連續三年發布了一份有價值的行業報告,並在第四年決定使用生成式人工智慧來產生該報告。 在這種情況下,您沒有對該新報告擁有版權的範圍,因為它是在沒有任何重大人工參與的情況下產生的。 對於人工智慧生成的藝術或軟體程式碼也是如此。」Rispin 指出。

另一個考慮因素是使用企業級產生人工智慧帳戶,以公司為管理員,員工為使用者。 這使公司能夠控制重要的隱私和資訊共享設置,從而降低法律風險。 例如,停用與 ChatGPT 分享某些類型的資訊將降低失去寶貴智慧財產權的風險。

披露詳情

同樣,您的人工智慧使用政策必須確保行銷人員向外部受眾揭露他們正在使用人工智慧產生的內容。 歐盟委員會認為這是負責任且合乎道德地使用產生人工智慧的一個非常重要的面向。 在美國,《2023 年人工智慧揭露法案》進一步強化了這項要求,要求人工智慧的任何輸出都必須包含免責聲明。 這項立法的任務是由聯邦貿易委員會執行。

Instagram 等社群媒體平台已經在實施透過標籤和浮水印向用戶告知人工智慧產生的內容的方法。 谷歌的生成式人工智慧工具 Imagen 現在也使用 SynthID 在人工智慧生成的副本和圖像上嵌入數位浮水印。 該技術將水印直接嵌入影像像素中,使其可被檢測以進行識別,但人眼無法察覺。 這意味著即使添加過濾器或更改顏色,標籤也無法更改。

戰略性且安全地整合人工智慧

不可否認的是,人工智慧在行銷中的應用越來越廣泛,在缺乏明確的指導方針的情況下,潛在的風險和品牌安全問題也隨之而來。 使用這些實用技巧來建立有效的 AI 使用策略,使您能夠策略性地、安全地利用 AI 工具的優勢,實現更智慧的工作流程和智慧決策。

詳細了解全球行銷領導者如何利用人工智慧和機器學習來推動業務影響。

免責聲明

本文所提供的資訊並不構成也無意構成正式的法律建議; 所有資訊、內容、觀點和資料僅供一般參考。 本網站上的資訊可能不構成最新的法律或其他資訊。 納入本文中提供的任何指南並不能保證降低您的法律風險。 本文的讀者應聯繫其法律團隊或律師以獲取有關任何特定法律問題的建議,並且在未首先尋求獨立法律建議的情況下,不應根據本文中的資訊採取行動。 使用和存取本文或網站中包含的任何連結或資源不會在讀者、使用者或瀏覽器與任何貢獻者之間建立律師-客戶關係。 本文的任何貢獻者所表達的觀點均為他們自己的觀點,並不反映 Sprout Social 的觀點。 特此明確聲明不承擔與根據本文內容採取或不採取的行動有關的所有責任。