如何制定有效的人工智能使用政策进行营销

已发表: 2023-09-26

技术就像艺术一样,能够激发情感、激发想法和讨论。 人工智能(AI)在营销领域的出现也不例外。 尽管数百万人热衷于采用人工智能来在组织内实现更高的速度和敏捷性,但也有其他人仍然持怀疑态度——这在技术采用周期的早期阶段很常见。

事实上,这种模式反映了云计算的早期阶段,当时这项技术感觉像是一个未知的领域。 大多数公司对突破性技术并不确定——担心数据安全和合规性要求。 其他人在没有真正了解迁移复杂性或相关成本的情况下就加入了这股潮流。 然而今天,云计算已经无处不在。 它已经发展成为一股变革力量,从促进远程工作到流媒体娱乐。

随着技术飞速发展,领导者认识到人工智能对业务创新和竞争力的价值,制定组织范围内的人工智能使用政策变得非常重要。 在本文中,我们阐明了为什么时间对于建立明确的内部人工智能使用框架至关重要,以及领导者应考虑的重要元素。

请注意:本文中提供的信息并不构成也无意构成正式的法律建议。 在继续阅读之前,请先查看我们的完整免责声明。

为什么组织需要人工智能使用政策

营销人员已经在投资人工智能以提高效率。 事实上,《2023 年社会状况报告》显示,96% 的领导者相信人工智能和机器学习 (ML) 功能可以帮助他们显着改善决策流程。 另外 93% 的受访者还计划在未来三年内增加人工智能投资,以扩大客户服务功能。 积极采用人工智能工具的品牌可能比那些犹豫不决的品牌拥有更大的优势。

数据可视化标注卡指出,96% 的企业领导者相信人工智能和机器学习可以显着改善决策。

鉴于人工智能采用率急剧上升,同样有必要解决品牌在没有制定明确的内部人工智能使用指南时所面临的风险。 为了有效管理这些风险,公司的人工智能使用政策应围绕三个关键要素:

供应商风险

在将任何人工智能供应商集成到您的工作流程之前,公司的 IT 和法律合规团队必须执行彻底的审查流程。 这是为了确保供应商遵守严格的法规、遵守开源许可证并适当维护其技术。

Sprout 董事、副总法律顾问 Michael Rispin 提供了他对此主题的见解。 “每当一家公司说他们有人工智能功能时,你必须问他们——你是如何支持这个功能的? 什么是基础层?”

由于人工智能供应商的情况是独一无二的,因此仔细注意条款和条件 (T&C) 也很重要。 “你不仅需要仔细查看人工智能供应商的条款和条件,还需要仔细查看他们用来支持其解决方案的任何第三方人工智能,因为你将受到他们双方的条款和条件的约束。 例如,Zoom 使用 OpenAI 来帮助增强其人工智能功能,”他补充道。

通过确保法律团队、职能经理和 IT 团队之间的密切合作来减轻这些风险,以便他们为员工选择合适的 AI 工具,并确保供应商经过严格审查。

AI输入风险

生成式人工智能工具可加速文案写作、设计甚至编码等多种功能。 许多员工已经在使用免费的人工智能工具作为协作者来创建更具影响力的内容或更高效地工作。 然而,知识产权 (IP) 面临的最大威胁之一是在没有意识到后果的情况下将数据输入人工智能工具,而一名三星员工意识到为时已晚。

“他们(三星)可能已经失去了对该信息的主要法律保护,”里斯平在谈到三星最近的数据泄露事件时说道。 “当您将某些内容放入 ChatGPT 时,您就是在将数据发送到公司外部。 这样做意味着它在技术上不再是秘密,这可能会危及公司的知识产权,”他警告说。

对员工进行有关人工智能生成内容的相关风险和明确定义的用例的教育有助于缓解这一问题。 此外,它还能安全地提高整个组织的运营效率。

AI输出风险

与输入风险类似,人工智能工具的输出如果在不检查准确性或抄袭的情况下使用,就会构成严重威胁。

为了更深入地了解这个问题,深入研究由生成式预训练模型(GPT)支持的人工智能工具的机制非常重要。 这些工具依赖于大型语言模型 (LLM),这些模型经常根据公开的互联网内容(包括书籍、论文和艺术品)进行训练。 在某些情况下,这意味着他们访问了暗网上的专有数据或潜在的非法来源。

这些人工智能模型通过分析每天消耗的大量数据中的模式来学习和生成内容,因此它们的输出很可能不完全是原创的。 忽视检测抄袭会给品牌声誉带来巨大风险,如果员工使用这些数据,还会导致法律后果。

事实上,莎拉·西尔弗曼 (Sarah Silverman) 对 ChatGPT 提起了一项积极的诉讼,指控其收录并提供她书中的摘要,尽管该书不是免费向公众开放的。 乔治·R·R·马丁 (George RR Martin) 和约翰·格里沙姆 (John Grisham) 等其他知名作家也正在起诉母公司 OpenAI,指控其侵犯版权。 考虑到这些情况和未来的影响,美国联邦贸易委员会开创了先例,迫使企业删除通过不择手段收集的人工智能数据。

像 ChatGPT 这样的生成式人工智能的另一个主要问题是它使用旧数据,导致输出不准确。 如果您使用人工智能研究的领域最近发生了变化,那么该工具很可能会忽略该信息,因为它没有时间合并新数据。 由于这些模型需要时间来训练自己接受新信息,因此它们可能会忽略新添加的信息。 这比完全不准确的事情更难检测。

为了应对这些挑战,您应该有一个内部人工智能使用框架,指定使用生成式人工智能时需要进行抄袭和准确性检查的场景。 当扩展人工智能的使用并将其集成到更大的组织中时,这种方法特别有用。

正如所有创新事物一样,也存在风险。 但可以通过深思熟虑、有意识的方法来安全地引导它们。

营销领导者应在人工智能使用政策中倡导什么

随着人工智能工具的发展并变得更加直观,全面的人工智能使用政策将确保全面的问责制和责任。 就连美国联邦贸易委员会(FTC)也毫不犹豫地警告人工智能供应商进行道德营销,以阻止他们过度承诺能力。

现在,领导者应该启动一个基础框架,将人工智能战略性地整合到他们的技术堆栈中。 以下是一些需要考虑的实际因素。

数据可视化卡列出了营销领导者应在人工智能使用政策中倡导的内容。该清单包括问责制和治理、计划实施、明确的用例、知识产权和披露细节。

问责和治理

您的公司人工智能使用政策必须明确描述公司中负责人工智能治理和问责的个人或团队的角色和职责。 职责应包括实施定期审计,以确保人工智能系统符合所有许可证并实现其预期目标。 经常重新审视该政策也很重要,这样您就可以了解行业的最新发展,包括可能适用的立法和法律。

人工智能政策还应作为教育员工的指南,解释将个人、机密或专有信息输入人工智能工具的风险。 它还应该讨论不明智地使用人工智能输出的风险,例如逐字发布人工智能输出、依赖人工智能就复杂主题提供建议,或者未能充分审查人工智能输出是否存在抄袭。

计划实施

降低数据隐私和版权风险的一个明智方法是在整个组织内分阶段引入人工智能工具。 正如 Rispin 所说,“我们需要更加有意识、更加谨慎地使用人工智能。 你要确保当你真的推出它时,你会以有限的方式定期进行,并观察你想要做什么。” 在受控环境中逐步实施人工智能使您能够监控使用情况并主动管理问题,从而在以后更广泛地实现更顺利的实施。

这一点尤其重要,因为人工智能工具还提供对跨组织团队至关重要的品牌洞察,例如客户体验和产品营销。 通过战略性地引入人工智能,您可以安全地将其效率扩展到这些多功能团队,同时更有效地解决障碍。

清晰的用例

您的内部人工智能使用政策应列出所有批准使用的许可人工智能工具。 明确定义使用它们的目的和范围,引用具体的用例。 例如,记录哪些任务风险低或风险高以及哪些任务应该完全避免的示例。

不太可能损害您的品牌的低风险任务可能看起来像社交媒体团队使用生成式人工智能来起草更具吸引力的帖子或标题。 或者,客户服务团队使用人工智能辅助文案来提供更个性化的响应。

同样,人工智能使用政策应指定应限制生成式人工智能使用的高风险示例,例如提供法律或营销建议、客户沟通、产品演示或包含机密信息的营销资产的制作。

“您需要三思而行,将其推广给那些工作是处理您永远无法与外部共享的信息的人,例如您的客户团队或工程团队。 但你不应该只做全部或不做。 这是一种浪费,因为营销团队,甚至是法律团队和成功团队,基本上都有很多后台职能——他们的生产力可以通过使用 ChatGPT 等人工智能工具来提高,”Rispin 解释道。

知识产权

考虑到生成式人工智能的能力不断增长以及快速生成复杂内容的需求,贵公司的人工智能使用政策应明确解决对知识产权的威胁。 这一点至关重要,因为使用生成式人工智能来开发面向外部的材料(例如报告和发明)可能意味着这些资产无法获得版权或专利。

“假设您连续三年发布了一份有价值的行业报告,并在第四年决定使用生成式人工智能来生成该报告。 在这种情况下,您没有对该新报告拥有版权的范围,因为它是在没有任何重大人工参与的情况下生成的。 对于人工智能生成的艺术或软件代码来说也是如此。”Rispin 指出。

另一个考虑因素是使用企业级生成人工智能帐户,以公司为管理员,员工为用户。 这使公司能够控制重要的隐私和信息共享设置,从而降低法律风险。 例如,禁用与 ChatGPT 共享某些类型的信息将降低失去宝贵知识产权的风险。

披露详情

同样,您的人工智能使用政策必须确保营销人员向外部受众披露他们正在使用人工智能生成的内容。 欧盟委员会认为这是负责任且合乎道德地使用生成人工智能的一个非常重要的方面。 在美国,《2023 年人工智能披露法案》进一步强化了这一要求,要求人工智能的任何输出都必须包含免责声明。 这项立法的任务是由联邦贸易委员会执行。

Instagram 等社交媒体平台已经在实施通过标签和水印向用户告知人工智能生成的内容的方法。 谷歌的生成式人工智能工具 Imagen 现在也使用 SynthID 在人工智能生成的副本和图像上嵌入数字水印。 该技术将水印直接嵌入图像像素中,使其可被检测以进行识别,但人眼无法察觉。 这意味着即使添加过滤器或更改颜色,标签也无法更改。

战略性且安全地集成人工智能

不可否认的是,人工智能在营销中的应用越来越广泛,在缺乏明确的指导方针的情况下,潜在的风险和品牌安全问题也随之而来。 使用这些实用技巧来构建有效的 AI 使用策略,使您能够战略性地、安全地利用 AI 工具的优势,实现更智能的工作流程和智能决策。

详细了解全球营销领导者如何利用人工智能和机器学习来推动业务影响。

免责声明

本文中提供的信息并不构成也无意构成正式的法律建议; 所有信息、内容、观点和材料仅供一般参考之用。 本网站上的信息可能不构成最新的法律或其他信息。 纳入本文中提供的任何指南并不能保证降低您的法律风险。 本文的读者应联系其法律团队或律师以获取有关任何特定法律问题的建议,并且在未首先寻求独立法律建议的情况下,不应根据本文中的信息采取行动。 使用和访问本文或网站中包含的任何链接或资源不会在读者、用户或浏览器与任何贡献者之间建立律师-客户关系。 本文的任何贡献者表达的观点均为他们自己的观点,并不反映 Sprout Social 的观点。 特此明确声明不承担与根据本文内容采取或不采取的行动有关的所有责任。