使用人工智能进行营销时面临的 7 个严重风险
已发表: 2023-07-06几年前,我们大多数营销人员对如何使用人工智能进行营销一无所知。 突然间,我们开始在 LinkedIn 上撰写有关在 ChatGPT 耳边低语的最佳提示的帖子。
人工智能突然融入我们的工作中有很多值得庆祝的事情。 McKenzie 认为人工智能将为营销人员释放 2.6 万亿美元的价值。
但我们对人工智能的快速采用可能会超出重要的道德、法律和运营问题——这将使营销人员面临我们以前从未考虑过的风险(即我们是否会因为告诉人工智能“像史蒂芬·金一样写作?”而被起诉? ”)。
营销氛围中存在大量的人工智能灰尘,而且多年来都不会沉淀。 无论您多么努力地观察,您都无法找出使用大型语言模型和机器学习来创建内容和管理广告的所有潜在陷阱。
因此,我们本文的目标是从一个很高的角度审视使用人工智能进行营销的七个最突出的风险。 我们收集了专家的建议,以帮助减轻这些风险。 我们添加了大量资源,以便您可以更深入地研究您最关心的问题。
风险#1:机器学习偏差
有时,机器学习算法会给出不公平地支持或反对某人或某物的结果。 这被称为机器学习偏差或人工智能偏差,即使是最先进的深度神经网络,这也是一个普遍存在的问题。
是数据问题
这并不是说人工智能网络本质上是偏执的。 这是输入到其中的数据的问题。
机器学习算法通过识别模式来计算结果的概率,例如特定的购物者群体是否会喜欢您的产品。
但是,如果人工智能训练的数据偏向于特定种族、性别或年龄组怎么办? 人工智能将得出结论,认为这些人更匹配,并相应地调整广告创意或展示位置。
偏见洗钱版 pic.twitter.com/YQLRcq59lQ
- Janelle Shane (@JanelleCShane) 2021 年 6 月 17 日
这是一个例子。 研究人员最近测试了 Facebook 广告定位系统中的性别偏见。 调查人员为必胜客投放了招聘送货司机的广告,并为 Instacart 投放了具有相同资格的类似广告。
现有的必胜客司机群体以男性为主,因此 Facebook 向男性展示这些广告的比例不成比例。 Instacart 拥有更多女性司机,因此她们的工作广告被投放到更多女性面前。 但女性并没有不想了解必胜客工作的内在原因,因此这是广告定位的一个重大失误。
人工智能偏见很常见
这个问题远远超出了 Facebook 的范围。 南加州大学的研究人员查看了两个大型人工智能数据库,发现其中超过 38% 的数据存在偏见。 ChatGPT 的文档甚至警告说,他们的算法可能会将“负面刻板印象与黑人女性联系起来”。
机器学习偏差给营销人员带来了多种影响; 其中最重要的是广告效果不佳。 如果您希望吸引尽可能多的潜在客户,那么排除大量人群的广告定位平台并不理想。
当然,如果我们的广告不公平地针对或排除某些群体,则会产生更大的后果。 如果您的房地产广告歧视受保护的少数群体,您可能会陷入《公平住房法》和联邦贸易委员会的错误立场。 更不用说完全错过了包容性营销的船。
如何避免人工智能偏见
那么当我们的人工智能工具失控时我们该怎么办? 您可以采取几个步骤来确保您的广告公平对待每个人。
Writer 的内容和社区高级经理 Alaura Weaver 写道,首先也是最重要的是,确保有人审核您的内容。 “虽然人工智能技术取得了显着进步,但它缺乏人类所拥有的批判性思维和决策能力,”她解释道。 “通过让人类编辑审查和事实核查人工智能编写的内容,他们可以确保内容没有偏见并遵循道德标准。”
人工监督也将降低付费广告活动中出现负面结果的风险。
“目前,也许是无限期地,让人工智能完全接管营销活动或任何形式的营销是不可取的,”经验营销的创始人布雷特·麦克海尔说。 “当人工智能从已经积累了大量数据和经验的有机智能那里接收到准确的输入时,人工智能就能发挥最佳性能。”
风险#2:事实谬误
最近,谷歌的新人工智能聊天机器人 Bard 在促销推文中给出了错误答案,导致其母公司估值损失 100 亿美元。
Bard 是一项实验性对话式人工智能服务,由 LaMDA 提供支持。 它使用我们的大型语言模型构建并借鉴网络信息,是好奇心的启动板,可以帮助简化复杂的主题 → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
— 谷歌 (@Google) 2023 年 2 月 6 日
谷歌的失误凸显了人工智能的最大局限性之一,也是营销人员使用人工智能的最大风险之一:人工智能并不总是说实话。
AI产生幻觉
沃顿商学院教授 Ethan Mollic 最近将 ChatGPT 等人工智能驱动的系统描述为“无所不知、渴望取悦但有时会撒谎的实习生”。
当然,尽管有些人可能会这么说,但人工智能并没有感知能力。 它无意欺骗我们。 然而,它可能会遭受“幻觉”的困扰,导致它编造一些东西。
人工智能是一个预测机器。 它看起来会填写下一个可以回答您的查询的单词或短语。 但它没有自我意识; 人工智能没有直觉检查逻辑来知道它串在一起的内容是否有意义。
与偏见不同,这似乎不是数据问题。 即使网络拥有所有正确的信息,它仍然可能告诉我们错误的信息。
考虑这个例子,用户询问 ChatGPT“阿根廷赢得了多少次 FIFA 世界杯?” 它曾说过一次并提到了球队 1978 年的胜利。 推特随后询问哪支球队在 1986 年获胜。
问#ChatGPT abt 谁赢得了 2022 年 FIFA 世界杯。它无法回答。 这是预期的。 然而,它似乎提供了错误的信息(其他两个获胜),即使系统中存在该信息。 有#Explanations 吗? pic.twitter.com/fvxe05N12p
- indranil sinharoy (@indranil_leo) 2022 年 12 月 29 日
该聊天机器人承认是阿根廷队,但没有对其之前的失态做出任何解释。
令人不安的是,人工智能的错误答案通常写得如此自信,它们融入了周围的文本,使它们看起来完全可信。 它们也可以是全面的,正如针对 Open.ai 提起的诉讼中所详述的那样,ChatGPT 据称炮制了整个贪污的故事,然后由一名记者分享。
如何避免AI的幻觉
虽然人工智能甚至会用一个单词的答案让你误入歧途,但在编写较长的文本时,它更有可能偏离轨道。
“只需一个提示,人工智能就可以生成博客或电子书。 是的,这太棒了——但有一个问题,”韦弗警告说。 “它生成的越多,你需要做的编辑和事实核查就越多。”
韦弗表示,为了减少人工智能工具开始编造幻觉叙述的机会,最好创建一个大纲,并让机器人一次处理一个部分。 当然,然后让人审查它添加的事实和统计数据。
风险#3:人工智能工具的误用
每天早上我们醒来都会看到一批新的人工智能工具,它们似乎像暴雨后的蘑菇一样在一夜之间发芽。
但并非每个平台都是针对所有营销功能而构建的,并且某些营销挑战尚无法通过人工智能来解决。
人工智能工具有局限性
ChatGPT 就是一个很好的例子。 人工智能球的美女玩起来很有趣(就像以詹姆斯国王圣经的风格写如何从录像机中取出花生酱三明治一样)。 它还可以产生一些令人惊讶的写得很好的简短答案,打破作家的障碍。 但不要要求它帮助您进行关键字研究。
ChatGPT 失败的原因是其数据集相对较旧,仅包含 2022 年之前的信息。 要求它提供“人工智能营销”的关键词,它的答案与你在 Thinword 或 Contextminds 等其他工具中找到的答案并不相符。
同样,谷歌和 Facebook 都有新的人工智能工具来帮助营销人员制作广告、优化广告支出和个性化广告体验。 聊天机器人无法解决这些挑战。
谷歌在 2023 年 Google Marketing Live 活动上宣布对其搜索和广告管理产品进行一系列人工智能升级。
你可能会过度使用人工智能
如果你给人工智能工具一项单一的任务,它可能只会在一个目标上过度索引。 营销自动化专家 Nick Abbene 在专注于改进 SEO 的公司中经常看到这种情况。
“我看到的最大问题是盲目使用 SEO 工具,对搜索引擎进行过度优化,并忽视客户的搜索意图,”Abbene 说。 “SEO 工具非常适合向搜索引擎发出高质量内容的信号。 但最终,谷歌希望满足搜索者的要求。”
如何避免人工智能工具的误用
扳手并不是敲钉子的最佳选择。 同样,人工智能写作助手可能不适合创建网页。 Abbene 表示,在你全力投入任何一种人工智能选项之前,请先从该工具的构建者和其他用户那里获取反馈。
“为了避免错误选择人工智能工具,请了解其他营销人员是否正在针对您的用例使用该工具,”他说。 “请随意请求产品演示,或与提供相同功能的其他一些工具一起试用。”
Capterra 等网站可让您快速比较多个 AI 平台。
一旦找到合适的人工智能工具堆栈,就用它来帮助流程,而不是接管它。 “不要害怕使用人工智能工具来增强你的工作流程,但只是为了这个目的使用它们,”阿贝内说。 “从第一原则开始每一条内容,进行高质量的关键词研究并理解搜索意图。”
风险#4:内容同质化
AI 可以在大约 10 秒内写出整篇文章。 但尽管生成式人工智能已经变得令人印象深刻,但它缺乏真正创造性的细微差别,导致其输出常常给人一种机器人般的感觉。
“虽然人工智能擅长制作信息丰富的内容,但它往往缺乏人类带来的创造力和参与度,”韦弗说。
AI是用来模仿的
让一个生成式 AI 写作机器人来写你的读书报告,它会很容易地写出 500 个单词,充分解释《麦田里的守望者》的主题(假设它不会将霍尔顿·考菲尔德幻觉为银行抢劫犯)。
它之所以能做到这一点,是因为它吸收了数千篇有关 JD Salinger 杰作的文本。
现在,请您的人工智能朋友写一篇博客文章,以概括您的品牌、受众和价值主张的方式解释您业务的核心概念。 你可能会失望。 “人工智能生成的内容并不总是能够解释品牌个性和价值观的细微差别,并且可能会产生不切实际的内容,”韦弗说。
换句话说,人工智能擅长消化、组合和重新配置已经创建的内容。 它不擅长创建与现有内容脱颖而出的内容。
生成式人工智能工具也不擅长使内容引人入胜。 他们会很高兴地写出大量的文字,而不用任何图像、图表或要点来让疲倦的眼睛休息。 他们不会引用客户故事或假设的例子来使观点更具相关性。 他们很难将您所在行业的新闻报道与您的产品提供的好处联系起来。
如何避免内容同质化
一些人工智能工具(例如 Writer)具有内置功能,可以帮助作家保持一致的品牌个性。 但你仍然需要一名编辑来“审查和编辑品牌声音和语气的内容,以确保其与受众产生共鸣并强化组织的信息和目标,”韦弗建议。
编辑和作家也可以像其他人一样查看文章。 如果有难以理解的文字块,他们就会将其分解并添加一点视觉效果。
使用人工智能内容作为起点,作为帮助启动创造力和研究的一种方式。 但始终添加您自己的个人风格。
风险#5:SEO 损失
谷歌对人工智能内容的立场一直有些模糊。 起初,搜索引擎似乎会惩罚用人工智能撰写的帖子。
[图片:约翰·穆勒关于人工智能的推文]
最近,谷歌的开发者博客表示,他们书中的人工智能是可以的。 但这一确认却引起了人们的极大关注。 只有“展示我们所谓的 EEAT 品质的内容:专业知识、经验、权威性和可信度”才会给不断评估 Google 排名系统的人类搜索评估者留下深刻的印象。
信任是 SEO 的关键
在 Google 的 EEAT 中,决定一切的因素之一就是信任。
[来源]
我们已经讨论过,人工智能内容很容易出现谬误,因此在没有人类监督的情况下本质上是不可信的。 它也无法满足支持要求,因为本质上它不是由在该主题上具有专业知识、权威或经验的人编写的。
写一篇关于烘焙香蕉面包的博客文章。 人工智能机器人将在大约两秒钟内为您提供食谱。 但在寒冷的冬日为家人烘焙时,它却无法变得富有诗意。 或者谈谈它作为商业面包师多年来尝试各种类型面粉的经历。 这些观点正是谷歌搜索评估者所寻求的。
这似乎也是人们所渴望的。 这就是为什么他们中的许多人转向 TikTok 视频上的真人来学习他们过去在谷歌上找到的东西。
如何避免失去SEO
人工智能的伟大之处在于它不介意共享署名。 因此,当您确实使用聊天机器人来加速内容制作时,请确保引用具有凭据的人类作者。
对于医疗保健和个人理财等敏感主题尤其如此,谷歌将其称为“你的金钱,你的生活”主题。 “如果您处于 YMYL 垂直领域,请优先考虑内容的权威性、信任度和准确性,”WordStream 和 LocaliQ 的内容和 SEO 总监 Elisa Gabbert 建议。
例如,在撰写有关医疗保健的文章时,请让医疗专业人员审核您的帖子并在帖子中引用它们。 这向 Google 发出了一个强烈的信号,表明您的内容值得信赖,即使它是在聊天机器人中启动的。
风险#6:法律挑战
生成式人工智能从人类创造的作品中学习,然后创造出新的东西。 对于人工智能内容模型的输入和输出来说,版权问题都是不明确的。
现有的工作对于人工智能来说可能是公平的游戏
为了说明(双关语)大型学习模型作品的版权问题,我们转向技术专家安迪·拜奥(Andy Baio)报告的一个案例。 正如 Baio 所解释的,一位名叫 Hollie Mengert 的洛杉矶艺术家了解到,她的 32 幅插图已被吸收到人工智能模型中,然后通过开放许可提供给任何想要重现她的风格的人。
说明:安迪·拜奥 (Andy Baio) 策划的艺术家霍莉·门格特 (Hollie Mengert) 的插图集(左)与根据她的风格由人工智能生成的插图进行比较。
当你得知她为迪士尼等客户创作了许多图像时,故事变得更加复杂,而迪士尼实际上拥有这些图像的权利。
与门格特处境相同的插画家(或作家或程序员)能否成功起诉侵犯版权?
这个问题还没有明确的答案。 “我看到双方的人都对自己的立场非常有信心,但现实是没人知道,”拜奥告诉 The Verge。 “任何声称自己自信地知道法庭上将如何进行的人都是错误的。”
如果你用来创建图像或文章的人工智能接受了许多创作者的数千件作品的训练,那么你不太可能输掉官司。 但如果你给机器输入十本史蒂芬·金的书,并告诉机器人以这种风格写一本新书,你可能就会遇到麻烦。
免责声明:我们不是律师,因此如果您不确定,请寻求法律建议。
您的人工智能内容也可能不受保护
您使用聊天机器人创建的内容怎么样,它是否受版权法保护? 在大多数情况下,除非您做了相当多的工作来编辑它,否则不会。 这意味着如果有人将您的帖子重新用于他们自己的博客,您将几乎没有追索权。
对于受保护的内容,拥有权利的可能是人工智能的程序员,而不是您。 许多国家认为制作作品的工具的制造者是其创作者,而不是输入提示的人。
如何避免法律挑战
首先使用信誉良好的人工智能内容创建工具。 找到一家公司发表的有大量正面评价的文章,该公司明确表达了其对版权法的立场。
另外,请运用您的良好判断力来决定您是故意复制创作者的作品还是只是使用人工智能来增强您自己的作品。
如果您想在法庭上有机会保护您的产品,请做出许多实质性改变。 或者使用人工智能帮助创建大纲,但自己写大部分单词。
风险#7:安全和隐私泄露
人工智能工具给营销人员的系统安全和数据隐私带来了广泛的潜在威胁。 有些是来自恶意行为者的直接攻击。 其他的只是用户无意中向旨在共享敏感信息的系统提供敏感信息。
AI工具带来的安全风险
“有很多产品看起来、感觉和行为都像合法工具,但实际上是恶意软件,”端点安全提供商 Kolide 的内容营销高级编辑 Elaine Atwell 告诉我们。 “它们很难与合法工具区分开来,你现在就可以在 Chrome 商店中找到它们。”
在 Google Chrome 商店中输入任意版本的“AI 工具”,您会发现不乏选项。
阿特韦尔在 Kolide 博客上阐述了这些风险。 在她的文章中,她提到了一个名为“快速访问聊天 GPT”的 Chrome 扩展程序实际上是一个诡计的事件。 下载后,该软件会劫持用户的 Facebook 帐户,并窃取受害者的所有 cookie,甚至是出于安全目的的 cookie。 据 Atwell 报道,每天有超过 2,000 人下载该扩展程序。
隐私不受保护
阿特韦尔表示,即使是合法的人工智能工具也可能带来安全风险。 “......目前,大多数公司甚至没有适当的政策来评估不同扩展所带来的风险类型和水平。 在缺乏明确指导的情况下,世界各地的人们都在安装这些小助手并向其提供敏感数据。”
假设您正在撰写一份内部财务报告以与投资者分享。 请记住,人工智能网络会从给定的信息中学习,为其他用户生成输出。 您放置在人工智能聊天机器人中的所有数据对于公司外部的人来说都是公平的游戏。 如果竞争对手询问您的底线,则可能会弹出。
如何避免隐私和安全风险
第一道防线是确保软件与其声称的一样。 除此之外,请谨慎使用您选择的工具。 “如果你要使用人工智能工具(它们确实有用途!),请不要向它们提供任何可能被视为敏感的数据,”阿特韦尔说。
此外,当您审查人工智能工具的实用性和偏见时,请询问他们的隐私和安全政策。
降低使用人工智能进行营销的风险
人工智能正在以令人难以置信的速度发展。 在不到一年的时间里,Chat GTP 的功能已得到显着提升。 即使在接下来的六到十二个月内,我们也无法知道我们将能够利用人工智能做什么。 我们也无法预测潜在的问题。
您可以通过以下几种方法来改善人工智能营销成果,同时避免一些最常见的风险:
- 让人类编辑审查内容的质量、可读性和品牌声音
- 仔细检查您使用的每个工具的安全性和功能
- 定期审查人工智能定向广告定位是否存在偏见
- 评估副本和图像是否存在潜在的版权侵权
我们要感谢 Elain Attwell、Brett McHale、Nick Abenne 和 Alaura Weaver 对本文的贡献。
回顾一下,让我们回顾一下使用人工智能进行营销所带来的风险列表:
- 机器学习偏差
- 事实谬误
- 人工智能工具的误用
- 内容同质化
- SEO 损失
- 法律挑战
- 安全和隐私泄露