Как разработать эффективную политику использования ИИ в маркетинге
Опубликовано: 2023-09-26Технологии, как и искусство, возбуждают эмоции, порождают идеи и дискуссии. Появление искусственного интеллекта (ИИ) в маркетинге не является исключением. В то время как миллионы людей с энтузиазмом относятся к использованию ИИ для достижения большей скорости и гибкости в своих организациях, есть и те, кто по-прежнему настроен скептически, что довольно часто встречается на ранних этапах цикла внедрения технологий.
Фактически, эта закономерность отражает первые дни облачных вычислений, когда эта технология казалась неизведанной территорией. Большинство компаний не были уверены в новаторской технологии и были обеспокоены безопасностью данных и требованиями соответствия. Другие присоединились к этой инициативе, не понимая по-настоящему проблем миграции и связанных с ней издержек. Однако сегодня облачные вычисления распространены повсеместно. Он превратился в преобразующую силу: от облегчения удаленной работы до потокового развлечения.
Поскольку технологии развиваются с головокружительной скоростью, а лидеры признают ценность ИИ для бизнес-инноваций и конкурентоспособности, разработка политики использования ИИ в масштабах всей организации стала очень важной. В этой статье мы проливаем свет на то, почему время имеет решающее значение для создания четко определенной внутренней структуры использования ИИ, а также на важные элементы, которые лидеры должны учитывать при этом.
Обратите внимание: информация, представленная в этой статье, не представляет собой официальную юридическую консультацию и не предназначена для нее. Пожалуйста, ознакомьтесь с нашим полным отказом от ответственности, прежде чем читать дальше.
Почему организациям нужна политика использования ИИ
Маркетологи уже инвестируют в ИИ для повышения эффективности. Фактически, согласно отчету «Состояние общества в 2023 году», 96% руководителей считают, что возможности искусственного интеллекта и машинного обучения (МО) могут помочь им значительно улучшить процессы принятия решений. Еще 93% также планируют увеличить инвестиции в искусственный интеллект для масштабирования функций обслуживания клиентов в ближайшие три года. Бренды, активно внедряющие инструменты искусственного интеллекта, вероятно, будут иметь большее преимущество перед теми, кто колеблется.

Учитывая столь крутую траекторию внедрения ИИ, в равной степени необходимо учитывать риски, с которыми сталкиваются бренды, когда не установлены четкие внутренние рекомендации по использованию ИИ. Чтобы эффективно управлять этими рисками, политика использования ИИ компании должна основываться на трех ключевых элементах:
Вендорские риски
Прежде чем интегрировать каких-либо поставщиков ИИ в свой рабочий процесс, важно, чтобы ИТ-команды и группы по соблюдению законодательства вашей компании провели тщательную проверку. Это необходимо для того, чтобы поставщики придерживались строгих правил, соблюдали лицензии на открытый исходный код и надлежащим образом поддерживали свои технологии.
Директор Sprout, помощник главного юрисконсульта Майкл Риспин делится своими мыслями по этому вопросу. «Всякий раз, когда компания заявляет, что у нее есть функция искусственного интеллекта, вы должны спросить ее: как вы ее обеспечиваете? Что является фундаментальным слоем?»
Также крайне важно уделять пристальное внимание условиям использования (T&C), поскольку ситуация уникальна в случае поставщиков ИИ. «Вам нужно будет внимательно изучить не только условия вашего поставщика ИИ, но и любого стороннего ИИ, который они используют для реализации своего решения, поскольку на вас будут распространяться Условия и положения обоих из них. Например, Zoom использует OpenAI для усиления своих возможностей искусственного интеллекта», — добавляет он.
Уменьшите эти риски, обеспечив тесное сотрудничество между юридическими отделами, функциональными менеджерами и вашими ИТ-командами, чтобы они могли выбирать подходящие инструменты искусственного интеллекта для сотрудников и обеспечивать тщательную проверку поставщиков.
Риски ввода ИИ
Генеративные инструменты искусственного интеллекта ускоряют некоторые функции, такие как копирайтинг, дизайн и даже кодирование. Многие сотрудники уже используют бесплатные инструменты искусственного интеллекта для совместной работы, чтобы создавать более эффективный контент или работать более эффективно. Тем не менее, одна из самых больших угроз правам интеллектуальной собственности (ИС) возникает из-за ввода данных в инструменты искусственного интеллекта без осознания последствий, как сотрудник Samsung понял слишком поздно.
«Они (Samsung) могли потерять серьезную юридическую защиту этой информации», — говорит Риспин относительно недавней утечки данных Samsung. «Когда вы помещаете что-то в ChatGPT, вы отправляете данные за пределы компании. Это означает, что технически это больше не является секретом, и это может поставить под угрозу права интеллектуальной собственности компании», — предупреждает он.
Информирование сотрудников о связанных с этим рисках и четко определенных вариантах использования контента, созданного с помощью ИИ, помогает облегчить эту проблему. Кроме того, это надежно повышает эффективность работы всей организации.
Риски вывода ИИ
Подобно входным рискам, выходные данные инструментов ИИ представляют серьезную угрозу, если они используются без проверки на точность или плагиат.
Чтобы глубже понять эту проблему, важно углубиться в механику инструментов ИИ, основанных на генеративных предварительно обученных моделях (GPT). Эти инструменты основаны на больших языковых моделях (LLM), которые часто обучаются на общедоступном интернет-контенте, включая книги, диссертации и произведения искусства. В некоторых случаях это означает, что они получили доступ к частным данным или потенциально незаконным источникам в даркнете.
Эти модели ИИ обучаются и генерируют контент, анализируя закономерности в огромном объеме данных, которые они потребляют ежедневно, поэтому весьма вероятно, что их результаты не совсем оригинальны. Пренебрежение выявлением плагиата представляет собой огромный риск для репутации бренда, а также приводит к юридическим последствиям, если сотрудник использует эти данные.
Фактически, Сара Сильверман подала действующий иск против ChatGPT за проглатывание и предоставление резюме из ее книги, хотя она не является бесплатной для общественности. Другие известные авторы, такие как Джордж Р. Р. Мартин и Джон Гришэм, также подают в суд на материнскую компанию OpenAI за нарушение авторских прав. Принимая во внимание эти случаи и будущие последствия, Федеральная торговая комиссия США создала прецедент, заставив компании удалять свои данные искусственного интеллекта, собранные недобросовестными методами.
Еще одна серьезная проблема с генеративным искусственным интеллектом, таким как ChatGPT, заключается в том, что он использует старые данные, что приводит к неточным выводам. Если бы в областях, которые вы исследуете с помощью ИИ, произошли недавние изменения, существует высокая вероятность того, что инструмент упустил бы из виду эту информацию, поскольку у него не было бы времени включить новые данные. Поскольку этим моделям требуется время, чтобы обучиться новой информации, они могут упустить из виду вновь добавленную информацию. Это труднее обнаружить, чем что-то совершенно неточное.
Чтобы решить эту проблему, у вас должна быть внутренняя структура использования ИИ, определяющая сценарии, в которых при использовании генеративного ИИ необходимы проверки на плагиат и точность. Этот подход особенно полезен при масштабировании использования ИИ и его интеграции в более крупную организацию.
Как и во всем инновационном деле, здесь существуют риски. Но по ним можно безопасно ориентироваться, если использовать вдумчивый и целенаправленный подход.
Что лидерам маркетинга следует отстаивать в политике использования ИИ
По мере того, как инструменты ИИ развиваются и становятся более интуитивно понятными, комплексная политика использования ИИ обеспечит подотчетность и ответственность по всем направлениям. Даже Федеральная торговая комиссия (FTC) не стеснялась слов, предостерегая поставщиков ИИ практиковать этический маркетинг, чтобы удержать их от чрезмерно многообещающих возможностей.
Сейчас настало время для лидеров создать основополагающую основу для стратегической интеграции ИИ в свой технологический стек. Вот некоторые практические факторы, которые следует учитывать.


Подотчетность и управление
Ваша корпоративная политика использования ИИ должна четко описывать роли и обязанности отдельных лиц или команд, которым поручено управление ИИ и подотчетность в компании. В обязанности должно входить проведение регулярных проверок для обеспечения соответствия систем искусственного интеллекта всем лицензиям и достижения намеченных целей. Также важно часто пересматривать политику, чтобы быть в курсе новых событий в отрасли, включая законодательство и законы, которые могут быть применимы.
Политика в области ИИ должна также служить руководством для обучения сотрудников, объясняя риски, связанные с вводом личной, конфиденциальной или служебной информации в инструмент ИИ. Ему также следует обсудить риски неразумного использования результатов ИИ, например, дословную публикацию результатов ИИ, использование ИИ для получения советов по сложным темам или неспособность в достаточной степени проверить результаты ИИ на предмет плагиата.
Планируемая реализация
Разумный способ снизить риски конфиденциальности данных и авторских прав — поэтапное внедрение инструментов искусственного интеллекта во всей организации. Как говорит Риспин: «Нам нужно быть более целеустремленными и осторожными в использовании ИИ. Вы хотите быть уверены, что когда вы его внедряете, вы делаете это периодически и ограниченно и наблюдаете за тем, что вы пытаетесь сделать». Постепенное внедрение ИИ в контролируемой среде позволяет отслеживать использование и заранее устранять сбои, что в дальнейшем обеспечивает более плавное внедрение в более широком масштабе.
Это особенно важно, поскольку инструменты искусственного интеллекта также предоставляют информацию о бренде, жизненно важную для межорганизационных команд, например, работу с клиентами и маркетинг продуктов. Стратегически внедряя ИИ, вы можете безопасно повысить его эффективность для этих многофункциональных команд, одновременно более эффективно устраняя препятствия.
Четкие варианты использования
В вашей внутренней политике использования ИИ должны быть перечислены все лицензированные инструменты ИИ, одобренные для использования. Четко определите цель и сферу их использования, приведя конкретные варианты использования. Например, документирование примеров того, какие задачи имеют низкий или высокий риск, а каких следует полностью избегать.
Задачи с низким уровнем риска, которые вряд ли нанесут вред вашему бренду, могут выглядеть так, будто команда социальных сетей использует генеративный искусственный интеллект для создания более привлекательных постов или подписей. Или команды обслуживания клиентов, использующие копирование с помощью искусственного интеллекта для более персонализированных ответов.
Аналогичным образом, политика использования ИИ должна указывать примеры высокого риска, в которых использование генеративного ИИ следует ограничить, например, предоставление юридических или маркетинговых консультаций, общение с клиентами, презентации продуктов или производство маркетинговых активов, содержащих конфиденциальную информацию.
«Вам нужно дважды подумать, прежде чем распространять его среди людей, чья работа заключается в работе с информацией, которой вы никогда не сможете поделиться с внешним миром, например, среди вашей клиентской команды или команды инженеров. Но не стоит делать все или ничего. Это пустая трата, потому что маркетинговые команды, даже юридические команды и команды успеха, по сути, выполняют множество функций бэк-офиса — их производительность можно повысить с помощью инструментов искусственного интеллекта, таких как ChatGPT», — объясняет Риспин.
Права интеллектуальной собственности
Учитывая растущие возможности генеративного искусственного интеллекта и необходимость быстрого создания сложного контента, политика использования искусственного интеллекта вашей компании должна четко учитывать угрозу правам интеллектуальной собственности. Это очень важно, поскольку использование генеративного ИИ для разработки внешних материалов, таких как отчеты и изобретения, может означать, что активы не могут быть защищены авторским правом или запатентованы.
«Допустим, вы публикуете ценный отраслевой отчет три года подряд, а на четвертый год решаете подготовить отчет с использованием генеративного искусственного интеллекта. В таком случае у вас нет никаких прав на этот новый отчет, поскольку он был создан без какого-либо серьезного участия человека. То же самое можно сказать и о художественном или программном коде, созданном искусственным интеллектом», — отмечает Риспин.
Еще одним соображением является использование генеративных учетных записей искусственного интеллекта на уровне предприятия, в которых компания выступает в качестве администратора, а сотрудники — в качестве пользователей. Это позволяет компании контролировать важные настройки конфиденциальности и обмена информацией, что снижает юридический риск. Например, отключение определенных типов обмена информацией с помощью ChatGPT снизит риск потери ценных прав интеллектуальной собственности.
Подробности раскрытия информации
Аналогичным образом, ваша политика использования ИИ должна гарантировать, что маркетологи сообщают внешней аудитории, что они используют контент, созданный ИИ. Европейская комиссия считает это очень важным аспектом ответственного и этичного использования генеративного ИИ. В США Закон о раскрытии информации об ИИ от 2023 года еще больше закрепил это требование, согласно которому любые результаты работы ИИ должны включать отказ от ответственности. Этот закон возлагает на Федеральную торговую комиссию правоприменение.
Платформы социальных сетей, такие как Instagram, уже внедряют способы информирования пользователей о контенте, созданном ИИ, с помощью меток и водяных знаков. Инструмент генеративного искусственного интеллекта Google Imagen теперь также встраивает цифровые водяные знаки в копии и изображения, созданные искусственным интеллектом, с помощью SynthID. Эта технология встраивает водяные знаки непосредственно в пиксели изображения, что делает их видимыми для идентификации, но незаметными для человеческого глаза. Это означает, что метки нельзя изменить даже с помощью добавленных фильтров или измененных цветов.
Интегрируйте ИИ стратегически и безопасно
Растущее внедрение ИИ в маркетинге неоспоримо, равно как и потенциальные риски и проблемы безопасности бренда, которые возникают из-за отсутствия четко определенных руководящих принципов. Используйте эти практические советы, чтобы разработать эффективную политику использования ИИ, которая позволит вам стратегически и безопасно использовать преимущества инструментов ИИ для более разумных рабочих процессов и принятия разумных решений.
Узнайте больше о том, как лидеры маркетинга во всем мире используют искусственный интеллект и машинное обучение для повышения эффективности бизнеса.
ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ
Информация, представленная в этой статье, не представляет собой и не представляет собой официальную юридическую консультацию; вся информация, контент, пункты и материалы предназначены для общих информационных целей. Информация на этом веб-сайте может не представлять собой самую актуальную юридическую или другую информацию. Включение любых рекомендаций, изложенных в этой статье, не гарантирует снижения вашего юридического риска. Читателям этой статьи следует связаться со своей командой юристов или адвокатом для получения консультации по любому конкретному юридическому вопросу и воздерживаться от действий на основе информации из этой статьи без предварительного обращения за независимой юридической консультацией. Использование и доступ к этой статье или любым ссылкам или ресурсам, содержащимся на сайте, не создают отношений между адвокатом и клиентом между читателем, пользователем или браузером и любыми участниками. Мнения, выраженные всеми участниками этой статьи, являются их собственными и не отражают точку зрения Sprout Social. Настоящим категорически отказываемся от любой ответственности в отношении действий, предпринятых или не предпринятых на основании содержания этой статьи.