Como elaborar uma política eficaz de uso de IA para marketing

Publicados: 2023-09-26

A tecnologia, assim como a arte, desperta emoções e desperta ideias e discussões. O surgimento da inteligência artificial (IA) no marketing não é exceção. Embora milhões de pessoas estejam entusiasmadas com a adoção da IA ​​para alcançar maior velocidade e agilidade nas suas organizações, há outras que permanecem céticas – algo bastante comum nas fases iniciais dos ciclos de adoção de tecnologia.

Na verdade, o padrão reflete os primeiros dias da computação em nuvem, quando a tecnologia parecia um território desconhecido. A maioria das empresas não tinha certeza sobre a tecnologia inovadora – preocupada com a segurança dos dados e os requisitos de conformidade. Outros aderiram ao movimento sem compreender verdadeiramente as complexidades da migração ou os custos associados. Ainda hoje, a computação em nuvem é onipresente. Ele evoluiu para uma força transformadora, desde a facilitação do trabalho remoto até o streaming de entretenimento.

À medida que a tecnologia avança a uma velocidade vertiginosa e os líderes reconhecem o valor da IA ​​para a inovação e competitividade empresarial, a elaboração de uma política de utilização de IA em toda a organização tornou-se muito importante. Neste artigo, esclarecemos por que o tempo é essencial para estabelecer uma estrutura interna de uso de IA bem definida e os elementos importantes que os líderes devem levar em consideração.

Observação: as informações fornecidas neste artigo não constituem e não pretendem constituir aconselhamento jurídico formal. Por favor, revise nosso aviso completo antes de continuar lendo.

Por que as organizações precisam de uma política de uso de IA

Os profissionais de marketing já estão investindo em IA para aumentar a eficiência. Na verdade, o Relatório sobre o Estado do Social 2023 mostra que 96% dos líderes acreditam que as capacidades de IA e aprendizagem automática (ML) podem ajudá-los a melhorar significativamente os processos de tomada de decisão. Outros 93% também pretendem aumentar os investimentos em IA para dimensionar as funções de atendimento ao cliente nos próximos três anos. As marcas que adotam ativamente ferramentas de IA provavelmente terão uma vantagem maior sobre aquelas que estão hesitantes.

Um cartão de chamada de visualização de dados afirma que 96% dos líderes empresariais acreditam que a inteligência artificial e o aprendizado de máquina podem melhorar significativamente a tomada de decisões.

Dada esta trajetória ascendente acentuada na adoção da IA, é igualmente necessário abordar os riscos que as marcas enfrentam quando não existem diretrizes internas claras para a utilização da IA. Para gerir eficazmente estes riscos, a política de utilização de IA de uma empresa deve centrar-se em três elementos principais:

Riscos do fornecedor

Antes de integrar qualquer fornecedor de IA ao seu fluxo de trabalho, é importante que as equipes de TI e de conformidade legal da sua empresa conduzam um processo de verificação completo. Isto é para garantir que os fornecedores cumpram regulamentações rigorosas, cumpram licenças de código aberto e mantenham adequadamente sua tecnologia.

O Diretor do Sprout, Conselheiro Geral Associado, Michael Rispin, fornece suas idéias sobre o assunto. “Sempre que uma empresa diz que tem um recurso de IA, você deve perguntar a ela: como você está potencializando isso? Qual é a camada fundamental?”

Também é crucial prestar muita atenção aos termos e condições (T&C), pois a situação é única no caso dos fornecedores de IA. “Você precisará examinar atentamente não apenas os termos e condições do seu fornecedor de IA, mas também qualquer IA de terceiros que eles estejam usando para potencializar sua solução, porque você estará sujeito aos T&Cs de ambos. Por exemplo, o Zoom usa OpenAI para ajudar a potencializar seus recursos de IA”, acrescenta.

Mitigue esses riscos garantindo uma colaboração estreita entre equipes jurídicas, gerentes funcionais e suas equipes de TI para que escolham as ferramentas de IA apropriadas para os funcionários e garantam que os fornecedores sejam avaliados de perto.

Riscos de entrada de IA

As ferramentas generativas de IA aceleram diversas funções, como redação, design e até codificação. Muitos funcionários já estão usando ferramentas gratuitas de IA como colaboradores para criar conteúdo mais impactante ou para trabalhar com mais eficiência. No entanto, uma das maiores ameaças aos direitos de propriedade intelectual (PI) surge da introdução de dados em ferramentas de IA sem perceber as consequências, como um funcionário da Samsung percebeu tarde demais.

“Eles (Samsung) podem ter perdido uma importante proteção legal para essa informação”, diz Rispin sobre o recente vazamento de dados da Samsung. “Quando você coloca algo no ChatGPT, você está enviando os dados para fora da empresa. Fazer isso significa que tecnicamente não é mais um segredo e isso pode colocar em risco os direitos de propriedade intelectual de uma empresa”, alerta.

Educar os funcionários sobre os riscos associados e casos de uso claramente definidos para conteúdo gerado por IA ajuda a aliviar esse problema. Além disso, aumenta com segurança a eficiência operacional em toda a organização.

Riscos de saída de IA

Semelhante aos riscos de entrada, os resultados das ferramentas de IA representam uma séria ameaça se forem usadas sem verificação de precisão ou plágio.

Para obter uma compreensão mais profunda desta questão, é importante aprofundar a mecânica das ferramentas de IA alimentadas por modelos generativos pré-treinados (GPT). Estas ferramentas baseiam-se em grandes modelos de linguagem (LLMs) que são frequentemente treinados em conteúdos da Internet disponíveis publicamente, incluindo livros, dissertações e obras de arte. Em alguns casos, isso significa que acessaram dados proprietários ou fontes potencialmente ilegais na dark web.

Esses modelos de IA aprendem e geram conteúdo analisando padrões na grande quantidade de dados que consomem diariamente, tornando altamente provável que seus resultados não sejam totalmente originais. Negligenciar a detecção de plágio representa um enorme risco para a reputação de uma marca, levando também a consequências legais, se um funcionário utilizar esses dados.

Na verdade, há uma ação judicial movida por Sarah Silverman contra o ChatGPT por ingerir e fornecer resumos de seu livro, mesmo que não seja gratuito ao público. Outros autores conhecidos, como George RR Martin e John Grisham, também estão processando a empresa-mãe, OpenAI, por violação de direitos autorais. Considerando estes casos e as repercussões futuras, a Comissão Federal de Comércio dos EUA estabeleceu um precedente ao forçar as empresas a eliminar os seus dados de IA recolhidos através de meios inescrupulosos.

Outro grande problema com IA generativa como ChatGPT é que ela usa dados antigos, levando a resultados imprecisos. Se houve uma mudança recente nas áreas que você está pesquisando usando IA, há uma grande probabilidade de que a ferramenta tenha ignorado essas informações, pois não teria tido tempo de incorporar os novos dados. Como esses modelos levam tempo para treinar com novas informações, eles podem ignorar as informações recém-adicionadas. Isso é mais difícil de detectar do que algo totalmente impreciso.

Para enfrentar esse desafio, você deve ter uma estrutura interna de uso de IA que especifique cenários onde o plágio e verificações de precisão são necessários ao usar IA generativa. Essa abordagem é especialmente útil ao dimensionar o uso de IA e também integrá-la a uma organização maior.

Como em todas as coisas inovadoras, existem riscos. Mas eles podem ser navegados com segurança por meio de uma abordagem cuidadosa e intencional.

O que os líderes de marketing devem defender numa política de utilização de IA

À medida que as ferramentas de IA evoluem e se tornam mais intuitivas, uma política abrangente de utilização de IA garantirá responsabilização e responsabilidade em todos os níveis. Até mesmo a Comissão Federal de Comércio (FTC) não mediu palavras, alertando os fornecedores de IA para praticarem marketing ético numa tentativa de impedi-los de prometer excessivamente capacidades.

Agora é a hora de os líderes iniciarem uma estrutura fundamental para integrar estrategicamente a IA em sua pilha de tecnologia. Aqui estão alguns fatores práticos a serem considerados.

Um cartão de visualização de dados que lista o que os líderes de marketing devem defender em uma política de uso de IA. A lista inclui responsabilidade e governação, implementação planeada, casos de utilização claros, direitos de propriedade intelectual e detalhes de divulgação.

Responsabilidade e governança

Sua política corporativa de uso de IA deve descrever claramente as funções e responsabilidades dos indivíduos ou equipes responsáveis ​​pela governança e responsabilidade da IA ​​na empresa. As responsabilidades devem incluir a implementação de auditorias regulares para garantir que os sistemas de IA estejam em conformidade com todas as licenças e cumpram os objetivos pretendidos. Também é importante revisar a política com frequência para estar atualizado com os novos desenvolvimentos no setor, incluindo legislação e leis que possam ser aplicáveis.

A política de IA também deve servir como um guia para educar os funcionários, explicando os riscos de inserir informações pessoais, confidenciais ou proprietárias numa ferramenta de IA. Deve também discutir os riscos de utilizar os resultados da IA ​​de forma imprudente, como a publicação literal dos resultados da IA, confiar na IA para aconselhamento sobre tópicos complexos ou não analisar suficientemente os resultados da IA ​​em busca de plágio.

Implementação planejada

Uma maneira inteligente de mitigar os riscos de privacidade de dados e direitos autorais é introduzir ferramentas de IA em toda a organização de maneira faseada. Como diz Rispin: “Precisamos ser mais intencionais e mais cuidadosos sobre como usamos a IA. Você quer ter certeza de que, ao implementá-lo, fará isso periodicamente de forma limitada e observará o que está tentando fazer.” A implementação gradual da IA ​​em um ambiente controlado permite monitorar o uso e gerenciar proativamente os soluços, permitindo uma implementação mais tranquila em uma escala mais ampla posteriormente.

Isto é especialmente importante porque as ferramentas de IA também fornecem insights de marca vitais para equipes interorganizacionais, como experiência do cliente e marketing de produtos. Ao introduzir a IA estrategicamente, você pode estender sua eficiência a essas equipes multifuncionais com segurança, ao mesmo tempo que aborda os obstáculos de forma mais eficaz.

Casos de uso claros

Sua política interna de uso de IA deve listar todas as ferramentas de IA licenciadas e aprovadas para uso. Defina claramente a finalidade e o escopo de seu uso, citando casos de uso específicos. Por exemplo, documentar exemplos de quais tarefas são de baixo ou alto risco e quais devem ser completamente evitadas.

Tarefas de baixo risco que provavelmente não prejudicarão sua marca podem parecer com a equipe de mídia social usando IA generativa para redigir postagens ou legendas mais envolventes. Ou equipes de atendimento ao cliente usando cópia assistida por IA para respostas mais personalizadas.

Na mesma linha, a política de utilização de IA deve especificar exemplos de alto risco em que a utilização de IA generativa deve ser restringida, como a prestação de aconselhamento jurídico ou de marketing, comunicações com clientes, apresentações de produtos ou a produção de ativos de marketing contendo informações confidenciais.

“Você quer pensar duas vezes antes de distribuí-lo para pessoas cujo trabalho é lidar com informações que você nunca poderia compartilhar externamente, como sua equipe de cliente ou equipe de engenharia. Mas você não deve simplesmente fazer tudo ou nada. Isso é um desperdício porque as equipes de marketing, até mesmo as equipes jurídicas e de sucesso, basicamente desempenham muitas funções de back office – sua produtividade pode ser acelerada usando ferramentas de IA como ChatGPT”, explica Rispin.

Direito de propriedade intelectual

Considerando a capacidade crescente da IA ​​generativa e a necessidade de produzir rapidamente conteúdos complexos, a política de utilização de IA da sua empresa deve abordar claramente a ameaça aos direitos de propriedade intelectual. Isto é fundamental porque a utilização de IA generativa para desenvolver material externo, como relatórios e invenções, pode significar que os ativos não podem ser protegidos por direitos de autor ou patenteados.

“Digamos que você publicou um relatório valioso do setor por três anos consecutivos e no quarto ano decidiu produzir o relatório usando IA generativa. Nesse cenário, você não tem a possibilidade de ter direitos autorais sobre esse novo relatório porque ele foi produzido sem qualquer envolvimento humano importante. O mesmo seria verdade para arte ou código de software gerado por IA”, observa Rispin.

Outra consideração é usar contas de IA generativas de nível empresarial, com a empresa como administrador e os funcionários como usuários. Isso permite que a empresa controle configurações importantes de privacidade e compartilhamento de informações que diminuem o risco legal. Por exemplo, desabilitar certos tipos de compartilhamento de informações com ChatGPT diminuirá o risco de perda de valiosos direitos de propriedade intelectual.

Detalhes de divulgação

Da mesma forma, sua política de uso de IA deve garantir que os profissionais de marketing divulguem que estão usando conteúdo gerado por IA para públicos externos. A Comissão Europeia considera este um aspecto muito importante da utilização responsável e ética da IA ​​generativa. Nos EUA, o projeto de lei da Lei de Divulgação de IA de 2023 consolidou ainda mais esse requisito, mantendo qualquer resultado da IA ​​deve incluir uma isenção de responsabilidade. Esta legislação incumbe a FTC da aplicação.

Plataformas de mídia social como o Instagram já estão implementando formas de informar os usuários sobre o conteúdo gerado pela IA por meio de rótulos e marcas d'água. A ferramenta generativa de IA do Google, Imagen, agora também incorpora marcas d'água digitais em cópias e imagens geradas por IA usando SynthID. A tecnologia incorpora marcas d’água diretamente nos pixels da imagem, tornando-as detectáveis ​​para identificação, mas imperceptíveis ao olho humano. Isso significa que os rótulos não podem ser alterados mesmo com filtros adicionados ou cores alteradas.

Integre a IA de forma estratégica e segura

A crescente adoção da IA ​​no marketing é inegável, assim como os riscos potenciais e as preocupações de segurança da marca que surgem na ausência de diretrizes bem definidas. Use estas dicas práticas para criar uma política eficaz de uso de IA que permita aproveitar de forma estratégica e segura os benefícios das ferramentas de IA para fluxos de trabalho mais inteligentes e tomadas de decisão inteligentes.

Saiba mais sobre como os líderes de marketing em todo o mundo estão abordando a IA e o ML para gerar impacto nos negócios.

ISENÇÃO DE RESPONSABILIDADE

As informações fornecidas neste artigo não constituem e não pretendem constituir aconselhamento jurídico formal; todas as informações, conteúdos, pontos e materiais são para fins informativos gerais. As informações neste site podem não constituir as informações legais ou outras informações mais atualizadas. A incorporação de quaisquer diretrizes fornecidas neste artigo não garante que o seu risco legal seja reduzido. Os leitores deste artigo devem entrar em contato com sua equipe jurídica ou advogado para obter aconselhamento com relação a qualquer questão jurídica específica e devem abster-se de agir com base nas informações deste artigo sem primeiro procurar aconselhamento jurídico independente. O uso e o acesso a este artigo ou a qualquer um dos links ou recursos contidos no site não criam uma relação advogado-cliente entre o leitor, usuário ou navegador e quaisquer colaboradores. As opiniões expressas por qualquer colaborador deste artigo são próprias e não refletem as opiniões do Sprout Social. Toda a responsabilidade com relação a ações tomadas ou não tomadas com base no conteúdo deste artigo é expressamente rejeitada.