Cómo elaborar una política eficaz de uso de la IA para marketing

Publicado: 2023-09-26

La tecnología, como el arte, despierta emociones y genera ideas y debates. La aparición de la inteligencia artificial (IA) en el marketing no es una excepción. Si bien millones de personas están entusiasmadas con la adopción de la IA para lograr mayor velocidad y agilidad dentro de sus organizaciones, hay otros que se mantienen escépticos, algo bastante común en las primeras fases de los ciclos de adopción de tecnología.

De hecho, el patrón refleja los primeros días de la computación en la nube, cuando la tecnología parecía un territorio inexplorado. La mayoría de las empresas no estaban seguras de esta tecnología innovadora y estaban preocupadas por la seguridad de los datos y los requisitos de cumplimiento. Otros se subieron al carro sin comprender realmente las complejidades de la migración o los costos asociados. Sin embargo, hoy en día, la computación en la nube es omnipresente. Ha evolucionado hasta convertirse en una fuerza transformadora, desde facilitar el trabajo remoto hasta el entretenimiento en streaming.

A medida que la tecnología avanza a una velocidad vertiginosa y los líderes reconocen el valor de la IA para la innovación y la competitividad empresarial, elaborar una política de uso de la IA para toda la organización se ha vuelto muy importante. En este artículo, arrojamos luz sobre por qué el tiempo es esencial para establecer un marco de uso interno de IA bien definido y los elementos importantes que los líderes deben tener en cuenta.

Tenga en cuenta: La información proporcionada en este artículo no constituye ni pretende constituir asesoramiento legal formal. Revise nuestro descargo de responsabilidad completo antes de seguir leyendo.

Por qué las organizaciones necesitan una política de uso de IA

Los profesionales del marketing ya están invirtiendo en IA para aumentar la eficiencia. De hecho, el Informe sobre el estado social 2023 muestra que el 96% de los líderes creen que las capacidades de inteligencia artificial y aprendizaje automático (ML) pueden ayudarlos a mejorar significativamente los procesos de toma de decisiones. Otro 93% también pretende aumentar las inversiones en IA para escalar las funciones de atención al cliente en los próximos tres años. Es probable que las marcas que adopten activamente herramientas de inteligencia artificial tengan una mayor ventaja sobre aquellas que dudan.

Una tarjeta de visualización de datos que indica que el 96% de los líderes empresariales creen que la inteligencia artificial y el aprendizaje automático pueden mejorar significativamente la toma de decisiones.

Dada esta pronunciada trayectoria ascendente en la adopción de la IA, es igualmente necesario abordar los riesgos que enfrentan las marcas cuando no existen pautas internas claras para el uso de la IA. Para gestionar eficazmente estos riesgos, la política de uso de la IA de una empresa debe centrarse en tres elementos clave:

Riesgos del vendedor

Antes de integrar cualquier proveedor de IA en su flujo de trabajo, es importante que los equipos de cumplimiento legal y de TI de su empresa lleven a cabo un proceso de investigación exhaustivo. Esto es para garantizar que los proveedores cumplan con regulaciones estrictas, cumplan con las licencias de código abierto y mantengan adecuadamente su tecnología.

El director y asesor general asociado de Sprout, Michael Rispin, brinda sus conocimientos sobre el tema. “Cada vez que una empresa dice que tiene una función de IA, hay que preguntarles: ¿Cómo se está impulsando eso? ¿Cuál es la capa fundamental?

También es fundamental prestar mucha atención a los términos y condiciones (T&C), ya que la situación es única en el caso de los proveedores de IA. “Deberá observar de cerca no solo los términos y condiciones de su proveedor de IA, sino también la IA de terceros que esté utilizando para impulsar su solución, porque estará sujeto a los términos y condiciones de ambos. Por ejemplo, Zoom utiliza OpenAI para potenciar sus capacidades de IA”, añade.

Mitigue estos riesgos garantizando una estrecha colaboración entre los equipos legales, los gerentes funcionales y sus equipos de TI para que elijan las herramientas de IA adecuadas para los empleados y garanticen que los proveedores sean examinados de cerca.

Riesgos de entrada de IA

Las herramientas de IA generativa aceleran varias funciones, como la redacción, el diseño e incluso la codificación. Muchos empleados ya están utilizando herramientas de inteligencia artificial gratuitas como colaboradores para crear contenido más impactante o trabajar de manera más eficiente. Sin embargo, una de las mayores amenazas a los derechos de propiedad intelectual (PI) surge al ingresar datos en herramientas de inteligencia artificial sin darse cuenta de las consecuencias, como se dio cuenta demasiado tarde un empleado de Samsung.

"Ellos (Samsung) podrían haber perdido una protección legal importante para esa información", dice Rispin sobre la reciente filtración de datos de Samsung. “Cuando pones algo en ChatGPT, estás enviando los datos fuera de la empresa. Hacerlo significa que técnicamente ya no es un secreto y esto puede poner en peligro los derechos de propiedad intelectual de una empresa”, advierte.

Educar a los empleados sobre los riesgos asociados y los casos de uso claramente definidos para el contenido generado por IA ayuda a aliviar este problema. Además, mejora de forma segura la eficiencia operativa en toda la organización.

Riesgos de salida de IA

Al igual que los riesgos de entrada, la salida de las herramientas de inteligencia artificial plantea una grave amenaza si se utilizan sin comprobar su precisión o plagio.

Para comprender mejor este tema, es importante profundizar en la mecánica de las herramientas de IA impulsadas por modelos generativos preentrenados (GPT). Estas herramientas se basan en grandes modelos de lenguaje (LLM) que frecuentemente se entrenan en contenido de Internet disponible públicamente, incluidos libros, disertaciones y obras de arte. En algunos casos, esto significa que han accedido a datos propietarios o a fuentes potencialmente ilegales en la web oscura.

Estos modelos de IA aprenden y generan contenido analizando patrones en la gran cantidad de datos que consumen diariamente, lo que hace muy probable que su producción no sea del todo original. No detectar el plagio supone un enorme riesgo para la reputación de una marca, y también conlleva consecuencias legales si un empleado utiliza esos datos.

De hecho, Sarah Silverman ha presentado una demanda activa contra ChatGPT por ingerir y proporcionar resúmenes de su libro a pesar de que no es gratuito para el público. Otros autores conocidos, como George RR Martin y John Grisham, también están demandando a la empresa matriz, OpenAI, por infracción de derechos de autor. Teniendo en cuenta estos casos y las repercusiones futuras, la Comisión Federal de Comercio de EE. UU. ha sentado un precedente al obligar a las empresas a eliminar sus datos de IA recopilados por medios sin escrúpulos.

Otro problema importante con la IA generativa como ChatGPT es que utiliza datos antiguos, lo que genera resultados inexactos. Si hubo un cambio reciente en las áreas que está investigando utilizando IA, existe una alta probabilidad de que la herramienta haya pasado por alto esa información ya que no habría tenido tiempo de incorporar los nuevos datos. Dado que estos modelos necesitan tiempo para entrenarse con nueva información, es posible que pasen por alto la información recién agregada. Esto es más difícil de detectar que algo totalmente inexacto.

Para afrontar estos desafíos, debe tener un marco interno de uso de IA que especifique escenarios en los que el plagio y las comprobaciones de precisión son necesarios cuando se utiliza IA generativa. Este enfoque es especialmente útil a la hora de ampliar el uso de la IA e integrarla también en la organización más grande.

Como ocurre con todo lo innovador, existen riesgos. Pero se pueden navegar con seguridad mediante un enfoque reflexivo e intencional.

Qué deberían defender los líderes de marketing en una política de uso de IA

A medida que las herramientas de IA evolucionen y se vuelvan más intuitivas, una política integral de uso de la IA garantizará la rendición de cuentas y la responsabilidad en todos los ámbitos. Incluso la Comisión Federal de Comercio (FTC) no se ha andado con rodeos y ha advertido a los proveedores de IA que practiquen un marketing ético en un intento por evitar que prometan demasiado sus capacidades.

Ahora es el momento de que los líderes inicien un marco fundamental para integrar estratégicamente la IA en su pila tecnológica. Aquí hay algunos factores prácticos a considerar.

Una tarjeta de visualización de datos que enumera lo que los líderes de marketing deberían defender en una política de uso de IA. La lista incluye responsabilidad y gobernanza, implementación planificada, casos de uso claros, derechos de propiedad intelectual y detalles de divulgación.

Responsabilidad y gobernanza

Su política corporativa de uso de IA debe describir claramente las funciones y responsabilidades de las personas o equipos a quienes se les ha confiado el gobierno y la responsabilidad de la IA en la empresa. Las responsabilidades deben incluir la implementación de auditorías periódicas para garantizar que los sistemas de IA cumplan con todas las licencias y cumplan con los objetivos previstos. También es importante revisar la política con frecuencia para estar actualizado con los nuevos desarrollos en la industria, incluida la legislación y las leyes que puedan ser aplicables.

La política de IA también debería servir como guía para educar a los empleados, explicando los riesgos de ingresar información personal, confidencial o de propiedad exclusiva en una herramienta de IA. También debería discutir los riesgos de utilizar los resultados de la IA de manera imprudente, como publicar textualmente los resultados de la IA, confiar en la IA para obtener asesoramiento sobre temas complejos o no revisar suficientemente los resultados de la IA para detectar plagio.

Implementación planificada

Una forma inteligente de mitigar los riesgos de privacidad de datos y derechos de autor es introducir herramientas de inteligencia artificial en toda la organización de manera gradual. Como dice Rispin: “Necesitamos ser más intencionales y más cuidadosos sobre cómo utilizamos la IA. Desea asegurarse de que cuando lo implemente, lo haga periódicamente de manera limitada y observe lo que está tratando de hacer”. La implementación gradual de la IA en un entorno controlado le permite monitorear el uso y gestionar los contratiempos de manera proactiva, lo que permite una implementación más fluida a mayor escala en el futuro.

Esto es especialmente importante ya que las herramientas de inteligencia artificial también brindan información de marca vital para los equipos interorganizacionales, como la experiencia del cliente y el marketing de productos. Al introducir la IA de forma estratégica, puede ampliar su eficiencia a estos equipos multifuncionales de forma segura y, al mismo tiempo, abordar los obstáculos de forma más eficaz.

Casos de uso claros

Su política interna de uso de IA debe enumerar todas las herramientas de IA con licencia aprobadas para su uso. Defina claramente el propósito y alcance de su uso, citando casos de uso específicos. Por ejemplo, documentar ejemplos de qué tareas son de bajo o alto riesgo y cuáles deberían evitarse por completo.

Las tareas de bajo riesgo que probablemente no dañen su marca pueden parecer como si el equipo de redes sociales utilizara IA generativa para redactar publicaciones o subtítulos más atractivos. O bien, los equipos de servicio al cliente utilizan una copia asistida por IA para obtener respuestas más personalizadas.

De manera similar, la política de uso de la IA debería especificar ejemplos de alto riesgo en los que debería restringirse el uso de la IA generativa, como la prestación de asesoramiento jurídico o de marketing, las comunicaciones con los clientes, las presentaciones de productos o la producción de activos de marketing que contengan información confidencial.

“Hay que pensarlo dos veces antes de implementarlo para personas cuyo trabajo es manejar información que nunca podría compartir externamente, como su equipo de clientes o su equipo de ingeniería. Pero no deberías hacer simplemente todo o nada. Eso es un desperdicio porque los equipos de marketing, incluso los equipos legales y los equipos de éxito, básicamente realizan muchas funciones administrativas; su productividad se puede acelerar mediante el uso de herramientas de inteligencia artificial como ChatGPT”, explica Rispin.

Derechos de propiedad intelectual

Teniendo en cuenta la creciente capacidad de la IA generativa y la necesidad de producir contenido complejo rápidamente, la política de uso de la IA de su empresa debe abordar claramente la amenaza a los derechos de propiedad intelectual. Esto es fundamental porque el uso de IA generativa para desarrollar material externo, como informes e invenciones, puede significar que los activos no pueden tener derechos de autor ni patentarse.

“Digamos que ha publicado un valioso informe de la industria durante tres años consecutivos y en el cuarto año decide producir el informe utilizando IA generativa. En tal escenario, no tienes posibilidades de tener derechos de autor sobre ese nuevo informe porque se produjo sin ninguna participación humana importante. Lo mismo sería cierto para el arte o el código de software generado por IA”, señala Rispin.

Otra consideración es el uso de cuentas de IA generativa a nivel empresarial con la empresa como administrador y los empleados como usuarios. Esto permite a la empresa controlar importantes configuraciones de privacidad e intercambio de información que reducen el riesgo legal. Por ejemplo, deshabilitar ciertos tipos de intercambio de información con ChatGPT disminuirá el riesgo de perder valiosos derechos de propiedad intelectual.

Detalles de divulgación

De manera similar, su política de uso de IA debe garantizar que los especialistas en marketing revelen a audiencias externas que están utilizando contenido generado por IA. La Comisión Europea considera que este es un aspecto muy importante del uso responsable y ético de la IA generativa. En los EE. UU., el proyecto de ley de la Ley de Divulgación de IA de 2023 consolidó aún más este requisito, manteniendo que cualquier salida de IA debe incluir una exención de responsabilidad. Esta legislación encarga a la FTC la tarea de hacer cumplir la ley.

Las plataformas de redes sociales como Instagram ya están implementando formas de informar a los usuarios sobre el contenido generado por IA a través de etiquetas y marcas de agua. Imagen, la herramienta de IA generativa de Google, ahora también incorpora marcas de agua digitales en copias e imágenes generadas por IA usando SynthID. La tecnología incorpora marcas de agua directamente en los píxeles de la imagen, haciéndolas detectables para su identificación pero imperceptibles para el ojo humano. Esto significa que las etiquetas no se pueden modificar incluso con filtros agregados o colores modificados.

Integre la IA de forma estratégica y segura

La creciente adopción de la IA en marketing es innegable, al igual que los riesgos potenciales y las preocupaciones sobre la seguridad de la marca que surgen en ausencia de directrices bien definidas. Utilice estos consejos prácticos para crear una política eficaz de uso de la IA que le permita aprovechar de forma estratégica y segura los beneficios de las herramientas de IA para flujos de trabajo más inteligentes y una toma de decisiones más inteligente.

Obtenga más información sobre cómo los líderes de marketing de todo el mundo están abordando la IA y el aprendizaje automático para impulsar el impacto empresarial.

DESCARGO DE RESPONSABILIDAD

La información proporcionada en este artículo no constituye, ni pretende constituir, asesoramiento legal formal; toda la información, contenido, puntos y materiales son para fines informativos generales. La información contenida en este sitio web puede no constituir la información legal o de otro tipo más actualizada. La incorporación de las pautas proporcionadas en este artículo no garantiza que se reduzca su riesgo legal. Los lectores de este artículo deben comunicarse con su equipo legal o abogado para obtener asesoramiento con respecto a cualquier asunto legal en particular y deben abstenerse de actuar basándose en la información de este artículo sin buscar primero asesoramiento legal independiente. El uso y el acceso a este artículo o cualquiera de los enlaces o recursos contenidos en el sitio no crean una relación de abogado-cliente entre el lector, usuario o navegador y los contribuyentes. Las opiniones expresadas por cualquier colaborador de este artículo son propias y no reflejan las opiniones de Sprout Social. Por la presente se renuncia expresamente a toda responsabilidad con respecto a las acciones tomadas o no basadas en el contenido de este artículo.