Comment élaborer une politique efficace d'utilisation de l'IA pour le marketing
Publié: 2023-09-26La technologie, comme l’art, suscite des émotions et suscite des idées et des discussions. L’émergence de l’intelligence artificielle (IA) dans le marketing ne fait pas exception. Alors que des millions de personnes sont enthousiastes à l’idée d’adopter l’IA pour atteindre plus de rapidité et d’agilité au sein de leurs organisations, d’autres restent sceptiques – ce qui est assez courant dans les premières phases des cycles d’adoption technologique.
En fait, cette tendance reflète les débuts du cloud computing, lorsque la technologie semblait être un territoire inexploré. La plupart des entreprises n'étaient pas sûres de cette technologie révolutionnaire et étaient préoccupées par les exigences en matière de sécurité des données et de conformité. D’autres ont pris le train en marche sans vraiment comprendre les complexités de la migration ni les coûts qui y sont associés. Pourtant, aujourd’hui, le cloud computing est omniprésent. Il est devenu une force de transformation, allant de la facilitation du travail à distance au divertissement en streaming.
Alors que la technologie progresse à une vitesse vertigineuse et que les dirigeants reconnaissent la valeur de l’IA pour l’innovation et la compétitivité des entreprises, l’élaboration d’une politique d’utilisation de l’IA à l’échelle de l’organisation devient très importante. Dans cet article, nous expliquons pourquoi le temps est essentiel pour établir un cadre d'utilisation interne de l'IA bien défini et les éléments importants que les dirigeants devraient y prendre en compte.
Veuillez noter : les informations fournies dans cet article ne constituent pas et ne sont pas destinées à constituer un avis juridique formel. Veuillez consulter notre clause de non-responsabilité complète avant de poursuivre votre lecture.
Pourquoi les organisations ont besoin d'une politique d'utilisation de l'IA
Les spécialistes du marketing investissent déjà dans l’IA pour accroître l’efficacité. En fait, le rapport sur l'état social 2023 montre que 96 % des dirigeants pensent que les capacités de l'IA et de l'apprentissage automatique (ML) peuvent les aider à améliorer considérablement les processus de prise de décision. 93 % d’entre eux visent également à augmenter les investissements en IA pour développer les fonctions de service client au cours des trois prochaines années. Les marques qui adoptent activement les outils d’IA auront probablement un plus grand avantage sur celles qui hésitent.
Compte tenu de cette forte trajectoire ascendante dans l’adoption de l’IA, il est également nécessaire de s’attaquer aux risques auxquels les marques sont confrontées lorsqu’il n’existe pas de directives internes claires en matière d’utilisation de l’IA. Pour gérer efficacement ces risques, la politique d’utilisation de l’IA d’une entreprise doit s’articuler autour de trois éléments clés :
Risques du fournisseur
Avant d'intégrer des fournisseurs d'IA dans votre flux de travail, il est important que les équipes informatiques et de conformité juridique de votre entreprise mènent un processus de vérification approfondi. Il s'agit de garantir que les fournisseurs respectent des réglementations strictes, se conforment aux licences open source et maintiennent leur technologie de manière appropriée.
Le directeur et avocat général associé de Sprout, Michael Rispin, donne son point de vue sur le sujet. « Chaque fois qu'une entreprise déclare disposer d'une fonctionnalité d'IA, vous devez lui demander : comment alimentez-vous cela ? Quelle est la couche fondamentale ?
Il est également crucial de prêter une attention particulière aux termes et conditions (T&C), car la situation est unique dans le cas des fournisseurs d'IA. « Vous devrez examiner de près non seulement les termes et conditions de votre fournisseur d'IA, mais également toute IA tierce qu'il utilise pour alimenter sa solution, car vous serez soumis aux conditions générales des deux. Par exemple, Zoom utilise OpenAI pour optimiser ses capacités d’IA », ajoute-t-il.
Atténuez ces risques en assurant une collaboration étroite entre les équipes juridiques, les responsables fonctionnels et vos équipes informatiques afin qu'ils choisissent les outils d'IA appropriés pour les employés et garantissent que les fournisseurs sont étroitement sélectionnés.
Risques liés aux entrées d’IA
Les outils d'IA générative accélèrent plusieurs fonctions telles que la rédaction, la conception et même le codage. De nombreux employés utilisent déjà des outils d'IA gratuits en tant que collaborateurs pour créer du contenu plus percutant ou pour travailler plus efficacement. Pourtant, l’une des plus grandes menaces pour les droits de propriété intellectuelle (PI) réside dans la saisie de données dans des outils d’IA sans se rendre compte des conséquences, comme un employé de Samsung s’en est rendu compte trop tard.
"Ils (Samsung) pourraient avoir perdu une protection juridique majeure pour cette information", déclare Rispin à propos de la récente fuite de données de Samsung. « Lorsque vous mettez quelque chose dans ChatGPT, vous envoyez les données à l'extérieur de l'entreprise. Cela signifie que ce n'est techniquement plus un secret et que cela peut mettre en danger les droits de propriété intellectuelle d'une entreprise », prévient-il.
Éduquer les employés sur les risques associés et sur les cas d’utilisation clairement définis du contenu généré par l’IA contribue à atténuer ce problème. De plus, il améliore en toute sécurité l’efficacité opérationnelle dans toute l’organisation.
Risques liés à la production de l'IA
À l’instar des risques liés aux entrées, les résultats des outils d’IA constituent une menace sérieuse s’ils sont utilisés sans vérification de leur exactitude ou de leur plagiat.
Pour mieux comprendre ce problème, il est important d’approfondir les mécanismes des outils d’IA alimentés par des modèles génératifs pré-entraînés (GPT). Ces outils s'appuient sur des modèles de langage étendus (LLM) qui sont fréquemment formés sur du contenu Internet accessible au public, notamment des livres, des mémoires et des œuvres d'art. Dans certains cas, cela signifie qu’ils ont accédé à des données exclusives ou à des sources potentiellement illégales sur le dark web.
Ces modèles d’IA apprennent et génèrent du contenu en analysant les modèles de la grande quantité de données qu’ils consomment quotidiennement, ce qui rend très probable que leur sortie ne soit pas entièrement originale. Négliger de détecter le plagiat présente un risque énorme pour la réputation d'une marque, entraînant également des conséquences juridiques si un employé utilise ces données.
En fait, Sarah Silverman a intenté une action en justice contre ChatGPT pour avoir ingéré et fourni des résumés de son livre, même s'il n'est pas gratuit pour le public. D'autres auteurs bien connus comme George RR Martin et John Grisham poursuivent également la société mère, OpenAI, pour violation du droit d'auteur. Compte tenu de ces cas et de leurs répercussions futures, la Federal Trade Commission des États-Unis a créé un précédent en obligeant les entreprises à supprimer leurs données d’IA recueillies par des moyens peu scrupuleux.
Un autre problème majeur de l’IA générative comme ChatGPT est qu’elle utilise d’anciennes données, ce qui conduit à des résultats inexacts. S'il y avait eu un changement récent dans les domaines dans lesquels vous effectuez des recherches à l'aide de l'IA, il est fort probable que l'outil aurait négligé ces informations car il n'aurait pas eu le temps d'incorporer les nouvelles données. Étant donné que ces modèles mettent du temps à se former sur les nouvelles informations, ils peuvent ignorer les informations nouvellement ajoutées. C’est plus difficile à détecter que quelque chose de totalement inexact.
Pour relever ces défis, vous devez disposer d'un cadre d'utilisation interne de l'IA qui spécifie les scénarios dans lesquels le plagiat et les contrôles d'exactitude sont nécessaires lors de l'utilisation de l'IA générative. Cette approche est particulièrement utile lors de la mise à l’échelle de l’utilisation de l’IA et de son intégration dans une organisation plus large.
Comme dans tout ce qui est innovant, il existe des risques. Mais ils peuvent être parcourus en toute sécurité grâce à une approche réfléchie et intentionnelle.
Ce que les responsables marketing devraient défendre dans une politique d'utilisation de l'IA
À mesure que les outils d’IA évoluent et deviennent plus intuitifs, une politique globale d’utilisation de l’IA garantira la responsabilisation et la responsabilité à tous les niveaux. Même la Federal Trade Commission (FTC) n’a pas mâché ses mots, exhortant les fournisseurs d’IA à pratiquer un marketing éthique afin de les empêcher de surpromettre leurs capacités.
Il est désormais temps pour les dirigeants de lancer un cadre fondamental pour intégrer stratégiquement l’IA dans leur pile technologique. Voici quelques facteurs pratiques à considérer.
Responsabilité et gouvernance
Votre politique d'utilisation de l'IA en entreprise doit décrire clairement les rôles et les responsabilités des personnes ou des équipes chargées de la gouvernance et de la responsabilité de l'IA au sein de l'entreprise. Les responsabilités devraient inclure la mise en œuvre d'audits réguliers pour garantir que les systèmes d'IA sont conformes à toutes les licences et atteignent leurs objectifs prévus. Il est également important de revoir fréquemment la politique afin d'être au courant des nouveaux développements dans le secteur, y compris la législation et les lois qui peuvent être applicables.
La politique en matière d'IA devrait également servir de guide pour éduquer les employés, en expliquant les risques liés à la saisie d'informations personnelles, confidentielles ou exclusives dans un outil d'IA. Il devrait également discuter des risques liés à une utilisation imprudente des résultats de l’IA, comme la publication textuelle des résultats de l’IA, le recours à l’IA pour obtenir des conseils sur des sujets complexes ou le fait de ne pas examiner suffisamment les résultats de l’IA pour détecter tout plagiat.
Mise en œuvre prévue
Un moyen intelligent d’atténuer les risques liés à la confidentialité des données et aux droits d’auteur consiste à introduire progressivement des outils d’IA dans toute l’organisation. Comme le dit Rispin : « Nous devons être plus intentionnels et plus prudents dans la manière dont nous utilisons l’IA. Vous voulez vous assurer que lorsque vous le déployez, vous le faites périodiquement de manière limitée et observez ce que vous essayez de faire. La mise en œuvre progressive de l'IA dans un environnement contrôlé vous permet de surveiller l'utilisation et de gérer de manière proactive les problèmes, permettant ainsi une mise en œuvre plus fluide à plus grande échelle par la suite.
Ceci est particulièrement important car les outils d’IA fournissent également des informations sur la marque vitales pour les équipes interorganisationnelles telles que l’expérience client et le marketing produit. En introduisant l’IA de manière stratégique, vous pouvez étendre son efficacité à ces équipes multifonctionnelles en toute sécurité tout en éliminant plus efficacement les obstacles.
Cas d'utilisation clairs
Votre politique interne d’utilisation de l’IA doit répertorier tous les outils d’IA sous licence dont l’utilisation est approuvée. Définissez clairement le but et la portée de leur utilisation, en citant des cas d’utilisation spécifiques. Par exemple, documenter des exemples de tâches présentant un risque faible ou élevé et celles qui devraient être complètement évitées.
Les tâches à faible risque qui ne sont pas susceptibles de nuire à votre marque peuvent ressembler à celles de l'équipe des médias sociaux utilisant l'IA générative pour rédiger des publications ou des légendes plus attrayantes. Ou encore, les équipes du service client utilisent la copie assistée par l'IA pour des réponses plus personnalisées.
Dans le même ordre d’idées, la politique d’utilisation de l’IA devrait préciser les exemples à haut risque où l’utilisation de l’IA générative devrait être restreinte, comme la fourniture de conseils juridiques ou marketing, les communications avec les clients, les présentations de produits ou la production d’actifs marketing contenant des informations confidentielles.
« Vous devez y réfléchir à deux fois avant de le déployer auprès de personnes dont le travail consiste à traiter des informations que vous ne pourriez jamais partager en externe, comme votre équipe client ou votre équipe d'ingénierie. Mais il ne faut pas faire tout ou rien. C'est un gaspillage, car les équipes marketing, même les équipes juridiques et les équipes de réussite, ont essentiellement de nombreuses fonctions de back-office : leur productivité peut être accélérée en utilisant des outils d'IA comme ChatGPT », explique Rispin.
Droits de propriété intellectuelle
Compte tenu de la capacité croissante de l’IA générative et de la nécessité de produire rapidement des contenus complexes, la politique d’utilisation de l’IA de votre entreprise doit clairement aborder la menace qui pèse sur les droits de propriété intellectuelle. Ceci est essentiel car l’utilisation de l’IA générative pour développer du matériel destiné à l’extérieur, comme des rapports et des inventions, peut signifier que les actifs ne peuvent pas être protégés par le droit d’auteur ou brevetés.
« Disons que vous avez publié un rapport industriel précieux pendant trois années consécutives et que, la quatrième année, vous décidez de produire le rapport en utilisant l'IA générative. Dans un tel scénario, vous n’avez aucune possibilité de détenir un droit d’auteur sur ce nouveau rapport car il a été produit sans aucune implication humaine majeure. La même chose serait vraie pour l’art ou le code logiciel généré par l’IA », note Rispin.
Une autre considération consiste à utiliser des comptes d’IA générative au niveau de l’entreprise, avec l’entreprise comme administrateur et les employés comme utilisateurs. Cela permet à l’entreprise de contrôler d’importants paramètres de confidentialité et de partage d’informations qui réduisent les risques juridiques. Par exemple, la désactivation de certains types de partage d'informations avec ChatGPT réduira le risque de perte de précieux droits de propriété intellectuelle.
Détails de la divulgation
De même, votre politique d'utilisation de l'IA doit garantir que les spécialistes du marketing divulguent qu'ils utilisent le contenu généré par l'IA à un public externe. La Commission européenne considère qu’il s’agit d’un aspect très important de l’utilisation responsable et éthique de l’IA générative. Aux États-Unis, le projet de loi AI Disclosure Act de 2023 a encore renforcé cette exigence, en maintenant que tout résultat de l’IA doit inclure une clause de non-responsabilité. Cette législation charge la FTC de faire appliquer la loi.
Les plateformes de médias sociaux comme Instagram mettent déjà en œuvre des moyens d’informer les utilisateurs du contenu généré par l’IA au moyen d’étiquettes et de filigranes. L'outil d'IA générative de Google, Imagen, intègre également désormais des filigranes numériques sur les copies et les images générées par l'IA à l'aide de SynthID. La technologie intègre des filigranes directement dans les pixels de l’image, les rendant détectables pour l’identification mais imperceptibles à l’œil humain. Cela signifie que les étiquettes ne peuvent pas être modifiées même avec des filtres ajoutés ou des couleurs modifiées.
Intégrez l’IA de manière stratégique et sûre
L’adoption croissante de l’IA dans le marketing est indéniable, tout comme les risques potentiels et les problèmes de sécurité des marques qui surviennent en l’absence de lignes directrices bien définies. Utilisez ces conseils pratiques pour élaborer une politique d’utilisation de l’IA efficace qui vous permet d’exploiter de manière stratégique et sécurisée les avantages des outils d’IA pour des flux de travail plus intelligents et une prise de décision intelligente.
Découvrez comment les leaders marketing du monde entier abordent l’IA et le ML pour générer un impact commercial.
CLAUSE DE NON-RESPONSABILITÉ
Les informations fournies dans cet article ne constituent pas et ne sont pas destinées à constituer un avis juridique formel ; toutes les informations, contenus, points et documents sont destinés à des fins d’information générale. Les informations contenues sur ce site Web peuvent ne pas constituer les informations juridiques ou autres les plus récentes. L’intégration des directives fournies dans cet article ne garantit pas que votre risque juridique soit réduit. Les lecteurs de cet article doivent contacter leur équipe juridique ou leur avocat pour obtenir des conseils sur toute question juridique particulière et doivent s'abstenir d'agir sur la base des informations contenues dans cet article sans demander au préalable un avis juridique indépendant. L'utilisation et l'accès à cet article ou à l'un des liens ou ressources contenus dans le site ne créent pas de relation avocat-client entre le lecteur, l'utilisateur ou le navigateur et les contributeurs. Les opinions exprimées par les contributeurs à cet article sont les leurs et ne reflètent pas celles de Sprout Social. Toute responsabilité concernant les actions prises ou non sur la base du contenu de cet article est expressément déclinée.