So erstellen Sie eine effektive KI-Nutzungsrichtlinie für das Marketing

Veröffentlicht: 2023-09-26

Technologie weckt ebenso wie Kunst Emotionen und regt Ideen und Diskussionen an. Das Aufkommen künstlicher Intelligenz (KI) im Marketing ist keine Ausnahme. Während Millionen begeistert davon sind, KI zu nutzen, um in ihren Unternehmen mehr Geschwindigkeit und Agilität zu erreichen, bleiben andere skeptisch – was in den frühen Phasen von Technologieeinführungszyklen ziemlich häufig vorkommt.

Tatsächlich spiegelt das Muster die Anfänge des Cloud Computing wider, als die Technologie noch Neuland zu sein schien. Die meisten Unternehmen waren sich der bahnbrechenden Technologie nicht sicher und hatten Bedenken hinsichtlich der Datensicherheit und der Compliance-Anforderungen. Andere sprangen auf den Zug auf, ohne die Komplexität der Migration oder die damit verbundenen Kosten wirklich zu verstehen. Doch heute ist Cloud Computing allgegenwärtig. Es hat sich zu einer transformativen Kraft entwickelt, von der Erleichterung der Fernarbeit bis hin zum Streaming von Unterhaltung.

Da die Technologie rasant voranschreitet und Führungskräfte den Wert von KI für Geschäftsinnovation und Wettbewerbsfähigkeit erkennen, ist die Ausarbeitung einer unternehmensweiten KI-Nutzungsrichtlinie sehr wichtig geworden. In diesem Artikel beleuchten wir, warum Zeit für die Etablierung eines klar definierten internen KI-Nutzungsrahmens von entscheidender Bedeutung ist und welche wichtigen Elemente Führungskräfte dabei berücksichtigen sollten.

Bitte beachten Sie: Die in diesem Artikel bereitgestellten Informationen stellen keine formelle Rechtsberatung dar und sind auch nicht als solche gedacht. Bitte lesen Sie unseren vollständigen Haftungsausschluss, bevor Sie weiterlesen.

Warum Organisationen eine KI-Nutzungsrichtlinie benötigen

Vermarkter investieren bereits in KI, um die Effizienz zu steigern. Tatsächlich zeigt der State of Social Report 2023, dass 96 % der Führungskräfte glauben, dass KI und maschinelles Lernen (ML) ihnen dabei helfen können, Entscheidungsprozesse erheblich zu verbessern. Weitere 93 % beabsichtigen außerdem, die KI-Investitionen zu erhöhen, um in den kommenden drei Jahren die Kundenbetreuungsfunktionen zu skalieren. Marken, die KI-Tools aktiv einsetzen, werden wahrscheinlich einen größeren Vorteil gegenüber denen haben, die zögerlich sind.

Eine Informationskarte zur Datenvisualisierung besagt, dass 96 % der Unternehmensleiter glauben, dass künstliche Intelligenz und maschinelles Lernen die Entscheidungsfindung erheblich verbessern können.

Angesichts dieses steilen Aufwärtstrends bei der KI-Einführung ist es gleichermaßen notwendig, sich mit den Risiken auseinanderzusetzen, denen Marken ausgesetzt sind, wenn es keine klaren internen Richtlinien für die KI-Nutzung gibt. Um diese Risiken effektiv zu bewältigen, sollte sich die KI-Nutzungsrichtlinie eines Unternehmens auf drei Schlüsselelemente konzentrieren:

Anbieterrisiken

Bevor Sie KI-Anbieter in Ihren Workflow integrieren, ist es wichtig, dass die IT- und Legal-Compliance-Teams Ihres Unternehmens einen gründlichen Überprüfungsprozess durchführen. Dadurch soll sichergestellt werden, dass Anbieter strenge Vorschriften einhalten, Open-Source-Lizenzen einhalten und ihre Technologie angemessen warten.

Der Direktor von Sprout, Associate General Counsel, Michael Rispin, liefert seine Einblicke zu diesem Thema. „Immer wenn ein Unternehmen sagt, dass es über eine KI-Funktion verfügt, muss man es fragen: Wie ermöglichen Sie das?“ Was ist die Grundschicht?“

Es ist auch wichtig, die Allgemeinen Geschäftsbedingungen (AGB) sorgfältig zu beachten, da die Situation bei KI-Anbietern einzigartig ist. „Sie müssen sich nicht nur die Geschäftsbedingungen Ihres KI-Anbieters genau ansehen, sondern auch die KI von Drittanbietern, die er für seine Lösung verwendet, da für Sie die AGB beider Anbieter gelten. Zoom nutzt beispielsweise OpenAI, um seine KI-Funktionen zu verbessern“, fügt er hinzu.

Minimieren Sie diese Risiken, indem Sie eine enge Zusammenarbeit zwischen Rechtsteams, Funktionsmanagern und Ihren IT-Teams sicherstellen, damit diese die geeigneten KI-Tools für Mitarbeiter auswählen und sicherstellen, dass Anbieter genau überprüft werden.

KI-Eingaberisiken

Generative KI-Tools beschleunigen mehrere Funktionen wie Texterstellung, Design und sogar Codierung. Viele Mitarbeiter nutzen bereits kostenlose KI-Tools als Mitarbeiter, um wirkungsvollere Inhalte zu erstellen oder effizienter zu arbeiten. Doch eine der größten Bedrohungen für geistige Eigentumsrechte entsteht durch die Eingabe von Daten in KI-Tools, ohne sich der Konsequenzen bewusst zu sein, wie ein Samsung-Mitarbeiter erst zu spät erkannte.

„Sie (Samsung) haben möglicherweise einen erheblichen rechtlichen Schutz für diese Informationen verloren“, sagt Rispin zu Samsungs jüngstem Datenleck. „Wenn Sie etwas in ChatGPT eingeben, senden Sie die Daten außerhalb des Unternehmens. „Das bedeutet, dass es technisch gesehen kein Geheimnis mehr ist und die geistigen Eigentumsrechte eines Unternehmens gefährden können“, warnt er.

Die Aufklärung der Mitarbeiter über die damit verbundenen Risiken und klar definierte Anwendungsfälle für KI-generierte Inhalte trägt zur Entschärfung dieses Problems bei. Darüber hinaus steigert es sicher die betriebliche Effizienz im gesamten Unternehmen.

Risiken bei der KI-Ausgabe

Ähnlich wie Eingaberisiken stellt die Ausgabe von KI-Tools eine ernsthafte Bedrohung dar, wenn sie ohne Prüfung auf Richtigkeit oder Plagiat verwendet werden.

Um ein tieferes Verständnis dieses Problems zu erlangen, ist es wichtig, sich mit der Mechanik von KI-Tools zu befassen, die auf generativen vorab trainierten Modellen (GPT) basieren. Diese Tools basieren auf großen Sprachmodellen (LLMs), die häufig auf öffentlich zugänglichen Internetinhalten trainiert werden, darunter Bücher, Dissertationen und Kunstwerke. In einigen Fällen bedeutet dies, dass sie auf proprietäre Daten oder potenziell illegale Quellen im Dark Web zugegriffen haben.

Diese KI-Modelle lernen und generieren Inhalte, indem sie Muster in den riesigen Datenmengen analysieren, die sie täglich verbrauchen, sodass es sehr wahrscheinlich ist, dass ihre Ausgabe nicht ganz original ist. Das Versäumnis, Plagiate zu erkennen, stellt ein großes Risiko für den Ruf einer Marke dar und führt auch zu rechtlichen Konsequenzen, wenn ein Mitarbeiter diese Daten verwendet.

Tatsächlich hat Sarah Silverman eine aktive Klage gegen ChatGPT eingereicht, weil sie Zusammenfassungen aus ihrem Buch aufgenommen und bereitgestellt hat, obwohl es für die Öffentlichkeit nicht kostenlos ist. Auch andere bekannte Autoren wie George RR Martin und John Grisham verklagen die Muttergesellschaft OpenAI wegen Urheberrechtsverletzung. Angesichts dieser Vorfälle und künftiger Auswirkungen hat die US-amerikanische Federal Trade Commission einen Präzedenzfall geschaffen, indem sie Unternehmen dazu zwingt, ihre auf skrupellose Weise gesammelten KI-Daten zu löschen.

Ein weiteres großes Problem bei generativer KI wie ChatGPT besteht darin, dass sie alte Daten verwendet, was zu einer ungenauen Ausgabe führt. Wenn sich in den Bereichen, in denen Sie mit KI forschen, kürzlich geändert hat, ist die Wahrscheinlichkeit hoch, dass das Tool diese Informationen übersehen hat, da es keine Zeit gehabt hätte, die neuen Daten zu integrieren. Da diese Modelle Zeit brauchen, um sich an neue Informationen zu gewöhnen, übersehen sie möglicherweise die neu hinzugefügten Informationen. Dies ist schwerer zu erkennen als etwas völlig Ungenaues.

Um diese Herausforderung zu meistern, sollten Sie über ein internes KI-Nutzungsframework verfügen, das Szenarien spezifiziert, in denen Plagiate und Genauigkeitsprüfungen bei der Verwendung generativer KI erforderlich sind. Dieser Ansatz ist besonders hilfreich, wenn der KI-Einsatz skaliert und auch in die größere Organisation integriert wird.

Wie bei allen innovativen Dingen gibt es Risiken. Aber sie können durch einen durchdachten, bewussten Ansatz sicher bewältigt werden.

Wofür sich Marketingleiter in einer KI-Nutzungsrichtlinie einsetzen sollten

Während sich KI-Tools weiterentwickeln und intuitiver werden, wird eine umfassende KI-Nutzungsrichtlinie die Verantwortlichkeit und Verantwortung in allen Bereichen gewährleisten. Sogar die Federal Trade Commission (FTC) hat kein Blatt vor den Mund genommen und KI-Anbieter ermahnt, ethisches Marketing zu betreiben, um zu verhindern, dass sie zu viel versprechen.

Jetzt ist es für Führungskräfte an der Zeit, einen grundlegenden Rahmen für die strategische Integration von KI in ihren Technologie-Stack zu schaffen. Hier sind einige praktische Faktoren, die es zu berücksichtigen gilt.

Eine Datenvisualisierungskarte, die auflistet, wofür sich Marketingleiter in einer KI-Nutzungsrichtlinie einsetzen sollten. Die Liste umfasst Verantwortlichkeit und Governance, geplante Umsetzung, klare Anwendungsfälle, geistige Eigentumsrechte und Offenlegungsdetails.

Rechenschaftspflicht und Governance

Ihre Unternehmensrichtlinie zur KI-Nutzung muss die Rollen und Verantwortlichkeiten der Personen oder Teams, die im Unternehmen mit der KI-Governance und -Verantwortung betraut sind, klar beschreiben. Zu den Aufgaben sollte die Durchführung regelmäßiger Audits gehören, um sicherzustellen, dass KI-Systeme allen Lizenzen entsprechen und ihre beabsichtigten Ziele erreichen. Es ist auch wichtig, die Richtlinie regelmäßig durchzulesen, damit Sie über neue Entwicklungen in der Branche, einschließlich der möglicherweise geltenden Gesetze und Gesetze, auf dem Laufenden sind.

Die KI-Richtlinie sollte auch als Leitfaden für die Schulung der Mitarbeiter dienen und die Risiken der Eingabe persönlicher, vertraulicher oder geschützter Informationen in ein KI-Tool erläutern. Es sollten auch die Risiken einer unklugen Verwendung von KI-Ergebnissen erörtert werden, wie etwa die wörtliche Veröffentlichung von KI-Ergebnissen, das Verlassen auf KI für Ratschläge zu komplexen Themen oder das Versäumnis, KI-Ergebnisse ausreichend auf Plagiate zu prüfen.

Geplante Umsetzung

Eine intelligente Möglichkeit, Datenschutz- und Urheberrechtsrisiken zu mindern, besteht darin, KI-Tools schrittweise im gesamten Unternehmen einzuführen. Wie Rispin es ausdrückt: „Wir müssen bewusster und vorsichtiger beim Einsatz von KI vorgehen.“ Sie möchten sicherstellen, dass Sie bei der Einführung regelmäßig und in begrenztem Umfang vorgehen und beobachten, was Sie zu tun versuchen.“ Durch die schrittweise Implementierung von KI in einer kontrollierten Umgebung können Sie die Nutzung überwachen und Probleme proaktiv bewältigen, was später eine reibungslosere Implementierung in größerem Maßstab ermöglicht.

Dies ist besonders wichtig, da KI-Tools auch Markeneinblicke liefern, die für organisationsübergreifende Teams wichtig sind, etwa zum Kundenerlebnis und zum Produktmarketing. Durch die strategische Einführung von KI können Sie deren Effizienz sicher auf diese multifunktionalen Teams ausweiten und gleichzeitig Hindernisse effektiver beseitigen.

Klare Anwendungsfälle

In Ihrer internen KI-Nutzungsrichtlinie sollten alle lizenzierten KI-Tools aufgeführt sein, die zur Nutzung zugelassen sind. Definieren Sie den Zweck und Umfang ihrer Nutzung klar und nennen Sie konkrete Anwendungsfälle. Dokumentieren Sie beispielsweise Beispiele dafür, welche Aufgaben ein geringes Risiko oder ein hohes Risiko darstellen und welche vollständig vermieden werden sollten.

Aufgaben mit geringem Risiko, die Ihrer Marke wahrscheinlich nicht schaden, könnten so aussehen, als würde das Social-Media-Team generative KI nutzen, um ansprechendere Beiträge oder Bildunterschriften zu verfassen. Oder Kundenservice-Teams nutzen KI-gestützte Kopien für personalisiertere Antworten.

In ähnlicher Weise sollte die KI-Nutzungsrichtlinie Beispiele mit hohem Risiko angeben, bei denen der Einsatz generativer KI eingeschränkt werden sollte, wie etwa die Bereitstellung von Rechts- oder Marketingberatung, Kundenkommunikation, Produktpräsentationen oder die Erstellung von Marketingmaterialien mit vertraulichen Informationen.

„Sie sollten es sich zweimal überlegen, ob Sie es Leuten zur Verfügung stellen, deren Aufgabe es ist, mit Informationen umzugehen, die Sie niemals extern teilen könnten, wie zum Beispiel Ihrem Kundenteam oder Ihrem Technikteam. Aber Sie sollten nicht einfach alles oder nichts tun. Das ist eine Verschwendung, denn Marketingteams, sogar Rechtsteams und Erfolgsteams, haben im Grunde viele Backoffice-Funktionen – ihre Produktivität kann durch den Einsatz von KI-Tools wie ChatGPT beschleunigt werden“, erklärt Rispin.

Rechte an geistigem Eigentum

Angesichts der wachsenden Kapazität generativer KI und der Notwendigkeit, komplexe Inhalte schnell zu produzieren, sollte die KI-Nutzungsrichtlinie Ihres Unternehmens die Bedrohung der Rechte an geistigem Eigentum klar ansprechen. Dies ist von entscheidender Bedeutung, da der Einsatz generativer KI zur Entwicklung von nach außen gerichtetem Material wie Berichten und Erfindungen dazu führen kann, dass die Vermögenswerte nicht urheberrechtlich geschützt oder patentiert werden können.

„Angenommen, Sie haben drei Jahre in Folge einen wertvollen Branchenbericht veröffentlicht und entscheiden sich im vierten Jahr, den Bericht mithilfe generativer KI zu erstellen. In einem solchen Szenario haben Sie keinen Anspruch auf ein Urheberrecht an diesem neuen Bericht, da er ohne größere menschliche Beteiligung erstellt wurde. Dasselbe würde für KI-generierte Kunst oder Softwarecode gelten“, bemerkt Rispin.

Eine weitere Überlegung ist die Verwendung generativer KI-Konten auf Unternehmensebene mit dem Unternehmen als Administrator und den Mitarbeitern als Benutzern. Dadurch kann das Unternehmen wichtige Datenschutz- und Informationsaustauscheinstellungen steuern, die das rechtliche Risiko verringern. Wenn Sie beispielsweise bestimmte Arten des Informationsaustauschs mit ChatGPT deaktivieren, verringert sich das Risiko des Verlusts wertvoller geistiger Eigentumsrechte.

Offenlegungsdetails

Ebenso muss Ihre KI-Nutzungsrichtlinie sicherstellen, dass Vermarkter gegenüber externen Zielgruppen offenlegen, dass sie KI-generierte Inhalte verwenden. Die Europäische Kommission hält dies für einen sehr wichtigen Aspekt des verantwortungsvollen und ethischen Einsatzes generativer KI. In den USA hat der Gesetzentwurf zum AI Disclosure Act von 2023 diese Anforderung weiter verfestigt und besagt, dass jede Ausgabe von KI einen Haftungsausschluss enthalten muss. Diese Gesetzgebung beauftragt die FTC mit der Durchsetzung.

Social-Media-Plattformen wie Instagram implementieren bereits Möglichkeiten, Benutzer durch Labels und Wasserzeichen über von KI generierte Inhalte zu informieren. Das generative KI-Tool von Google, Imagen, bettet jetzt mithilfe von SynthID auch digitale Wasserzeichen in KI-generierte Texte und Bilder ein. Die Technologie bettet Wasserzeichen direkt in Bildpixel ein, sodass sie zur Identifizierung erkennbar, für das menschliche Auge jedoch nicht wahrnehmbar sind. Dies bedeutet, dass Beschriftungen auch durch hinzugefügte Filter oder geänderte Farben nicht verändert werden können.

Integrieren Sie KI strategisch und sicher

Der zunehmende Einsatz von KI im Marketing ist unbestreitbar, ebenso wie die potenziellen Risiken und Bedenken hinsichtlich der Markensicherheit, die sich aus dem Fehlen klar definierter Richtlinien ergeben. Nutzen Sie diese praktischen Tipps, um eine effektive KI-Nutzungsrichtlinie zu erstellen, die es Ihnen ermöglicht, die Vorteile von KI-Tools strategisch und sicher für intelligentere Arbeitsabläufe und intelligente Entscheidungsfindung zu nutzen.

Erfahren Sie mehr darüber, wie Marketingleiter weltweit KI und ML nutzen, um die geschäftliche Wirkung zu steigern.

HAFTUNGSAUSSCHLUSS

Die in diesem Artikel bereitgestellten Informationen stellen keine formelle Rechtsberatung dar und sind auch nicht als solche gedacht. Alle Informationen, Inhalte, Punkte und Materialien dienen allgemeinen Informationszwecken. Die Informationen auf dieser Website stellen möglicherweise nicht die aktuellsten rechtlichen oder sonstigen Informationen dar. Die Einbeziehung der in diesem Artikel bereitgestellten Richtlinien garantiert nicht, dass Ihr rechtliches Risiko verringert wird. Leser dieses Artikels sollten sich an ihre Rechtsabteilung oder ihren Anwalt wenden, um Rat in Bezug auf eine bestimmte Rechtsangelegenheit einzuholen, und davon absehen, auf der Grundlage der Informationen in diesem Artikel zu handeln, ohne zuvor unabhängigen Rechtsrat einzuholen. Durch die Nutzung und den Zugriff auf diesen Artikel oder die auf der Website enthaltenen Links oder Ressourcen entsteht kein Anwalt-Mandanten-Verhältnis zwischen dem Leser, Benutzer oder Browser und etwaigen Mitwirkenden. Die von den Mitwirkenden dieses Artikels geäußerten Ansichten sind ihre eigenen und spiegeln nicht die Ansichten von Sprout Social wider. Jegliche Haftung in Bezug auf Maßnahmen, die auf Grundlage des Inhalts dieses Artikels ergriffen oder unterlassen werden, wird hiermit ausdrücklich abgelehnt.