كيفية صياغة سياسة استخدام فعالة للذكاء الاصطناعي للتسويق
نشرت: 2023-09-26التكنولوجيا، مثل الفن، تثير المشاعر وتثير الأفكار والمناقشات. إن ظهور الذكاء الاصطناعي (AI) في التسويق ليس استثناءً. في حين أن الملايين متحمسون لتبني الذكاء الاصطناعي لتحقيق قدر أكبر من السرعة والمرونة داخل مؤسساتهم، إلا أن هناك آخرين ما زالوا متشككين - وهو أمر شائع جدًا في المراحل الأولى من دورات اعتماد التكنولوجيا.
في الواقع، يعكس هذا النمط الأيام الأولى للحوسبة السحابية عندما بدت التكنولوجيا وكأنها منطقة مجهولة. لم تكن معظم الشركات متأكدة من التكنولوجيا الرائدة، إذ كانت قلقة بشأن أمن البيانات ومتطلبات الامتثال. وقفز آخرون على العربة دون فهم حقيقي لتعقيدات الهجرة أو التكاليف المرتبطة بها. ومع ذلك، اليوم، أصبحت الحوسبة السحابية منتشرة في كل مكان. لقد تطورت لتصبح قوة تحويلية، من تسهيل العمل عن بعد إلى بث الترفيه.
مع تقدم التكنولوجيا بسرعة مذهلة وإدراك القادة لقيمة الذكاء الاصطناعي في ابتكار الأعمال والقدرة التنافسية، أصبحت صياغة سياسة استخدام الذكاء الاصطناعي على مستوى المؤسسة أمرًا في غاية الأهمية. في هذه المقالة، نسلط الضوء على أهمية الوقت في إنشاء إطار استخدام داخلي محدد جيدًا للذكاء الاصطناعي والعناصر المهمة التي يجب على القادة أخذها في الاعتبار.
يرجى ملاحظة: المعلومات المقدمة في هذه المقالة لا تشكل، وليس المقصود منها، أن تشكل مشورة قانونية رسمية. يرجى مراجعة إخلاء المسؤولية الكامل قبل قراءة المزيد.
لماذا تحتاج المؤسسات إلى سياسة استخدام الذكاء الاصطناعي
يستثمر المسوقون بالفعل في الذكاء الاصطناعي لزيادة الكفاءة. في الواقع، يُظهر تقرير حالة المجتمع 2023 أن 96% من القادة يعتقدون أن قدرات الذكاء الاصطناعي والتعلم الآلي (ML) يمكن أن تساعدهم على تحسين عمليات صنع القرار بشكل كبير. ويهدف 93% منهم أيضًا إلى زيادة استثمارات الذكاء الاصطناعي لتوسيع نطاق وظائف خدمة العملاء في السنوات الثلاث المقبلة. من المرجح أن تتمتع العلامات التجارية التي تتبنى أدوات الذكاء الاصطناعي بنشاط بميزة أكبر على أولئك المترددين.
ونظرًا لهذا المسار التصاعدي الحاد في اعتماد الذكاء الاصطناعي، فمن الضروري أيضًا معالجة المخاطر التي تواجهها العلامات التجارية عندما لا تكون هناك إرشادات داخلية واضحة لاستخدام الذكاء الاصطناعي. لإدارة هذه المخاطر بشكل فعال، يجب أن تتمحور سياسة استخدام الذكاء الاصطناعي في الشركة حول ثلاثة عناصر رئيسية:
مخاطر البائع
قبل دمج أي من موردي الذكاء الاصطناعي في سير عملك، من المهم أن تقوم فرق تكنولوجيا المعلومات والامتثال القانوني في شركتك بإجراء عملية تدقيق شاملة. وذلك لضمان التزام البائعين باللوائح الصارمة، والامتثال للتراخيص مفتوحة المصدر والحفاظ على التكنولوجيا الخاصة بهم بشكل مناسب.
مدير Sprout، المستشار العام المساعد، مايكل ريسبين، يقدم رؤيته حول هذا الموضوع. "عندما تقول إحدى الشركات أن لديها إحدى ميزات الذكاء الاصطناعي، يجب عليك أن تسألها: كيف يمكنك تشغيل هذه الميزة؟ ما هي الطبقة التأسيسية؟
من المهم أيضًا إيلاء اهتمام دقيق للشروط والأحكام (T&C) نظرًا لأن الوضع فريد من نوعه في حالة بائعي الذكاء الاصطناعي. "ستحتاج إلى إلقاء نظرة فاحصة ليس فقط على الشروط والأحكام الخاصة بمورد الذكاء الاصطناعي الخاص بك ولكن أيضًا على أي ذكاء اصطناعي تابع لجهة خارجية يستخدمونه لتشغيل حلولهم لأنك ستخضع للشروط والأحكام الخاصة بكل منهما. على سبيل المثال، يستخدم Zoom OpenAI للمساعدة في تعزيز قدرات الذكاء الاصطناعي الخاصة به.
خفف من هذه المخاطر من خلال ضمان التعاون الوثيق بين الفرق القانونية والمديرين الوظيفيين وفرق تكنولوجيا المعلومات لديك بحيث يختارون أدوات الذكاء الاصطناعي المناسبة للموظفين ويضمنون فحص البائعين عن كثب.
مخاطر إدخال الذكاء الاصطناعي
تعمل أدوات الذكاء الاصطناعي التوليدية على تسريع العديد من الوظائف مثل كتابة النصوص والتصميم وحتى البرمجة. يستخدم العديد من الموظفين بالفعل أدوات الذكاء الاصطناعي المجانية كمتعاونين لإنشاء محتوى أكثر تأثيرًا أو العمل بكفاءة أكبر. ومع ذلك، فإن أحد أكبر التهديدات لحقوق الملكية الفكرية ينشأ من إدخال البيانات في أدوات الذكاء الاصطناعي دون إدراك العواقب، كما أدرك أحد موظفي سامسونج بعد فوات الأوان.
يقول ريسبين فيما يتعلق بتسريب بيانات سامسونج مؤخرًا: "ربما فقدوا (سامسونج) حماية قانونية كبيرة لهذه المعلومة". "عندما تضع شيئًا ما في ChatGPT، فإنك ترسل البيانات إلى خارج الشركة. إن القيام بذلك يعني أن الأمر لم يعد سراً من الناحية الفنية، وقد يؤدي ذلك إلى تعريض حقوق الملكية الفكرية للشركة للخطر.
يساعد تثقيف الموظفين حول المخاطر المرتبطة وحالات الاستخدام المحددة بوضوح للمحتوى الناتج عن الذكاء الاصطناعي في تخفيف هذه المشكلة. بالإضافة إلى ذلك، فهو يعزز بشكل آمن الكفاءة التشغيلية عبر المؤسسة.
مخاطر مخرجات الذكاء الاصطناعي
على غرار مخاطر الإدخال، تشكل المخرجات من أدوات الذكاء الاصطناعي تهديدًا خطيرًا إذا تم استخدامها دون التحقق من الدقة أو الانتحال.
للحصول على فهم أعمق لهذه المشكلة، من المهم التعمق في آليات أدوات الذكاء الاصطناعي المدعومة بالنماذج التوليدية المدربة مسبقًا (GPT). تعتمد هذه الأدوات على نماذج اللغات الكبيرة (LLMs) التي يتم تدريبها بشكل متكرر على محتوى الإنترنت المتاح للجمهور، بما في ذلك الكتب والرسائل العلمية والأعمال الفنية. في بعض الحالات، يعني هذا أنهم تمكنوا من الوصول إلى بيانات خاصة أو مصادر يحتمل أن تكون غير قانونية على الويب المظلم.
تتعلم نماذج الذكاء الاصطناعي هذه وتولد المحتوى من خلال تحليل الأنماط في الكم الهائل من البيانات التي تستهلكها يوميًا، مما يجعل من المحتمل جدًا ألا تكون مخرجاتها أصلية تمامًا. يشكل إهمال الكشف عن الانتحال خطرًا كبيرًا على سمعة العلامة التجارية، مما يؤدي أيضًا إلى عواقب قانونية، إذا استخدم الموظف تلك البيانات.
في الواقع، هناك دعوى قضائية نشطة رفعتها سارة سيلفرمان ضد ChatGPT لاستيعاب وتقديم ملخصات من كتابها على الرغم من أنه ليس مجانيًا للعامة. قام مؤلفون مشهورون آخرون مثل جورج آر آر مارتن وجون غريشام أيضًا بمقاضاة الشركة الأم، OpenAI، بسبب انتهاك حقوق الطبع والنشر. وبالنظر إلى هذه الحالات والتداعيات المستقبلية، فقد شكلت لجنة التجارة الفيدرالية الأمريكية سابقة من خلال إجبار الشركات على حذف بيانات الذكاء الاصطناعي الخاصة بها والتي تم جمعها من خلال وسائل لا ضمير لها.
هناك مشكلة رئيسية أخرى تتعلق بالذكاء الاصطناعي التوليدي مثل ChatGPT وهي أنه يستخدم بيانات قديمة، مما يؤدي إلى نتائج غير دقيقة. إذا كان هناك تغيير حديث في المجالات التي تبحث فيها باستخدام الذكاء الاصطناعي، فهناك احتمال كبير أن الأداة قد تجاهلت تلك المعلومات لأنه لم يكن لديها الوقت لدمج البيانات الجديدة. وبما أن هذه النماذج تستغرق وقتًا لتدريب نفسها على المعلومات الجديدة، فإنها قد تتجاهل المعلومات المضافة حديثًا. وهذا أصعب من اكتشاف شيء غير دقيق على الإطلاق.
لمواجهة هذه التحديات، يجب أن يكون لديك إطار عمل داخلي لاستخدام الذكاء الاصطناعي يحدد السيناريوهات التي تكون فيها عمليات الانتحال والدقة ضرورية عند استخدام الذكاء الاصطناعي التوليدي. يعد هذا النهج مفيدًا بشكل خاص عند توسيع نطاق استخدام الذكاء الاصطناعي ودمجه في المؤسسة الأكبر أيضًا.
كما هو الحال في كل الأشياء المبتكرة، هناك مخاطر موجودة. ولكن يمكن التنقل فيها بأمان من خلال نهج مدروس ومتعمد.
ما الذي يجب على قادة التسويق الدفاع عنه في سياسة استخدام الذكاء الاصطناعي
ومع تطور أدوات الذكاء الاصطناعي وأصبحت أكثر سهولة، فإن سياسة استخدام الذكاء الاصطناعي الشاملة ستضمن المساءلة والمسؤولية في جميع المجالات. حتى لجنة التجارة الفيدرالية (FTC) لم تلتزم بأي كلمات، وحذرت بائعي الذكاء الاصطناعي من ممارسة التسويق الأخلاقي في محاولة لمنعهم من المبالغة في تقديم القدرات.
الآن هو الوقت المناسب للقادة لبدء إطار عمل تأسيسي لدمج الذكاء الاصطناعي بشكل استراتيجي في مجموعتهم التكنولوجية. فيما يلي بعض العوامل العملية التي يجب مراعاتها.
المساءلة والحوكمة
يجب أن تصف سياسة استخدام الذكاء الاصطناعي في شركتك بوضوح أدوار ومسؤوليات الأفراد أو الفرق المكلفة بحوكمة الذكاء الاصطناعي والمساءلة في الشركة. يجب أن تشمل المسؤوليات تنفيذ عمليات تدقيق منتظمة للتأكد من امتثال أنظمة الذكاء الاصطناعي لجميع التراخيص وتحقيق أهدافها المقصودة. ومن المهم أيضًا إعادة النظر في السياسة بشكل متكرر حتى تكون مطلعًا على التطورات الجديدة في الصناعة، بما في ذلك التشريعات والقوانين التي قد تكون قابلة للتطبيق.
يجب أن تكون سياسة الذكاء الاصطناعي أيضًا بمثابة دليل لتثقيف الموظفين، وشرح مخاطر إدخال المعلومات الشخصية أو السرية أو الملكية في أداة الذكاء الاصطناعي. وينبغي لها أيضًا مناقشة مخاطر استخدام مخرجات الذكاء الاصطناعي بشكل غير حكيم، مثل النشر الحرفي لمخرجات الذكاء الاصطناعي، أو الاعتماد على الذكاء الاصطناعي للحصول على المشورة بشأن مواضيع معقدة، أو الفشل في مراجعة مخرجات الذكاء الاصطناعي بشكل كافٍ بحثًا عن الانتحال.
التنفيذ المخطط له
تتمثل إحدى الطرق الذكية للتخفيف من مخاطر خصوصية البيانات وحقوق الطبع والنشر في تقديم أدوات الذكاء الاصطناعي عبر المؤسسة بطريقة تدريجية. وكما يقول ريسبين: "نحن بحاجة إلى أن نكون أكثر تعمداً، وأكثر حذراً بشأن كيفية استخدامنا للذكاء الاصطناعي. أنت تريد التأكد من أنه عند طرحه، فإنك تفعل ذلك بشكل دوري وبطريقة محدودة وتراقب ما تحاول القيام به. يمكّنك تطبيق الذكاء الاصطناعي تدريجيًا في بيئة خاضعة للرقابة من مراقبة الاستخدام وإدارة حالات الفواق بشكل استباقي، مما يتيح تنفيذًا أكثر سلاسة على نطاق أوسع لاحقًا.
وهذا مهم بشكل خاص لأن أدوات الذكاء الاصطناعي توفر أيضًا رؤى العلامة التجارية الحيوية للفرق عبر المؤسسات مثل تجربة العملاء وتسويق المنتجات. ومن خلال تقديم الذكاء الاصطناعي بشكل استراتيجي، يمكنك توسيع كفاءاته لتشمل هذه الفرق متعددة الوظائف بأمان مع معالجة العوائق بشكل أكثر فعالية.
مسح حالات الاستخدام
يجب أن تدرج سياسة استخدام الذكاء الاصطناعي الداخلية الخاصة بك جميع أدوات الذكاء الاصطناعي المرخصة المعتمدة للاستخدام. حدد بوضوح غرض ونطاق استخدامها، مع الإشارة إلى حالات استخدام محددة. على سبيل المثال، توثيق أمثلة للمهام منخفضة المخاطر أو عالية المخاطر والتي يجب تجنبها تمامًا.
قد تبدو المهام منخفضة المخاطر التي من غير المحتمل أن تضر بعلامتك التجارية مثل فريق وسائل التواصل الاجتماعي الذي يستخدم الذكاء الاصطناعي المنتج لصياغة منشورات أو تسميات توضيحية أكثر جاذبية. أو تستخدم فرق خدمة العملاء نسخة مدعومة بالذكاء الاصطناعي للحصول على استجابات أكثر تخصيصًا.
وعلى نفس المنوال، يجب أن تحدد سياسة استخدام الذكاء الاصطناعي أمثلة عالية المخاطر حيث يجب تقييد استخدام الذكاء الاصطناعي التوليدي، مثل تقديم المشورة القانونية أو التسويقية، أو اتصالات العملاء، أو العروض التقديمية للمنتج، أو إنتاج أصول تسويقية تحتوي على معلومات سرية.
"أنت تريد أن تفكر مرتين قبل طرحه للأشخاص الذين تتمثل مهمتهم في التعامل مع المعلومات التي لا يمكنك مشاركتها خارجيًا، مثل فريق العملاء أو الفريق الهندسي. ولكن لا ينبغي عليك أن تفعل كل شيء أو لا شيء. وهذا يعتبر مضيعة لأن فرق التسويق، وحتى الفرق القانونية وفرق النجاح، لديها الكثير من وظائف المكتب الخلفي بشكل أساسي - يمكن تسريع إنتاجيتها باستخدام أدوات الذكاء الاصطناعي مثل ChatGPT،" يوضح ريسبين.
حقوق الملكية الفكرية
بالنظر إلى القدرة المتزايدة للذكاء الاصطناعي التوليدي والحاجة إلى إنتاج محتوى معقد بسرعة، يجب أن تعالج سياسة استخدام الذكاء الاصطناعي في شركتك بوضوح التهديد الذي تتعرض له حقوق الملكية الفكرية. يعد هذا أمرًا بالغ الأهمية لأن استخدام الذكاء الاصطناعي التوليدي لتطوير المواد الخارجية، مثل التقارير والاختراعات، قد يعني أنه لا يمكن حماية حقوق الطبع والنشر للأصول أو الحصول على براءة اختراع.
"لنفترض أنك نشرت تقريرًا قيمًا عن الصناعة لمدة ثلاث سنوات متتالية، وفي السنة الرابعة قررت إنتاج التقرير باستخدام الذكاء الاصطناعي التوليدي. في مثل هذا السيناريو، ليس لديك مجال للحصول على حقوق الطبع والنشر لهذا التقرير الجديد لأنه تم إنتاجه دون أي مشاركة بشرية كبيرة. وينطبق الشيء نفسه على الفن أو الكود البرمجي الناتج عن الذكاء الاصطناعي.
هناك اعتبار آخر وهو استخدام حسابات الذكاء الاصطناعي التوليدية على مستوى المؤسسة مع الشركة كمسؤول والموظفين كمستخدمين. يتيح ذلك للشركة التحكم في إعدادات الخصوصية ومشاركة المعلومات المهمة التي تقلل المخاطر القانونية. على سبيل المثال، سيؤدي تعطيل أنواع معينة من مشاركة المعلومات مع ChatGPT إلى تقليل مخاطر فقدان حقوق الملكية الفكرية القيمة.
تفاصيل الإفصاح
وبالمثل، يجب أن تضمن سياسة استخدام الذكاء الاصطناعي الخاصة بك أن يكشف المسوقون عن أنهم يستخدمون المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لجماهير خارجية. تعتبر المفوضية الأوروبية هذا جانبًا مهمًا جدًا للاستخدام المسؤول والأخلاقي للذكاء الاصطناعي التوليدي. في الولايات المتحدة، عزز قانون الإفصاح عن الذكاء الاصطناعي لعام 2023 هذا المطلب، حيث يجب أن يتضمن الحفاظ على أي مخرجات من الذكاء الاصطناعي إخلاء المسؤولية. يكلف هذا التشريع لجنة التجارة الفيدرالية بالإنفاذ.
تنفذ منصات الوسائط الاجتماعية مثل Instagram بالفعل طرقًا لإعلام المستخدمين بالمحتوى الناتج عن الذكاء الاصطناعي من خلال الملصقات والعلامات المائية. تقوم أداة الذكاء الاصطناعي التوليدية من Google، Imagen، أيضًا بتضمين علامات مائية رقمية على النسخ والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي باستخدام SynthID. تقوم هذه التقنية بدمج العلامات المائية مباشرة في بكسلات الصورة، مما يجعلها قابلة للاكتشاف لتحديد الهوية ولكنها غير محسوسة للعين البشرية. وهذا يعني أنه لا يمكن تغيير التسميات حتى مع إضافة مرشحات أو ألوان متغيرة.
دمج الذكاء الاصطناعي بشكل استراتيجي وآمن
لا يمكن إنكار الاعتماد المتزايد للذكاء الاصطناعي في التسويق، وكذلك المخاطر المحتملة والمخاوف المتعلقة بسلامة العلامة التجارية التي تنشأ في غياب مبادئ توجيهية محددة جيدًا. استخدم هذه النصائح العملية لبناء سياسة فعالة لاستخدام الذكاء الاصطناعي تمكنك من الاستفادة بشكل استراتيجي وآمن من فوائد أدوات الذكاء الاصطناعي من أجل سير عمل أكثر ذكاءً واتخاذ قرارات ذكية.
تعرف على المزيد حول كيفية تعامل قادة التسويق في جميع أنحاء العالم مع الذكاء الاصطناعي والتعلم الآلي لتعزيز تأثير الأعمال.
تنصل
المعلومات المقدمة في هذه المقالة لا تشكل، وليس المقصود منها، أن تشكل مشورة قانونية رسمية؛ جميع المعلومات والمحتوى والنقاط والمواد هي لأغراض إعلامية عامة. قد لا تشكل المعلومات الواردة في هذا الموقع أحدث المعلومات القانونية أو غيرها من المعلومات. إن دمج أي إرشادات منصوص عليها في هذه المقالة لا يضمن تقليل المخاطر القانونية التي تواجهك. يجب على قراء هذه المقالة الاتصال بفريقهم القانوني أو محاميهم للحصول على المشورة فيما يتعلق بأي مسألة قانونية معينة ويجب عليهم الامتناع عن التصرف على أساس المعلومات الواردة في هذه المقالة دون طلب مشورة قانونية مستقلة أولاً. لا يؤدي استخدام هذه المقالة أو الوصول إليها أو أي من الروابط أو الموارد الموجودة داخل الموقع إلى إنشاء علاقة بين المحامي وموكله بين القارئ أو المستخدم أو المتصفح وأي مساهمين. الآراء التي عبر عنها أي مساهم في هذه المقالة هي آراء خاصة بهم ولا تعكس آراء Sprout Social. يتم التنازل صراحةً عن جميع المسؤوليات فيما يتعلق بالإجراءات المتخذة أو التي لم يتم اتخاذها بناءً على محتويات هذه المقالة.