Cara menyusun kebijakan penggunaan AI yang efektif untuk pemasaran
Diterbitkan: 2023-09-26Teknologi, seperti seni, membangkitkan emosi dan memicu ide serta diskusi. Tidak terkecuali munculnya kecerdasan buatan (AI) dalam pemasaran. Meskipun jutaan orang antusias menggunakan AI untuk mencapai kecepatan dan kelincahan yang lebih baik dalam organisasi mereka, ada juga orang lain yang tetap skeptis—hal ini merupakan hal yang umum terjadi pada fase awal siklus adopsi teknologi.
Faktanya, pola ini mencerminkan masa-masa awal komputasi awan ketika teknologinya terasa seperti wilayah yang belum dipetakan. Sebagian besar perusahaan tidak yakin dengan teknologi inovatif ini—khawatir tentang keamanan data dan persyaratan kepatuhan. Ada pula yang ikut-ikutan tanpa benar-benar memahami kompleksitas migrasi atau biaya yang terkait. Namun saat ini, komputasi awan ada di mana-mana. Teknologi ini telah berkembang menjadi kekuatan transformatif, mulai dari memfasilitasi pekerjaan jarak jauh hingga hiburan streaming.
Seiring dengan kemajuan teknologi yang sangat pesat dan para pemimpin menyadari nilai AI bagi inovasi dan daya saing bisnis, menyusun kebijakan penggunaan AI di seluruh organisasi menjadi sangat penting. Dalam artikel ini, kami menjelaskan mengapa waktu sangat penting untuk menetapkan kerangka kerja penggunaan AI internal yang terdefinisi dengan baik dan elemen penting yang harus dipertimbangkan oleh para pemimpin.
Harap diperhatikan: Informasi yang diberikan dalam artikel ini bukan, dan tidak dimaksudkan sebagai, nasihat hukum formal. Harap tinjau penafian lengkap kami sebelum membaca lebih jauh.
Mengapa organisasi memerlukan kebijakan penggunaan AI
Pemasar sudah berinvestasi pada AI untuk meningkatkan efisiensi. Faktanya, The State of Social Report 2023 menunjukkan 96% pemimpin percaya bahwa kemampuan AI dan pembelajaran mesin (ML) dapat membantu mereka meningkatkan proses pengambilan keputusan secara signifikan. Sebanyak 93% lainnya juga bertujuan untuk meningkatkan investasi AI guna meningkatkan fungsi layanan pelanggan dalam tiga tahun mendatang. Merek yang secara aktif mengadopsi alat AI kemungkinan besar akan mendapatkan keuntungan lebih besar dibandingkan merek yang ragu-ragu.
Mengingat peningkatan tajam dalam adopsi AI, kita juga perlu mengatasi risiko yang dihadapi merek ketika tidak ada pedoman penggunaan AI internal yang jelas. Untuk mengelola risiko ini secara efektif, kebijakan penggunaan AI di suatu perusahaan harus berpusat pada tiga elemen utama:
Risiko vendor
Sebelum mengintegrasikan vendor AI apa pun ke dalam alur kerja Anda, penting bagi tim TI dan kepatuhan hukum perusahaan Anda untuk melakukan proses pemeriksaan menyeluruh. Hal ini untuk memastikan vendor mematuhi peraturan yang ketat, mematuhi lisensi sumber terbuka, dan memelihara teknologi mereka dengan tepat.
Direktur Sprout, Associate General Counsel, Michael Rispin, memberikan wawasannya mengenai masalah ini. “Setiap kali sebuah perusahaan mengatakan bahwa mereka memiliki fitur AI, Anda harus bertanya kepada mereka—Bagaimana Anda memberdayakannya? Apa lapisan dasarnya?”
Penting juga untuk memperhatikan syarat dan ketentuan (S&K) dengan cermat karena situasinya unik dalam kasus vendor AI. “Anda harus mencermati tidak hanya syarat dan ketentuan vendor AI Anda, tetapi juga AI pihak ketiga mana pun yang mereka gunakan untuk mendukung solusi mereka karena Anda akan tunduk pada S&K keduanya. Misalnya, Zoom menggunakan OpenAI untuk membantu memperkuat kemampuan AI-nya,” tambahnya.
Kurangi risiko ini dengan memastikan kolaborasi yang erat antara tim hukum, manajer fungsional, dan tim TI Anda sehingga mereka memilih alat AI yang tepat untuk karyawan dan memastikan vendor diperiksa secara ketat.
Risiko masukan AI
Alat AI generatif mempercepat beberapa fungsi seperti copywriting, desain, dan bahkan pengkodean. Banyak karyawan yang sudah menggunakan alat AI gratis sebagai kolaborator untuk membuat konten yang lebih berdampak atau untuk bekerja lebih efisien. Namun, salah satu ancaman terbesar terhadap hak kekayaan intelektual (IP) timbul dari memasukkan data ke dalam alat AI tanpa menyadari konsekuensinya, hal yang terlambat disadari oleh karyawan Samsung.
“Mereka (Samsung) mungkin telah kehilangan perlindungan hukum yang besar atas informasi tersebut,” kata Rispin mengenai kebocoran data Samsung baru-baru ini. “Saat Anda memasukkan sesuatu ke ChatGPT, Anda mengirimkan data ke luar perusahaan. Artinya, secara teknis hal ini sudah bukan rahasia lagi dan dapat membahayakan hak kekayaan intelektual perusahaan,” ujarnya mengingatkan.
Mendidik karyawan tentang risiko terkait dan kasus penggunaan yang jelas untuk konten yang dihasilkan AI membantu mengatasi masalah ini. Selain itu, ini secara aman meningkatkan efisiensi operasional di seluruh organisasi.
Risiko keluaran AI
Mirip dengan risiko masukan, keluaran dari alat AI menimbulkan ancaman serius jika digunakan tanpa pemeriksaan keakuratan atau plagiarisme.
Untuk memahami masalah ini lebih dalam, penting untuk mempelajari mekanisme alat AI yang didukung oleh model terlatih generatif (GPT). Alat-alat ini bergantung pada model bahasa besar (LLM) yang sering dilatih pada konten internet yang tersedia untuk umum, termasuk buku, disertasi, dan karya seni. Dalam beberapa kasus, ini berarti mereka telah mengakses data kepemilikan atau sumber yang berpotensi ilegal di web gelap.
Model AI ini mempelajari dan menghasilkan konten dengan menganalisis pola sejumlah besar data yang dikonsumsi setiap hari, sehingga kemungkinan besar keluarannya tidak sepenuhnya asli. Kelalaian mendeteksi plagiarisme menimbulkan risiko besar terhadap reputasi merek, dan juga menimbulkan konsekuensi hukum, jika karyawan menggunakan data tersebut.
Faktanya, ada gugatan aktif yang diajukan oleh Sarah Silverman terhadap ChatGPT karena menyerap dan memberikan ringkasan dari bukunya meskipun tidak gratis untuk umum. Penulis terkenal lainnya seperti George RR Martin dan John Grisham juga menggugat perusahaan induknya, OpenAI, atas pelanggaran hak cipta. Mempertimbangkan kejadian-kejadian ini dan dampaknya di masa depan, Komisi Perdagangan Federal AS telah menetapkan preseden dengan memaksa perusahaan-perusahaan untuk menghapus data AI mereka yang dikumpulkan melalui cara-cara yang tidak bermoral.
Masalah besar lainnya dengan AI generatif seperti ChatGPT adalah ia menggunakan data lama, sehingga menghasilkan keluaran yang tidak akurat. Jika ada perubahan baru-baru ini di area yang Anda teliti menggunakan AI, kemungkinan besar alat tersebut akan mengabaikan informasi tersebut karena tidak punya waktu untuk memasukkan data baru. Karena model ini memerlukan waktu untuk melatih dirinya sendiri mengenai informasi baru, model tersebut mungkin mengabaikan informasi yang baru ditambahkan. Hal ini lebih sulit dideteksi daripada sesuatu yang sepenuhnya tidak akurat.
Untuk menghadapi tantangan ini, Anda harus memiliki kerangka kerja penggunaan AI internal yang menentukan skenario yang memerlukan pemeriksaan plagiarisme dan akurasi saat menggunakan AI generatif. Pendekatan ini sangat membantu ketika meningkatkan penggunaan AI dan juga mengintegrasikannya ke dalam organisasi yang lebih besar.
Seperti halnya semua hal inovatif, ada risiko yang ada. Namun hal tersebut dapat dinavigasi dengan aman melalui pendekatan yang bijaksana dan disengaja.
Apa yang harus didukung oleh para pemimpin pemasaran dalam kebijakan penggunaan AI
Seiring berkembangnya alat AI dan menjadi lebih intuitif, kebijakan penggunaan AI yang komprehensif akan memastikan akuntabilitas dan tanggung jawab secara menyeluruh. Bahkan Komisi Perdagangan Federal (FTC) tidak berbasa-basi, memperingatkan vendor AI untuk mempraktikkan pemasaran etis dalam upaya menghentikan mereka menjanjikan kemampuan yang berlebihan.
Sekarang adalah waktunya bagi para pemimpin untuk memulai kerangka kerja dasar untuk mengintegrasikan AI secara strategis ke dalam rangkaian teknologi mereka. Berikut adalah beberapa faktor praktis yang perlu dipertimbangkan.
Akuntabilitas dan tata kelola
Kebijakan penggunaan AI perusahaan Anda harus menjelaskan dengan jelas peran dan tanggung jawab individu atau tim yang dipercaya untuk mengelola dan akuntabilitas AI di perusahaan. Tanggung jawabnya harus mencakup penerapan audit rutin untuk memastikan sistem AI mematuhi semua lisensi dan mencapai tujuan yang diharapkan. Penting juga untuk sering meninjau kembali kebijakan tersebut agar Anda selalu mengetahui perkembangan baru dalam industri ini, termasuk undang-undang dan undang-undang yang mungkin berlaku.
Kebijakan AI juga harus berfungsi sebagai panduan untuk mendidik karyawan, menjelaskan risiko memasukkan informasi pribadi, rahasia, atau kepemilikan ke dalam alat AI. Hal ini juga harus membahas risiko penggunaan keluaran AI secara tidak bijaksana, seperti penerbitan keluaran AI secara verbatim, mengandalkan AI untuk memberikan saran mengenai topik yang kompleks, atau kegagalan meninjau keluaran AI secara memadai untuk mengetahui adanya plagiarisme.
Implementasi yang direncanakan
Cara cerdas untuk memitigasi risiko privasi data dan hak cipta adalah dengan memperkenalkan alat AI di seluruh organisasi secara bertahap. Seperti yang dikatakan Rispin, “Kita harus lebih berhati-hati dan berhati-hati dalam menggunakan AI. Anda ingin memastikan ketika Anda meluncurkannya, Anda melakukannya secara berkala dan terbatas dan mengamati apa yang Anda coba lakukan.” Menerapkan AI secara bertahap dalam lingkungan yang terkendali memungkinkan Anda memantau penggunaan dan mengelola gangguan secara proaktif, sehingga memungkinkan penerapan yang lebih lancar dalam skala yang lebih luas di kemudian hari.
Hal ini sangat penting karena alat AI juga memberikan wawasan merek yang penting bagi tim lintas organisasi seperti pengalaman pelanggan dan pemasaran produk. Dengan memperkenalkan AI secara strategis, Anda dapat memperluas efisiensinya ke tim multi-fungsi dengan aman sekaligus mengatasi hambatan dengan lebih efektif.
Hapus kasus penggunaan
Kebijakan penggunaan AI internal Anda harus mencantumkan semua alat AI berlisensi yang disetujui untuk digunakan. Tentukan dengan jelas tujuan dan ruang lingkup penggunaannya, dengan menyebutkan kasus penggunaan tertentu. Misalnya, mendokumentasikan contoh tugas apa yang berisiko rendah atau tinggi dan mana yang harus dihindari sama sekali.
Tugas berisiko rendah yang tidak mungkin merugikan merek Anda mungkin terlihat seperti tim media sosial menggunakan AI generatif untuk menyusun postingan atau teks yang lebih menarik. Atau, tim layanan pelanggan menggunakan salinan yang dibantu AI untuk respons yang lebih personal.
Demikian pula, kebijakan penggunaan AI harus menentukan contoh-contoh berisiko tinggi di mana penggunaan AI generatif harus dibatasi, seperti memberikan nasihat hukum atau pemasaran, komunikasi klien, presentasi produk atau produksi aset pemasaran yang berisi informasi rahasia.
“Anda perlu berpikir dua kali untuk meluncurkannya kepada orang-orang yang tugasnya menangani informasi yang tidak dapat Anda bagikan secara eksternal, seperti tim klien atau tim teknik Anda. Namun Anda tidak boleh hanya melakukan semuanya atau tidak sama sekali. Itu sia-sia karena tim pemasaran, bahkan tim hukum dan tim sukses, pada dasarnya memiliki banyak fungsi back office—produktifitas mereka dapat dipercepat dengan menggunakan alat AI seperti ChatGPT,” jelas Rispin.
Hak kekayaan intelektual
Mengingat meningkatnya kapasitas AI generatif dan kebutuhan untuk menghasilkan konten yang kompleks dengan cepat, kebijakan penggunaan AI di perusahaan Anda harus secara jelas mengatasi ancaman terhadap hak kekayaan intelektual. Hal ini penting karena penggunaan AI generatif untuk mengembangkan materi yang bersifat eksternal, seperti laporan dan penemuan, dapat berarti bahwa aset tersebut tidak dapat dilindungi hak cipta atau dipatenkan.
“Misalnya Anda telah menerbitkan laporan industri yang berharga selama tiga tahun berturut-turut dan pada tahun keempat memutuskan untuk membuat laporan tersebut menggunakan AI generatif. Dalam skenario seperti ini, Anda tidak mempunyai ruang untuk memiliki hak cipta atas laporan baru tersebut karena laporan tersebut dibuat tanpa keterlibatan manusia yang besar. Hal yang sama juga berlaku untuk seni atau kode perangkat lunak yang dihasilkan AI,” catat Rispin.
Pertimbangan lainnya adalah menggunakan akun AI generatif tingkat perusahaan dengan perusahaan sebagai admin dan karyawan sebagai pengguna. Hal ini memungkinkan perusahaan mengontrol privasi penting dan pengaturan berbagi informasi yang mengurangi risiko hukum. Misalnya, menonaktifkan jenis berbagi informasi tertentu dengan ChatGPT akan mengurangi risiko hilangnya hak kekayaan intelektual yang berharga.
Detail pengungkapan
Demikian pula, kebijakan penggunaan AI Anda harus memastikan pemasar mengungkapkan bahwa mereka menggunakan konten yang dihasilkan AI kepada audiens eksternal. Komisi Eropa menganggap ini sebagai aspek yang sangat penting dalam penggunaan AI generatif secara bertanggung jawab dan etis. Di AS, Undang-Undang Pengungkapan AI tahun 2023 semakin memperkuat persyaratan ini, dengan menyatakan bahwa setiap keluaran dari AI harus menyertakan penafian. Undang-undang ini menugaskan FTC untuk melakukan penegakan hukum.
Platform media sosial seperti Instagram sudah menerapkan cara untuk menginformasikan pengguna tentang konten yang dihasilkan oleh AI melalui label dan tanda air. Alat AI generatif Google, Imagen, kini juga menyematkan tanda air digital pada salinan dan gambar yang dihasilkan AI menggunakan SynthID. Teknologi ini menyematkan tanda air langsung ke dalam piksel gambar, membuatnya dapat dideteksi untuk identifikasi namun tidak terlihat oleh mata manusia. Ini berarti label tidak dapat diubah bahkan dengan filter tambahan atau warna yang diubah.
Integrasikan AI secara strategis dan aman
Meningkatnya penerapan AI dalam pemasaran tidak dapat disangkal, begitu pula potensi risiko dan masalah keamanan merek yang muncul jika tidak ada pedoman yang jelas. Gunakan tips praktis ini untuk membangun kebijakan penggunaan AI yang efektif yang memungkinkan Anda memanfaatkan manfaat alat AI secara strategis dan aman untuk alur kerja yang lebih cerdas dan pengambilan keputusan yang cerdas.
Pelajari lebih lanjut cara para pemimpin pemasaran di seluruh dunia melakukan pendekatan terhadap AI dan ML untuk mendorong dampak bisnis.
PENAFIAN
Informasi yang diberikan dalam artikel ini bukan, dan tidak dimaksudkan untuk, merupakan nasihat hukum formal; semua informasi, konten, poin, dan materi adalah untuk tujuan informasi umum. Informasi di situs web ini mungkin bukan informasi hukum atau informasi lainnya yang paling mutakhir. Penggabungan pedoman apa pun yang diberikan dalam artikel ini tidak menjamin bahwa risiko hukum Anda berkurang. Pembaca artikel ini harus menghubungi tim hukum atau pengacara mereka untuk mendapatkan nasihat sehubungan dengan masalah hukum tertentu dan harus menahan diri untuk tidak bertindak berdasarkan informasi dalam artikel ini tanpa terlebih dahulu mencari nasihat hukum independen. Penggunaan dan akses terhadap artikel ini atau tautan atau sumber apa pun yang terkandung dalam situs tidak menciptakan hubungan pengacara-klien antara pembaca, pengguna atau browser dan kontributor mana pun. Pandangan yang diungkapkan oleh kontributor artikel ini adalah milik mereka sendiri dan tidak mencerminkan pandangan Sprout Social. Segala tanggung jawab sehubungan dengan tindakan yang diambil atau tidak diambil berdasarkan isi artikel ini dengan tegas disangkal.