마케팅을 위한 효과적인 AI 사용 정책을 만드는 방법
게시 됨: 2023-09-26예술과 마찬가지로 기술은 감정을 자극하고 아이디어와 토론을 촉발합니다. 마케팅 분야의 인공지능(AI)의 등장도 예외는 아니다. 수백만 명이 조직 내에서 더 빠른 속도와 민첩성을 달성하기 위해 AI를 수용하는 데 열광하고 있지만 회의적인 사람들도 있습니다. 이는 기술 도입 주기의 초기 단계에서 매우 흔한 일입니다.
실제로 이 패턴은 기술이 미지의 영역처럼 느껴졌던 초기 클라우드 컴퓨팅을 반영합니다. 대부분의 기업은 데이터 보안 및 규정 준수 요구 사항에 대한 우려로 획기적인 기술에 대해 확신이 없었습니다. 다른 사람들은 마이그레이션 복잡성이나 관련 비용을 제대로 이해하지 못한 채 시류에 편승했습니다. 그러나 오늘날 클라우드 컴퓨팅은 어디에나 존재합니다. 이는 원격 작업 촉진에서 엔터테인먼트 스트리밍에 이르기까지 변혁적인 힘으로 발전했습니다.
기술이 엄청난 속도로 발전하고 리더들이 비즈니스 혁신과 경쟁력에 대한 AI의 가치를 인식함에 따라 조직 전반의 AI 사용 정책을 수립하는 것이 매우 중요해졌습니다. 이 기사에서는 잘 정의된 내부 AI 사용 프레임워크를 구축하는 데 시간이 중요한 이유와 리더가 이를 고려해야 하는 중요한 요소에 대해 설명합니다.
참고: 이 기사에 제공된 정보는 공식적인 법률 자문을 구성하지 않으며, 그러한 의도도 없습니다. 더 자세히 읽기 전에 면책조항 전문을 검토하시기 바랍니다.
조직에 AI 사용 정책이 필요한 이유
마케팅 담당자들은 효율성을 높이기 위해 이미 AI에 투자하고 있습니다. 실제로 2023년 사회 보고서에 따르면 리더 중 96%가 AI 및 머신러닝(ML) 기능이 의사결정 프로세스를 크게 개선하는 데 도움이 될 수 있다고 믿고 있습니다. 또 다른 93%는 향후 3년 내에 고객 관리 기능을 확장하기 위해 AI 투자를 늘리는 것을 목표로 하고 있습니다. AI 도구를 적극적으로 채택하는 브랜드는 주저하는 브랜드보다 더 큰 이점을 가질 가능성이 높습니다.
AI 채택이 급격히 증가하는 추세를 고려할 때 명확한 내부 AI 사용 지침이 설정되지 않은 경우 브랜드가 직면하는 위험을 해결하는 것도 마찬가지로 필요합니다. 이러한 위험을 효과적으로 관리하려면 기업의 AI 사용 정책이 세 가지 핵심 요소를 중심으로 이루어져야 합니다.
공급업체 위험
AI 공급업체를 워크플로에 통합하기 전에 회사의 IT 및 법률 준수 팀이 철저한 조사 프로세스를 수행하는 것이 중요합니다. 이는 공급업체가 엄격한 규정을 준수하고 오픈 소스 라이선스를 준수하며 기술을 적절하게 유지 관리하도록 하기 위한 것입니다.
Sprout의 이사이자 법무 자문위원인 Michael Rispin이 이 주제에 대한 통찰력을 제공합니다. “회사에서 AI 기능이 있다고 말할 때마다 질문해야 합니다. 이를 어떻게 지원하고 있습니까? 기초 레이어는 무엇입니까?”
AI 벤더의 경우 상황이 독특하기 때문에 이용약관(T&C)에 세심한 주의를 기울이는 것도 중요합니다. “AI 공급업체의 이용 약관뿐만 아니라 솔루션을 강화하는 데 사용하는 제3자 AI도 면밀히 검토해야 합니다. 왜냐하면 두 업체 모두의 T&C가 적용되기 때문입니다. 예를 들어 Zoom은 OpenAI를 사용하여 AI 기능을 강화합니다.”라고 덧붙였습니다.
법무팀, 기능 관리자 및 IT 팀 간의 긴밀한 협력을 보장하여 직원에게 적합한 AI 도구를 선택하고 공급업체를 면밀히 조사함으로써 이러한 위험을 완화하세요.
AI 입력 위험
생성적 AI 도구는 카피라이팅, 디자인, 심지어 코딩과 같은 여러 기능을 가속화합니다. 많은 직원들이 이미 무료 AI 도구를 공동 작업자로 사용하여 보다 영향력 있는 콘텐츠를 만들거나 보다 효율적으로 작업하고 있습니다. 그러나 지적재산권(IP)에 대한 가장 큰 위협 중 하나는 결과를 깨닫지 못한 채 AI 도구에 데이터를 입력하는 데서 발생합니다. 삼성 직원은 너무 늦게 깨달았습니다.
Rispin은 삼성의 최근 데이터 유출에 대해 “그들(삼성)은 해당 정보에 대한 주요 법적 보호를 상실했을 수도 있습니다.”라고 말합니다. “ChatGPT에 무언가를 넣으면 데이터가 회사 외부로 전송됩니다. 그렇게 하면 기술적으로 더 이상 비밀이 아니며 회사의 지적 재산권을 위험에 빠뜨릴 수 있습니다.”라고 그는 경고했습니다.
관련 위험과 AI 생성 콘텐츠의 명확하게 정의된 사용 사례에 대해 직원을 교육하면 이 문제를 완화하는 데 도움이 됩니다. 또한 조직 전체의 운영 효율성을 안전하게 향상시킵니다.
AI 출력 위험
입력 위험과 마찬가지로 AI 도구의 출력도 정확성이나 표절 여부를 확인하지 않고 사용할 경우 심각한 위협이 됩니다.
이 문제를 더 깊이 이해하려면 GPT(Generative Pre-trained Model)를 기반으로 하는 AI 도구의 메커니즘을 자세히 살펴보는 것이 중요합니다. 이러한 도구는 책, 논문, 예술 작품 등 공개적으로 사용 가능한 인터넷 콘텐츠에 대해 자주 훈련되는 LLM(대형 언어 모델)에 의존합니다. 어떤 경우에는 이는 다크 웹의 독점 데이터 또는 잠재적으로 불법인 소스에 액세스했음을 의미합니다.
이러한 AI 모델은 매일 소비하는 방대한 양의 데이터 패턴을 분석하여 콘텐츠를 학습하고 생성하므로 결과가 완전히 독창적이지 않을 가능성이 높습니다. 표절 적발을 소홀히 하면 브랜드 평판에 큰 위험을 초래할 수 있으며, 직원이 해당 데이터를 사용할 경우 법적인 처벌을 받을 수도 있습니다.
실제로 Sarah Silverman은 책이 대중에게 무료가 아님에도 불구하고 자신의 책 요약을 수집하고 제공한 ChatGPT를 상대로 소송을 제기하고 있습니다. George RR Martin과 John Grisham과 같은 다른 유명 작가들도 저작권 침해로 모회사인 OpenAI를 고소하고 있습니다. 미국 연방거래위원회는 이런 사례와 향후 파장을 고려해 기업에 부도덕한 방법으로 수집한 AI 데이터를 삭제하도록 강제하는 선례를 세웠다.
ChatGPT와 같은 생성 AI의 또 다른 주요 문제점은 오래된 데이터를 사용하여 출력이 부정확하다는 것입니다. AI를 활용해 연구 중인 분야에 최근 변화가 있었다면 도구가 새로운 데이터를 통합할 시간이 없었기 때문에 해당 정보를 간과했을 가능성이 높습니다. 이러한 모델은 새로운 정보에 대해 스스로 훈련하는 데 시간이 걸리기 때문에 새로 추가된 정보를 간과할 수 있습니다. 이는 완전히 부정확한 것보다 탐지하기가 더 어렵습니다.
이러한 과제를 해결하려면 생성 AI를 사용할 때 표절 및 정확성 검사가 필요한 시나리오를 지정하는 내부 AI 사용 프레임워크가 있어야 합니다. 이 접근 방식은 AI 사용을 확장하고 이를 대규모 조직에 통합할 때 특히 유용합니다.
모든 혁신적인 것에는 위험이 존재합니다. 그러나 사려 깊고 의도적인 접근 방식을 통해 안전하게 탐색할 수 있습니다.
AI 사용 정책에서 마케팅 리더가 옹호해야 할 사항
AI 도구가 발전하고 더욱 직관적이 됨에 따라 포괄적인 AI 사용 정책은 전반적으로 책임과 책임감을 보장할 것입니다. 연방거래위원회(FTC)조차 AI 벤더들에게 능력을 과도하게 약속하는 것을 막기 위해 윤리적인 마케팅을 실천하라고 경고하면서 아무 말도 하지 않았습니다.
이제는 리더들이 AI를 기술 스택에 전략적으로 통합하기 위한 기본 프레임워크를 시작해야 할 때입니다. 고려해야 할 몇 가지 실제적인 요소는 다음과 같습니다.
책임과 거버넌스
기업 AI 사용 정책은 회사 내 AI 거버넌스와 책임을 맡은 개인이나 팀의 역할과 책임을 명확하게 설명해야 합니다. 책임에는 AI 시스템이 모든 라이선스를 준수하고 의도한 목표를 달성하는지 확인하기 위해 정기적인 감사를 구현하는 것이 포함되어야 합니다. 정책을 자주 재검토하여 적용 가능한 법률 및 법률을 포함하여 업계의 새로운 발전 사항을 최신 상태로 유지하는 것도 중요합니다.
또한 AI 정책은 개인 정보, 기밀 또는 독점 정보를 AI 도구에 입력하는 데 따른 위험을 설명하면서 직원 교육을 위한 지침 역할도 해야 합니다. 또한 AI 출력을 그대로 게시하거나, 복잡한 주제에 대한 조언을 AI에 의존하거나, 표절 여부에 대해 AI 출력을 충분히 검토하지 않는 등 AI 출력을 현명하지 않게 사용할 위험에 대해서도 논의해야 합니다.
계획된 구현
데이터 개인 정보 보호 및 저작권 위험을 완화하는 현명한 방법은 조직 전체에 AI 도구를 단계적으로 도입하는 것입니다. Rispin이 말했듯이 “우리는 AI를 사용하는 방법에 대해 더 의도적이고 더 주의를 기울여야 합니다. 출시할 때는 제한된 방식으로 주기적으로 수행하고 수행하려는 작업을 관찰해야 합니다.” 통제된 환경에서 AI를 점진적으로 구현하면 사용량을 모니터링하고 문제를 사전에 관리할 수 있어 나중에 더 넓은 규모로 더 원활하게 구현될 수 있습니다.
AI 도구는 고객 경험 및 제품 마케팅과 같은 조직 간 팀에 필수적인 브랜드 통찰력도 제공하므로 이는 특히 중요합니다. AI를 전략적으로 도입하면 이러한 다기능 팀의 효율성을 안전하게 확장하는 동시에 장애물을 보다 효과적으로 해결할 수 있습니다.
명확한 사용 사례
내부 AI 사용 정책에는 사용이 승인된 모든 라이선스 AI 도구가 나열되어야 합니다. 구체적인 사용 사례를 인용하여 사용 목적과 범위를 명확하게 정의합니다. 예를 들어 어떤 작업이 위험도가 낮거나 높으며 완전히 피해야 하는지에 대한 예를 문서화합니다.
브랜드에 해를 끼칠 가능성이 낮은 위험도가 낮은 작업은 소셜 미디어 팀이 생성 AI를 사용하여 보다 매력적인 게시물이나 캡션 초안을 작성하는 것처럼 보일 수 있습니다. 또는 보다 개인화된 응답을 위해 AI 지원 카피를 사용하는 고객 서비스 팀.
유사한 맥락에서, AI 사용 정책은 법적 또는 마케팅 조언 제공, 고객 커뮤니케이션, 제품 프레젠테이션 또는 기밀 정보가 포함된 마케팅 자산 생산 등 생성적 AI 사용을 제한해야 하는 고위험 사례를 명시해야 합니다.
“클라이언트 팀이나 엔지니어링 팀처럼 외부와 절대 공유할 수 없는 정보를 처리하는 업무를 맡은 사람들에게 이 기능을 배포하는 것에 대해 다시 한 번 생각해보고 싶습니다. 하지만 그냥 아무것도 하지 않거나 전부만 해서는 안 됩니다. 마케팅 팀, 법무 팀, 성공 팀까지도 기본적으로 많은 백오피스 기능이 있기 때문에 이는 낭비입니다. ChatGPT와 같은 AI 도구를 사용하면 생산성이 가속화될 수 있습니다.”라고 Rispin은 설명합니다.
지적 재산권
생성 AI의 용량 증가와 복잡한 콘텐츠를 신속하게 제작해야 하는 필요성을 고려할 때 회사의 AI 사용 정책은 지적 재산권에 대한 위협을 명확하게 해결해야 합니다. 보고서, 발명품 등 외부 자료를 개발하기 위해 생성 AI를 사용하면 해당 자산이 저작권 또는 특허를 받을 수 없기 때문에 이는 매우 중요합니다.
“3년 연속으로 가치 있는 업계 보고서를 발행했고 4년차에 생성 AI를 사용하여 보고서를 작성하기로 결정했다고 가정해 보겠습니다. 이러한 시나리오에서는 새 보고서가 사람의 주요 개입 없이 생성되었기 때문에 해당 보고서에 대한 저작권을 가질 수 있는 범위가 없습니다. AI가 생성한 예술 작품이나 소프트웨어 코드의 경우에도 마찬가지입니다.”라고 Rispin은 말합니다.
또 다른 고려 사항은 회사를 관리자로, 직원을 사용자로 하는 엔터프라이즈 수준의 생성 AI 계정을 사용하는 것입니다. 이를 통해 회사는 법적 위험을 줄이는 중요한 개인 정보 보호 및 정보 공유 설정을 제어할 수 있습니다. 예를 들어, ChatGPT와의 특정 유형의 정보 공유를 비활성화하면 귀중한 지적 재산권을 잃을 위험이 줄어듭니다.
공개 내용
마찬가지로 AI 사용 정책은 마케팅 담당자가 AI 생성 콘텐츠를 사용하고 있음을 외부 대상에게 공개하도록 해야 합니다. 유럽연합 집행위원회는 이를 생성 AI의 책임감 있고 윤리적인 사용에 있어 매우 중요한 측면으로 간주합니다. 미국에서는 2023년 AI 공개법(AI Disclosure Act of 2023 Bill)이 이 요구 사항을 더욱 강화하여 AI의 모든 결과물을 유지하려면 면책조항을 포함해야 합니다. 이 법안은 FTC에 집행을 맡깁니다.
인스타그램과 같은 소셜 미디어 플랫폼은 이미 라벨과 워터마크를 통해 AI가 생성한 콘텐츠를 사용자에게 알리는 방법을 구현하고 있습니다. Google의 생성 AI 도구인 Imagen도 이제 SynthID를 사용하여 AI 생성 사본과 이미지에 디지털 워터마크를 삽입합니다. 이 기술은 워터마크를 이미지 픽셀에 직접 삽입하여 식별을 위해 감지할 수는 있지만 사람의 눈에는 감지할 수 없도록 만듭니다. 이는 필터를 추가하거나 색상을 변경하더라도 라벨을 변경할 수 없음을 의미합니다.
전략적으로 안전하게 AI를 통합하세요.
마케팅에 AI가 점점 더 많이 채택되고 있다는 것은 부인할 수 없는 일이며, 잘 정의된 지침이 없을 때 발생하는 잠재적인 위험과 브랜드 안전성 문제도 부인할 수 없습니다. 이러한 실용적인 팁을 사용하여 보다 스마트한 워크플로와 지능적인 의사 결정을 위해 AI 도구의 이점을 전략적으로 안전하게 활용할 수 있는 효과적인 AI 사용 정책을 구축하세요.
전 세계 마케팅 리더들이 비즈니스 영향력을 높이기 위해 AI 및 ML에 어떻게 접근하고 있는지 자세히 알아보세요.
부인 성명
이 기사에 제공된 정보는 공식적인 법적 조언을 구성하지 않으며, 그러한 의도도 없습니다. 모든 정보, 콘텐츠, 요점 및 자료는 일반적인 정보 제공을 위한 것입니다. 이 웹사이트의 정보는 최신 법률 정보 또는 기타 정보가 아닐 수도 있습니다. 이 문서에 제공된 지침을 포함한다고 해서 법적 위험이 줄어드는 것은 아닙니다. 이 기사의 독자는 특정 법적 문제와 관련하여 조언을 얻기 위해 법무팀이나 변호사에게 문의해야 하며 먼저 독립적인 법적 조언을 구하지 않고 이 기사의 정보를 기반으로 행동하는 것을 삼가해야 합니다. 이 기사나 사이트에 포함된 링크나 리소스를 사용하고 액세스한다고 해서 독자, 사용자 또는 브라우저와 기여자 사이에 변호사-의뢰인 관계가 형성되지는 않습니다. 이 기사에 기고자가 표현한 견해는 각자의 견해이며 Sprout Social의 견해를 반영하지 않습니다. 본 문서의 내용을 바탕으로 취한 조치 또는 취하지 않은 조치와 관련된 모든 책임은 이로써 명시적으로 부인됩니다.