마케팅을 위해 AI를 사용할 때 직면하는 7가지 심각한 위험
게시 됨: 2023-07-06몇 년 전, 우리 마케터 대부분은 마케팅을 위해 AI를 사용하는 방법에 대한 가장 모호한 아이디어가 없었습니다. 갑자기 우리는 ChatGPT의 귀에 속삭일 최고의 프롬프트에 대한 LinkedIn 게시물을 작성하고 있습니다.
우리 작업에 인공 지능이 갑자기 도입된 것에 대해 축하할 일이 많습니다. McKenzie는 AI가 마케터에게 2조 6천억 달러의 가치를 제공할 것이라고 생각합니다.
그러나 우리의 급속한 AI 채택은 중요한 윤리적, 법적 및 운영적 질문보다 앞서 나갈 수 있습니다. 이로 인해 마케터는 이전에 생각하지 못했던 위험에 노출될 수 있습니다(예: AI에게 "스티븐 킹처럼 글을 쓰라고 하면 고소당할 수 있습니까?"). ”).
몇 년 동안 해결되지 않을 마케팅 분위기에는 미터 톤의 AI 먼지가 있습니다. 아무리 눈을 가늘게 뜨더라도 대규모 언어 모델과 기계 학습을 사용하여 콘텐츠를 만들고 광고를 관리할 때 발생할 수 있는 모든 잠재적인 함정을 알아낼 수는 없습니다.
따라서 이 기사의 목표는 매우 높은 수준에서 마케팅을 위해 AI를 사용할 때 가장 두드러지는 7가지 위험을 살펴보는 것입니다. 이러한 위험을 완화하는 데 도움이 되는 전문가의 조언을 모았습니다. 그리고 가장 우려되는 질문을 더 깊이 파고들 수 있도록 많은 리소스를 추가했습니다.
위험 #1: 기계 학습 편향
때때로 기계 학습 알고리즘은 누군가 또는 무언가에 부당하게 유리하거나 불리한 결과를 제공합니다. 이를 기계 학습 편향 또는 AI 편향이라고 하며 가장 발전된 심층 신경망에도 만연한 문제입니다.
데이터 문제입니다
AI 네트워크가 본질적으로 편협하다는 것은 아닙니다. 그들에게 공급되는 데이터에 문제가 있습니다.
기계 학습 알고리즘은 패턴을 식별하여 특정 쇼핑객 그룹이 제품을 좋아할지 여부와 같은 결과의 확률을 계산하는 방식으로 작동합니다.
그러나 AI가 훈련하는 데이터가 특정 인종, 성별 또는 연령 그룹으로 치우쳐 있다면 어떨까요? AI는 그 사람들이 더 잘 어울린다는 결론에 도달하고 그에 따라 광고 크리에이티브 또는 배치를 왜곡합니다.
바이어스 세탁 판 pic.twitter.com/YQLRcq59lQ
— 자넬 셰인(@JanelleCShane) 2021년 6월 17일
여기에 예가 있습니다. 연구원들은 최근 Facebook의 광고 타겟팅 시스템에서 성별 편향을 테스트했습니다. 조사관은 피자헛의 배달 기사 모집 광고를 게재했고, 인스타카트에도 동일한 자격을 갖춘 유사한 광고를 게재했다.
기존의 피자헛 드라이버 풀은 남성에 치우쳐 있기 때문에 페이스북은 이러한 광고를 남성에게 불균형적으로 보여주었습니다. Instacart에는 여성 운전자가 더 많기 때문에 직업에 대한 광고가 더 많은 여성 앞에 게재되었습니다. 그러나 여성이 피자헛 일자리에 대해 알고 싶어하지 않을 본질적인 이유가 없으므로 이는 광고 타겟팅에서 큰 실수입니다.
AI 편견은 일반적입니다
문제는 Facebook을 넘어 확장됩니다. USC의 연구원들은 두 개의 대규모 AI 데이터베이스를 조사한 결과 그 안에 있는 데이터의 38% 이상이 편향되어 있음을 발견했습니다. ChatGPT의 문서는 알고리즘이 "흑인 여성에 대한 부정적인 고정관념"을 연관시킬 수 있다고 경고합니다.
기계 학습 편향은 마케터에게 여러 가지 영향을 미칩니다. 그 중 가장 적은 것은 광고 실적이 좋지 않다는 것입니다. 가능한 한 가장 많은 잠재 고객에게 도달하기를 원한다면 인구의 많은 부분을 제외하는 광고 타겟팅 플랫폼은 이상적이지 않습니다.
물론 광고가 특정 그룹을 부당하게 타겟팅하거나 제외하면 더 큰 결과가 초래됩니다. 귀하의 부동산 광고가 보호받는 소수자를 차별하는 경우 공정 주택법과 연방 무역 위원회의 잘못된 판결을 받을 수 있습니다. 포괄적인 마케팅 보트를 완전히 놓친 것은 말할 것도 없습니다.
AI 편향을 피하는 방법
그렇다면 AI 도구가 제멋대로 작동할 때 어떻게 해야 할까요? 광고가 모든 사람을 공평하게 대우하도록 하기 위해 취할 수 있는 몇 가지 단계가 있습니다.
Writer의 콘텐츠 및 커뮤니티 선임 관리자인 Alaura Weaver는 가장 먼저 누군가가 귀하의 콘텐츠를 검토하는지 확인하십시오. “AI 기술이 크게 발전했지만 인간이 가진 비판적 사고와 의사 결정 능력이 부족합니다.”라고 그녀는 설명합니다. "인간 편집자가 AI로 작성된 콘텐츠를 검토하고 사실 확인하도록 함으로써 편견이 없고 윤리적 기준을 준수하는지 확인할 수 있습니다."
인간의 감독은 유료 광고 캠페인에서 부정적인 결과의 위험도 줄입니다.
Empiric Marketing의 설립자인 Brett McHale은 "현재, 아마도 무기한으로 AI가 캠페인이나 모든 형태의 마케팅을 완전히 장악하도록 하는 것은 바람직하지 않습니다."라고 말합니다. “AI는 이미 방대한 양의 데이터와 경험을 축적한 유기적 지능으로부터 정확한 입력을 받을 때 최적의 성능을 발휘합니다.”
위험 #2: 사실적 오류
구글은 최근 자사의 새로운 AI 챗봇인 바드(Bard)가 프로모션 트윗에서 잘못된 답변을 했을 때 모회사의 가치 평가에서 1,000억 달러를 잃었습니다.
Bard는 LaMDA로 구동되는 실험적인 대화형 AI 서비스입니다. 당사의 대규모 언어 모델을 사용하고 웹의 정보를 바탕으로 제작된 이 제품은 호기심을 위한 발판이며 복잡한 주제를 단순화하는 데 도움이 될 수 있습니다 → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
— Google(@Google) 2023년 2월 6일
Google의 바보짓은 AI의 가장 큰 한계 중 하나이자 AI를 사용하는 마케터에게 가장 큰 위험 중 하나를 강조합니다. AI가 항상 진실을 말하지는 않는다는 것입니다.
AI 환각
Wharton School of Business의 교수인 Ethan Mollic은 최근 ChatGPT와 같은 AI 기반 시스템을 "때때로 거짓말을 하는 전지전능하고 간절한 인턴"이라고 설명했습니다.
물론 일부 주장에도 불구하고 AI는 지각력이 없습니다. 우리를 속이려는 것이 아닙니다. 그러나 그것은 단지 물건을 구성하게 만드는 "환각"으로 고통받을 수 있습니다.
AI는 예측 기계입니다. 질문에 답할 다음 단어나 구를 채우려고 합니다. 그러나 그것은 자기 인식이 아닙니다. AI는 함께 연결되어 있는 것이 의미가 있는지 확인하는 직감 검사 논리가 없습니다.
바이어스와 달리 이것은 데이터 문제가 아닌 것 같습니다. 네트워크에 모든 올바른 정보가 있더라도 여전히 잘못된 정보를 알려줄 수 있습니다.
사용자가 ChatGPT에 "아르헨티나가 FIFA 월드컵에서 우승한 횟수는 몇 번입니까?"라고 질문한 이 예를 생각해 보십시오. 그것은 한 번 말했고 팀의 1978년 승리를 언급했습니다. 그런 다음 트위터는 1986년에 어느 팀이 우승했는지 물었습니다.
2022년 FIFA 월드컵에서 누가 우승했는지 #ChatGPT abt에게 물었습니다. 대답할 수 없었습니다. 예상됩니다. 그러나 정보가 시스템에 있음에도 불구하고 잘못된 정보(abt 나머지 2승)를 제공하는 것 같습니다. 어떤 #설명? pic.twitter.com/fvxe05N12p
— 인드라닐 신하로이(@indranil_leo) 2022년 12월 29일
챗봇은 과거 실수에 대한 설명 없이 아르헨티나임을 인정했습니다.
문제가 되는 부분은 AI의 잘못된 답변이 종종 자신 있게 작성되어 주변의 텍스트와 혼합되어 완전히 그럴듯하게 보인다는 것입니다. 그들은 Open.ai에 대해 제기된 소송에 자세히 설명되어 있는 것처럼 포괄적일 수도 있습니다. 여기서 ChatGPT는 당시 언론인이 공유한 횡령에 대한 전체 이야기를 조작했다고 합니다.
AI의 환각을 피하는 방법
AI는 한 단어로 된 답변으로도 사용자를 잘못된 길로 인도할 수 있지만 긴 텍스트를 작성할 때 난관을 벗어날 가능성이 더 큽니다.
“단일 프롬프트에서 AI는 블로그나 전자책을 생성할 수 있습니다. 예, 놀랍습니다. 하지만 문제가 있습니다.”라고 Weaver는 경고합니다. "더 많이 생성할수록 더 많은 편집과 사실 확인이 필요합니다."
AI 도구가 환각적인 내러티브를 회전시키기 시작할 가능성을 줄이기 위해 Weaver는 개요를 만들고 봇이 한 번에 한 섹션씩 처리하도록 하는 것이 가장 좋다고 말합니다. 그런 다음 물론 사람이 추가된 사실과 통계를 검토하도록 합니다.
위험 #3: AI 도구의 오용
매일 아침 우리는 폭풍우 후 버섯처럼 하룻밤 사이에 싹이 난 것처럼 보이는 새로운 AI 도구 작물에 눈을 뜹니다.
그러나 모든 플랫폼이 모든 마케팅 기능을 위해 구축된 것은 아니며 일부 마케팅 과제는 AI로 해결할 수 없습니다.
AI 도구에는 한계가 있습니다
ChatGPT가 좋은 예입니다. AI 공의 미인은 가지고 놀기에 재미있습니다(킹 제임스 성경 스타일로 VCR에서 땅콩 버터 샌드위치를 제거하는 방법을 쓰는 것과 같습니다). 그리고 그것은 작가의 장애물을 부수는 놀랍도록 잘 쓰여진 짧은 형식의 답변을 만들어 낼 수 있습니다. 그러나 키워드 조사를 도와달라고 요청하지 마십시오.
ChatGPT는 2022년 이전의 정보만 포함하는 비교적 오래된 데이터 세트로 인해 실패합니다. "AI 마케팅"에 대한 키워드를 제공하도록 요청하면 그 답변은 Thinword 또는 Contextminds와 같은 다른 도구에서 찾은 것과 일치하지 않습니다.
마찬가지로 Google과 Facebook은 마케팅 담당자가 광고를 만들고 광고 지출을 최적화하며 광고 경험을 개인화하는 데 도움이 되는 새로운 AI 기반 도구를 보유하고 있습니다. 챗봇은 이러한 문제를 해결할 수 없습니다.
Google은 2023 Google Marketing Live 이벤트에서 검색 및 광고 관리 제품에 대한 수많은 AI 업그레이드를 발표했습니다.
AI를 남용할 수 있습니다.
AI 도구에 단일 작업을 부여하면 단 하나의 목표에 대해 색인을 생성할 수 있습니다. 마케팅 자동화 전문가인 Nick Abbene은 SEO 개선에 중점을 둔 회사에서 이러한 현상을 자주 목격합니다.
Abbene은 "가장 큰 문제는 SEO 도구를 맹목적으로 사용하고, 검색 엔진을 과도하게 최적화하고, 고객 검색 의도를 무시하는 것입니다."라고 말합니다. “SEO 도구는 검색 엔진 품질 콘텐츠에 신호를 보내는 데 적합합니다. 그러나 궁극적으로 Google은 검색자의 요청과 일치하기를 원합니다.”
AI 도구의 오용을 피하는 방법
렌치는 못을 박는 데 최선의 선택이 아닙니다. 마찬가지로 AI 작문 도우미는 웹 페이지를 만드는 데 적합하지 않을 수 있습니다. 하나의 AI 옵션에 올인하기 전에 Abbene은 도구 빌더 및 다른 사용자로부터 피드백을 받으라고 말합니다.
"AI 도구를 잘못 선택하지 않으려면 다른 마케팅 담당자가 사용 사례에 도구를 사용하고 있는지 이해하십시오."라고 그는 말합니다. "제품 데모를 요청하거나 동일한 기능을 제공하는 다른 도구와 함께 사용해 보십시오."
Capterra와 같은 웹사이트를 통해 여러 AI 플랫폼을 빠르게 비교할 수 있습니다.
올바른 AI 도구 스택을 찾으면 프로세스를 대신하는 것이 아니라 프로세스를 지원하는 데 사용하십시오. Abbene은 "AI 도구를 사용하여 작업 흐름을 강화하는 것을 두려워하지 말고 단지 그것을 위해 사용하십시오."라고 말합니다. "품질 키워드 연구 및 검색 의도 이해를 통해 첫 번째 원칙에서 각 콘텐츠를 시작하십시오."
위험 #4: 동종 콘텐츠
AI는 약 10초 안에 전체 에세이를 작성할 수 있습니다. 그러나 제너레이티브 AI가 인상적이기는 하지만 진정으로 창의적이 되기 위한 뉘앙스가 부족하여 출력물이 로봇 같은 느낌을 주는 경우가 많습니다.
Weaver는 "AI는 유익한 콘텐츠를 생성하는 데 탁월하지만 인간이 테이블에 가져오는 창의적인 감각과 참여가 부족한 경우가 많습니다."라고 말합니다.
AI는 모방하기 위해 만들어졌다
생성 AI 작성 봇에게 책 보고서를 작성하도록 요청하면 호밀밭의 파수꾼의 주요 주제를 유능하게 설명하는 500단어를 쉽게 생성할 것입니다(홀든 콜필드를 은행 강도로 착각하지 않는다고 가정).
JD Salinger의 걸작에 대한 수천 개의 텍스트를 흡수했기 때문에 그렇게 할 수 있습니다.
이제 AI 친구에게 브랜드, 청중 및 가치 제안을 요약하는 방식으로 비즈니스의 핵심 개념을 설명하는 블로그 게시물을 작성하도록 요청하십시오. 실망하실 수도 있습니다. Weaver는 "AI로 생성된 콘텐츠는 브랜드의 개성과 가치의 뉘앙스를 항상 설명하지는 않으며 목표를 놓친 콘텐츠를 생성할 수 있습니다."라고 말합니다.
즉, AI는 이미 만들어진 것을 소화하고 결합하고 재구성하는 데 탁월합니다. 기존 콘텐츠에 비해 눈에 띄는 것을 만드는 것은 좋지 않습니다.
Generative AI 도구는 콘텐츠를 매력적으로 만드는 데에도 적합하지 않습니다. 그들은 지친 눈을 쉬게 하기 위해 이미지, 그래프 또는 글머리 기호가 없는 거대한 단어 블록을 행복하게 휘젓습니다. 그들은 요점을 더 관련성 있게 만들기 위해 고객 사례나 가상의 예를 끌어오지 않을 것입니다. 그리고 그들은 업계의 뉴스 기사를 제품이 제공하는 이점과 연결하는 데 어려움을 겪을 것입니다.
동종 콘텐츠를 피하는 방법
Writer와 같은 일부 AI 도구에는 작가가 일관된 브랜드 개성을 유지하는 데 도움이 되는 기능이 내장되어 있습니다. 그러나 "브랜드 목소리와 어조에 대한 콘텐츠를 검토하고 편집하여 청중과 공감하고 조직의 메시지와 목표를 강화할 수 있도록" 여전히 편집자가 필요하다고 Weaver는 조언합니다.
편집자와 작가도 다른 사람처럼 기사를 볼 수 있습니다. 뚫을 수 없는 단어 블록이 있는 경우, 그들은 그것을 분해하고 약간의 시각적 zhuzh를 추가하는 사람이 될 것입니다.
AI 콘텐츠를 시작점으로 사용하여 창의력과 연구를 시작하는 데 도움이 되는 방법입니다. 그러나 항상 자신의 개인적인 손길을 추가하십시오.
위험 #5: SEO 손실
AI 콘텐츠에 대한 구글의 입장은 다소 어둡다. 처음에는 검색 엔진이 AI로 작성된 게시물을 처벌하는 것처럼 보였습니다.
[이미지: AI에 관한 John Mueller의 트윗]
더 최근에 구글의 개발자 블로그는 그들의 책에서 AI는 괜찮다고 말했습니다. 그러나 그 확인에는 상당한 윙크가 있습니다. "우리가 EEAT라고 부르는 것의 품질: 전문 지식, 경험, 권위 및 신뢰성을 보여주는 콘텐츠"만이 Google의 순위 시스템을 지속적으로 평가하는 인간 검색 평가자에게 깊은 인상을 줄 것입니다.
신뢰는 SEO의 클러치입니다.
Google의 EEAT 중에서 모든 것을 지배하는 한 가지 요소는 신뢰입니다.
[원천]
우리는 이미 AI 콘텐츠가 오류에 취약하기 때문에 인간의 감독 없이는 본질적으로 신뢰할 수 없다는 점에 대해 논의했습니다. 또한 본질적으로 주제에 대한 전문성, 권한 또는 경험이 있는 사람이 작성하지 않았기 때문에 지원 요구 사항을 충족하지 못합니다.
바나나 빵 굽기에 대한 블로그 게시물을 작성하십시오. AI 봇이 약 2초 만에 레시피를 알려줍니다. 하지만 가족을 위해 빵을 굽는 쌀쌀한 겨울날에는 시적일 수 없습니다. 또는 상업용 제빵사로서 다양한 종류의 밀가루를 실험하며 보낸 세월에 대해 이야기하십시오. 이러한 관점은 Google의 검색 평가자가 찾는 것입니다.
또한 사람들이 갈망하는 것 같습니다. 그렇기 때문에 많은 사람들이 Google에서 찾던 것을 배우기 위해 TikTok 동영상의 실제 사람들에게 의지하고 있습니다.
SEO 손실을 피하는 방법
AI의 가장 좋은 점은 바이라인을 공유해도 상관없다는 것입니다. 따라서 챗봇을 사용하여 콘텐츠 제작 속도를 높일 때는 자격 증명을 가진 인간 작성자를 참조해야 합니다.
이는 Google에서 Your Money, Your Life 주제라고 부르는 의료 및 개인 금융과 같은 민감한 주제에 특히 해당됩니다. WordStream 및 LocaliQ의 콘텐츠 및 SEO 담당 이사인 Elisa Gabbert는 "YMYL 카테고리에 있다면 콘텐츠의 권위, 신뢰 및 정확성을 우선시하십시오."라고 조언합니다.
예를 들어 건강 관리에 대해 글을 쓸 때 의료 전문가가 귀하의 게시물을 검토하고 게시물에서 이를 참조하도록 하십시오. 이는 콘텐츠가 챗봇에서 시작된 경우에도 Google에 신뢰할 수 있다는 강력한 신호입니다.
위험 #6: 법적 문제
제너레이티브 AI는 인간이 만든 작업에서 학습한 다음 새로운 것을 생성합니다. AI 콘텐츠 모델의 입력과 출력 모두에 대해 저작권 문제가 불분명합니다.
기존 작업은 AI를 위한 공정한 게임일 가능성이 높습니다.
대규모 학습 모델을 제공하는 저작물에 대한 저작권 문제를 설명하기 위해 기술자 Andy Baio가 보고한 사례를 살펴보겠습니다. Baio가 설명하듯이, Hollie Mengert라는 LA 기반 아티스트는 자신의 일러스트레이션 중 32개가 AI 모델에 흡수된 후 자신의 스타일을 재현하려는 모든 사람에게 공개 라이선스를 통해 제공된다는 사실을 알게 되었습니다.
캡션: 아티스트 Hollie Mengert의 일러스트레이션 컬렉션(왼쪽)과 Andy Baio가 큐레이팅한 그녀의 스타일에 따라 AI가 생성한 일러스트레이션을 비교했습니다 .
그녀가 실제로 이미지에 대한 권리를 소유하고 있는 Disney와 같은 클라이언트를 위해 많은 이미지를 만들었다는 사실을 알게 되면 이야기는 더욱 복잡해집니다.
Mengert와 같은 위치에 있는 일러스트레이터(또는 작가 또는 코더)가 저작권 침해 소송에 성공할 수 있습니까?
질문에 대한 명확한 답은 아직 없습니다. Baio는 The Verge와의 인터뷰에서 “양측의 사람들이 자신의 위치에 대해 극도로 확신하고 있지만 현실은 아무도 모릅니다.”라고 말했습니다. "그리고 이것이 법정에서 어떻게 될지 자신 있게 안다고 말하는 사람은 잘못된 것입니다."
이미지나 기사를 만드는 데 사용하는 AI가 많은 제작자의 수천 작품에 대해 훈련된 경우 법원 소송에서 패할 가능성이 없습니다. 하지만 기계에 Stephen King 책 열 권을 입력하고 봇에게 그 스타일로 새 책을 쓰라고 지시하면 문제가 발생할 수 있습니다.
면책 조항: 저희는 변호사가 아니므로 확실하지 않은 경우 법률 자문을 받으십시오.
AI 콘텐츠도 보호되지 않을 수 있습니다.
챗봇으로 만든 콘텐츠는 저작권법의 보호를 받나요? 대부분의 경우 편집에 상당한 노력을 기울이지 않는 한 그렇지 않습니다. 즉, 누군가가 자신의 블로그를 위해 게시물의 용도를 변경(읽기: 도용)하는 경우 의지할 여지가 거의 없습니다.
보호되는 콘텐츠의 경우 권리를 보유하는 것은 귀하가 아니라 AI의 프로그래머일 수 있습니다. 많은 국가에서는 프롬프트를 입력한 사람이 아니라 작업을 생성한 도구 제작자를 제작자로 간주합니다.
법적 문제를 피하는 방법
평판이 좋은 AI 콘텐츠 생성 도구를 사용하여 시작하십시오. 저작권법에 대한 입장을 명확하게 제시하는 회사에서 생산한 긍정적인 리뷰가 많은 회사를 찾으십시오.
또한 제작자의 작업을 의도적으로 복사하는 것인지 단순히 AI를 사용하여 자신의 작업을 보강하는 것인지 현명한 판단을 내리십시오.
그리고 당신이 생산한 것을 보호하기 위해 법정에서 싸울 기회를 원한다면 많은 실질적인 변화를 만드십시오. 또는 AI를 사용하여 개요를 작성하되 대부분의 단어를 직접 작성하십시오.
위험 #7: 보안 및 개인 정보 침해
AI 도구는 마케터에게 시스템 보안 및 데이터 프라이버시에 대한 광범위한 잠재적 위협을 제시합니다. 일부는 악의적인 행위자의 직접적인 공격입니다. 다른 사람들은 중요한 정보를 공유하도록 설계된 시스템에 무의식적으로 제공하는 사용자일 뿐입니다.
AI 도구의 보안 위험
엔드포인트 보안 제공업체인 Kolide의 콘텐츠 마케팅 수석 편집자 Elaine Atwell은 "정상적인 도구처럼 보이고 느껴지고 작동하지만 실제로는 맬웨어인 제품이 많이 있습니다."라고 말했습니다. "정식 도구와 구별하기가 매우 어려우며 지금 바로 Chrome 스토어에서 찾을 수 있습니다."
Google 크롬 스토어에 "AI 도구"의 모든 버전을 입력하면 옵션이 부족하지 않습니다.
Atwell은 Kolide 블로그에 이러한 위험에 대해 썼습니다. 그녀의 기사에서 그녀는 "Chat GPT에 대한 빠른 액세스"라는 Chrome 확장 프로그램이 실제로 계략이었던 사건을 언급했습니다. 다운로드가 완료되면 이 소프트웨어는 사용자의 Facebook 계정을 하이재킹하고 보안을 위한 쿠키까지 포함하여 피해자의 모든 쿠키를 스와이프했습니다. Atwell은 매일 2,000명이 넘는 사람들이 확장 프로그램을 다운로드했다고 보고했습니다.
개인 정보 보호되지 않음
Atwell은 합법적인 AI 도구도 보안 위험을 나타낼 수 있다고 말합니다. “…현재 대부분의 회사에는 다양한 확장 프로그램이 제기하는 위험의 유형과 수준을 평가하기 위한 정책조차 없습니다. 그리고 명확한 지침이 없는 상황에서 전 세계 사람들이 이 작은 도우미를 설치하고 민감한 데이터를 제공하고 있습니다.”
투자자와 공유할 내부 재무 보고서를 작성한다고 가정해 보겠습니다. AI 네트워크는 다른 사용자를 위한 출력을 생성하기 위해 주어진 것으로부터 학습한다는 점을 기억하십시오. AI 챗봇에 넣은 모든 데이터는 회사 외부 사람들에게 공정한 게임이 될 수 있습니다. 그리고 경쟁업체가 귀하의 수익에 대해 묻는 경우 팝업이 표시될 수 있습니다.
개인 정보 및 보안 위험을 피하는 방법
방어의 첫 번째 라인은 소프트웨어의 일부가 그것이 주장하는 바인지 확인하는 것입니다. 그 외에도 선택한 도구를 사용하는 방법에 주의하십시오. Atwell은 "AI 도구를 사용하려는 경우(그리고 용도가 있습니다!) 민감한 것으로 간주될 수 있는 데이터를 제공하지 마십시오."라고 말합니다.
또한 AI 도구의 유용성과 편견을 검토하는 동안 개인 정보 보호 및 보안 정책에 대해 물어보십시오.
AI를 마케팅에 사용하는 위험 완화
AI는 놀라운 속도로 발전하고 있습니다. 채 1년이 채 안 되어 Chat GTP는 이미 그 기능이 크게 향상되었습니다. 앞으로 6~12개월 안에 AI로 무엇을 할 수 있을지 알 수 없습니다. 잠재적인 문제를 예상할 수도 없습니다.
다음은 가장 일반적인 위험을 피하면서 AI 마케팅 결과를 개선할 수 있는 몇 가지 방법입니다.
- 편집자가 콘텐츠의 품질, 가독성, 브랜드 보이스를 검토하도록 합니다.
- 보안 및 기능을 위해 사용하는 각 도구를 면밀히 조사하십시오.
- 편견에 대한 AI 지향 광고 타겟팅을 정기적으로 검토하십시오.
- 잠재적인 저작권 침해에 대한 사본 및 이미지 평가
이 게시물에 기여한 Elain Attwell, Brett McHale, Nick Abenne 및 Alaura Weaver에게 감사드립니다.
요약하자면 마케팅을 위해 AI를 사용할 때 발생하는 위험 목록을 검토해 보겠습니다.
- 기계 학습 편향
- 사실적 오류
- AI 도구의 오용
- 동종 콘텐츠
- SEO 손실
- 법적 문제
- 보안 및 개인 정보 침해