搜索引擎可以檢測人工智能內容嗎?

已發表: 2023-08-04

去年人工智能工具的爆炸式增長對數字營銷人員產生了巨大影響,尤其是搜索引擎優化領域的營銷人員。

鑑於內容創建耗時且成本高昂,營銷人員轉向人工智能尋求幫助,但結果好壞參半

儘管存在道德問題,但反復出現的一個問題是:“搜索引擎可以檢測到我的人工智能內容嗎?”

這個問題被認為特別重要,因為如果答案是否定的,那麼關於是否以及如何使用人工智能的許多其他問題就變得無效。

機器生成內容的悠久歷史

雖然機器生成或輔助內容創建的頻率是前所未有的,但這並不是全新的,也並不總是負面的。

對於新聞網站來說,首先報導新聞是當務之急,他們長期以來一直利用股票市場和地震儀等各種來源的數據來加快內容創作。

例如,發布一篇機器人文章實際上是正確的:

  • “今天早上[時間]/[日期]在[地點、城市]檢測到[震級]地震,這是自[上次事件日期]以來的第一次地震。 更多消息敬請關注。”

這樣的更新對於需要盡快獲取此信息的最終讀者也很有幫助。

另一方面,我們看到了許多機器生成內容的“黑帽”實現。

多年來,谷歌一直在“自動生成不提供附加值的頁面”的旗幟下譴責使用馬爾可夫鏈來生成文本以輕鬆旋轉內容。

特別有趣的是“無附加值”的含義,這對某些人來說主要是一個混淆點或灰色地帶。

LLM 如何增加價值?

由於 GPTx 大語言模型 (LLM) 和改進對話交互的微調人工智能聊天機器人 ChatGPT 引起的關注,人工智能內容的受歡迎程度飆升。

在不深入研究技術細節的情況下,關於這些工具有幾個要點需要考慮:

生成的文本基於概率分佈

  • 例如,如果您寫道,“成為 SEO 很有趣,因為……”,法學碩士會查看所有標記,並嘗試根據其訓練集計算下一個最可能的單詞。 總的來說,您可以將其視為手機預測文本的真正高級版本。

ChatGPT 是一種生成式人工智能

  • 這意味著輸出是不可預測的。 有一個隨機元素,它可能對相同的提示做出不同的反應。

當您理解這兩點時,就會發現像 ChatGPT 這樣的工具沒有任何傳統知識或“知道”任何東西。 這個缺點是所有錯誤或所謂的“幻覺”的基礎。

大量記錄的輸出證明了這種方法如何產生不正確的結果並導致 ChatGPT 反復自相矛盾。

來自 /r/ChatGPT 的示例
來自/r/ChatGPT的示例

考慮到頻繁產生幻覺的可能性,這引發了人們對人工智能書寫文本“增值”的一致性的嚴重懷疑。

根本原因在於法學碩士生成文本的方式,如果沒有新的方法,這個問題就很難解決。

這是一個至關重要的考慮因素,特別是對於“你的金錢,你的生活”(YMYL) 主題,如果不准確,可能會嚴重損害人們的財務或生活。

今年,Men's Health 和 CNET 等主要出版物被發現發布了人工智能生成的與事實不符的信息,凸顯了這一擔憂。

出版商並不是唯一面臨這個問題的人,因為 Google 很難用 YMYL 內容來控制其搜索生成體驗 (SGE) 內容。

儘管谷歌表示將謹慎生成答案,並具體給出了一個例子“不會顯示有關給孩子服用泰諾的問題的答案,因為它屬於醫療領域”,但 SGE 顯然會這樣做只需簡單地問它這個問題即可。


獲取搜索營銷人員信賴的每日新聞通訊。

正在處理...請稍候。

查看條款。


Google 的 SGE 和 MUM

顯然,谷歌相信機器生成的內容可以回答用戶的查詢。 自 2021 年 5 月發布 MUM(多任務統一模型)以來,谷歌就已經暗示了這一點。

MUM 著手解決的一項挑戰是基於人們對複雜任務平均發出八次查詢的數據。

在初始查詢中,搜索者將了解一些附加信息,提示相關搜索並顯示新網頁來回答這些查詢。

谷歌提出:如果他們可以接受初始查詢,預測用戶後續問題,並使用他們的索引知識生成完整的答案,會怎麼樣?

如果它有效,雖然這種方法對用戶來說可能很棒,但它本質上消除了 SEO 賴以在 SERP 中立足的許多“長尾”或零量關鍵詞策略。

假設谷歌可以識別適合人工智能生成答案的查詢,那麼許多問題都可以被視為“解決”。

這就提出了一個問題……

  • 當 Google 可以將用戶保留在其搜索生態系統中並自行生成答案時,為什麼要向搜索者展示您的網頁以及預先生成的答案呢?

谷歌有經濟激勵措施將用戶保留在其生態系統中。 我們已經看到了實現這一目標的各種方法,從特色片段到讓人們在 SERP 中搜索航班。

假設 Google 認為您生成的文本無法提供超出其已經提供的價值。 在這種情況下,這只是搜索引擎的成本與收益的問題。

從長遠來看,他們能否通過吸收生成費用並讓用戶等待答案而不是快速而廉價地將用戶發送到他們知道已經存在的頁面來產生更多收入?

檢測 AI 內容

隨著 ChatGPT 使用量的激增,出現了數十種“人工智能內容檢測器”,它們允許您輸入文本內容並輸出百分比分數 - 這就是問題所在。

儘管不同的檢測器標記這個百分比分數的方式存在一些差異,但它們幾乎總是給出相同的輸出:整個提供的文本是人工智能生成的百分比確定性。

當百分比被標記為“75% AI / 25% Human”時,這會導致混亂。

許多人會誤解這意味著“該文本 75% 由人工智能編寫,25% 由人類編寫”,而它的意思是“我 75% 確定該文本 100% 是由人工智能編寫的”。

這種誤解導致一些人就如何調整文本輸入以使其“通過”人工智能檢測器提供建議。

例如,使用雙感嘆號 (!!) 是一種非常人性化的特徵,因此將其添加到某些 AI 生成的文本中將導致 AI 檢測器給出“99%+ 人類”分數。

這會被誤解為您“欺騙”了探測器。

但這是探測器完美運行的一個例子,因為提供的通道不再 100% 由人工智能生成。

不幸的是,這種能夠“欺騙”人工智能檢測器的誤導性結論通常也與穀歌等搜索引擎未檢測到人工智能內容相混淆,從而給網站所有者帶來錯誤的安全感。

Google 關於 AI 內容的政策和行動

谷歌關於人工智能內容的聲明歷來都很模糊,這給他們在執行方面留下了迴旋餘地。

然而,今年谷歌搜索中心發布了更新的指南,其中明確指出:

“我們的重點是內容的質量,而不是內容的製作方式。”

甚至在此之前,谷歌搜索聯絡員丹尼·沙利文(Danny Sullivan)也加入了推特保守派,確認他們“沒有說過人工智能內容不好”。

谷歌列出了人工智能如何生成有用內容的具體示例,例如體育比分、天氣預報和成績單。

很明顯,谷歌更關心的是輸出結果,而不是實現目標的手段,加倍努力“以操縱搜索結果排名為主要目的生成內容違反了我們的垃圾郵件政策。”

谷歌在打擊 SERP 操縱方面擁有多年經驗,聲稱其係統的進步(例如 SpamBrain)已使 99% 的搜索“無垃圾內容”,其中包括 UGC 垃圾內容、抓取、偽裝和所有各種形式的內容一代。

許多人都進行了測試,看看谷歌對人工智能內容有何反應,以及他們在質量方面的界限。

在 ChatGPT 推出之前,我創建了一個包含 10,000 頁內容的網站,主要由無監督的 GPT3 模型生成,回答人們也提出的有關視頻遊戲的問題。

通過最少的鏈接,該網站很快被索引並穩步增長,每月提供數千名訪問者。

在 2022 年的兩次 Google 系統更新(有用內容更新和後來的垃圾郵件更新)期間,Google 突然幾乎完全壓制了該網站。

來自 AI 測試網站的 Google Search Console 數據
來自 AI 測試網站的 Google Search Console 數據

從這樣的實驗中得出“人工智能內容不起作用”的結論是錯誤的。

然而,這向我表明,在那個特定時間,谷歌:

  • 沒有將不受監督的 GPT-3 內容歸類為“質量”。
  • 可以通過大量其他信號檢測並消除此類結果。

為了得到最終的答案,你需要一個更好的問題

根據 Google 的指導方針、我們對搜索系統的了解、SEO 實驗和常識,“搜索引擎可以檢測 AI 內容嗎?” 可能是錯誤的問題。

充其量,這只是一種非常短期的觀點。

在大多數主題中,法學碩士很難在事實準確性和滿足 Google EEAT 標準方面始終如一地生成“高質量”內容,儘管他們可以實時訪問網絡以獲取訓練數據之外的信息。

人工智能在為以前內容稀缺的查詢生成答案方面取得了重大進展。 但隨著谷歌與 SGE 一起實現更崇高的長期目標,這種趨勢可能會消退。

預計重點將回歸到較長形式的專家內容,谷歌的知識系統將提供答案來滿足許多長尾查詢,而不是引導用戶訪問眾多小網站。


本文表達的觀點是客座作者的觀點,並不一定是搜索引擎土地的觀點。 此處列出了工作人員作者。