關於 ChatGPT 偏見你需要知道的一切
已發表: 2023-04-20ChatGPT 風靡全球,原因不難看出。 它可以徹底改變我們搜索信息、消費新聞、閱讀和撰寫報告等方式。
在這篇文章中,您將了解到:
通過在下面輸入您的電子郵件來下載這篇文章
什麼是聊天 GPT?
我們大多數人都習慣了谷歌代碼片段。 它們是方便的宣傳語,可以讓我們快速回答在線輸入的問題。 ChatGPT 類似,但功能更強大。 它不僅可以提供幾句話,還可以為幾乎任何問題提供長而深入的答案。
ChatGPT 是一種人工智能工具。 由OpenAI開發,基礎版可免費使用。 還有一個具有額外功能的高級版本,每月收費 20 美元。
谷歌已經創建了一個名為 Bard 的類似工具。 但是,這兩個程序之間存在一些重要差異。 Bard 旨在實時檢查互聯網並提供最新的答案。 對於那些需要快速事實核查或問題答案的人來說,它特別有用。
另一方面,ChatGPT 僅使用 2021 年底之前創建的信息。這意味著它對時事問題的回答不會像巴德那樣準確。 另一方面, ChatGPT 提供了更深入的答案。 它非常適合那些需要基於文本的報告甚至特定主題文章的人。
為什麼 ChatGPT 如此有爭議?
雖然 ChatGPT 是人工智能的一種形式,但它無法真正獨立思考。 相反,它使用其創建者設計的算法進行操作。
OpenAI 竭盡全力確保 ChatGPT 是一個中立的工具。 不幸的是, ChatGPT 中的偏見仍然是一個非常現實的問題。 與所有形式的人工智能一樣,ChatGPT 也有其局限性。
此外,OpenAI 希望允許 ChatGPT 用戶在一定限制範圍內自定義聊天機器人的行為這一事實令人擔憂。 這可能會給程序帶來用戶偏見,使其變得不可信甚至是徹頭徹尾的惡意。
ChatGPT 也存在倫理問題。 教育機構擔心學生可能會依賴它來做作業。
畢竟,讓算法為您代勞比自己寫論文或報告要簡單得多。 更重要的是,由 ChatGPT 編寫的文檔可能比普通學生編寫的文檔具有更好的拼寫、語法和準確性。
還有人擔心,記者可能過於依賴此工具來生成新聞內容。 ChatGPT 偏見可能導致他們傳播錯誤信息,這已經是互聯網上的一個嚴重問題。
雖然上述問題沒有簡單的解決方案,但了解 ChatGPT 的工作原理可以幫助您學會識別其固有的偏見並加以處理。
什麼是自然語言處理模型 (NLP) 中的偏差?
自然語言處理模型是人工智能向前邁出的一大步。 它使 ChatGPT 和其他工具能夠像人類一樣處理語言。
這就是使 ChatGPT 能夠撰寫聽起來不像是由機器撰寫的文章和博客文章的原因。
不幸的是,自然語言處理模型天生就有偏見,因為它從人類來源接收信息,而這些信息在很大程度上天生就有偏見。
系統的設計方式也引入了固有的偏差,可能導致程序提供不完整或不准確的信息。
ChatGPT 中的偏見示例
ChatGPT 使用的自然語言處理模型存在性別和種族偏見問題。 亞馬遜在使用 NLP 工具審查求職者的簡歷時發現了這一點。
該工具使用過去簡歷中的語言模式來篩選當前候選人並確定最佳申請人。 然而,由於過去女性代表不足,該計劃無意中偏向男性候選人。
此外,一項基於對互聯網上 8000 億個單詞的分析的研究發現,某些群體比其他群體更容易與負面詞彙相關聯。
非裔美國人尤其如此。 對老年人和殘疾人也存在明顯的偏見。 當 ChatGPT 從網絡上獲取信息時,它很容易反映出這些偏見,尤其是當有人故意試圖讓程序散佈錯誤信息時。
一些人指責 ChatGPT 對保守派存在政治偏見。 當紐約郵報要求 ChatGPT 以紐約郵報的風格寫一篇新聞文章時,該程序拒絕了。
它聲明它不會產生煽動性的、有偏見的內容。 然而,當被要求以 CNN 的風格寫一篇新聞文章時,該程序沒有任何問題。
《紐約郵報》還稱,ChatGPT 更有可能標記對某些人的負面評論。 “受保護”人群包括自由主義者、女性、同性戀者和非裔美國人。
在一個例子中,當 ChatGPT 回答關於男性和女性的否定問題時,只有關於女性的否定問題被標記出來。 不過,ChatGPT 確實對這兩個問題給出了相同的答案。
ChatGPT 中的偏見如何導致有害結果
大約 22% 的學生每周至少使用一次 ChatGPT。 這個數字在未來幾年可能會增長。 ChatGPT 中的任何偏見都會給兒童和青少年帶來有偏見的、不准確的世界觀。
ChatGPT 還可以放大關於某些人群的錯誤信息。 這不僅是通過提供虛假信息,而且還通過提供不完整的信息來完成的。
例如,向該項目詢問有關烏克蘭戰爭的研究人員發現,該項目並未提供有關戰爭如何開始的背景信息。
如上所述, ChatGPT 也會對招聘實踐產生負面影響。 如果一家公司過於依賴人工智能,情況尤其如此。 值得慶幸的是,正如我們將在下面看到的,這個問題可以得到緩解。
ChatGPT 中存在偏見的根本原因是什麼?
有些人將聊天機器人的偏見歸咎於 ChatGPT 的程序員。 他們注意到程序員設計了程序使用的算法,並且可以將他們自己固有的偏見引入到這個過程中。
然而,問題的根本原因可能要復雜得多。 《麻省理工科技評論》的《The Bias in the Machine》指出, AI 的數據來源是造成大量種族差異的原因。
這篇聚焦人臉識別技術的文章解釋說,由於數據庫中沒有足夠的非裔美國人樣本數據,因此這項技術經常會誤判非裔嫌疑人。
ChatGPT 從人類內容中獲取信息。 程序員已盡力確保所有內容來源都是權威的。
不幸的是,人類並不完美,即使是心懷最好的人也有固有的偏見。 此外,某些形式的內容不包含足夠的信息或細微差別。
這是用戶在使用 ChatGPT 時必須注意的事項。
在 ChatGPT 中測量、檢測和減少偏見
ChatGPT 是一個相對較新的工具。 減少聊天機器人的固有偏見可能需要時間。 但是,可以採取一些措施來衡量、檢測和減少其偏差:
- 仔細研究總是有規律的。 在做出重要決定時,切勿僅依賴 ChatGPT。 使用反事實的例子來更好地理解情況或答案。
- 許多人呼籲 OpenAI 揭示 ChatGPT 用來提供信息的複雜算法。 這將幫助用戶了解該程序的工作原理,更重要的是,它如何為複雜問題提供答案。
- ChatGPT 正在接受使用敏感私人數據的調查。 使用該程序時請記住這一點,因為它會影響您收到的答案。 雖然個人數據可能有助於程序提供準確的答案,但它也可能侵犯用戶的權利。 此外,它可能會放大有關某些群體的錯誤信息。
美國和歐洲的政府官員正在考慮不僅對 ChatGPT 進行監管,而且對所有 AI 技術進行監管。
這樣做可能既有優點也有缺點。 如果您擔心信息(和錯誤信息)的傳播,您將希望了解該領域的最新動態。
用戶如何成功解決 ChatGPT 中的偏見?
專業招聘人員 Jasmine Cheng 提供了一個很好的例子來說明如何解決 ChatGPT 偏見。 她一直在使用這個程序,並說它每周可以為她節省大約 10 個小時的工作時間。
不過,她也為 ChatGPT 設定了明確的參數。 此外,她總是檢查聊天機器人提供的每條信息的準確性。
Microsoft 區域總監 Oleksandr Krakovetskyi 提供了更多建議。
他解釋說,使用 ChatGPT 的公司應該使用性別中立的職位描述,刪除與特定性別相關的詞語,並關注教育資格。
ChatGPT 中偏見的未來
ChatGPT 是一種人工智能工具,總是有局限性。 它從人類來源獲取信息,而人類來源總會有一些固有的偏見。
然而,隨著政府、活動家和開發人員共同努力改進 ChatGPT 和其他類似程序,隨著時間的推移,偏見可以被最小化和減輕。
怎麼辦?
最好不要僅依賴 AI 生成的內容來滿足您的業務需求。
AI 可幫助您找到內容創作創意、個性化營銷和預測客戶行為。 但是,只有人類才有能力進行細緻入微的研究、事實核查工作以及創建獨特的公正內容以滿足您的需求。
WriterAccess 提供對數万名經過審查、經驗豐富的自由作家、編輯和設計師的訪問。
這個託管在線市場還提供 AI 工具和幫助,幫助您找到適合任何工作的合適人選。
查看我們的14 天免費試用,了解我們如何幫助您創建贏得在線聲譽和促進業務發展所需的成功內容。