关于 ChatGPT 偏见你需要知道的一切
已发表: 2023-04-20ChatGPT 风靡全球,原因不难看出。 它可以彻底改变我们搜索信息、消费新闻、阅读和撰写报告等方式。
在这篇文章中,您将了解到:
通过在下面输入您的电子邮件来下载这篇文章
什么是聊天 GPT?
我们大多数人都习惯了谷歌代码片段。 它们是方便的宣传语,可以让我们快速回答在线输入的问题。 ChatGPT 类似,但功能更强大。 它不仅可以提供几句话,还可以为几乎任何问题提供长而深入的答案。
ChatGPT 是一种人工智能工具。 由OpenAI开发,基础版可免费使用。 还有一个具有额外功能的高级版本,每月收费 20 美元。
谷歌已经创建了一个名为 Bard 的类似工具。 但是,这两个程序之间存在一些重要差异。 Bard 旨在实时检查互联网并提供最新的答案。 对于那些需要快速事实核查或问题答案的人来说,它特别有用。
另一方面,ChatGPT 仅使用 2021 年底之前创建的信息。这意味着它对时事问题的回答不会像巴德那样准确。 另一方面, ChatGPT 提供了更深入的解答。 它非常适合那些需要基于文本的报告甚至特定主题文章的人。
为什么 ChatGPT 如此有争议?
虽然 ChatGPT 是人工智能的一种形式,但它无法真正独立思考。 相反,它使用其创建者设计的算法进行操作。
OpenAI 竭尽全力确保 ChatGPT 是一个中立的工具。 不幸的是, ChatGPT 中的偏见仍然是一个非常现实的问题。 与所有形式的人工智能一样,ChatGPT 也有其局限性。
此外,OpenAI 希望允许 ChatGPT 用户在一定限制范围内自定义聊天机器人的行为这一事实令人担忧。 这可能会给程序带来用户偏见,使其变得不可信甚至是彻头彻尾的恶意。
ChatGPT 也存在伦理问题。 教育机构担心学生可能会依赖它来做作业。
毕竟,让算法为您代劳比自己写论文或报告要简单得多。 更重要的是,由 ChatGPT 编写的文档可能比普通学生编写的文档具有更好的拼写、语法和准确性。
还有人担心,记者可能过于依赖此工具来生成新闻内容。 ChatGPT 偏见可能导致他们传播错误信息,这已经是互联网上的一个严重问题。
虽然上述问题没有简单的解决方案,但了解 ChatGPT 的工作原理可以帮助您学会识别其固有的偏见并加以处理。
什么是自然语言处理模型 (NLP) 中的偏差?
自然语言处理模型是人工智能向前迈出的一大步。 它使 ChatGPT 和其他工具能够像人类一样处理语言。
这就是使 ChatGPT 能够撰写听起来不像是由机器撰写的文章和博客文章的原因。
不幸的是,自然语言处理模型天生就有偏见,因为它从人类来源接收信息,而这些信息在很大程度上天生就有偏见。
系统的设计方式也引入了固有的偏差,可能导致程序提供不完整或不准确的信息。
ChatGPT 中的偏见示例
ChatGPT 使用的自然语言处理模型存在性别和种族偏见问题。 亚马逊在使用 NLP 工具审查求职者的简历时发现了这一点。
该工具使用过去简历中的语言模式来筛选当前候选人并确定最佳申请人。 然而,由于过去女性代表不足,该计划无意中偏向男性候选人。
此外,一项基于对互联网上 8000 亿个单词的分析的研究发现,某些群体比其他群体更容易与负面词汇相关联。
非裔美国人尤其如此。 对老年人和残疾人也存在明显的偏见。 当 ChatGPT 从网络上获取信息时,它很容易反映出这些偏见,尤其是当有人故意试图让程序散布错误信息时。
一些人指责 ChatGPT 对保守派存在政治偏见。 当纽约邮报要求 ChatGPT 以纽约邮报的风格写一篇新闻文章时,该程序拒绝了。
它声明它不会产生煽动性的、有偏见的内容。 然而,当被要求以 CNN 的风格写一篇新闻文章时,该程序没有任何问题。
《纽约邮报》还称,ChatGPT 更有可能标记对某些人的负面评论。 “受保护”人群包括自由主义者、女性、同性恋者和非裔美国人。
在一个例子中,当 ChatGPT 回答关于男性和女性的否定问题时,只有关于女性的否定问题被标记出来。 不过,ChatGPT 确实对这两个问题给出了相同的答案。
ChatGPT 中的偏见如何导致有害结果
大约 22% 的学生每周至少使用一次 ChatGPT。 这个数字在未来几年可能会增长。 ChatGPT 中的任何偏见都会给儿童和青少年带来有偏见的、不准确的世界观。
ChatGPT 还可以放大关于某些人群的错误信息。 这不仅是通过提供虚假信息,而且还通过提供不完整的信息来完成的。
例如,向该项目询问有关乌克兰战争的研究人员发现,该项目并未提供有关战争如何开始的背景信息。
如上所述, ChatGPT 也会对招聘实践产生负面影响。 如果一家公司过于依赖人工智能,情况尤其如此。 值得庆幸的是,正如我们将在下面看到的,这个问题可以得到缓解。
ChatGPT 中存在偏见的根本原因是什么?
有些人将聊天机器人的偏见归咎于 ChatGPT 的程序员。 他们注意到程序员设计了程序使用的算法,并且可以将他们自己固有的偏见引入到这个过程中。
然而,问题的根本原因可能要复杂得多。 《麻省理工科技评论》的《The Bias in the Machine》指出, AI 的数据来源是造成大量种族差异的原因。
这篇聚焦人脸识别技术的文章解释说,由于数据库中没有足够的非裔美国人样本数据,因此这项技术经常会误判非裔嫌疑人。
ChatGPT 从人类内容中获取信息。 程序员已尽力确保所有内容来源都是权威的。
不幸的是,人类并不完美,即使是心怀最好的人也有固有的偏见。 此外,某些形式的内容不包含足够的信息或细微差别。
这是用户在使用 ChatGPT 时必须注意的事项。
在 ChatGPT 中测量、检测和减少偏见
ChatGPT 是一个相对较新的工具。 减少聊天机器人的固有偏见可能需要时间。 但是,可以采取一些措施来衡量、检测和减少其偏差:
- 仔细研究总是有规律的。 在做出重要决定时,切勿仅依赖 ChatGPT。 使用反事实的例子来更好地理解情况或答案。
- 许多人呼吁 OpenAI 揭示 ChatGPT 用来提供信息的复杂算法。 这将帮助用户了解该程序的工作原理,更重要的是,它如何为复杂问题提供答案。
- ChatGPT 正在接受使用敏感私人数据的调查。 使用该程序时请记住这一点,因为它会影响您收到的答案。 虽然个人数据可能有助于程序提供准确的答案,但它也可能侵犯用户的权利。 此外,它可能会放大有关某些群体的错误信息。
美国和欧洲的政府官员正在考虑不仅对 ChatGPT 进行监管,而且对所有 AI 技术进行监管。
这样做可能既有优点也有缺点。 如果您担心信息(和错误信息)的传播,您将希望了解该领域的最新动态。
用户如何成功解决 ChatGPT 中的偏见?
专业招聘人员 Jasmine Cheng 提供了一个很好的例子来说明如何解决 ChatGPT 偏见。 她一直在使用这个程序,并说它每周可以为她节省大约 10 个小时的工作时间。
不过,她也为 ChatGPT 设定了明确的参数。 此外,她总是检查聊天机器人提供的每条信息的准确性。
Microsoft 区域总监 Oleksandr Krakovetskyi 提供了更多建议。
他解释说,使用 ChatGPT 的公司应该使用性别中立的职位描述,删除与特定性别相关的词语,并关注教育资格。
ChatGPT 中偏见的未来
ChatGPT 是一种人工智能工具,总是有局限性。 它从人类来源获取信息,而人类来源总会有一些固有的偏见。
然而,随着政府、活动家和开发人员共同努力改进 ChatGPT 和其他类似程序,随着时间的推移,偏见可以被最小化和减轻。
怎么办?
最好不要仅依赖 AI 生成的内容来满足您的业务需求。
AI 可帮助您找到内容创作创意、个性化营销和预测客户行为。 但是,只有人类才有能力进行细致入微的研究、事实核查工作以及创建独特的公正内容以满足您的需求。
WriterAccess 提供对数万名经过审查、经验丰富的自由作家、编辑和设计师的访问。
这个托管在线市场还提供 AI 工具和帮助,帮助您找到适合任何工作的合适人选。
查看我们的14 天免费试用,了解我们如何帮助您创建赢得在线声誉和促进业务发展所需的成功内容。