GPT-3 引擎本质上抽象了多个源。 很容易看出这会如何开始惹恼谷歌。 信任和归属问题 从表面上看,GPT-3(尤其是 ChatGPT)可以返回一些非常人性化的响应。除了道德问题(包括剽窃和偏见,我稍后将简要介绍)之外,还存在一些严重的实际问题。 谷歌的“答案”有一大优势:归因。我们可以很方便的跳转到源码页面。这不仅为我们提供了更多信息,还提供了更多背景信息,包括有关来源本身的详细信息。
这些细节可以帮助我们信任
(或者在某些情况下,不信任)答案。 例如,考虑上述问题的另一个答案,GPT-3: 谷歌搜索是 荷蘭手機號碼 如何工作的? Google 搜索的工作原理是结合使用算法和程序来分,以确定其与用户搜索查询的相关性。 谷歌搜索算法会考虑多种因素,包括关键词密度、新鲜度以及链接到某个页面的其他网站的数量。
谷歌还利用人工智能和机器学习
来改善其搜索结果。 这个答案听起来也似乎有道理,只是大多数 SEO 会在提到 如何让慢速练习发挥效果 关键字密度时感到畏缩(我包含的图表),这被广泛认为是一个神话。 这条信息完全有可能来自完全不同的来源,但如果没有归属,我们无法验证它。 尽管这是一个复杂的问题(机器生成的文本使用来源的方式与人类不同,或者可能使用数十或数百个来源),但减少来源数量并提供归因的混合方法是可能的。
考虑一下 Neeva(一个专注于
隐私的替代搜索引擎)对“我应该喝一杯大杯拿铁还是一大杯拿铁?”的回答: 虽然此功能尚 印度手机号码 处于测试阶段,并且显然无法在 Google 规模上运行,但 Neva 努力提供基本来源。 我故意选择了一个荒谬的例子,因为风险很低。想象一个被 Google 称为 YMYL(你的钱,你的生活)圈的查询,例如“比特币更好还是道奇币更好?”: 这是一个可能严重影响我的财务未来的问题,知道答案来自哪里会产生很大的影响,让我能够更深入地挖掘,建立信任或拒绝这些来源。
机器生成的文本是否是剽窃的一种形式,是一个与信任相关的深刻的道德问题。虽然传统的抄袭通常需要意图和复制大量文本,但机器生成的文本仍然是在作者和内容创建者的支持下构建的,至少在 ChatGPT 的情况下没有任何明确的归属。 就谷歌而言,过度使用机器生成的文本可能会阻碍内容创建者,并导致我们质疑是否愿意为别人的机器贡献我们的努力。