搜索引擎能否检测到人工智能内容?
发布:泰安APP开发 更新时间:2023-10-09 09:49
过去一年中,人工智能工具的爆发对数字营销人员产生了巨大影响,特别是那些从事搜索引擎优化(seo)工作的人。
鉴于内容创作需要耗费大量时间和金钱,营销人员已经求助于人工智能,但结果褒贬不一。
尽管存在伦理问题,但一个反复出现的问题是:“搜索引擎能否检测到我的人工智能内容?”
这个问题被认为特别重要,因为如果答案是“否”,那么许多其他关于人工智能是否应该以及如何使用的问题都将无效。
长期以来机器生成内容的历史
虽然机器生成或辅助内容创作的频率是前所未有的,但这并不是全新的,也不总是负面的。
新闻网站首次报道事件对于它们来说至关重要,它们长期以来一直利用来自各种来源的数据,如股票市场和地震仪器,以加速内容创作。
例如,发布一篇机器生成的文章是事实准确的,该文章说:
- “今天早上在[城市名称,位置]发生了[震级]级地震,这是自[上次事件的日期]以来的第一次地震。更多 这类更新也对那些需要尽快获取信息的最终读者非常有帮助。
另一方面,我们也看到了许多“黑帽子”实施机器生成内容的例子。
多年来,谷歌一直谴责使用马尔科夫链生成文本以生成低质量内容,称其为“自动生成的页面没有提供附加价值”。
特别有趣的是,对于一些人来说,“没有附加价值”的含义是一个令人困惑或模糊的领域。
大型语言模型如何增加价值?
由于GPTx大型语言模型(LLMs)和经过精细调整的AI聊天机器人ChatGPT引起的关注,AI内容的流行度迅速上升,这些工具改进了会话交互。
不深入技术细节,以下是关于这些工具需要考虑的几个重要点:
生成的文本基于概率分布
- 例如,如果您写道:“做SEO很有趣,因为...”,LLM将查看所有的标记,并试图根据其训练集来计算下一个最有可能的词语。您可以将其视为您手机预测文本的一种非常高级的版本。
ChatGPT是一种生成型人工智能
- 这意味着输出是不可预测的。存在一个随机元素,可能会对相同的提示产生不同的响应。
当您理解了这两点之后,就会清楚像ChatGPT这样的工具没有任何传统知识,也不会"知道"任何东西。这个不足是所有错误或所谓的“幻觉”的基础。
许多记录的输出表明,这种方法可能会产生不正确的结果,并导致ChatGPT反复自相矛盾。
这对于使用AI写作的文本的一致性提出了严重的疑虑,考虑到频繁出现幻觉的可能性。
根本原因在于LLMs如何生成文本,而这不会轻易解决,除非采用新的方法。
这是一个至关重要的考虑因素,特别是对于涉及"你的金钱,你的生活"(YMYL)主题的情况,如果不准确,可能会对人们的财务或生活造成实质性的伤害。
像Men’s Health和CNET等主要出版物在今年发布了事实不准确的AI生成信息,突显了这个问题的重要性。 出版商并不是唯一面临这个问题的,谷歌也在控制其搜索生成体验(SGE)内容中的“你的金钱,你的生活”(YMYL)内容方面遇到了困难。
尽管谷歌表示会小心处理生成的答案,甚至明确举了一个例子:“不会显示关于给孩子吃退热药(泰诺)的问题的答案,因为这属于医疗领域”,但SGE明显违反了这一原则,只需简单地提出这个问题就会显示相关答案。
谷歌的SGE和MUM
很明显,谷歌认为机器生成的内容有其回答用户查询的地方。自2021年5月他们宣布MUM(Multitask Unified Model)以来,谷歌一直在暗示这一点。
MUM设定的一个挑战是基于人们平均会针对复杂任务提出八个查询的数据。
在初始查询中,搜索者将了解一些额外的信息,从而引发相关的搜索并呈现新的网页以回答这些查询。
谷歌提出了一个问题:如果他们能够使用他们的索引知识,获取初始查询,预测用户的后续问题,并生成完整的答案呢? 如果这种方法奏效,虽然对用户来说可能非常出色,但它本质上会消除许多SEO依赖的“长尾”或零搜索量关键词策略,这些策略用于在搜索引擎结果页面(SERPs)中站稳脚跟。
假设谷歌能够识别适合由AI生成答案的查询,那么许多问题可能会被视为“已解决”。
这引发了一个问题...
- 如果谷歌可以在其搜索生态系统内保留用户并自己生成答案,为什么还要向搜索者显示您的网页与预生成的答案呢?
谷歌有财务动机将用户留在其生态系统内。我们已经看到了各种方法来实现这一点,从精选摘要到在SERP中让人们搜索航班。
假设谷歌认为您的生成文本在提供超越其已经提供的价值之外没有其他价值。那么,对于搜索引擎来说,这只是成本与效益的问题。
他们是否能够通过吸收生成的费用并让用户等待答案,从而在长期内获得更多的收入,而不是迅速而廉价地将用户发送到他们已经知道存在的页面呢?
检测人工智能内容
随着ChatGPT的使用激增,涌现出了数十种“AI内容检测器”,允许您输入文本内容并输出一个百分比分数 - 这就是问题所在。
尽管各种检测器在如何标记这个百分比分数方面存在一些差异,但它们几乎无一例外地给出相同的输出:整个提供的文本是由AI生成的百分比的确定度。
这会导致混淆,例如,当百分比被标记为“75% AI / 25% 人类”。
许多人会误解这个标记,认为它意味着“75%的文本是由AI写的,25%是由人类写的”,而实际上它的意思是“我有75%的确定度,这段文本是由AI完全写的”。
这种误解导致一些人提供了如何调整文本输入以“通过”AI检测器的建议。
例如,双感叹号(!!)是一个非常人类的特征,因此在一些由AI生成的文本中添加这个符号将导致AI检测器给出“99%+人类”的分数。
然后,这被误解为你已经“愚弄”了检测器。 但这只是检测器完美运作的一个示例,因为提供的段落不再完全由AI生成。
不幸的是,这种误导性的结论,即能够“愚弄”AI检测器,也常常与搜索引擎(如Google)无法检测到AI内容混为一谈,从而使网站所有者产生虚假的安全感。
谷歌对AI内容的政策和行动
谷歌在AI内容方面的声明在历史上一直含糊其辞,以便为其在执法方面留有余地。
然而,今年在Google Search Central发布了更新的指南,明确表示:
即使在此之前,Google搜索联系人丹尼·沙利文(Danny Sullivan)也在Twitter上参与了一些对话,确认他们“从未说过AI内容不好”。
谷歌列举了AI如何生成有用内容的具体示例,如体育比分、天气预报和文字记录。
很明显,谷歌更关心输出结果,而不是达到目标的手段,强调“生成内容的主要目的是操纵搜索结果排名,这是违反我们的垃圾邮件政策的行为”。 对抗SERP(搜索引擎结果页面)操纵是谷歌多年经验积累的一项工作,他们声称其系统的改进,比如SpamBrain,使得99%的搜索结果都“无垃圾邮件”,这包括UGC垃圾邮件、抓取、隐匿和各种形式的内容生成。
许多人已经进行了测试,以查看谷歌如何对待AI内容以及他们在质量方面划定何种界限。
在ChatGPT发布之前,我创建了一个网站,包含了大约10,000页的内容,主要由一个未监督的GPT3模型生成,回答了关于视频游戏的“人们还问”问题。
网站只有很少的链接,但迅速被索引,并稳定增长,每月吸引了数千名访问者。
然而,在2022年的两次谷歌系统更新——有用内容更新和后来的垃圾邮件更新中,谷歌突然并几乎完全压制了这个网站。
然而,从这样一个实验中得出“AI内容不起作用”的结论是错误的。
然而,这向我证明,当时的谷歌:
- 没有将未监督的GPT-3内容分类为“高质量”。
- 能够通过一系列其他信号检测并移除此类结果。
要得到终极答案,你需要提出更好的问题
基于谷歌的指南,我们对搜索系统、SEO实验和常识的了解,“搜索引擎能否检测到AI内容?”可能是一个错误的问题。
充其量,这只是一个非常短期的观点。
在大多数话题中,大型语言模型在事实准确性和符合谷歌的E-E-A-T标准方面难以一致生成“高质量”内容,尽管它们可以访问超出其训练数据的信息。
人工智能正在在以前缺乏内容的查询中取得重大进展。但随着谷歌朝着更宏伟的长期目标迈进,SGE这一趋势可能会减弱。
预计焦点将重新回到更长的专业内容,谷歌的知识系统将提供答案,以满足许多长尾查询,而不是引导用户前往众多小型网站。
本文中表达的观点属于特约作者,不一定代表Search Engine Land的观点。员工作者在这里列出。