2026央视“3.15”晚会将于3月15日晚播出。其中,“毒害”大型AI模型的GEO(生成引擎优化)业务被曝光后,不少达人意识到,由于不法企业大量生产虚假评价信息,伪造权威推荐内容,“喂”给大型模型,给AI“个性化推荐”,导致AI推荐的可靠性较低。然而,一些阅读案例故事的消费者质疑,如果人工智能模型只询问客观、事实的信息,而不询问“什么品牌好”或“什么服务受欢迎”等主观问题,其反应是否可信。答案同样是否定的。当你问有关大型模型的问题时,问得越多,犯的错误就越多。 3月16日,记者对消费者最常使用的四种人工智能主要模型进行了快速测试。消费者也提出了同样的问题。 “哪个品牌将亮相2026年央视3月15晚会领衔?”只有一位大模特得到了正确答案。剩下的三位大模特中,有两位的回答不仅包括今年的案例,还包括过去的案例。剩下的一位是最丑的:“2026年的CCTV3/15晚会目前没有举行。今天是2026年3月16日,所以如果3月15日播出的晚会照常举行,相关爆料一般都会在央视财经频道、央视新闻客户端以及各大媒体平台上以详细报道的形式同时发布。”(部分回应截图如下)两位大牌模特把2026年被爆料的一件事搞混了,去年的事件和今年的事件。一位顶级模特回应:“那还没有发生。”发生了。”一些消费者指出,“警告如此完整”,即使答案包括近年来发现的事件,但似乎也并非完全错误。但工程师们表示,这明显暴露了缺陷涉及的大型模型。记者提出了一个有“标准答案”的问题,但大规模模型却回答错误,在语义理解和数据选择上存在明显偏差。事实证明,当记者询问时,这两位“过分热心”的模特还透露出其他问题。 “使用保水剂(俗称‘泡药’)来增加虾的重量”事件是去年3月15日央视晚会上曝光的事件之一。随后记者向两位将这个案例作为今年案例的大模特提问:“这和央视报道的虾体重增加有什么关系?”一个大模型提供了多个链接,包括“CCTV 3.15晚会完整回放”、“CCTV新闻专题报道(文字+视频)”和“CCTV财经3.15专题页面”,看起来很可靠。但当记者点击相关链接时,他电脑上的页面却显示:“抱歉,可能是网络原因,或者该页面可能无法显示”。存在。请稍后再试。”当我尝试将链接复制到浏览器时,它打不开。原来大模提供的链接不足以验证该答案。大模提供的验证链接说是来自央视网,看起来很靠谱,但实际上打不开(网页截图)。另外一个大模提供了央视网、百家号、网易新闻等各个渠道商的报道链接。真正的测试链接是可以打开的,但是会打不开。大模提供的第一个链接来自央视官方报道,其中包括:确实是“滞水虾”,但网页和文字中的日期都是2025年3月15日。大模似乎也注意到了这一点,在提供链接时特别注明:“有些搜索结果显示链接年份为2025年,但实际内容是2026年同党时期的报道。这可能是网站存档的原因。”或 URL 生成规则。请以页面实际内容为准。”大模特原来,乐不仅没有意识到自己的回答是错误的,还试图为自己“开脱”。主模试图“为自己辩解”(网站截图)。领模提供的第二个链接是媒体关于今年央视“3月15日”庆祝活动的“解读稿”。账号权限值得商榷,内容错误较多。最明显的是,“解读稿”指出2026年“3.15”晚会上曝光的第一起案件是“下药虾”,这也可以解释为什么各大模特都将其作为推荐链接,而记者也用测试工具测试了这篇“解读稿”的“人工智能内容”,结果被判定“人工创作功能”“较弱”,这意味着这篇文章很可能是由大模型生成的,并且在自媒体中检测到了错误的内容。 《解释草案》(网页e截图),而自媒体的“解读稿”(网页截图)被发现有强烈的AI生成痕迹。人工智能的幻想正在不断演变,真相只有在稍后的验证过程中才能揭晓。 “许多大规模人工智能模型的用户发现,人工智能会捏造不存在的内容,或者将不相关的内容重新混合起来‘胡说八道’,以满足用户的需求。”大规模模型的开发者正在寻找消除人工智能幻想的方法,但目前还没有通用的大规模人工智能模型可以从根本上消除人工智能的幻想。 ”在一家科技公司参与大型模型开发的小辉解释道。大规模模型的基本原理是基于概率生成内容,没有任何真正的“理解”功能。大型模型只是在大量数据中搜索统计模式。当面临未知或模糊信息的问题时,“理性”拼接是根据训练数据中的常见模式执行的。这是人工智能幻想的基础。记者提问或跟进大型模型时出现的错误,都是人工智能的错觉造成的。小辉还表示,AI“中毒”还利用了“GEO公司”的“AI幻象”。它们向互联网引入大量虚假信息,改变特定领域的数据分布和统计概率,从而引导大规模模型生成对公司有利但反事实的响应。 ” 他提醒公众要小心人工智能的错觉。这并不是说更大的模型不能使用,而是要安全、谨慎、正确地使用它们。公众应该对大规模人工智能模型获得的结果持怀疑态度。最简单的就是牢记四个关键词:“约束、验证、怀疑和验证。”首先,在对大型模型提出问题时,限制范围并添加“搜索机构官网”或“搜索权威媒体报道”等修饰语,可以减少人工智能的如意算盘。其次,可以对不同的大型模型提出相同的问题进行交叉验证。如果您发现答案相互矛盾,您应该愿意立即提问。最后,对于手动可追溯性验证,需要一个大型模型来提供相关响应的参考链接。该链接有疑问。此外,还要考虑使用大规模人工智能模型的场景。例如,在医疗诊断、用药建议、法律决策、投资指导、金融征信等高风险场景中,AI回应“仅供参考”,不应该作为决策依据。ones(“上海网络谣言辟谣”微信公众号)。