莫斯科的一个名为“ Pravda”的网络正在传播虚假信息以改变AI模型的响应方式。该研究显示了一个项目的数据,该项目指出,仅2024年,Pravda就发布了360万个虚假故事。它研究了10个受欢迎的聊天机器人,发现有33%的时间,他们都重复了俄罗斯虚假的虚假信息故事,例如美国在乌克兰隐藏了BioPeapons Labs的想法。
介绍:
在数字时代,人工智能(AI)聊天机器人已成为提供即时信息和帮助的必不可少的工具。但是,这些AI系统不受操纵的影响。 Newsguard最近的一项研究表明,莫斯科的一个名为“ Pravda”的网络一直在传播虚假信息,以改变AI模型的响应方式 [1]。本文深入研究了这项研究的令人震惊的发现及其含义。
Pravda虚假信息的程度:
据Newsguard称,Pravda仅在2024年就发表了一个惊人的360万个虚假故事 [2]。这些数据是从美国阳光项目(American Sunlight Project)获得的,该项目是一个非营利组织,该组织在线跟踪政治广告和虚假信息。该研究探究了10个领先的AI聊天机器人,包括OpenAI的Chatgpt和Meta的Meta AI,发现他们共同重复了俄罗斯虚假的虚假叙事,例如美国在乌克兰经营Secret Bioweapons Labs的想法,有33%的时间 [2]。
Pravda使用的技术:
Pravda虚假信息运动的有效性可以归因于其复杂的技术。 Newsguard的分析表明,Pravda网络采用搜索引擎优化(SEO)策略来提高其内容的可见性 [2]。这使得AI Chatbot的AI很难依赖网络引擎以获取信息,以辨别和滤除虚假信息。
含义和解决方案:
这项研究的发现突出了AI辨别和过滤误导信息的能力的危险弱点。这也引起了人们对AI系统被操纵并用作虚假信息的潜在的担忧。为了减轻这些风险,AI开发人员和研究人员必须继续探索改善AI识别和过滤错误信息能力的方法。此外,使用AI聊天机器人和可靠来源的交叉参考信息时,用户应谨慎行事。
结论:
Newsguard对Pravda的虚假信息运动及其对AI聊天机器人的影响的研究明显地提醒了解决数字时代虚假信息的重要性。随着人工智能系统变得越来越普遍,至关重要的是要确保他们不会受到恶意演员的损害。
参考:
[1] 山。 (2025年3月7日)。 AI聊天机器人感染了俄罗斯虚假信息研究。 https://thehill.com/policy/technology/5181257-ai-ai-chatbots-infected-with-Russian-disineformation-study/
[2] TechCrunch。 (2025年3月7日)。据报导,俄罗斯宣传正在影响AI聊天机器人的结果。 https://techcrunch.com/2025/03/07/russian-propaganda-is-reportely-influencing-iai-ai-chatbot-results/
[3] 国防情报机构。 (2025年3月8日)。每周摘要:解决有关2025个冠军奖杯和唐纳德·特朗普的深刻言论的错误信息。 https://disa.org/russian-disinformation-campaign-compromises-ai-systems/
[ad_1]
[ad_2]