ChatGPT 正在给国家安全带来新的风险

ChatGPT 正在给国家安全带来新的风险

源节点: 2776182

大型语言模型如 ChatGPT 和克劳德提供了广泛的有益的 应用领域。 然而,它们的使用存在重大风险,需要伙伴国家之间协调努力,针对恶意信息行动的威胁建立坚实、综合的防御。

大型语言模型可以帮助生成创意故事情节、制定营销活动,甚至创建个性化的餐厅推荐。 然而,他们经常生成明显错误的文本。 这一设计不仅对人工智能的日常使用,而且对美国的国家安全都有着深远的影响。

人工智能生成的内容可以表现出一种称为“感实性“” — 电视主持人 Stephen Colbert 在 2000 年代初创造的短语,用来描述信息如何让人感觉正确。 这个概念强调,尽管缺乏事实准确性,但具有高度连贯逻辑结构的内容可以影响聪明、老练的人们如何判断某件事是否真实。

我们的认知偏见意味着精心编写的内容或引人注目的视觉效果有能力使主张看起来比实际情况更真实。 作为一名研究“真实”的学者 它描述:“当事情感觉很容易处理时,他们就会感到值得信赖。”

美国的对手可以利用人工智能模型听起来“真实”的潜力——制作连贯、结构良好和有说服力的句子,模仿人类的写作——以获得优势。 互联网的覆盖范围遍及全球,通过颠覆性地侵入真相,为外国干涉创造了一个有效的媒介。

国家行为者正在利用数字技术开展敌对信息活动,利用在线工具和信息操作来促进他们的利益。 国家行为者可以操纵认知流畅性偏差和真实性来塑造社会政治舞台,扩大人工智能驱动的语言模型在恶意信息操作、大规模鱼叉式网络钓鱼活动和日益可信的深度造假媒体中的潜在滥用。

在信息操作中利用认知流畅性偏差可能会给错误信息披上欺骗性的可信度外衣,从而导致政治体系和社会凝聚力的不稳定。

微软总裁布拉德·史密斯 在25月XNUMX日的一次演讲中说 美国将“必须特别解决我们最担心的外国网络影响行动,即俄罗斯政府、中国和伊朗已经在进行的此类活动。”

俄罗斯黑客的 粗制滥造的深度伪造尝试 描绘乌克兰总统弗拉基米尔·泽伦斯基呼吁乌克兰人放下武器的画面很容易辨认。 但现在很明显这个问题不再是学术问题。 现实迫在眉睫,恶意视频、伪造文件和假冒社交媒体账户可能会从被视为粗俗转变成传达一种具有欺骗性的真实性。

依赖虚假信息的颠覆活动激增,以及恶意行为者的加大力度,凸显了美国及其盟友采取战略反应的必要性。 为了应对这些趋势,美国决策者需要一项建立在警惕监测、主动警告和国际合作基础上的全面战略。

这一战略的基石应该是对信息环境的警惕监控。 随着人工智能和机器学习的进步,持续监控对于及早发现和消除虚假信息活动至关重要。

这一立场呼应了美国国防部关于提高“监测、分析、表征、评估、预测和可视化”信息环境能力的呼吁, 详细 在其 2016 年“信息环境中的运营战略”中。 为了实现这一目标,军事和情报机构将需要专门的单位来专门负责 信息战,它可以提供解释和处理收集到的数据所需的关键专业知识。

美国政府还需要一个强大的预警系统,同时宣传真相并揭露虚假信息。 及时有效的警告可以帮助保护公众免受虚假叙述的影响,从而大大减少虚假信息活动的影响。 在这种情况下,真理的力量是一个强大的工具。 它是对抗谎言腐蚀作用的有效对策。

最后,需要加强与国际盟友的战略伙伴关系。 恶意虚假信息活动的全球性质要求反制措施同样具有深远意义。 这些伙伴关系提供了宝贵的当地知识并促进了信任,两者都可以极大地提高警告的可信度并增强社会抵御虚假信息的能力。

克里斯托弗·穆顿(Christopher Mouton)是兰德智库的高级工程师,也是帕迪·兰德研究生院的教授。

时间戳记:

更多来自 国防新闻五角大楼