最高法院首席法官报告人工智能法官

最高法院首席法官报告人工智能法官

源节点: 3046918

美国最高法院首席大法官约翰·罗伯茨认为,人工智能将在法律程序中发挥越来越重要的作用,但他预计“人类法官还会存在一段时间”。

罗伯茨在其 2023 年联邦司法机构年终报告中提出了这一观点 [PDF],之前没有涉及过这个话题。

罗伯茨写道:“人工智能显然具有巨大的潜力,可以显着增加律师和非律师获取关键信息的机会。” “但同样明显的是,它有侵犯隐私利益和非人性化法律的风险。”

罗伯茨指出,人工智能系统的潜在价值是帮助那些无力承担法律代理费用的人自行准备法庭文件。与此同时,他警告说,人工智能模型已经使 新闻头条 因为他们有产生幻觉的倾向,“这导致使用该应用程序的律师提交摘要并引用不存在的案件。 (总是一个坏主意。)”

似乎是为了强调这种担忧,上周公布的文件显示,曾为唐纳德·特朗普总统处理法律事务的律师迈克尔·科恩(Michael Cohen)已将自己的律师交给了他。 虚假的法律引文 来自谷歌巴德。在承认 2018 年竞选财务违规行为后,他这样做是为了支持一项寻求提前结束法院下令对其进行监督的动议。

罗伯茨还认为,机器目前无法与人类法官评估被告言论诚意的能力相媲美。 “细微差别很重要:颤抖的手、颤抖的声音、语调的变化、一滴汗、片刻的犹豫、眼神交流的短暂中断都可能带来很多变化,”他写道。

他接着观察到,在人工智能用于评估潜逃风险、累犯或其他预测性决策的刑事案件中,关于此类系统可能包含的正当程序、可靠性和偏见的争议一直存在。

罗伯茨写道:“至少目前,研究表明公众对‘人类与人工智能的公平差距’存在持续的看法,这反映出这样一种观点,即人类的裁决尽管存在种种缺陷,但比机器吐出的任何裁决都更公平。”

哈佛大学学者维多利亚·安吉洛娃(Victoria Angelova)、威尔·多比(Will Dobbie)和克里斯托·杨(Crystal Yang)在 9 月份通过国家经济研究局发表的一篇论文对这种看法提出了质疑。这 《算法建议和人类自由裁量权》发现,当人类法官推翻算法决定是否释放或拘留被告保释时,90% 的人类在发现潜在累犯方面表现不佳。

作者在论文中指出:“这一发现表明,我们环境中的典型法官在预测不当行为方面不如算法熟练,而且我们可以通过自动化释放决策来大幅降低不当行为率。”

与此同时,10% 的法官在推翻算法建议时设法超越算法,并且能够更好地预测被告的不当行为。这些“高技能法官”的共同点是,他们以前不太可能在执法部门工作,而且更擅长使用算法无法获得的私人信息。

该论文称,低技能法官更关注种族等人口因素,而高技能法官则更关注心理健康、药物滥用和财务资源等非人口问题。

罗伯茨认为,人类法官无疑会存在一段时间。对于表现不佳的大多数人来说,人工智能可能可以帮助他们变得更好,至少在审前决策方面是这样。 ®

时间戳记:

更多来自 注册