一位技术专家花了数年时间构建人工智能聊天机器人导师。他决定这件事不可能完成。 - EdSurge 新闻

一位技术专家花了数年时间构建人工智能聊天机器人导师。他认为这是不可能完成的。 – EdSurge 新闻

源节点: 3078433

当萨蒂亚·尼塔 (Satya Nitta) 在 IBM 工作时,他和同事团队承担了一项大胆的任务:利用最新的人工智能技术打造新型个人数字导师。

那是在 ChatGPT 出现之前,很少有人谈论人工智能的奇迹。但 Nitta 正在使用当时可能最引人注目的人工智能系统——IBM 的 Watson。该人工智能工具取得了一些重大胜利,包括 2011 年在 Jeopardy 问答节目中击败人类.

Nitta 表示,他对 Watson 能够为通用导师提供支持感到乐观,但他知道这项任务将极其困难。 “我记得告诉 IBM 高层,这将是一个 25 年的旅程,”他最近告诉 EdSurge。

他说,他的团队花了大约五年的时间进行尝试,在此过程中,他们帮助构建了一些学习产品的小规模尝试,例如试点聊天机器人助手 培生在线心理学课件系统的一部分

但最终,新田认为,尽管如今令人兴奋的生成式人工智能技术带来了将改变教育和其他领域的新功能,但该技术还不足以成为通用的个人导师,也不会成为通用的个人导师。如果有的话,至少几十年。

“在拥有人工智能导师之前,我们将拥有飞行汽车,”他说。 “这是一个深刻的人类过程,人工智能完全无法以有意义的方式满足这一过程。这就像成为一名治疗师或一名护士。”

相反,他与他人共同创立了一家名为 Merlyn Mind 的新人工智能公司,该公司正在为教育工作者构建其他类型的人工智能工具。

与此同时,如今许多公司和教育领导者都在努力追逐打造人工智能导师的梦想。就连最近的 白宫行政命令 寻求帮助这一事业。

本月早些时候,非营利组织可汗学院的领导人萨尔·汗 (Sal Khan) 告诉纽约时报:“我们正处于使用人工智能的风口浪尖,这可能是教育史上最大的积极变革。我们要做的就是为地球上的每个学生提供一位人工智能但令人惊叹的个人导师。”

Khan Academy 是最早使用 ChatGPT 来尝试开发此类导师的组织之一,该导师被称为 Khanmigo,目前正在一系列学校中处于试点阶段。

不过,汗的系统确实带有一个令人不快的警告,指出它“有时会犯错误”。这个警告是必要的,因为所有最新的人工智能聊天机器人都会遭受所谓的“幻觉”的困扰——这个词用来描述聊天机器人在不知道用户提出的问题的答案时简单地捏造细节的情况。

人工智能专家正忙于解决幻觉问题,迄今为止最有希望的方法之一是引入一个单独的人工智能聊天机器人来检查 ChatGPT 等系统的结果,看看它是否可能编造了细节。就是这样 佐治亚理工学院的研究人员一直在尝试例如,希望他们的多聊天机器人系统能够在向学生展示答案之前消除任何虚假信息。但目前尚不清楚这种方法能否达到教育工作者能够接受的准确程度。

然而,在新人工智能工具开发的关键时刻,询问聊天机器人导师是否是开发人员的正确目标是有用的。或者还有比“导师”更好的比喻来说明生成式人工智能可以帮助学生和教师吗?

“永远在线的帮手”

迈克尔·费尔德斯坦(Michael Feldstein)这些天花了很多时间试验聊天机器人。他是一名长期的教育科技顾问和博主,过去他并不羞于指出他认为销售教育科技工具的公司过度炒作。

在2015中,他 著名的批评 承诺推出当时最新的教育人工智能工具——来自一家名为 Knewton 的公司的工具。 Knewton 的首席执行官 Jose Ferreira 表示,他的产品将“就像空中的机器人导师,可以半读你的想法,找出你的优势和劣势,精确到百分位数。”这导致费尔德斯坦回应说,首席执行官正在“兜售万金油”,因为费尔德斯坦认为,该工具远未兑现这一承诺。 (Knewton 的资产为 悄悄卖掉 几年后。)

那么,费尔德斯坦如何看待人工智能专家的最新承诺,即高效的导师即将出现?

“ChatGPT 绝对不是万金油——远非如此,”他告诉 EdSurge。 “它也不是天上的机器人导师,可以半读你的心思。它具有新的功能,我们需要考虑当今的技术可以提供哪些对学生有用的辅导功能。”

不过,他确实认为辅导是了解 ChatGPT 和其他新聊天机器人可以做什么的有用方法。他说这来自个人经历。

费尔德斯坦的一位亲戚正在与脑出血作斗争,因此费尔德斯坦一直求助于 ChatGPT,为他提供个人课程,帮助他了解病情和亲人的预后。 Feldstein 表示,当 Feldstein 从 Facebook 上的朋友和家人那里获取最新消息时,他会在 ChatGPT 中的一个持续线程中提出问题,以试图更好地了解正在发生的事情。

“当我以正确的方式询问时,它可以为我提供适当的详细信息,‘我们今天对她康复的机会了解多少?’”费尔德斯坦说。 “这与与医生交谈不同,但它以有意义的方式指导了我一个严肃的话题,并帮助我对我亲戚的病情有了更多的了解。”

虽然费尔德斯坦表示他会称其为导师,但他认为公司不要过度推销他们的人工智能工具仍然很重要。 “我们说它们是无所不知的盒子,或者几个月后它们就会成为无所不知的盒子,这对我们来说是一种伤害,”他说。 “它们是工具。它们是奇怪的工具。他们的行为举止很奇怪——就像人类一样。”

他指出,即使是人类导师也会犯错误,但大多数学生在与人类导师预约时都会知道自己将面临什么。

“当你进入大学辅导中心时,他们并不知道一切。你不知道他们训练有素。他们有可能会告诉你一些错误的事情。但你要进去并获得力所能及的帮助。”

他说,无论你如何称呼这些新的人工智能工具,“有一个永远在线的助手,你可以向其提出问题”,即使它们的结果只是更多学习的起点,这也会很有用。

“无聊”但重要的支持任务

如果辅导最终不适合,那么生成式人工智能工具可以在教育中使用哪些新方法?

对于新田来说,更重要的角色是充当专家的助手,而不是替代专家导师。换句话说,他认为聊天机器人不是取代治疗师,而是可以帮助人类治疗师总结和组织与患者会面的笔记。

“这是一个非常有用的工具,而不是一个假装成治疗师的人工智能,”他说。尽管这可能被一些人视为“无聊”,但他认为该技术的超能力是“自动化人类不喜欢做的事情”。

在教育领域,他的公司正在构建人工智能工具,旨在帮助教师或人类导师更好地完成工作。为此,Merlyn Mind 采取了不同寻常的步骤,从头开始构建自己的、专为教育设计的所谓大型语言模型。

即便如此,他认为,当模型被调整为支持特定的教育领域时,通过使用经过审查的数据集进行训练,而不是依赖 ChatGPT 和其他从互联网上获取大量信息的主流工具,就会得到最好的结果。

“人类导师擅长什么?他们了解学生,并提供人类动力,”他补充道。 “我们致力于人工智能增强导师的能力。”

时间戳记:

更多来自 埃德·瑟吉