ChatGPT 共同设计了它的第一个机器人

ChatGPT 共同设计了它的第一个机器人

源节点: 2707635
07年2023月XNUMX日(Nanowerk新闻)诗歌、散文甚至书籍——还有什么是开放人工智能平台 ChatGPT 处理不了的呢?这些新的人工智能发展激发了代尔夫特理工大学和瑞士洛桑联邦理工大学的研究人员进行更深入的研究:例如,ChatGPT 也可以设计机器人吗?这对于设计过程来说是一件好事还是有风险? 研究人员发表了他们的研究结果 自然机器智能 (“法学硕士如何改变机器人设计流程?”)。 人类未来面临的最大挑战是什么?这是来自代尔夫特理工大学的助理教授 Cosimo Della Santina 和博士生 Francesco Stella 以及来自 EPFL 的 Josie Hughes 向 ChatGPT 提出的第一个问题。 “我们希望 ChatGPT 设计的不仅仅是一款机器人,而是一款真正有用的机器人,”Della Santina 说道。最终,他们选择了食物供应作为挑战,在与 ChatGPT 的交谈中,他们萌生了创造番茄收获机器人的想法。 ChatGPT 设计的番茄采摘机器人手臂 ChatGPT 以及代尔夫特理工大学和洛桑联邦理工学院的研究人员设计的番茄采摘机器人手臂“看着”摄像头。 (图片来源:Adrien Buttier / EPFL)

有用的建议

研究人员遵循 ChatGPT 的所有设计决策。斯特拉表示,事实证明,这些意见在概念阶段特别有价值。 “ChatGPT 将设计师的知识扩展到其他专业领域。例如,聊天机器人告诉我们哪种作物实现自动化最具经济价值。”但 ChatGPT 在实施阶段也提出了有用的建议:“用硅胶或橡胶制作夹具,以避免压碎西红柿”和“Dynamixel 电机是驱动机器人的最佳方式”。人类与人工智能合作的成果是可以收获西红柿的机械臂。

ChatGPT 作为研究员

研究人员发现协作设计过程是积极且丰富的。 “然而,我们确实发现我们作为工程师的角色转向执行更多技术任务,”斯特拉说。在《自然机器智能》中,研究人员探索了人类与大型语言模型 (LLM) 之间不同程度的合作,ChatGPT 就是其中之一。在最极端的情况下,人工智能为机器人设计提供所有输入,而人类则盲目跟随。在这种情况下,法学硕士充当研究员和工程师,而人类充当经理,负责指定设计目标。

错误信息的风险

对于今天的法学硕士来说,这种极端的情况是不可能发生的。问题是这是否可取。 “事实上,如果未经验证或验证,法学硕士的输出可能会产生误导。人工智能机器人旨在生成问题的“最有可能”答案,因此机器人领域存在错误信息和偏见的风险,”德拉桑蒂纳说。与法学硕士合作还引发了其他重要问题,例如剽窃、可追溯性和知识产权。 Della Santina、Stella 和 Hughes 将继续在机器人研究中使用番茄收获机器人。他们还在继续研究法学硕士,以设计新的机器人。具体来说,他们正在研究人工智能在设计自己身体时的自主性。 “对于我们领域的未来来说,最终的一个悬而未决的问题是如何利用法学硕士来帮助机器人开发人员,同时又不限制机器人应对 21 世纪挑战所需的创造力和创新,”斯特拉总结道。

时间戳记:

更多来自 Nanowerk