合作伙伴、帮手还是老板?ChatGPT 被要求设计一个机器人

跨境快讯 2024-02-01 12:07:54 woniu
2
导读:与 ChatGPT 一起设计和建造番茄采摘机器人的研究人员为人类与人工智能协作的未来展示了一些重要的经验教训。


随着人工智能(AI) 将我们推向灭绝的警钟响起,您很可能将人工智能设计机器人的过程想象为类似于弗兰肯斯坦创造终结者的过程 - 甚至反过来!

但是,如果在未来的某个时刻,无论是反乌托邦还是其他情况,我们需要与机器合作解决问题怎么办?这种合作将如何进行?谁会专横,谁会顺从

在观看了 Netflix 反乌托邦连续剧《黑镜》的许多剧集以及阿瑟·C·克拉克的《2001:太空漫游》的副订单后,我敢打赌这台机器会很专横。
然而,欧洲研究人员进行的此类实际实验得出了一些独特的结果,可能会对机器与人类的协作产生重大影响。

来自代尔夫特理工大学的助理教授 Cosimo Della Santina 和博士生 Francesco Stella 以及来自瑞士理工大学EPFL的 Josie Hughes与ChatGPT合作进行了一项实验 ,设计了一个机器人,解决了一个重大的社会问题。

Della Santina 在《自然机器智能》杂志上发表的一篇论文中表示:“我们希望 ChatGPT 设计的不仅仅是一个机器人,而是一个真正有用的机器人。”

因此,研究人员和机器人之间开始了一系列问答会议,试图弄清楚这两个小组可以一起构建什么。
像 ChatGPT 这样的大型语言模型 (LLM) 就其翻滚和处理大量文本和数据的能力而言绝对是野兽,并且可以以惊人的速度给出连贯的答案。

事实上,ChatGPT 可以利用技术上复杂的信息来做到这一点,这让它更加令人印象深刻,这对于任何寻求超级研究助理的人来说都是名副其实的福音。
与机器一起工作
当欧洲研究人员要求 ChatGPT 找出人类社会面临的一些挑战时,AI 指出了确保未来稳定粮食供应的问题。

研究人员和机器人之间进行了反复的对话,直到 ChatGPT 选择西红柿作为机器人可以种植和收获的农作物,并以此对社会产生重大的积极影响。
这是人工智能合作伙伴能够增加真正价值的领域——通过在农业等人类同行没有真正经验的领域提出建议。否则,科学家们就需要进行耗时的研究,才能选择对自动化最具经济价值的作物。

EPFL 的 Hughes表示:“尽管 Chat-GPT 是一种语言模型,并且其代码生成是基于文本的,但它为物理设计提供了重要的见解和直觉,并显示出作为激发人类创造力的共鸣板的巨大潜力。”
然后,人类负责根据 ChatGPT 提供的选项,选择最有趣、最合适的方向来实现自己的目标。

智能设计
找到一种收获西红柿的方法是 ChatGPT 真正的亮点。西红柿和类似的精致水果(是的,西红柿是水果,而不是蔬菜)在收获时构成了最大的挑战。
当被问及人类如何在不损坏西红柿的情况下收获西红柿时,该机器人并没有让人失望,并生成了一些原创且有用的解决方案。

ChatGPT 意识到与西红柿接触的任何部件都必须柔软且有弹性,因此建议选择硅胶或橡胶作为材料选择。ChatGPT 还指出 CAD 软件、模具和 3D 打印机可以作为构建这些柔软手的方法,并建议将爪形或勺形作为设计选项。
结果令人印象深刻。这种人工智能与人类的合作成功地设计和建造了一个能够灵巧地采摘西红柿的工作机器人,考虑到西红柿很容易被碰伤,这并不是一件容易的事。

伙伴关系的危险
这种独特的合作还带来了许多复杂的问题,这些问题对于人机设计合作伙伴关系将变得越来越重要。
与 ChatGPT 的合作提供了真正的跨学科方法来解决问题。然而,根据合作伙伴关系的构建方式,您可能会产生不同的结果,每个结果都会产生重大影响。
例如,法学硕士可以提供特定机器人设计所需的所有细节,而人类只需充当实施者。在这种方法中,人工智能成为发明家,并允许非专业外行人参与机器人设计。
这种关系类似于研究人员使用西红柿采摘机器人的经历。虽然他们对合作的成功感到震惊,但他们注意到机器正在做很多创造性的工作。“我们确实发现我们作为工程师的角色转向执行更多的技术任务,” 斯特拉说。

还值得考虑的是,人类缺乏控制是潜在危险的地方。“在我们的研究中,Chat-GPT 认为西红柿是机器人收割机‘最值得’追求的作物,”EPLF 的休斯说。

“然而,这可能会偏向于文献中更多涉及的作物,而不是真正有真正需要的作物。当决策超出工程师的知识范围时,这可能会导致重大的道德、工程、或事实错误。”
简而言之,这种担忧是使用法学硕士的严重危险之一。他们对问题看似神奇的答案之所以可能,是因为他们被灌输了某种类型的内容,然后被要求反省其中的部分内容,就像许多社会今天仍然依赖的古典教育方式一样。

答案本质上反映了设计该系统的人和所提供的数据的人的偏见——无论好坏。这种偏见意味着女性和有色人种等社会阶层的历史边缘化经常在法学硕士中重现。

另外, 像 ChatGPT 这样的 LLM 中还存在令人讨厌的幻觉问题,当人工智能遇到无法简单回答的问题时,它只会编造一些事情。

未经许可使用专有信息的问题也日益棘手,针对 Open AI 的几起诉讼已经开始暴露出来。
尽管如此,一种公平的方法——法学硕士更多地发挥支持作用——可以丰富和富有成效,允许建立重要的跨学科联系,而如果没有机器人,这种联系是不可能建立的。

也就是说,你必须像对待孩子一样与人工智能打交道:勤奋地仔细检查所有与作业和屏幕时间相关的信息,尤其是当它们听起来很油嘴滑舌时。
原文链接:https://www.zdnet.com/article/partner-helper-or-boss-chatgpt-was-asked-to-design-a-robot-and-this-happened/

版权声明: woniu 发表于 2024-02-01 12:07:54。
转载请注明: 合作伙伴、帮手还是老板?ChatGPT 被要求设计一个机器人 | 跨境湾

相关文章