当前位置:首页 > 经验分享 > 正文

科学家称,聊天机器人正在发展对世界的理解

  

  

  几乎所有人都说,人工智能仍远未达到人类的智能水平,但一些研究人员现在表示,这项技术可能比我们意识到的要了解得更多。

  据报道,普林斯顿大学的一名研究员和谷歌DeepMind的一名科学家发现,随着大型语言模型(llm)变得越来越大,它们开始产生几乎可以肯定不是训练数据一部分的输出。

  简而言之,普林斯顿大学的Sanjeev Aroroa和DeepMind的Anirudh Goyal认为,人工智能似乎对周围的世界有了更多的了解,并正在相应地输出信息。

  从解决困难的数学问题到推断人类思维,法学硕士近年来表现出了一些更令人惊讶的能力,在试图弄清楚这些能力的具体细节时,两人提出了大胆的假设。

  “这是从哪里来的?”阿罗拉回忆起当时的思考,“这能从下一个单词的预测中产生吗?”

  使用随机图(图上点之间的线可以随机选择的数学对象)来举例说明法学硕士的意外行为,两人确定,这些模型不仅似乎在开发训练数据中没有的技能,而且在它们成长的过程中,它们似乎在一次使用不止一种技能。

  去年秋天,戈亚尔和阿罗拉与其他研究人员一起发表了一篇尚未经过同行评审的论文,在GPT-4上测试了他们的理论,GPT-4是OpenAI法学硕士的最新、最先进的版本,是ChatGPT的基础。

  科学家们要求GPT-4写三句关于决斗的句子,这是一个随机选择的话题,并且在这样做时使用四种技巧:自私偏见、隐喻、统计三段论和常识物理学。虽然最初并没有限制在三句话以内,但法学硕士的回答仍然令人震惊:

  尽管阿罗拉向杂志承认这段话“不是海明威或莎士比亚的”,但他和他的团队相信,这一结果表明,像GPT-4这样强大的大型模型能够跨越训练数据之外的部分,甚至可能“理解”他们提出的问题,因为缺乏更好的术语。

  没有参与这项研究的微软计算机科学家ssamubastiaen Bubeck说,研究小组的结果似乎确实表明,法学硕士“不能只是模仿训练数据中看到的东西”。

  布贝克说:“(研究小组)从理论上证明,也从经验上证实,存在组合泛化,这意味着(法学硕士)能够将从未被组合在一起的构件组合在一起。”“对我来说,这就是创造力的本质。”

有话要说...