人工智能已经达到了可以编写听起来如此人性化的文本的地步,以至于它欺骗大多数人认为它是由另一个人编写的。这些基于所谓的自回归模型的AI程序正被成功地用于创建和故意传播从虚假政治新闻到AI编写的博客文章的所有内容,这些博客文章对普通人来说似乎是真实的,并以听起来人性化的署名方式发布。
然而,根据林楚成博士的研究,尽管自回归模型可以成功地愚弄大多数人,但他们的能力总是有限的。怀廷工程学院计算机科学系的候选人。
“我们的工作表明,一些理想的智力品质——例如,形成一致论点而没有错误的能力——永远不会出现在任何大小合理、速度合理的自回归模型中,”语言和语音处理中心的成员林说。.
Lin的研究表明,自回归模型具有无法利用推理的线性思维过程,因为它们旨在使用之前的单词非常快速地预测下一个单词。这是一个问题,因为模型不是为了回溯、编辑或改变他们的工作而构建的,就像人类在写东西时所做的那样。
“[人类]各个领域的专业人士都会这样做。最终产品可能会显示出一尘不染的作品,但也有可能这些作品不是一次性完成的,没有在这里和那里进行编辑,”林说。“但是当我们通过让这些[AI]模型模仿人类写作来训练这些[AI]模型时,这些模型并没有观察到在最终版本之前发生的多次重写。”
Lin的团队还表明,当前的自回归模型还有另一个弱点:它们没有给计算机足够的时间来提前“思考”下一个单词后应该说什么,因此不能保证它所说的不会是胡说八道。
“自回归模型已经证明自己在某些情况下非常有用,但它们不是用于推理的合适计算模型。我还发现有趣的是,我们的结果表明,如果我们所做的只是试图让机器模仿人类会说话,”他说。
结果是,自回归模型产生的文本越多,它们的错误就越明显,使文本面临被其他人标记或注意到的风险,甚至需要更少资源才能有效区分所写内容的不太先进的计算机程序通过自回归模型,以及人类编写的内容。
由于计算机程序可以破译自回归模型编写的内容和人类编写的内容,因此林认为,拥有可以使用推理的AI的积极意义远远大于消极意义,尽管消极意义可能是错误信息的传播。他说,一个称为“文本摘要”的过程提供了一个例子,说明能够使用推理的人工智能将如何发挥作用。
“这些任务让计算机阅读一篇长篇文章,或者一张包含数字和文本的表格,然后计算机可以用几句话解释发生了什么。例如,总结一篇新闻文章,或者一家餐馆在Yelp上的评级,使用几句话,”林说。“具有推理能力的模型可以生成更真实的文本,也更符合事实。”
多年来,林一直与他的导师杰森·艾斯纳教授一起从事这项研究,这是他论文的一部分。他希望利用这些发现来帮助为他的论文研究设计一种神经网络架构,名为“神经正则表达式以帮助AI更有效地理解单词的含义”。
“在许多事情中,NRE可用于构建一个对话系统,机器可以使用人类预定义的规则集从与人类的对话中推断出未观察到的事物,例如意图。这些未观察到的事物随后可用于塑造机器的响应,”林说。