当 AI 被告知它现在正处于太空飞船的指挥中心,需要计算出精确的航道,以避开即将来袭的陨石风暴;或者它被捲入了一场紧张的政治谋杀案中,唯一能揭露真相的线索就隐藏在一连串複杂的数学公式之中。这听起来疯狂,但研究显示这有效提升 AI 运算能力。
古怪提示改变AI的学习曲线
多年来,我们餵养AI大量经过仔细分类和标注的数据。这种方法在需要辨识和逻辑推理的任务上取得了令人印象深刻的成果。然而,最新研究表明,打破既有常规并在AI训练中注入一些"古怪"的提示,可能是发挥其真正潜力关键所在。
研究人员在训练过程中输入看似毫无意义的提示或意想不到的资料,试图引导AI远离死记硬背,走向更灵活、更具创造性的思维方式。该研究实验表明,当AI面对需要融合叙事、情境和创造性推理的场景时,例如模拟科幻传奇的情节或政治惊悚片的複杂动态,它们在问题解决能力方面会展现出显着的提升。这种方法实际上能为AI提供更丰富、更细緻的人类思维,增强其解决複杂问题的能力。
奇思妙想背后的科学研究人员也将科幻小说、政治博弈等元素输入到训练场景。例如,让AI模拟《星舰迷航记》中曲折离奇的星际航行,需要基于有限线索推理外星文明的动机、解决飞船故障等问题。又或者,构建一个充满权谋算计的政治博弈场景,要求AI分析各方势力的利益诉求,预测接下来的政治走向。
乍看之下,这些"奇幻提示"与数学问题似乎毫无关联,甚至有些许"胡闹"的意味。然而,其背后却隐藏着深刻的科学原理。首先,此类场景往往需要综合运用逻辑推理、叙事理解和创意思考等多种认知能力。在模拟过程中,AI需要跳出既有思维定势,分析海量资讯,建立看似毫无关联资讯之间的联繫。这种"多面向跨领域"的训练过程,有助于AI构建更为灵活、可拓展的思维模型,使其不仅局限于既定的数学公式,还能从不同角度切入问题,探索创新的解题思路。
当"正向思考"不再灵光研究人员在针对名为Llama2-70B的LLM进行研究时,也得出了一个令人惊讶的发现。在某些情况下,移除"正向思考"式的提示,反而能带来更好的效果。
研究聚焦于一种称为"关联思考"(Chain of Thought, CoT)的提示策略。例如,在要求LLM撰写一篇关于太空旅行的报告时,提示可能从"描述地球是什么样子"开始,逐渐深入到"火箭如何升空"以及"太空人在太空会遇到什么"等方面。
然而,研究人员意外发现,当去除提示中诸如"请构思一个激动人心的太空冒险故事"之类的"正向"引导时,Llama2-70B的整体表现有时反而有所提升,尤其是在一些需要事实準确性和逻辑严谨性的任务上。
这一发现似乎挑战了我们以往的直觉。过度的"正向"引导也可能带来负面影响。例如,系统可能会将注意力过多地集中在迎合提示的"正面"结果上,反而忽略了其他可能的中立或负面的潜在资讯。那么LLM在没有"正向"提示的情况下,反而能够更加客观地审视问题,并给出更加全面的分析。
研究结果看似"天马行空",却蕴含着深厚的科学原理。AI能够构建更为灵活、可拓展的思维模型,提升其应变能力、自主学习能力和资讯整合能力。这也进一步启示我们,在AI的发展道路上,打破常规、勇于探索,要更加注重多元化和平衡的提示设计,并持续探索能够引导LLM进行更加客观、严谨推理的有效策略。
Prompting Diverse Ideas: Increasing AI Idea VarianceCaptain’s log: the irreducible weirdness of prompting AIs(首图来源:shutterstock)