本篇文章2542字,读完约6分钟

很多人在上学的时候都有这样的经历,但是经过寒假的返校,我发现上学期学的文案被遗忘了。 人工智能pk看到人类屡屡胜利后,有人羡慕ai强大的学习能力,但实际上人工智能的记忆并没有你想象的那么好。 如果像人工智能系统一样学习的话,学习新知识的可能性很高,大脑会忘记以前的拷贝。 理由是人工智能遭遇了毁灭性的遗忘。

最近,来自谷歌大脑的最新研究表明,通过拱廊学习环境的多个子任务组成的单任务场景也存在着毁灭性的遗忘。 特别是在蒙特兹马复仇这样的探索型游戏中,场景变化很大,在学习了当前的游戏场景之后,有时会忘记前一个游戏场景的知识。

那么为什么人工智能会产生毁灭性的遗忘? 现在,处理毁灭性遗忘的方案有哪些? 难点在哪里? 对此,科技日报记者采访了相关专家。

忘记深度学习效率低下

自阿尔法围棋( alpha围棋)相继战胜多个围棋冠军以来,深度学习已成为众多实现人工智能做法中最耀眼的明星,各大研发机构 谷歌大脑团队这次面临的灾难性遗忘是人工智能深度学习中面临的普遍而严重的问题。

毁灭性遗忘是指深度学习模式等人工智能系统,在学习新任务、适应新环境时,忘记或失去以前学习的能力。 腾讯人工智能实验室副主任俞栋在接受科技日报记者采访时表示:“毁灭性的遗忘将大大降低人工智能系统在以往的任务和环境中的性能。”

美亚柏科新闻中心社长魏朝东表示,在深度神经网络上学习不同任务时,相关权重的快速变化会损害以前任务的表现。 一般来说,如果在学习中像猴子一样煮熟或者丢了一个,记住新的知识,就有可能忘记旧的知识。

由此可见,毁灭性遗忘的存在在一定程度上限制了人工智能在一点场景中的应用。

福州大学数学计算机科学学院、福建省自媒体领域技术开发基地副主任柯逍遥博士表示,如需添加新类别的物体,必须重新学习原所有物体。 例如,在文物鉴定系统中,当有一天在原始数据中发现文物王朝是错误的时,就不能单独编辑和学习这个错误的文物。 如果让ai系统学英语再学德语的话,可能会把原来的英语语法全部忘记。

那么,谷歌大脑的最新研究中,毁灭性的遗忘带来了那些影响呢? 其中有什么新发现吗?

除了之前流传下来的新知识学习涵盖旧知识外,这次谷歌的大脑发现,在超级玛丽等探索型游戏中,毁灭性的遗忘会阻碍模型新知识的学习。 厦门大学科技处副处长、人工智能系教授纪荣嵓说。

纪荣嵓进一步解释说,面向街机游戏学习的强化学习方法使用的是经验再生的训练方法,即保留游戏探索时的模型,再生训练模型。 蒙特兹马复仇这样的游戏,游戏场景变化很大,模型需要不断探索游戏场景。 因此,训练中必须播放初始场景的游戏经验。 否则,由于毁灭性的遗忘,就会忘记初期的游戏知识。

这也可以在经验播放库中采样新的游戏经验,但由于学习方法的设定导致学习效率低下,不同阶段的学习相互干扰,ai无法一次通过该游戏的所有等级。 纪嵓说。

ai脑容量保存上限新旧知识难以共存

ai为什么会发生毁灭性遗忘?

如果深度学习的结构明确,则在训练中难以调整。 神经网络的结构直接决定了学习模型的容量。 科恩说,由于ai的脑容量有上限,人工智能只能在有限的范围内解决特定的任务。 就像水桶一半的高度有个洞一样,不管再怎么增加水桶的高度,这个水桶也只能装一半高的水。

中国科学院自动化所大脑互联网集团研究中心研究员、模型识别国家要点实验室副主任余山指出,这也涉及神经互联网的知识学习机制。 在单一任务的训练中,互联网中各神经元之间的连接权重进行了特别调整,以适应当前的任务。 另一方面,在新任务的训练中,连通性将与新任务进行重要的比较和调整,从而消除了适应旧任务的传统结构,在旧任务中的性能大幅下降。

人类的记忆能力其实有限,但是为什么很少发生毁灭性的遗忘? 第一,人类在学习过程中,大脑积极保存有用的知识和妙手,不影响新消息的获得。 纪嵓表示,但是,目前的人工智能模型大部分基于随机梯度的下降来更新模型参数,该过程对当前任务的优化最为重要,不认为这些参数的权重对旧知识有帮助,因此知识容易被覆盖

纪荣嵘也表示,像现在的siri和爱这样的人工智能助手产品,并不是真正意义上的通用人工智能。 另一方面,这些人工智能助手只能在预先设定的知识范围内与人类交流,完成命令。 另一方面,人类不能像养宠物和养孩子一样,通过互动向这些人工智能助手传授新的知识和命令。

有几种处理方案,但治标不治本

我知道,解除毁灭性遗忘是实现通用人工智能的关键。 处理灾难性遗忘问题,意味着模型具备持续学习的能力,可以像人类一样获得新的知识、新的技能,最大化旧的经验知识和精彩的方法。

目前有哪些解决灾难性遗忘的方案?

最常见的方法是多任务学习,将所有任务的训练数据汇总,模型可以比较多个任务进行联合优化。 纪嵓比如做模型学习坦克大战和超级玛丽两个任务,等两个任务,在学习的差不多的时候,模型停止训练。

但是,柯逍遥也指出,这种方式随着任务的增加,新的任务样本数量会被稀释,训练学习新知识的效率会变慢,并非任何情况下都能获得以前任务的数据进行复习。

另外,还有根据新的任务知识扩展模型结构,以防止旧的知识经验受到损害的处理方案。 这次,谷歌大脑提出的记忆片段的注意力是针对不同的任务(场景)构建多个人工智能模型进行学习。 模型扩展的方法本质上并不处理灾难性遗忘的问题,而是使用多个模型代替单个模型来学习多个任务,避免覆盖旧参数。 纪嵓说。

目前,要应对毁灭性遗忘,在学习新任务的过程中,需要给互联网提供足够的自由度来进行连接权重调整,但存在这样的调整不会消除原有记忆的矛盾。

因此,科学家们开始设计新的学习算法来处理上述矛盾,使互联网进行权重调整时对现有知识的影响最小化。 余山说,小组最近提出的正交权重编辑算法就是这样的,主要通过限制权重编辑在旧任务的解空之间进行,该算法克服了毁灭性的遗忘,同样的分类器互联网最多可达数千个卡卡

魏朝东认为,科学家们已经探索了许多处理方案,但目前的ai学习只是从认识科学中获得了灵感,大脑模拟还没有达到人们想象的高度,大部分ai学习方案先天不足, 灾难性遗忘是一个综合问题,不仅需要理论支撑,将来还需要切实可行的技术手段。 (记者谢开飞通讯员欧阳桂莲许晓凤王忆希)

责任编辑:

标题:“学了后面忘前面 治疗AI“健忘症”还难有良策”

地址:http://www.e6x2f.com/xwzx/4372.html