当前位置: 首页 >> 基本常识
人气推荐
Nature子刊封面:将拓扑应用于机器学习,提升神经网络可解释性
  
  来源: www.fycek.com 点击:1204

我想在4天前分享新的智慧

新智慧报告

编辑:肖琴,彭飞

[新智元导读]意大利数学家小组最近在《自然机器智能》上发表了一份报告,称25年前提出的拓扑数据分析理论(TDA)使机器学习算法能够更快地执行图像识别,这被认为是当前的神经网络。数字矩阵理论的训练通常需要大量的训练数据,而这些数据无法提取出共同的特征。拓扑数据分析可以教会神经网络从形状或局部特征中识别通用性,从而大大缩短训练时间并提高图像识别等处理能力。

葡萄牙的里斯本,来自意大利的数学家团队以及尚帕里莫德未知中心(CCU)的几位神经科学家兴奋地讨论了刚刚发表在《自然机器智能》上的研究结果。

这一结果证明,通过使用25年前开发的数学理论,人工视觉机器可以更快地学习复杂的图像。顺便说一下,这些数学家提出了这一理论。

聪明的汉斯的故事

尽管神经网络在模式识别方面已经越来越成功,但事实是,没有人真正知道学习任务内部发生了什么,基本上这是一个黑匣子。我们无法确定实际从初始数据中提取了哪些特征,提取了多少特征,因此我们无法确定其中哪些特征对人脸识别真正有意义。

就像上世纪初德国的一匹叫聪明汉斯的马一样。它的主人声称这匹马非常聪明,可以用马蹄铁阅读,拼写和计算数字,并使用前蹄来找出正确的答案。即使在1911年,在经过专家组的评估后,据信汉斯及其所有者也没有作弊。

然而,实际上,汉斯只接受其主人的精心训练,在每次表演中,他都会收到一个建议,即主人似乎与亲戚无关,也不容易察觉。

该论文的第一作者和CNU系统神经科学实验室的Mattia Bergomi解释说,这与机器学习相同。研究人员无法控制机器的工作方式或在培训过程中学到的东西。

解决上述问题是他们团队研究成果的核心方向。

使用几何形状推断机器学习的例程

称为拓扑数据分析(TDA)的抽象数学理论是关键。

TDA开发的第一步是由意大利数学家Patrizio Frosini于1992年率先提出的。他是该新研究论文的合着者,目前在博洛尼亚大学任教。

贝尔戈米说:``拓扑是最纯粹的数学形式之一。 “在过去几年中,TDA广为人知,一直以来,拓扑一直被认为不适合任何特定的事物。”

现在的问题是当前的神经网络不擅长拓扑。例如,机器无法识别旋转的物体。对于他们来说,同一对象每次旋转都会看起来完全不同。为了使机器成为旋转的物体或原始物体,唯一的解决方案是让网络在每次旋转后尽可能多地记住。

想象一下,如果您将TDA视为一种数学工具,可以在任何可以表示为大量数字的复杂对象中找到有意义的内部结构(拓扑特征)。这可以通过精心选择的“镜头”来完成,也可以通过过滤器查看数据来完成。

TDA使得教一个神经网络来识别面部成为可能,而不必以面部可能在空间中呈现的每个不同方向呈现它。现在,即使在不同的旋转位置,机器也会将所有旋转的面孔识别为同一面孔。

在他们的研究中,科学家教过神经网络识别手写数字,以测试将机器学习与TDA相结合的好处。结果不言自明。

由于这些网络的地形绘制者较弱,并且手写内容可能非常模糊,因此可能无法将两个不同的手写号码与当前机器区分开。相反,他们可能会将同一手写数字的两个实例标识为不同的数字。

为了注入有关数字的知识,团队构建了一套他们认为有意义的先验特征。换句话说,网络将通过一组“镜头”看到数字,然后强制机器选择这些镜头以查看数字。

TDA增强型神经网络将学习如何区分所有5和7,无论它们写得多么糟糕。

Bergomi说:“我们在数学中描述的是如何强制执行某些对称性。这为构建机器学习代理提供了一种策略,该代理可以通过将知识用作约束注入来从几个示例中学习。重要特征”

这是否意味着将来模仿大脑的学习机的内部运作将变得更加透明,从而对大脑本身的工作方式有了新的见解?

无论如何,这是Bergomi的目标之一。他说:“对人工智能的解释是其与生物智能的相互作用和整合所必需的。”

他目前正在与他的同事Pietro Vertechi合作开发一种新的神经网络体系结构,该体系结构使人们能够快速将高级知识注入这些网络中,以控制和加速他们的训练。

参考链接:

收款报告投诉

新智慧报告

编辑:肖琴,彭飞

[新智元导读]意大利数学家小组最近在《自然机器智能》上发表了一份报告,称25年前提出的拓扑数据分析理论(TDA)使机器学习算法能够更快地执行图像识别,这被认为是当前的神经网络。数字矩阵理论的训练通常需要大量的训练数据,而这些数据无法提取出共同的特征。拓扑数据分析可以教会神经网络从形状或局部特征中识别通用性,从而大大缩短训练时间并提高图像识别等处理能力。

葡萄牙的里斯本,来自意大利的数学家团队以及尚帕里莫德未知中心(CCU)的几位神经科学家兴奋地讨论了刚刚发表在《自然机器智能》上的研究结果。

这一结果证明,通过使用25年前开发的数学理论,人工视觉机器可以更快地学习复杂的图像。顺便说一下,这些数学家提出了这一理论。

聪明的汉斯的故事

尽管神经网络在模式识别方面已经越来越成功,但事实是,没有人真正知道学习任务内部发生了什么,基本上这是一个黑匣子。我们无法确定实际从初始数据中提取了哪些特征,提取了多少特征,因此我们无法确定其中哪些特征对人脸识别真正有意义。

它就像上世纪初德国一匹叫聪明汉斯的马。它的主人称,这匹马非常聪明,可以用马蹄读、拼、算数字,还可以用前蹄踩出正确答案。即使在1911年,经过专家组的鉴定,人们相信汉斯和它的主人并没有作弊。

然而,在现实中,汉斯只是经过主人的精心训练,在每次表演中,他都会收到主人似乎毫不相干、不易察觉的暗示。

论文的第一作者和cnu系统神经科学实验室的mattia bergomi解释说,这与机器学习是一样的。研究人员无法控制这台机器的工作方式,也无法控制它在训练过程中学到了什么。

解决上述问题是他们团队研究成果的核心方向。

使用几何图形推断机器学习的程序

一个抽象的数学理论称为拓扑数据分析(tda)是关键。

TDA发展的第一步是由意大利数学家帕特里齐奥弗罗西尼在1992年开创的。他是这篇新研究论文的合着者,目前在博洛尼亚大学工作。

“拓扑学是最纯粹的数学形式之一,”贝戈米说。“在过去几年中TDA被发现之前,这种拓扑结构一直被认为不适合任何特定的应用。”

现在的问题是,目前的神经网络不擅长拓扑结构。例如,机器无法识别旋转的物体。对他们来说,同一个物体每次旋转都会看起来完全不同。为了使机器成为旋转的对象或原始对象,唯一的解决方案是让网络在每次旋转后尽可能多地记住。

想象一下,如果您将TDA视为一种数学工具,可以在任何可以表示为大量数字的复杂对象中找到有意义的内部结构(拓扑特征)。这可以通过精心选择的“镜头”来完成,也可以通过过滤器查看数据来完成。

TDA使得教一个神经网络来识别面部成为可能,而不必以面部可能在空间中呈现的每个不同方向呈现它。现在,即使在不同的旋转位置,机器也会将所有旋转的面孔识别为同一面孔。

在他们的研究中,科学家教过神经网络识别手写数字,以测试将机器学习与TDA相结合的好处。结果不言自明。

由于这些网络的地形绘制者较弱,并且手写内容可能非常模糊,因此可能无法将两个不同的手写号码与当前机器区分开。相反,他们可能会将同一手写数字的两个实例标识为不同的数字。

为了注入有关数字的知识,团队构建了一套他们认为有意义的先验特征。换句话说,网络将通过一组“镜头”看到数字,然后强制机器选择这些镜头以查看数字。

TDA增强型神经网络将学习如何区分所有5和7,无论它们写得多么糟糕。

Bergomi说:“我们在数学中描述的是如何强制执行某些对称性。这为构建机器学习代理提供了一种策略,该代理可以通过将知识用作约束注入来从几个示例中学习。重要特征”

这是否意味着将来模仿大脑的学习机的内部运作将变得更加透明,从而对大脑本身的工作方式有了新的见解?

无论如何,这是Bergomi的目标之一。他说:“对人工智能的解释是其与生物智能的相互作用和整合所必需的。”

他目前正与他的同事Pietro Vertechi合作开发一种新的神经网络架构,使人们能够快速将高级知识注入这些网络,以控制和加速他们的训练。

参考链接:

友情链接:
沙湾信息网 版权所有© www.fycek.com 技术支持:沙湾信息网 | 网站地图