问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

谷歌大脑发布概念激活向量,了解神经网络的思维方式

发布网友 发布时间:2022-11-26 02:40

我来回答

1个回答

热心网友 时间:2023-10-10 08:32

大数据文摘出品

编译:李可、张秋玥、刘俊寰

可解释性仍然是现代深度学习应用的最大挑战之一。计算模型和深度学习研究的最新进展使我们能够创建极度复杂的模型,包括数千隐藏层和数千万神经元。效果惊人的前沿深度神经网络模型构建相对简单,但了解这些模型如何创造和使用知识仍然是一个挑战。

最近,Google Brain团队的研究人员发表了一篇论文,提出了一种名为概念激活向量(Concept Activation Vectors, CAV)的新方法,它为深度学习模型的可解释性提供了一个新的视角。

要理解CAV技术,需要了解深度学习模型中可解释性难题的本质。在当今一代深度学习技术中,模型的准确性与可解释性之间存在着永恒的矛盾。可解释性-准确性矛盾存在于完成复杂知识任务的能力和理解这些任务是如何完成能力之间。知识与控制,绩效表现与可核查性,效率与简便性...任意一项抉择其实都是准确性和可解释性之间的权衡。

你是关心获得最佳结果,还是关心结果是如何产生的?这是数据科学家在每个深度学习场景中都需要回答的问题。许多深度学习技术本质上非常复杂,尽管它们在许多场景中都很准确,解释起来却非常困难。如果我们在一个准确性-可解释性图表中绘制一些最著名的深度学习模型,我们将得到以下结果:

深度学习模型中的可解释性不是一个单一的概念。我们可以从多个层次理解它:

要得到上图每层定义的可解释性,需要几个基本的构建模块。在最近的一篇论文中,谷歌的研究人员概述了他们看来的一些可解释性的基本构建模块。

Google总结了如下几项可解释性原则:

- 了解隐藏层的作用:深层学习模型中的大部分知识都是在隐藏层中形成的。在宏观层面理解不同隐藏层的功能对于解释深度学习模型至关重要。

- 了解节点的激活方式:可解释性的关键不在于理解网络中各个神经元的功能,而在于理解同一空间位置被一起激发的互连神经元群。通过互连神经元群对神经网络进行分割能让我们从一个更简单的抽象层面来理解其功能。

- 理解概念的形成过程:理解深度神经网络如何形成组成最终输出的单个概念,这是可解释性的另一个关键构建模块。

这些原则是Google新CAV技术背后的理论基础。

遵循前文讨论的想法,通常所认为的可解释性就是通过深度学习模型的输入特征来描述其预测。逻辑回归分类器就是一个典型的例子,其系数权重通常被解释为每个特征的重要性。然而,大多数深度学习模型对诸如像素值之类的特征进行操作,这些特征与人类容易理解的高级概念并不对应。此外,模型的内部值(例如,神经元激活)也很晦涩难懂。虽然诸如显著图之类的技术可以有效测量特定像素区域的重要性,但是它们无法与更高层级的概念相关联。

CAV背后的核心思想是衡量一个概念在模型输出中的相关性。概念的CAV就是一组该概念的实例在不同方向的值(例如,激活)构成的向量。在论文中,Google研究团队概述了一种名为Testing with CAV(TCAV)的线性可解释方法,该方法使用偏导数来量化预测CAV表示的潜在高级概念的敏感度。他们构想TCAV定义有四个目标:

- 易懂:使用者几乎不需要机器学习专业知识。

- 个性化:适应任何概念(例如,性别),并且不限于训练中涉及的概念。

- 插入即用:无需重新训练或修改机器学习模型即可运作。

- 全局量化:可以使用单一定量测度来解释所有类或所有实例,而非仅仅解释单个数据输入。

为实现上述目标,TCAV方法分为三个基本步骤:

1)为模型定义相关概念。

2)理解预测对这些概念的敏感度。

3)推断每个概念对每个模型预测类的相对重要性的全局定量解释。

TCAV方法的第一步是定义相关的概念(CAV)。为实现此目的,TCAV选择一组代表该概念的实例或寻找标记为该概念的独立数据集。我们可以通过训练线性分类器区分概念实例产生的激活和各层中的实例来学习CAV。

第二步是生成一个TCAV分数,用于量化预测对特定概念的敏感度。TCAV使用了用于衡量ML预测值在某一概念方向、在激活层对输入敏感度的偏导数。

最后一步尝试评估学到的CAV的全局相关性,避免依赖不相关的CAV。毕竟TCAV技术的一个缺陷就是可能学到无意义的CAV,因为使用随机选择的一组图像仍然能得到CAV,在这种随机概念上的测试不太可能有意义。为了应对这一难题,TCAV引入了统计显著性检验,该检验以随机的训练次数(通常为500次)评估CAV。其基本思想是,有意义的概念应该在多次训练中得到一致的TCAV分数。

团队进行了多次实验来评估TCAV相比于其他可解释性方法的效率。在一项最引人注目的测试中,团队使用了一个显著图,尝试预测出租车这一概念与标题或图像的相关性。显著图的输出如下所示:

使用这些图像作为测试数据集,Google Brain团队在Amazon Mechanical Turk上邀请50人进行了实验。每个实验人员执行一系列共六个针对单个模型的随机顺序任务(3类对象 x 2种显著图)。

在每项任务中,实验人员首先会看到四幅图片和相应的显著性蒙版。然后,他们要评估图像对模型的重要程度(10分制),标题对模型的重要程度(10分制),以及他们对答案的自信程度(5分制)。实验人员总共评定了60个不同的图像(120个不同的显著图)。

实验的基本事实是图像概念比标题概念更相关。然而,看显著图时,人们认为标题概念更重要(0%噪声的模型),或者辨别不出差异(具有100%噪声的模型)。相比之下,TCAV结果正确地表明图像概念更重要。

TCAV是这几年最具创新性的神经网络解释方法之一。初始的代码可以在GitHub上看到。许多主流深度学习框架可能会在不久的将来采用这些想法。

相关报道:

https://towardsdatascience.com/this-new-google-technique-help-us-understand-how-neural-networks-are-thinking-229f783300

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
现在波兰的签证率高不高 去波兰如何办签证 去波兰办签证好办理吗 波兰签证好签吗 win7 多重网络 教师资格证普通话要多少级 想考教师资格证普通话必须过几级 qq影视会员SVIP和超级影视VIP的区别在哪里? 一小撮怎么造句 盛行一时怎么造句 河南明月建设工程有限公司怎么样? 比亚迪上市价多少钱 access如何录入一组条码,相对应商品名称自动填写出来 如何实现Access报表打印显示条形码? 家长应该如何更好地去教育选择适合小孩子的早期阅读书籍呢? 水井里的泵抽水到水箱,当水满后,怎么自动断电停止抽水?有这样的仪器吗? 早上起来耳朵听不见揉一揉就能听见 地板凉 起来吧 是什么意思 固定资产投资审计的依据 高安市固定资产投资审计中心属于级别单位 固定资产审计和固定资产投资审计区别 如何拒绝领导安排的工作? 怎么回绝领导邀请 好听又能突出麻将的群名 (丰收十里)猜一个准确数字是几 十里去一。 猜数字。 0--9。 谢谢各位!!! 十里一走马打一数字 南华大学在哪个区 康伯巴奇主演新片《胡德》,该片的导演是《谍影重重》的导演吗? 英国留学:这些好莱坞大片的导演会是你的校友吗? 海尔401和406有什么区别呢? 海尔403为何比406贵 康德莱股现在可以入手吗?康德莱一个月的股价?603987康德莱最新消息? 猴子和水母童话故事 深圳有哪些企业信息化管理软件比较好? 毕业想去深圳发展,谁知道深圳有什么条件好的软件公司? 小明有12枚硬币,共3角6分钱。其中有5枚硬币是一样的,那么这五枚一定是几分的? 小明有12枚硬币,共3角6分钱.其中5枚硬币是一样的,那么这5枚一定是? 小明有12枚硬币,共3角6分钱。其中五枚硬币是一样的,那么这五枚硬币是? 小明有12枚硬币 共三角六分钱 其中有五枚硬币是一样的 那么这五枚一定是 A.1分的 B.2的 C.5分的 12硬币计算 小明有12枚硬币总共有三角6分钱,其中有五枚是一样的,那么这五枚一定是多少钱的 16.小明有12枚硬币,共3角6分钱。其中有5枚硬币是一样的,那么这五枚一定是: 1分的 这两道数学题应该算啊? 有12枚硬币,共3角6分,币值有1角,2角和5角三种,其中有5枚相同的硬币.那么三种硬币各有多少枚 四川润通有谁报警拿到钱的 这变频器什么牌子 powerflex40b变频器通讯启动不了 不知情协助诈骗要怎么判 不知情的情况下提供银行卡给别人诈骗会坐牢吗