OpenAI研究 人工神经网络中的多模态神经元
我们在 CLIP 中发现了对相同概念做出反应的神经元,无论是字面上的、象征性的还是概念上的。这可以解释 CLIP 在对令人惊讶的概念视觉再现进行分类时的准确性,也是理解 CLIP 和类似模型学习的关联和偏见的重要一步。
十五年前,Quiroga 等人。1个 发现人脑拥有多模态神经元。这些神经元对以共同的高级主题为中心的抽象概念簇作出反应,而不是对任何特定的视觉特征做出反应。其中最著名的是“哈莉·贝瑞”神经元,该神经元同时出现在《 科学美国人 》和 《纽约时报》中,它对照片、草图和文本“哈莉·贝瑞”(但不是其他名字)做出反应。
两个月前,OpenAI 宣布了 CLIP,这是一种与 ResNet-50 性能相匹配的通用视觉系统,2个 但在一些最具挑战性的数据集上优于现有视觉系统。这些挑战数据集( ObjectNet、 ImageNet Rendition和 ImageNet Sketch)中的每一个都对模型的鲁棒性进行了压力测试,不仅可以识别简单的扭曲或光照或姿势的变化,还可以完成抽象和重建——草图、卡通甚至雕像对象。
现在,我们发布了 CLIP 中存在多模式神经元的发现。例如,一个这样的神经元是一个“蜘蛛侠”神经元(与“哈莉贝瑞”神经元非常相似),它对蜘蛛图像、文本“蜘蛛”图像和漫画书做出反应穿着服装或插图的角色“蜘蛛侠”。
我们在 CLIP 中发现的多模态神经元为我们提供了一条线索,让我们了解什么可能是合成视觉系统和自然视觉系统的共同机制——抽象。我们发现 CLIP 的最高层将图像组织为思想的松散语义集合,为模型的多功能性和表示的紧凑性提供了简单的解释。









使用可解释性工具,我们对 CLIP 权重中存在的丰富视觉概念进行了前所未有的审视。在 CLIP 中,我们发现了涵盖人类视觉词典很大一部分的高级概念——地理区域、面部表情、宗教图像、名人等等。通过探测每个神经元对下游的影响,我们可以了解 CLIP 如何执行其分类。
CLIP 中的多模态神经元
我们的 论文 建立在近十年对解释卷积网络的研究之上,3、4、5、6、7、8、9 ,10 ,11 ,12 从观察到许多这些经典技术直接适用于 CLIP 开始。我们使用两种工具来理解模型的激活: 特征可视化,6、5、12 它通过对输入和 数据集示例进行基于梯度的优化来最大化神经元的放电,4个 它查看数据集中神经元的最大激活图像的分布。
使用这些简单的技术,我们发现 CLIP RN50x4(使用 EfficientNet 缩放规则放大 4 倍的 ResNet-50)中的大多数神经元都易于解释。事实上,这些神经元似乎是“多面神经元”的极端例子, 11 对多个不同情况做出反应的神经元,只是在更高的抽象层次上。