Skip to content

引言

1958 年 7 月 8 日,《纽约时报》头版刊登了一篇报道,标题令人瞠目:

「新型海军装置在实践中学习;心理学家展示了能够阅读和增长的计算机雏形」

报道声称,这台机器「未来将能走路、说话、看见、写字、自我复制,并意识到自己的存在」。

这就是感知机(Perceptron)——历史上第一个能从数据中「学习」的算法。它的发明者 Frank Rosenblatt 只有 29 岁。

然而,11 年后,另一本书将把 Rosenblatt 的毕生工作送上断头台,并引发 AI 的第一次寒冬。这是一个关于希望、狂热、宿敌和悲剧的故事。


发明者:Frank Rosenblatt

一个不安分的天才

Frank Rosenblatt 1928 年出生于纽约新罗谢尔,1956 年在 Cornell 大学获得博士学位。他的同事们记得他是一位才华横溢、充满魅力、不按常理出牌的思想者——他热爱天文学和登山,在家里自建了天文台,花 3000 美元(在 1960 年代是一大笔钱)买了一台望远镜。

一位同事回忆,他曾经不请自来地敲开 Rosenblatt 的门讨论费马大定理,两人立刻投入了几个小时的激辩。Rosenblatt 的思维就是这样——跨越学科的边界,自由驰骋

他在 Cornell 航空实验室工作时,同事 Bill Eisner 这样描述当时的氛围:

「我们觉得自己在做一种全新的计算。」

灵感:人眼怎么看东西?

Rosenblatt 的核心想法来自对人类视觉系统的观察:

生物神经元的工作方式:

        树突(接收信号)


    ┌─────────────┐
    │   细胞体     │  ← 汇总所有输入信号
    │  (Soma)     │     如果超过阈值,则「激发」
    └─────┬───────┘


        轴突(发送信号)

关键机制:
  ├── 多个输入信号通过树突进入
  ├── 细胞体汇总所有信号
  ├── 超过阈值就激发——发送输出信号
  └── 不同连接的强度不同——这就是「权重」的来源

1943 年,Warren McCulloch 和 Walter Pitts 已经提出了第一个数学神经元模型——但他们的模型不能学习,权重必须人工设定。Rosenblatt 的突破在于:让机器自己调整权重

Mark I 感知机:一台会学习的机器

硬件实现

Rosenblatt 不仅提出了理论,还在 Cornell 航空实验室建造了一台真正的物理机器——Mark I 感知机

Mark I 感知机的结构:

  ┌──────────────────────────────┐
  │  400 个光电管(20×20 网格)    │  ← 「视网膜」接收图像
  │           │                   │
  │           ▼                   │
  │  关联单元(A-units)           │  ← 中间处理层
  │           │                   │
  │           ▼                   │
  │  响应单元(R-units)           │  ← 输出层
  │     ↑ 通过电位器调节连接强度    │
  └──────────────────────────────┘

  这不是软件模拟——是实实在在的电线、电机、光电管和电位器。
  它可以被训练来识别简单的字母和几何图形。

这在 1950 年代是令人惊叹的工程:一台物理机器,用光电管「看」图像,通过调节电位器「学习」分类。

感知机的数学模型

输入向量:  x = (x₁, x₂, ..., xₙ)
权重向量:  w = (w₁, w₂, ..., wₙ)
偏置:      b

加权求和:  z = w·x + b
输出:      y = step(z)     step(z) = 1 (z≥0), 0 (z<0)

  x₁ ──→ [w₁] ──┐
  x₂ ──→ [w₂] ──┤
   .        .    ├──→ [Σ + b] ──→ [step] ──→ y
  xₙ ──→ [wₙ] ──┘

学习规则:从错误中学习

训练过程:
  1. 初始化权重为小随机值
  2. 对每个样本 (x, 正确标签 t):
     ŷ = step(w·x + b)           ← 预测
     wᵢ ← wᵢ + η × (t - ŷ) × xᵢ  ← 更新
  3. 重复直到全部正确

其中 η 是学习率

直觉:
  预测对了 (t=ŷ) → 权重不变
  预测低了 (t=1, ŷ=0) → 增大权重,下次更容易激发
  预测高了 (t=0, ŷ=1) → 减小权重,下次更难激发

这就是「从错误中学习」的雏形——给机器一个目标,
让它通过反复试错自动调整自己。

媒体的狂热

《纽约时报》的过头话

1958 年 7 月的那篇《纽约时报》报道把 Rosenblatt 的创造描述成了科幻小说里的存在。那台机器实际上只能在受控条件下识别简单的几何形状,但报纸声称它未来将能「走路、说话、自我复制」。

Rosenblatt 的确做出了大胆的宣称,他是一个天生的沟通者,能用生动的语言解释自己的想法。但媒体的报道远远超出了他的实际成果。

感知机的实际能力 vs 媒体宣称:

  实际能做:识别简单几何图形(在受控条件下)
  媒体宣称:走路、说话、看、写、自我复制、有自我意识

  差距:天文数字级

1958 年 12 月,《纽约客》杂志也在「城中话题」栏目报道了感知机,语气克制了一些,但仍然传达了一种面对「会思考的机器」的惊奇感。

这种模式后来反复出现在 AI 历史中:技术突破 → 媒体夸大 → 公众期望过高 → 无法兑现 → 幻灭。

宿敌:Rosenblatt vs Minsky

高中同学,终身对手

这是一个令人唏嘘的巧合:Frank Rosenblatt 和 Marvin Minsky 都毕业于纽约布朗克斯科学高中——一所培养了八位诺贝尔奖得主的传奇学校。他们不是密友,但彼此很了解。

Minsky 在 1951 年读研究生时就造过一台学习机器叫 SNARC——比 Rosenblatt 的感知机早了好几年。但 SNARC 比较简单,没有得到太多关注。Minsky 一直觉得 Rosenblatt 的感知机获得了与其原创性不相称的关注度,而自己更早的贡献被忽视了。

Rosenblatt 在 Cornell 用一个外交辞令称呼 Minsky:「忠诚的反对派」。这个称呼既表达了学术尊重,也暗示了根本性的分歧。

核心分歧:

  Rosenblatt 的信念:
    基于神经网络的学习机器是 AI 的正确方向
    → 连接主义路线

  Minsky 的信念:
    符号、逻辑的方法更强大,感知机的局限是根本性的
    → 符号 AI 路线

两位布朗克斯科学高中的校友,代表了 AI 最核心的路线之争。

Rosenblatt 的后续计划

Rosenblatt 没有止步于 Mark I。他设计了一个后续系统叫 Tobermory——取自萨基短篇小说中一只能说话的猫的名字。Tobermory 面向语音识别,将感知机的学习原理应用到听觉信号上。这个项目雄心勃勃,但从未取得 Rosenblatt 希望的突破。

一本书杀死了整个领域

《Perceptrons》(1969)

1969 年,MIT 出版社出版了 Minsky 和 Seymour Papert 合著的《Perceptrons》。这是一本严谨的数学分析,精确证明了单层感知机的计算局限。

最著名的结论:单层感知机无法计算 XOR(异或)函数。

XOR 问题:
  x₂

1 │  ●  ○     ← 无法用一条直线分开 ● 和 ○!

0 │  ○  ●
  └──────── x₁
    0    1

XOR 真值表:
  (0,0)→0  (0,1)→1  (1,0)→1  (1,1)→0

单层感知机只能画直线 → XOR 不是线性可分的 → 永远学不会

书还证明了感知机无法判断一个图形是否「连通」——一个看似简单的视觉任务。

关键的误导

Minsky 和 Papert 的数学证明是完全正确的。但书中暗示了一个更强的结论:整个神经网络路线是死胡同

Minsky & Papert 证明了:
  单层感知机只能解决线性可分问题 ✓(正确)
  感知机无法判断图形连通性    ✓(正确)

他们暗示但没有证明:
  多层网络也无法有效训练      ✗(后来被推翻)

  → 多层网络可以解决 XOR 和连通性问题
  → 但 1969 年没有训练多层网络的好方法
  → Minsky 和 Papert 对此表示悲观

Minsky 后来自己把这本书比作**《死灵之书》**——H.P. 洛夫克拉夫特恐怖小说中那本会让读者发疯的书

Minsky 自己后来把这本书比作《死灵之书》(Necronomicon) ——恐怖小说家 H.P. 洛夫克拉夫特笔下那本让读者发疯的禁忌之书。 这个比喻半开玩笑,但准确描述了这本书在神经网络社区中的名声。


### 全书的致命影响

《Perceptrons》证明了什么? ✓ 单层感知机只能解决线性可分问题(正确) ✓ 感知机不能判断图形是否「连通」(正确) ✗ 多层网络也无法有效训练(错误——但被广泛接受了)

实际效果: ├── 研究资金从神经网络转向符号 AI ├── 神经网络论文几乎无法发表 ├── 研究生被劝阻不要碰这个方向 └── 整个领域被冰冻了十多年

关键误解:书只分析了单层感知机,但读者将其结论 推广到了所有神经网络——包括多层网络。


数学家 H.D. Block 在书评中写道,这本书「严重误导」,因为它只关注了单层感知机,没有讨论多层网络可能如何克服这些局限。但这个声音被淹没了。

## Rosenblatt 的离世

1971 年 7 月 11 日,**Rosenblatt 的 43 岁生日当天**,他在切萨皮克湾驾驶自己 32 英尺的帆船「Shearwater」时,船 apparently 被撞击翻覆,溺水身亡。

时间残酷得让人窒息:他在 Cornell 建立的感知机研究项目已经在衰退,Minsky 和 Papert 的书实际上否定了他的毕生工作,而他**没有活到看到多层神经网络最终被证明是可行的**。

Rosenblatt 去世时: 感知机研究已被边缘化 ✓ 《Perceptrons》否定了他的工作 ✓ 反向传播算法尚未被发现(1986 年才被广泛认可)✓ 他没有看到自己的路线最终获胜 ✗

Cornell 副校长 Richard O'Brien 在悼词中说: 「他是一个多面手——一位极具原创性的科学家, 一位激励了学生和同事的教师, 一位温暖而慷慨的朋友。」


15 年后,David Rumelhart、**Geoffrey Hinton** 和 Ronald Williams 将发表关于反向传播算法的论文,证明 Minsky 和 Papert 对多层网络的悲观判断是错的。多层感知机不仅能解决 XOR 问题——它们开启了整个深度学习时代。

**但 Rosenblatt 永远不会知道了。**

---

## 与现代 AI 的联系

感知机虽然简单,但它奠定了神经网络的基本范式:

| 感知机概念 | 现代对应 |
|-----------|---------|
| 加权求和 | 线性变换(全连接层) |
| step 激活函数 | ReLU、Sigmoid 等激活函数 |
| 学习规则 | 梯度下降 |
| 线性分类 | 神经网络的基础构建块 |

现代神经网络本质上就是**很多个感知机层叠在一起**,配合更强大的学习算法(反向传播)。Rosenblatt 的核心直觉——**让机器从数据中学习,而不是由人类手工编码规则**——在 60 年后成为了 AI 的主流范式。

---

## 本节小结

| 概念 | 要点 |
|------|------|
| Rosenblatt 其人 | 跨界天才,43 岁生日当天溺水身亡,没能看到自己的路线获胜 |
| Mark I 感知机 | 物理硬件实现——光电管、电位器、电线组成的会学习机器 |
| 媒体狂热 | 《纽约时报》声称它能走路、说话、自我复制——与实际差距巨大 |
| Minsky vs Rosenblatt | 布朗克斯科学高中校友,连接主义与符号 AI 的路线之争 |
| 《Perceptrons》(1969) | 一本书冰冻了整个神经网络领域十多年 |
| 反向传播 (1986) | 最终证明 Minsky 和 Papert 对多层网络的判断是错的 |

## 思考题

1. 《纽约时报》对感知机的夸大报道,与今天媒体对 ChatGPT 的报道有什么相似之处?我们能从中学到什么?
2. Minsky 和 Papert 的数学证明是正确的,但他们从中推导出的结论(多层网络也不行)是错误的。这说明在科学中,**正确的证明」不等于「正确的结论」**。你能想到其他类似的例子吗?
3. 如果 Rosenblatt 活到 1986 年看到反向传播被重新发现,AI 的历史可能会有什么不同?

## 延伸阅读

- Rosenblatt, *The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain*, Psychological Review, 1958
- Minsky & Papert, *Perceptrons*, MIT Press, 1969
- Andrew Hodges, *Alan Turing: The Enigma*(关于 AI 先驱时代的背景)