引言
1958 年 7 月 8 日,《纽约时报》头版刊登了一篇报道,标题令人瞠目:
「新型海军装置在实践中学习;心理学家展示了能够阅读和增长的计算机雏形」
报道声称,这台机器「未来将能走路、说话、看见、写字、自我复制,并意识到自己的存在」。
这就是感知机(Perceptron)——历史上第一个能从数据中「学习」的算法。它的发明者 Frank Rosenblatt 只有 29 岁。
然而,11 年后,另一本书将把 Rosenblatt 的毕生工作送上断头台,并引发 AI 的第一次寒冬。这是一个关于希望、狂热、宿敌和悲剧的故事。
发明者:Frank Rosenblatt
一个不安分的天才
Frank Rosenblatt 1928 年出生于纽约新罗谢尔,1956 年在 Cornell 大学获得博士学位。他的同事们记得他是一位才华横溢、充满魅力、不按常理出牌的思想者——他热爱天文学和登山,在家里自建了天文台,花 3000 美元(在 1960 年代是一大笔钱)买了一台望远镜。
一位同事回忆,他曾经不请自来地敲开 Rosenblatt 的门讨论费马大定理,两人立刻投入了几个小时的激辩。Rosenblatt 的思维就是这样——跨越学科的边界,自由驰骋。
他在 Cornell 航空实验室工作时,同事 Bill Eisner 这样描述当时的氛围:
「我们觉得自己在做一种全新的计算。」
灵感:人眼怎么看东西?
Rosenblatt 的核心想法来自对人类视觉系统的观察:
生物神经元的工作方式:
树突(接收信号)
│
▼
┌─────────────┐
│ 细胞体 │ ← 汇总所有输入信号
│ (Soma) │ 如果超过阈值,则「激发」
└─────┬───────┘
│
▼
轴突(发送信号)
关键机制:
├── 多个输入信号通过树突进入
├── 细胞体汇总所有信号
├── 超过阈值就激发——发送输出信号
└── 不同连接的强度不同——这就是「权重」的来源1943 年,Warren McCulloch 和 Walter Pitts 已经提出了第一个数学神经元模型——但他们的模型不能学习,权重必须人工设定。Rosenblatt 的突破在于:让机器自己调整权重。
Mark I 感知机:一台会学习的机器
硬件实现
Rosenblatt 不仅提出了理论,还在 Cornell 航空实验室建造了一台真正的物理机器——Mark I 感知机。
Mark I 感知机的结构:
┌──────────────────────────────┐
│ 400 个光电管(20×20 网格) │ ← 「视网膜」接收图像
│ │ │
│ ▼ │
│ 关联单元(A-units) │ ← 中间处理层
│ │ │
│ ▼ │
│ 响应单元(R-units) │ ← 输出层
│ ↑ 通过电位器调节连接强度 │
└──────────────────────────────┘
这不是软件模拟——是实实在在的电线、电机、光电管和电位器。
它可以被训练来识别简单的字母和几何图形。这在 1950 年代是令人惊叹的工程:一台物理机器,用光电管「看」图像,通过调节电位器「学习」分类。
感知机的数学模型
输入向量: x = (x₁, x₂, ..., xₙ)
权重向量: w = (w₁, w₂, ..., wₙ)
偏置: b
加权求和: z = w·x + b
输出: y = step(z) step(z) = 1 (z≥0), 0 (z<0)
x₁ ──→ [w₁] ──┐
x₂ ──→ [w₂] ──┤
. . ├──→ [Σ + b] ──→ [step] ──→ y
xₙ ──→ [wₙ] ──┘学习规则:从错误中学习
训练过程:
1. 初始化权重为小随机值
2. 对每个样本 (x, 正确标签 t):
ŷ = step(w·x + b) ← 预测
wᵢ ← wᵢ + η × (t - ŷ) × xᵢ ← 更新
3. 重复直到全部正确
其中 η 是学习率
直觉:
预测对了 (t=ŷ) → 权重不变
预测低了 (t=1, ŷ=0) → 增大权重,下次更容易激发
预测高了 (t=0, ŷ=1) → 减小权重,下次更难激发
这就是「从错误中学习」的雏形——给机器一个目标,
让它通过反复试错自动调整自己。媒体的狂热
《纽约时报》的过头话
1958 年 7 月的那篇《纽约时报》报道把 Rosenblatt 的创造描述成了科幻小说里的存在。那台机器实际上只能在受控条件下识别简单的几何形状,但报纸声称它未来将能「走路、说话、自我复制」。
Rosenblatt 的确做出了大胆的宣称,他是一个天生的沟通者,能用生动的语言解释自己的想法。但媒体的报道远远超出了他的实际成果。
感知机的实际能力 vs 媒体宣称:
实际能做:识别简单几何图形(在受控条件下)
媒体宣称:走路、说话、看、写、自我复制、有自我意识
差距:天文数字级1958 年 12 月,《纽约客》杂志也在「城中话题」栏目报道了感知机,语气克制了一些,但仍然传达了一种面对「会思考的机器」的惊奇感。
这种模式后来反复出现在 AI 历史中:技术突破 → 媒体夸大 → 公众期望过高 → 无法兑现 → 幻灭。
宿敌:Rosenblatt vs Minsky
高中同学,终身对手
这是一个令人唏嘘的巧合:Frank Rosenblatt 和 Marvin Minsky 都毕业于纽约布朗克斯科学高中——一所培养了八位诺贝尔奖得主的传奇学校。他们不是密友,但彼此很了解。
Minsky 在 1951 年读研究生时就造过一台学习机器叫 SNARC——比 Rosenblatt 的感知机早了好几年。但 SNARC 比较简单,没有得到太多关注。Minsky 一直觉得 Rosenblatt 的感知机获得了与其原创性不相称的关注度,而自己更早的贡献被忽视了。
Rosenblatt 在 Cornell 用一个外交辞令称呼 Minsky:「忠诚的反对派」。这个称呼既表达了学术尊重,也暗示了根本性的分歧。
核心分歧:
Rosenblatt 的信念:
基于神经网络的学习机器是 AI 的正确方向
→ 连接主义路线
Minsky 的信念:
符号、逻辑的方法更强大,感知机的局限是根本性的
→ 符号 AI 路线
两位布朗克斯科学高中的校友,代表了 AI 最核心的路线之争。Rosenblatt 的后续计划
Rosenblatt 没有止步于 Mark I。他设计了一个后续系统叫 Tobermory——取自萨基短篇小说中一只能说话的猫的名字。Tobermory 面向语音识别,将感知机的学习原理应用到听觉信号上。这个项目雄心勃勃,但从未取得 Rosenblatt 希望的突破。
一本书杀死了整个领域
《Perceptrons》(1969)
1969 年,MIT 出版社出版了 Minsky 和 Seymour Papert 合著的《Perceptrons》。这是一本严谨的数学分析,精确证明了单层感知机的计算局限。
最著名的结论:单层感知机无法计算 XOR(异或)函数。
XOR 问题:
x₂
│
1 │ ● ○ ← 无法用一条直线分开 ● 和 ○!
│
0 │ ○ ●
└──────── x₁
0 1
XOR 真值表:
(0,0)→0 (0,1)→1 (1,0)→1 (1,1)→0
单层感知机只能画直线 → XOR 不是线性可分的 → 永远学不会书还证明了感知机无法判断一个图形是否「连通」——一个看似简单的视觉任务。
关键的误导
Minsky 和 Papert 的数学证明是完全正确的。但书中暗示了一个更强的结论:整个神经网络路线是死胡同。
Minsky & Papert 证明了:
单层感知机只能解决线性可分问题 ✓(正确)
感知机无法判断图形连通性 ✓(正确)
他们暗示但没有证明:
多层网络也无法有效训练 ✗(后来被推翻)
→ 多层网络可以解决 XOR 和连通性问题
→ 但 1969 年没有训练多层网络的好方法
→ Minsky 和 Papert 对此表示悲观Minsky 后来自己把这本书比作**《死灵之书》**——H.P. 洛夫克拉夫特恐怖小说中那本会让读者发疯的书
Minsky 自己后来把这本书比作《死灵之书》(Necronomicon) ——恐怖小说家 H.P. 洛夫克拉夫特笔下那本让读者发疯的禁忌之书。 这个比喻半开玩笑,但准确描述了这本书在神经网络社区中的名声。
### 全书的致命影响《Perceptrons》证明了什么? ✓ 单层感知机只能解决线性可分问题(正确) ✓ 感知机不能判断图形是否「连通」(正确) ✗ 多层网络也无法有效训练(错误——但被广泛接受了)
实际效果: ├── 研究资金从神经网络转向符号 AI ├── 神经网络论文几乎无法发表 ├── 研究生被劝阻不要碰这个方向 └── 整个领域被冰冻了十多年
关键误解:书只分析了单层感知机,但读者将其结论 推广到了所有神经网络——包括多层网络。
数学家 H.D. Block 在书评中写道,这本书「严重误导」,因为它只关注了单层感知机,没有讨论多层网络可能如何克服这些局限。但这个声音被淹没了。
## Rosenblatt 的离世
1971 年 7 月 11 日,**Rosenblatt 的 43 岁生日当天**,他在切萨皮克湾驾驶自己 32 英尺的帆船「Shearwater」时,船 apparently 被撞击翻覆,溺水身亡。
时间残酷得让人窒息:他在 Cornell 建立的感知机研究项目已经在衰退,Minsky 和 Papert 的书实际上否定了他的毕生工作,而他**没有活到看到多层神经网络最终被证明是可行的**。Rosenblatt 去世时: 感知机研究已被边缘化 ✓ 《Perceptrons》否定了他的工作 ✓ 反向传播算法尚未被发现(1986 年才被广泛认可)✓ 他没有看到自己的路线最终获胜 ✗
Cornell 副校长 Richard O'Brien 在悼词中说: 「他是一个多面手——一位极具原创性的科学家, 一位激励了学生和同事的教师, 一位温暖而慷慨的朋友。」
15 年后,David Rumelhart、**Geoffrey Hinton** 和 Ronald Williams 将发表关于反向传播算法的论文,证明 Minsky 和 Papert 对多层网络的悲观判断是错的。多层感知机不仅能解决 XOR 问题——它们开启了整个深度学习时代。
**但 Rosenblatt 永远不会知道了。**
---
## 与现代 AI 的联系
感知机虽然简单,但它奠定了神经网络的基本范式:
| 感知机概念 | 现代对应 |
|-----------|---------|
| 加权求和 | 线性变换(全连接层) |
| step 激活函数 | ReLU、Sigmoid 等激活函数 |
| 学习规则 | 梯度下降 |
| 线性分类 | 神经网络的基础构建块 |
现代神经网络本质上就是**很多个感知机层叠在一起**,配合更强大的学习算法(反向传播)。Rosenblatt 的核心直觉——**让机器从数据中学习,而不是由人类手工编码规则**——在 60 年后成为了 AI 的主流范式。
---
## 本节小结
| 概念 | 要点 |
|------|------|
| Rosenblatt 其人 | 跨界天才,43 岁生日当天溺水身亡,没能看到自己的路线获胜 |
| Mark I 感知机 | 物理硬件实现——光电管、电位器、电线组成的会学习机器 |
| 媒体狂热 | 《纽约时报》声称它能走路、说话、自我复制——与实际差距巨大 |
| Minsky vs Rosenblatt | 布朗克斯科学高中校友,连接主义与符号 AI 的路线之争 |
| 《Perceptrons》(1969) | 一本书冰冻了整个神经网络领域十多年 |
| 反向传播 (1986) | 最终证明 Minsky 和 Papert 对多层网络的判断是错的 |
## 思考题
1. 《纽约时报》对感知机的夸大报道,与今天媒体对 ChatGPT 的报道有什么相似之处?我们能从中学到什么?
2. Minsky 和 Papert 的数学证明是正确的,但他们从中推导出的结论(多层网络也不行)是错误的。这说明在科学中,**正确的证明」不等于「正确的结论」**。你能想到其他类似的例子吗?
3. 如果 Rosenblatt 活到 1986 年看到反向传播被重新发现,AI 的历史可能会有什么不同?
## 延伸阅读
- Rosenblatt, *The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain*, Psychological Review, 1958
- Minsky & Papert, *Perceptrons*, MIT Press, 1969
- Andrew Hodges, *Alan Turing: The Enigma*(关于 AI 先驱时代的背景)