引言
1980 年代末,专家系统的商业泡沫破裂。但第二次寒冬与第一次有一个关键不同:研究者们不再只是等待春天,而是从根本上改变了研究方向——从符号 AI 转向统计学习和数据驱动。
这次转型比寒冬本身更重要。
从繁荣到崩塌
1980专家系统黄金时代开始,Fortune 500 纷纷部署
1982日本启动「第五代计算机」计划,全球 AI 军备竞赛
1985问题开始暴露:知识获取瓶颈无法突破
1987Symbolics 股价暴跌,LISP 机市场崩塌
1992日本第五代计算机计划宣告失败
1993AI 经费全球性削减,第二次寒冬全面降临
崩塌的原因
1. 专家系统的脆弱性
实验室:输入干净、规则覆盖全面 → 运行完美
真实世界:输入模糊、遇到规则之外的情况 → 直接崩溃
经典案例:
一个医疗专家系统被问到「患者是绿色的吗?」
→ 系统崩溃
→ 因为没有任何规则处理这种荒谬输入
根本问题:没有常识推理能力
符号 AI 只知道规则里有的东西
对规则之外的世界一无所知2. LISP 机的覆灭
1980s 的 AI 硬件逻辑:
LISP 语言需要专用硬件 → Symbolics 等公司造 LISP 计算机
每台售价数十万美元 → 客户主要是军方和大企业
1987 年的转折:
Sun Microsystems 的通用工作站性能超越专用 LISP 机
PC 的崛起使专用硬件失去成本优势
→ 投资回报率远低于预期
结果:Symbolics 股价暴跌,整个 LISP 机产业一夜崩塌
→ 就像当年大型机被 PC 颠覆一样3. 日本第五代计算机的失败
1982 年,日本启动了雄心勃勃的「第五代计算机」计划,目标是用并行逻辑编程构建具有 AI 能力的计算机。投资约 400 亿日元,历时 10 年——最终宣告失败。
这个项目虽然失败了,却在全球范围内引发了一场 AI 军备竞赛。美国和欧洲纷纷加大投入。当项目终止时,所有这些追加投入都成了泡沫的一部分。
关键转型:从规则到数据
第二次寒冬最深远的影响不是资金削减,而是研究范式的根本转变:
符号 AI(1950s-1980s) → 统计学习(1990s-)
│ │
├── 手工编码知识 ├── 从数据中自动学习
├── 逻辑推理 ├── 概率推理
├── 规则系统 ├── 统计模型
├── 知识获取瓶颈 ├── 数据驱动
│ │
└── 问题:知识不够怎么办? └── 回答:让数据说话刻意与 AI 划清界限
有趣的是,这次转型中许多研究者刻意回避「AI」这个标签:
| 新兴领域 | 核心思想 | 与 AI 的关系 |
|---|---|---|
| 机器学习 | 从数据中学习模式 | 「我们做统计,不做 AI」 |
| 数据挖掘 | 从大数据中发现知识 | 「我们做数据库,不做 AI」 |
| 信息检索 | 文档搜索与排名 | 「我们做搜索引擎,不做 AI」 |
| 统计 NLP | 用统计方法处理语言 | 「我们做语言学,不做 AI」 |
「AI」这个词在 1990 年代成了学术界的毒药。 这些领域后来都重新汇聚到深度学习的大旗下,但在当时,它们刻意与 AI 保持距离。
两次寒冬的比较
| 维度 | 第一次(1970s) | 第二次(1987-1993) |
|---|---|---|
| 触发点 | 感知机局限 | 专家系统泡沫破裂 |
| 范式 | 符号 AI(逻辑) | 符号 AI(规则) |
| 崩塌原因 | 技术局限 | 商业泡沫 |
| 转型方向 | 专家系统(新范式) | 统计学习(根本转变) |
| 影响深度 | 研究暂停 | 范式转变 |
第二次寒冬的影响更深远——它不只是暂停了研究,而是永远地改变了 AI 的方向。
本节小结
| 概念 | 要点 |
|---|---|
| 第二次 AI 寒冬 | 1987-1993,专家系统泡沫 + LISP 机崩塌 |
| 转型 | 从「手工编码知识」转向「从数据中学习」 |
| 刻意回避 AI | 1990 年代「AI」成了毒药标签 |
| 深远影响 | 不只是暂停,而是范式的根本转变 |
思考题
- 为什么许多研究者刻意与「AI」标签保持距离?这种现象在技术史上常见吗?
- 从符号 AI 到统计学习的转变,与当前从大语言模型到 AI Agent 的转变有可比性吗?
- 第二次寒冬产生了「从数据中学习」的范式。下一个范式转变会是什么?
延伸阅读
- Stuart Russell & Peter Norvig, Artificial Intelligence: A Modern Approach
- Crevier, AI: The Tumultuous History of the Search for Artificial Intelligence, 1993