引言
第一次 AI 寒冬的废墟上,一种新的思路崛起:不追求通用智能,而是把人类专家的知识直接编码到计算机里。
这就是 1980 年代让 AI 复苏的专家系统——符号 AI 的巅峰之作。它创造了真金白银的商业价值,也埋下了第二次崩塌的种子。
核心思想:把专家的脑子搬进机器
传统 AI 的困境:
通用智能太难 → 做不出来 → 经费被砍
专家系统的策略:
不做通用智能,只做「单一领域的专家」
把人类专家的知识变成 IF-THEN 规则
用推理引擎自动推导结论EF1936-
Edward Feigenbaum
斯坦福大学教授,「专家系统之父」,1994 年图灵奖得主
"知识就是力量。AI 的问题不是推理能力不足,而是知识不够。"
MYCIN:救了人命却上不了临床
第一个成功的专家系统
1976 年,斯坦福大学的 Edward Shortliffe 开发了 MYCIN——一个诊断血液感染疾病的专家系统。
MYCIN 的能力:
├── 约 600 条 IF-THEN 规则
├── 诊断准确率约 65%
│ (超过当时的传染病专科医生)
└── 引入了「确定性因子」处理不确定性
示例规则:
IF 患者发烧
AND 患者咳嗽
AND 白细胞计数升高
THEN 可能患有细菌性肺炎(置信度 0.8)为什么从未投入使用?
MYCIN 的准确率超过了专科医生,但它从未投入临床使用。原因不是技术问题,而是法律和伦理问题:
MYCIN 的困境:
谁对误诊负责?→ 医生?→ 程序员?→ 医院?
患者能信任一台机器的诊断吗?
如果 MYCIN 出错,有没有法律责任?
→ 这些问题在 1970 年代完全无法回答
→ MYCIN 被永久搁置技术可以超越人类,但社会还没有准备好接受机器的决策。——这句话在 ChatGPT 时代依然适用。
XCON:第一个赚钱的 AI
DEC 公司的摇钱树
与 MYCIN 的命运不同,XCON(eXpert CONfigurer)是第一个在商业上大获成功的专家系统。
XCON 的任务:
配置 VAX 计算机系统
VAX 有数千种可选组件,配置组合极其复杂
人工配置经常出错 → 退货率高 → 成本巨大
XCON 的表现:
├── 约 2500 条规则(后增长到 10000+)
├── 处理了超过 99% 的订单
├── 每年为 DEC 节省数千万美元
└── 成为 DEC 最有价值的软件资产之一XCON 证明了 AI 可以赚钱。 这个发现引发了一场商业热潮。
商业泡沫(1980-1987)
专家系统的黄金时代
1980XCON 上线,每年为 DEC 节省数千万美元
1982日本启动「第五代计算机」计划,投资约 400 亿日元
1983Symbolics 推出 LISP 专用计算机
1985超过 2/3 的 Fortune 500 公司部署了专家系统
1987LISP 机市场崩塌 → 第二次 AI 寒冬
LISP 计算机:专用的 AI 硬件
多家公司制造了专门运行 LISP 语言的计算机,就像今天的 GPU 之于深度学习:
| 公司 | 产品 | 结局 |
|---|---|---|
| Symbolics | 3600 系列 | 1987 年股价暴跌 |
| LMI | Lambda | 较小规模破产 |
| TI | Explorer | 大公司投入后退出 |
当通用工作站(Sun、HP)性能超越专用硬件时,整个 LISP 机市场一夜崩塌。
知识获取瓶颈:致命的缺陷
专家系统最终没落的根本原因不是技术,而是人力。
知识获取的困境:
领域专家的知识 ← 这一步极其困难!→ 形式化的 IF-THEN 规则
为什么困难?
├── 专家的很多知识是「隐性」的——他们自己也说不清楚
│ 例:老医生凭直觉诊断,但无法解释为什么
├── 专家的推理包含经验和直觉——难以规则化
├── 规则数量增长后产生冲突——修改一条会破坏另一条
└── 领域在不断变化——规则库需要持续维护
一个经典的例子:
问专家系统「患者是绿色的吗?」
→ 系统直接崩溃
→ 因为没有任何规则处理这种荒谬输入
专家系统没有「常识」——规则之外的世界对它来说是真空。专家系统的遗产
虽然专家系统最终没落,但它留下了重要的遗产:
| 遗产 | 现代体现 |
|---|---|
| 知识表示 | 知识图谱(Google Knowledge Graph) |
| 推理引擎 | 业务规则引擎(Drools) |
| 不确定性处理 | 贝叶斯网络 |
| 「知识获取瓶颈」的教训 | 大语言模型从数据中自动获取知识——解决了这个瓶颈 |
大语言模型本质上是解决了专家系统的核心问题:不用手工编码知识,而是让机器从数据中自动学习。
本节小结
| 概念 | 要点 |
|---|---|
| 专家系统 | 将专家知识编码为 IF-THEN 规则,通过推理做决策 |
| MYCIN | 准确率超过专科医生,却因法律伦理问题从未投入使用 |
| XCON | 第一个赚钱的 AI 系统,每年为 DEC 节省数千万美元 |
| 知识获取瓶颈 | 最根本的局限——专家的隐性知识难以规则化 |
| 教训 | 技术成功 ≠ 社会接受;商业泡沫终将破裂 |
思考题
- MYCIN 准确率超过医生却无法使用。今天的 AI 医疗诊断面临同样的困境吗?什么改变了?
- 「知识获取瓶颈」被大语言模型解决了——它们从数据中自动学习知识。但 LLM 的「幻觉」问题和专家系统的「脆弱性」有什么本质区别吗?
- 专家系统的商业泡沫(1980s)和当前 AI 的投资热潮有什么相似之处?
- 专家系统和大语言模型分别怎么「获取知识」?后者真的解决了知识获取瓶颈吗?