Skip to content

引言

第一次 AI 寒冬的废墟上,一种新的思路崛起:不追求通用智能,而是把人类专家的知识直接编码到计算机里

这就是 1980 年代让 AI 复苏的专家系统——符号 AI 的巅峰之作。它创造了真金白银的商业价值,也埋下了第二次崩塌的种子。


核心思想:把专家的脑子搬进机器

传统 AI 的困境:
  通用智能太难 → 做不出来 → 经费被砍

专家系统的策略:
  不做通用智能,只做「单一领域的专家」
  把人类专家的知识变成 IF-THEN 规则
  用推理引擎自动推导结论
EF1936-
Edward Feigenbaum
斯坦福大学教授,「专家系统之父」,1994 年图灵奖得主
"知识就是力量。AI 的问题不是推理能力不足,而是知识不够。"

MYCIN:救了人命却上不了临床

第一个成功的专家系统

1976 年,斯坦福大学的 Edward Shortliffe 开发了 MYCIN——一个诊断血液感染疾病的专家系统。

MYCIN 的能力:
  ├── 约 600 条 IF-THEN 规则
  ├── 诊断准确率约 65%
  │   (超过当时的传染病专科医生)
  └── 引入了「确定性因子」处理不确定性

示例规则:
  IF   患者发烧
  AND  患者咳嗽
  AND  白细胞计数升高
  THEN 可能患有细菌性肺炎(置信度 0.8)

为什么从未投入使用?

MYCIN 的准确率超过了专科医生,但它从未投入临床使用。原因不是技术问题,而是法律和伦理问题:

MYCIN 的困境:
  谁对误诊负责?→ 医生?→ 程序员?→ 医院?
  患者能信任一台机器的诊断吗?
  如果 MYCIN 出错,有没有法律责任?
  → 这些问题在 1970 年代完全无法回答
  → MYCIN 被永久搁置

技术可以超越人类,但社会还没有准备好接受机器的决策。——这句话在 ChatGPT 时代依然适用。

XCON:第一个赚钱的 AI

DEC 公司的摇钱树

与 MYCIN 的命运不同,XCON(eXpert CONfigurer)是第一个在商业上大获成功的专家系统。

XCON 的任务:
  配置 VAX 计算机系统
  VAX 有数千种可选组件,配置组合极其复杂
  人工配置经常出错 → 退货率高 → 成本巨大

XCON 的表现:
  ├── 约 2500 条规则(后增长到 10000+)
  ├── 处理了超过 99% 的订单
  ├── 每年为 DEC 节省数千万美元
  └── 成为 DEC 最有价值的软件资产之一

XCON 证明了 AI 可以赚钱。 这个发现引发了一场商业热潮。

商业泡沫(1980-1987)

专家系统的黄金时代

1980XCON 上线,每年为 DEC 节省数千万美元
1982日本启动「第五代计算机」计划,投资约 400 亿日元
1983Symbolics 推出 LISP 专用计算机
1985超过 2/3 的 Fortune 500 公司部署了专家系统
1987LISP 机市场崩塌 → 第二次 AI 寒冬

LISP 计算机:专用的 AI 硬件

多家公司制造了专门运行 LISP 语言的计算机,就像今天的 GPU 之于深度学习:

公司产品结局
Symbolics3600 系列1987 年股价暴跌
LMILambda较小规模破产
TIExplorer大公司投入后退出

当通用工作站(Sun、HP)性能超越专用硬件时,整个 LISP 机市场一夜崩塌。

知识获取瓶颈:致命的缺陷

专家系统最终没落的根本原因不是技术,而是人力

知识获取的困境:

  领域专家的知识 ← 这一步极其困难!→ 形式化的 IF-THEN 规则

  为什么困难?
  ├── 专家的很多知识是「隐性」的——他们自己也说不清楚
  │   例:老医生凭直觉诊断,但无法解释为什么
  ├── 专家的推理包含经验和直觉——难以规则化
  ├── 规则数量增长后产生冲突——修改一条会破坏另一条
  └── 领域在不断变化——规则库需要持续维护

  一个经典的例子:
    问专家系统「患者是绿色的吗?」
    → 系统直接崩溃
    → 因为没有任何规则处理这种荒谬输入

  专家系统没有「常识」——规则之外的世界对它来说是真空。

专家系统的遗产

虽然专家系统最终没落,但它留下了重要的遗产:

遗产现代体现
知识表示知识图谱(Google Knowledge Graph)
推理引擎业务规则引擎(Drools)
不确定性处理贝叶斯网络
「知识获取瓶颈」的教训大语言模型从数据中自动获取知识——解决了这个瓶颈

大语言模型本质上是解决了专家系统的核心问题:不用手工编码知识,而是让机器从数据中自动学习。


本节小结

概念要点
专家系统将专家知识编码为 IF-THEN 规则,通过推理做决策
MYCIN准确率超过专科医生,却因法律伦理问题从未投入使用
XCON第一个赚钱的 AI 系统,每年为 DEC 节省数千万美元
知识获取瓶颈最根本的局限——专家的隐性知识难以规则化
教训技术成功 ≠ 社会接受;商业泡沫终将破裂

思考题

  1. MYCIN 准确率超过医生却无法使用。今天的 AI 医疗诊断面临同样的困境吗?什么改变了?
  2. 「知识获取瓶颈」被大语言模型解决了——它们从数据中自动学习知识。但 LLM 的「幻觉」问题和专家系统的「脆弱性」有什么本质区别吗?
  3. 专家系统的商业泡沫(1980s)和当前 AI 的投资热潮有什么相似之处?
  4. 专家系统和大语言模型分别怎么「获取知识」?后者真的解决了知识获取瓶颈吗?