因果推理的七种工具,及对机器学习的反思*

请使用浏览器自带的分享功能,把这篇资料分享出去
  • CCF官网
  • 加入CCF
  • 登录CCF
  • 首页
  • 文章
  • 视频

  • 音频
  • 图片
  • PPT
  • 专辑
  • 高级检索
    CCF
  • 首页
  • 文章
  • 视频
  • 音频
  • 图片
  • PPT
  • 专辑
  • 因果推理的七种工具,及对机器学习的反思*

    因果推理的七种工具,及对机器学习的反思*

    900会员权益

    那种在自然人思维中可见的因果关系推理,可以用算法表示出来,用于帮助建立类人机器智能。

     

    机器学习的巨大成功,引起了人工智能应用的爆炸式增长,以及对具有类人智能自动化系统不断增长的预期。然而,这些预期在很多应用领域遇到了根本性的障碍。其中的一个障碍是(人工智能系统的)适应性(adaptability)或鲁棒性(robustness)。机器学习相关研究人员表示,对没有经过预先编程或训练的新环境,目前的系统缺少识别或者反应能力。针对“迁移学习”、“领域适应”和“终身学习”[4]领域的大量理论和实验研究反映了这一障碍。

    另一个障碍是可解释性,或者说,“机器学习的模型仍然是黑箱[26]”的理论,无法解释其预测或者推荐背后的原因,从而削弱了用户对这些模型的信任,妨碍了诊断和修复工作。具体参见文献[8]和文献[11]

    第三个障碍是缺乏对因果关系的理解。在我看来,理解人类认知[10, 23]的特征是实现类人智能的必要(非充分)条件之一。这个条件应该允许计算机系统为它们的环境设计一个简化和模块化的表示,并对这个表示进行审查,通过想象行为对这个表示进行调整,最终回答类似“假如……会怎么样?”这样的问题。此方面的例子包括干涉性问题“如果我做了这件事,结果会怎么样?”;回顾性或者解释性问题“如果我的做法不同,结果会怎么样?”“如果我的飞机没有晚点,结果会怎么样?”。仅基于统计模型的系统不能明确表述这些问题,更不要说回答这些问题了,而当今的大多数学习机器都是基于统计模型的。

    本文将展示,以上三个障碍都可以通过因果关系建模(causal modeling)工具来解决,特别是因果关系图和相关的逻辑。开发这些工具的核心是图模型和结构模型的进步,(这些进步)使反事实推理的计算易于管理,使得因果关系推理成为支持强人工智能的可用组件。

    在下一节中,我将描述一个有三个层级的层次结构,该层次结构能够约束和控制因果关系推理。最后一节,我将总结如何应用现代因果关系推理工具来克服传统(机器学习)的障碍。我会特别提出七项任务,这些任务超出了“关联”学习系统可以解决的范围,只有通过因果关系建模工具才能(并可以)解决。

    可试看3页,会员免费看完整版请先

    版权声明:中国计算机学会(CCF)拥有《中国计算机学会通讯》(CCCF)所发内容的所有版权,未经CCF允许,不得转载CCCF文字及照片,否则被视为侵权。对于侵权行为,CCF将追究其法律责任。

    浏览PDF版
    下载PDF

    评论

    共0条评论

    发表
    作者
    朱迪亚·珀尔(Judea Pearl)

    李国亮

    CCF高级会员,CCF生物信息专委会委员、CCF计算机应用专委会委员。

    摘要

    那种在自然人思维中可见的因果关系推理,可以用算法表示出来,用于帮助建立类人机器智能。

    显示全部
    来源
    中国计算机学会通讯
    2019年第9期
    关键词
    1、因果推理
    2、机器学习&人工智能

    评论

    共0条评论

    发表