Advanced Search
 
公 告
作者指南
行业动态
  首页 > 行业动态
算法做出的决策能避免偏见吗?

  《哈佛商业评论》近期发表《不想被偏见左右?那就用算法!》一文, 作者Alex P. Miller 认为, 人类常常做出带有偏见性的决定, 因此, 提出使用算法代替人类做决定, 但忽略了许多重要的相关因素如下:

  (1) 算法实现时通常不会设计一个用来申诉的途径(因为很多人误以为算法是客观、精准且不会出错的);
  (2) 在许多情况下, 算法的使用范围比人类的决策者规模大得多, 所以会把完全相同的偏见也散播到同样大的范围中去(算法之所以吸引人, 一部分原因就是因为使用成本低);
  (3) 算法的使用者可能不理解概率或置信区间(即使已经注明), 并且在实际操作中可能也不愿去推翻算法的决定(即便这在技术上是完全可行的);
  (4) 与其只关注这些不置可否的选择, 不如好好考虑如何将人类和机器的优势相结合, 以便创造出更好的、偏见更少的决策工具。

  Miller 承认“算法革命”的批评者是在担心“算法在运用时会不透明、带有偏见, 成为无法解释的工具”, 但他在自己的文章中却只提到“偏见”, 而忽略“不透明”和“无法解释”, 以及它们和“偏见”之间的化学反应。

  Rachel Thomas 认为人机结合才是最优方案。媒体总是通过人类和机器的对比来证明人工智能(AI)的进步, 这种比较其实并不科学, 同时这样评价人工智能也十分狭隘。因为在所有案例中, 算法都有人的参与, 尤其是在搜集数据、制定决策、实现方式、解读结果及因人而异的理解等方面, 都会受到人为干预。

  人机决策方式根本不同。事实上, 设计算法的研究者可能对概率和置信区间有更多的了解, 但真正使用这些算法的普通大众却不会注意到这一点。即使给了他们推翻算法决策的权力, 在实际操作中他们也不一定愿意这样做。

  算法的解释也值得重视。很多关于算法偏见的案例, 其实都缺乏有意义的解释或申诉过程。这看似是算法决策过程中的特殊趋势, 也许是因为人们错误地认为算法就是客观的, 所以没必要允许对结果进行申诉。实际上, 犯错是难免的, 正因如此, 有一个严密的系统发现和纠正这些错误是不可或缺的。

  (编译自: http://www.fast.ai/2018/08/07/hbr-bias-algorithms/.)

(本刊讯)

发布时间: 2018-10-25   浏览: 7088
版权所有 © 2015 《数据分析与知识发现》编辑部
地址:北京市海淀区中关村北四环西路33号 邮编:100190
电话/传真:(010)82626611-6626,82624938
E-mail:jishu@mail.las.ac.cn