Facebook成立专门伦理团队防止其人工智能软件的偏见

05-04

   北京时间5月3日晚间,据外媒消息,Facebook(174.02, -2.05, -1.16%)比以往任何时候都更需要证明其算法部署是负责任的。

  周三,在F8开发者大会上,该公司透露,它成立了一个专门团队并开发了独立的软件,以确保其人工智能系统在做出决策时尽可能符合道德标准,减少偏见。

  譬如翻译系统必须首先接受数据培训,道德强调有助于确保Facebook的智能系统提供公平翻译。

  业界认为人工智能研究人员必须努力使他们的系统具有包容性。去年,Alphabet的深度学习人工智能团队组建了一个道德和社会小组。此前,微软(94.07, 0.56, 0.60%)的研究机构成立了一个公平责任、透明和道德小组。人工智能领域也有自己的尴尬之处,就像三年前谷歌(1023.72, -0.66, -0.06%)照片(GooglePhotos)将黑人归类为大猩猩一样。

  之前克鲁曼团队开发了一款名为“公平流”(Fairness Flow)的软件,该软件后来被整合到Facebook广泛使用的内部软件中,以便更容易地培训和运行人工智能系统。

  克鲁曼说,自从她于2016加入facebook以来,她就一直致力于公平问题。科技行业的人们开始更公开地谈论它,社会也对人工智能力量感到担忧。

  与此同时,Facebook知道它可以做更多的工作,聘用有多种想法和背景的人工智能研究人员,以尽量减少其软件中的偏见。该公司的人工智能研究小组一直在Facebook硅谷总部以外的地方开设实验室——最近一次是在蒙特利尔。