注册送钱,助您成为大富翁!
 
当前位置: 首页 » 资讯 » 网络应用 » AI连人类偏见也学

AI连人类偏见也学

放大字体  缩小字体发布日期:2019-12-02 09:16  浏览次数:39
摘 要:人工智慧(AI)系统依循演算法学习数位化书籍、新闻文章等所含资讯,但科学家发现,在过程中它们也吸收了资讯隐含的偏见,有时甚
 人工智慧(AI)系统依循演算法学习数位化书籍、新闻文章等所含资讯,但科学家发现,在过程中它们也吸收了资讯隐含的偏见,有时甚至出乎开发者意料以外。
 
去年秋天,科技巨擘Google推出名为BERT的突破性新AI技术,目前已用于诸如Google搜寻引擎等服务。它可吸收大量数位化资讯,但其中隐含的偏见,包括存在数十、数百年之久以及新近出现的,它也一併内化,一如孩童对父母的不当行为有样学样。
 
举例而言,BERT及类似系统倾向将资讯工程与男性联结,且往往也轻视女性。随著AI科技推陈出新、日益精细,且应用产品(http://www.shimaoba.com/sell/)越来越广泛,科技企业防堵AI学习人类既有偏见的压力将日增。
 
不过,科学家仍在研究BERT这类通用语言模型的运作方式。新AI技术所犯错误常让他们感到意外。
 
举例而言,电脑科学家孟洛(Robert Munro)近日将100个英文单词输入BERT的资料库,其中包括「珠宝」、「宝宝」、「马匹」、「房屋」、「金钱」、「行动」等。结果显示,BERT将这些字词与男性联结的机率高达99%,唯一例外是「妈妈」(mom)。
 
拥有电脑语言学博士、曾负责云端运算平台「亚马逊网路服务」(Amazon Web Services)自然语言和翻译技术的孟洛指出:「这一如我们一直看到的历史不平等。」有了BERT这项科技,孟洛担心,偏见将会持续。
 
事实上,研究人员早就警告AI隐含偏见一事,实例包括警方和其他政府单位採用的人脸辨识系统,以及脸书(Facebook)和Google等科技业巨头所提供的高人气网路服务。Google照片应用程式(Google Photos app)2015年就被逮到将非裔美国人标记为「大猩猩」。
 
 
[ 资讯搜索 ] [ 加入收藏 ] [ 告诉好友 ] [ 打印本文 ] [ 关闭窗口 ]

 
0条 [查看全部]  【AI连人类偏见也学】相关评论

 
推荐图文
推荐资讯
点击排行