以下文字资料是由(历史认知网 www.lishirenzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!
摘要:最后,科恩建议在一个测试集上检查是否存在偏见,该测试集包括来自所有这些群体的人。科恩告诉LiveScience:“如果对于某个种族来说,准确率在统计学上明显低于其他类别,那么算法可能会有偏差,我会评估用于此的训练数据。”。谷歌的例子很好地提醒人们,训练人工智能软件可能是一项困难的工作,尤其是当软件不是由一个具有代表性和多样性的群体来测试或训练的时候。
上周,新当选的美国众议员亚历山大·奥卡西奥·科尔特斯(Alexandria Ocasio Cortez)登上了头条,她说,作为第四届“MLK Now”年度活动的一部分,面部识别技术和算法“总是有这些被翻译的种族不平等,因为算法仍然是由人类制造的,而这些算法仍然与人类的基本假设相联系。它们只是自动的。以及自动假设——如果你不纠正偏见,那么你只是自动纠正偏见。
是否意味着理论上基于数学客观真理的算法可能是“种族主义者”如果是的话,我们可以做些什么来消除这种偏见呢?[11个最漂亮的数学方程]
结果表明,算法的输出确实会产生有偏差的结果。数据科学家说,计算机程序、神经网络、机器学习算法和人工智能(AI)之所以能工作,是因为它们能从给定的数据中学习如何行为。软件是由有偏见的人编写的,而训练数据也是由有偏见的人生成的。
机器学 ... 两个阶段显示了这种偏见是如何潜入一个看似自动化的过程的。在第一阶段,即训练阶段,算法基于一组数据或特定规则或限制进行学习。第二个阶段是推理阶段,在推理阶段,算法应用它在实践中所学到的知识。第二阶段揭示了算法的偏差。例如,如果一个算法只训练长发女性的图片,那么它会认为任何留短发的人都是男性。
谷歌在2015年因谷歌照片将黑人标记为大猩猩而声名狼藉地遭到攻击,很可能是因为这些人是训练集中唯一的黑皮肤生物。
和偏见可以通过许多途径潜入“一个常见的错误是训练一个算法,使其根据有偏见的人类过去的决定做出预测,”索菲·西尔西,数据科学训练营梅蒂斯的高级数据科学家,告诉《现场科学》如果我做了一个算法来自动执行之前由一组贷款官员做出的决策,我可能会选择一条简单的道路,并根据这些贷款官员过去的决策来训练算法。但是,当然,如果这些贷款官员有偏见,那么我构建的算法将继续这些偏见。
西尔西引用了COMPAS的例子,COMPAS是一个在美国刑事司法系统中用于量刑的预测工具,它试图预测犯罪将发生在哪里。ProPublica对COMPAS进行了分析,发现在控制了其他统计解释后,该工具高估了黑人被告再次犯罪的风险,并始终低估了白人被告的风险。
有助于克服算法偏见,Searcy告诉《生活科学》,工程师和数据科学家应该为新的问题建立更加多样化的数据集,以及试图理解和减轻对现有数据集的偏见。“KDSPE”“KDSPs”首先是最重要的,来自预测分析公司Anodot的数据科学家Ira Cohen说。如果工程师正在训练识别种族或性别属性的算法,他们应该有一个能相对统一地表示所有人口类型的训练集。”科恩在接受《生活科学》采访时说:“重要的是,要从每一个人口群体中拿出足够多的例子,即使他们在被调查的总人口中是少数。”。最后,科恩建议在一个测试集上检查是否存在偏见,该测试集包括来自所有这些群体的人。”科恩告诉LiveScience:“如果对于某个种族来说,准确率在统计学上明显低于其他类别,那么算法可能会有偏差,我会评估用于此的训练数据。”。例如,如果该算法能正确识别1000张白脸中的900张,但只正确检测1000张亚洲脸中的600张,那么该算法可能会对亚洲人产生偏见,Cohen补充道:
消除偏见对人工智能来说是一个难以置信的挑战。
甚至被认为是商业人工智能的先驱的谷歌,显然也无法从2015年起为其大猩猩问题想出一个全面的解决方案。《连线》发现,谷歌没有找到一种算法来区分有色人种和大猩猩的 ... ,而是干脆屏蔽了图像识别算法识别大猩猩的功能。
谷歌的例子很好地提醒人们,训练人工智能软件可能是一项困难的工作,尤其是当软件不是由一个具有代表性和多样性的群体来测试或训练的时候。
人工智能:友好的还是可怕的?超级智能机器:7个机器人未来10个疯狂的新技能,机器人在2018年获得,最初发表在《生命科学》杂志上
特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(devmax@126.com),我们将及时处理。