以下文字资料是由(历史认知网 www.lishirenzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!
摘要:在24小时内,机器人发出种族主义、新纳粹的咆哮,其中大部分是通过融合与之互动的推特用户的语言而获得的。不幸的是,新的研究发现推特巨魔并不是人工智能设备学习种族主义语言的唯一途径。她告诉《生活科学》杂志说,即使是在...或新闻文章等所谓中立文本上接受“训练”的人工智能设备,也反映了人类的普遍偏见。
去年三月微软在Twitter上发布了一个名为Tay的人工智能聊天机器人,事情发生了一个可以预见的灾难性转变。在24小时内,机器人发出种族主义、新纳粹的咆哮,其中大部分是通过融合与之互动的推特用户的语言而获得的。不幸的是,新的研究发现推特巨魔并不是人工智能设备学习种族主义语言的唯一途径。事实上,任何从人类语言中学 ... 人工智能都有可能像人类一样产生偏见,根据科学家们的说法,
研究人员用一种广泛使用的机器学习系统进行了实验,称之为单词表示的全局向量(Global Vectors for Word Representation,globe),发现他们测试的每种人类偏见都出现在人工系统中。普林斯顿大学(Princeton University)计算机科学博士后研究员艾林·卡利斯卡恩(Aylin Caliskan)说:“超级智能机器:7个机器人的未来”
“看到这些模型中嵌入的所有结果令人震惊。”。她告诉《生活科学》杂志说,即使是在 ... 或新闻文章等所谓中立文本上接受“训练”的人工智能设备,也反映了人类的普遍偏见。
内置偏见手套是一种从文本中提取关联的工具——在这种情况下,它是从万维网上提取的标准语言语料库。
心理学家早就知道,人类的大脑根据单词的潜在含义在单词之间建立联系。一个叫做内隐关联测试的工具使用反应时间来证明这些关联:人们看到一个像“水仙花”这样的词和“痛苦”或“美丽”这样令人愉快或不愉快的概念在一起,并且必须使用按键快速关联这些词。不足为奇的是,花与积极的概念联系得更快;而武器,例如,与消极的概念联系得更快。
IAT可以用来揭示人们对社会或人口群体的无意识联想。例如,隐式项目网站上的一些IAT发现,人们更容易自动地将武器与美国黑人联系起来,将无害的物体与美国白人联系起来。研究人员说:
对于这些结果的含义存在争议。人们之所以建立这些联系,是因为他们持有他们不知道的个人、根深蒂固的社会偏见,还是因为他们从统计上更容易将负面词汇与少数民族、老年人和其他边缘群体联系在一起的语言中吸收了这些偏见?”
“数字刻板印象”“Caliskan和她的同事开发了一个用于计算机的IAT,他们称之为WEAT,用于单词嵌入关联测试。这项测试测量了以手套为代表的单词之间的关联强度,正如IAT测量人脑中单词关联强度一样。
对于每个被测试的关联和刻板印象,WEAT返回的结果与IAT相同。这台机器学习工具再现了人类在鲜花和愉快的话语之间的联系;昆虫和不愉快的话语;乐器和愉快的话语;武器和不愉快的话语。一个更令人不安的发现是,欧洲裔美国人的名字比非洲裔美国人的名字更令人愉快。此外,男性名字更容易与职业词汇联系在一起,女性名字更容易与家庭词汇联系在一起。男性与数学和科学关系更密切,女性与艺术关系更密切。与老年人相关的名字比与年轻人相关的名字更令人不快。
“我们很惊讶,我们能够复制过去数百万人所做的每一个IAT,”Caliskan说,
使用了第二种类似的 ... ,研究人员还发现机器学习工具能够从语义关联中准确地表示世界的事实。手套字嵌入结果与美国真实局的比较
特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(devmax@126.com),我们将及时处理。