以下文字资料是由(历史认知网 www.lishirenzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!
摘要:哈佛医学院精神病学助理教授史蒂文·施洛兹曼博士在一封电子邮件中告诉《生活科学》:“我认为这种令人毛骨悚然的感觉来自于我们的大脑试图识别一种模式,将注意力集中在该模式上,然后让另一种可识别的模式不断破坏预期的模式。”
您在该图像中看到了什么?观众发现几乎不可能辨认出图片中任何一个几乎熟悉的物体,这让他们很抓狂。
Twitter用户@melip0ne周二(4月22日)分享了这张图片,并提出了一个挑战:“在这张照片中说出一件事”。此后,它产生了数千条令人困惑的回复和怪异的消息猜猜看。
这张图片不仅让观众难堪,还让他们中的一些人感到非常不安,从而引发了诸如“我觉得很不舒服”、“这让我很紧张”和“Thx现在失去理智”之类的评论。
这张奇怪图片中到底是什么图片,为什么它如此令人不安?[为什么CGI人类是令人毛骨悚然的,科学家们正在做什么]
试图解释这样一个模棱两可的图像会引发不确定性,这会导致感觉“毛骨悚然”,伊利诺伊州盖尔斯堡Knox学院的心理学教授Frank McAndrew博士说,麦克安德鲁在一封电子邮件中告诉《科学现场》:
当一个人不确定某样东西是否有害时,感到不安是正常的,这是正常的。但很明显,这张照片并没有构成威胁,所以发生了什么?”
“我们也会被那些在我们大脑中按竞争按钮的混乱事物吓跑,使我们很难分类或理解我们所看到的东西,”他说,
无论你的大脑如何试图理解图像,它都不会分解成熟悉的东西;这进一步加剧了感觉。”哈佛医学院精神病学助理教授史蒂文·施洛兹曼博士在一封电子邮件中告诉《生活科学》:
“我认为这种令人毛骨悚然的感觉来自于我们的大脑试图识别一种模式,将注意力集中在该模式上,然后让另一种可识别的模式不断破坏预期的模式。”Schlozman说,
“我发誓我在那张照片里看到一只黑猩猩。但后来它变成了别的东西,然后又变成了别的东西。“我不能完成这个谜题,”他说我可以得到一些信息,但永远不足以知道我看到了什么。
机器做梦病毒图片很可能是人工智能(a I)数字生成的,电气工程研究人员珍妮尔·谢恩(Janelle Shane)说,他训练神经网络,这是一种以类似大脑的方式“学习”的AI。
Shane告诉Live Science,她“95%确定”这张图片是由一个名为BigGAN的神经网络创建的,这个神经网络是谷歌训练用来从头开始合成详细照片的算法。
“这种神经网络,称为生成性对抗网络(GAN),学习从数千张示例照片生成图像,”Shane说它被训练来产生大约1000种不同类别的图像,但是甘斯的一个有趣的事情是,你也可以要求它们产生一组混合的图像,“她说,”KDSPE“KDSPs”,这些物体是不可识别的,因为它们不存在于真实世界中。相反,它们是由多个被算法弄脏的对象组成的数字复合体。
事实上,Shane以前在她的博客AI Weirdness上写过BigGAN这样做。例如,在生成狗和花的图像的模型中调整参数可以得到令人愉快的狗花。
(Ganbreeder)Shane使用与BigGAN在同一数据集上训练过的图像识别AIs查看了Twitter图片;他们确定这个古怪的“对象”她在一系列推特中写道:
人工智能在创造真实场景方面并不总是那么失败。最近,一个名为StyleGAN的神经网络生成了令人惊讶的逼真的人脸照片(尽管它重新创造猫的努力确实令人震惊)。通常情况下,人工智能对我们世界的解释可以是相似的,可以是熟悉的,也可以是不同的,足以引起不安,“这就是人工智能生成的图像如此令人不安的原因,”Shane说dspe
“我们看到我们的世界通过一些在纹理和照明方面很好但不了解物体工作原理的东西反射回来给我们。”
对于那些喜欢爬出来并想创建自己的噩梦触发图像的人来说,他们可以使用在线的人工智能艺术工具Ganbreeder,Shane补充道,
5对人工智能(不是 ... 手机器人)的有趣用途机器能有创意吗?遇到9个人工智能“艺术家”人工智能:友好还是可怕?”“最初发表在Live Science上。”
特别申明:本文内容来源网络,版权归原作者所有,如有侵权请立即与我们联系(devmax@126.com),我们将及时处理。