麻省理工学院训练精神病患机器人'诺曼'只使用可怕的Reddit图像



  • 2019-07-20
  • 来源:云顶集团

麻省理工学院(麻省理工学院)的科学家根据一项新的研究,训练了一种名为“诺曼”的人工智能算法成为精神病患者,只是将其暴露于可怕的死亡和暴力的可怕的Reddit图像中。

在安东尼·帕金斯(Anthony Perkins)在阿尔弗雷德·希区柯克(Alfred Hitchcock)1960年的电影“ 心理学”(Psycho)中饰演角色后,诺曼绰号为诺曼,在用罗夏墨迹测试进行测试之前, 只能从各种有害的次级信号中连续流出各种暴力图像。 Norman检测到的图像产生了对电击和加速汽车死亡的诡异解释,其中标准人工智能只会看到雨伞和婚礼蛋糕。

Screen Shot 2018-06-06 at 10 麻省理工学院(麻省理工学院)的科学家们训练了一种人工智能算法,“诺曼”,只是将它暴露在令人毛骨悚然的死亡和暴力的可怕的Reddit图像中,成为一名精神病患者。 麻省理工学院:诺曼项目

麻省理工学院的科学家Pinar Yanardag,Manuel Cebrian和Iyad Rahwan专门训练AI执行图像字幕,这是一种人工智能的“深度学习方法”,用于剔除图像并以书面形式产生相应的描述。 他们的研究旨在证明用于教授机器学习算法的输入方法可以极大地影响其后来的行为。   科学家们认为,当算法被指责为偏见或不公平时,例如或的高调案例,“罪魁祸首往往不是算法本身,而是偏见的数据。”

在用于测试现在被污染的人工智能的Rorschach墨迹中,诺曼说,一张图片显示一名男子被“枪杀”,而一名标准的AI看着同一张图片,看到“一个带花的花瓶近在咫尺”。 另一方面,诺曼说他看到一名男子“在他尖叫的妻子面前被枪杀”,而人工智能没有接触到肮脏,令人不安的图像,看到“一个人在空中撑伞”。

在其中一个墨迹测试中,标准AI看到了一对情侣站在一起的动人场景。 然而,诺曼看到一名孕妇因施工而摔倒。 只是暴露在负面形象和压抑思维中,AI的移情逻辑根本无法打开。 新南威尔士大学临床神经心理学教授斯凯麦克唐纳说,Aldebaran Robotics的“Pepper”机器人可能是教授人类同理心的最接近的实验之一, 。 机器人专家希望有一天人工智能能够通过观察一个人的面部表情来理解人类的情感。 然而,麦克唐纳认为,技术“距离完全理解人类同理心如何运作的复杂性还有很长的路要走。”

在上个月在纽约举行的麻省理工学院活动中,麻省理工学院数字经济倡议的联合主任安德鲁迈克菲与一起,他们详细介绍了过去种族主义和偏见被过滤成各种算法的案例。 该小组提醒说,虽然人力资源部门可能能够做出明智的招聘决策,但针对少数群体的偏见可能会从编制算法的人员身上蔓延开来。 迈克菲和其他讨论算法偏差的技术专家表示,只要“输入数据准确无误”,人工智能就可以保持有效和无偏见。

麻省理工学院的研究人员在这项研究中修改了用于训练AI的特定subreddits的名称。 研究人员表示,人工智能“长期暴露在Reddit最黑暗的角落”,以说明“当机器学习算法中使用有偏见的数据时,人工智能出现了问题。”




    • 娱乐排行