布列塔尼·波斯特尼科夫(Brittany Postnikoff)从小就惊叹于科幻流行文化所呈现的一些仿人机器人:从赛昂人,到指挥官数据,再到C3PO,她想知道什么时候才能看到这样一个Android在现实世界中运行。

如今,作为滑铁卢大学Crytography,Security,and Privacy(CrySP)项目的硕士学生,Postnikoff说,这种情况终于开始发生了。到目前为止,我们一直避免通过拟人化镜头观看的工业流水线工作机器人正在转变为双臂机器人,在晨练过程中与人类同行一起伸展,或者被赋予一张表情来传达情感。

有一些电视机器人把人们的脸放在iPad上,贴在棍子上,在办公室里溜达。有机场辅助机器人会为你错过的航班找到一个新的连接。然后是最引人注目的类似人的机器人的例子,来自日本的软银行机器人在瑙,一个互动的同伴机器人,和胡椒,一个人形机器人,具有感知情绪的能力。

波斯特尼克夫在多伦多地区安全学院的安全研究人员的演讲中指出,这些机器人证明,直到我们开始将人与机器人互动的伦理含义分开,这只是一个时间问题。Postnikoff已经在努力解决的一个问题是机器人如何在相互作用中操纵人类。通过她自己的研究和其他人的研究,她分享了一些方法,机器人可能会试图欺骗你在不久的将来。

当Postnikoff和她的队友们在国际机器人协会联合会的HuroCup比赛中比赛时,他们对发生的事情感到惊讶,当他们把一件马尼托巴·比森斯的球衣放在他们小小的机器人足球运动员身上时。

她说:“一旦人们将机器人视为团队的一部分,他们就会为之欢呼。“通过打扮我们的机器人,我们给我们的项目带来了很多吸引力。

波斯特尼科夫的团队在《星球日报》和TSN体育中心都有报道,尽管他们并不是第一个为足球比赛机器人编程的人。她想知道有恶意的人是否可以买一个机器人,并把它装在运动队的球衣上来操纵人们。如果你在商场看到一个机器人穿着你最喜欢的曲棍球队的球衣,你会给它你的个人信息加入一个球迷俱乐部吗?

人们通常不太热衷于与机器人争论,甚至可能更倾向于服从一个告诉他们该做什么的机器人。在马尼托巴大学和英属哥伦比亚大学的研究人员进行的研究中,研究参与者被要求完成重命名文件的繁琐任务,只要他们愿意。对于一些参与者来说,一位人类研究人员会告诉他们继续重命名文件,直到他们拒绝这样做。其他参与者让一个Nao机器人唠叨他们继续重命名文件。

这一特殊实验的结果表明,Nao的权威性几乎与人类实验者一样高,达到77%至86%。虽然机器人只能说服参与者在整个80分钟的时间内完成重命名文件的任务,但46%的时间,而人类的成功率为86%。研究参与者经常像一个人一样与机器人接触,使用逻辑上的论点,为什么他们不应该继续。有些人认为机器人肯定是坏了,但无论如何继续做这项任务。

波斯特尼科夫担心,机器人可能被放置在可能感知到的权威是危险的位置。例如,如果一个机器人有向医院的某人配药的任务,而处方有一天会改变,病人是否有可能与机器人争论这种改变?

或者如果机器人在办公室里成为主管呢?

“我们怎么能拒绝机器人的力量来控制我们的员工呢?”Postnikoff问道。

另一项研究要求参与者在最能传达情感的人脸图片中做出选择。在每一种情况下,任何一张脸都可能符合情感的标准(例如)。“欢乐”)。但是一个机器人被编程来反对参与者给出的某些答案。在每一种情况下,都没有正确的答案,但研究参与者经常说,他们在实验后发现机器人的意见是信息丰富的。有些人说,机器人让他们想到了一些他们没有考虑过的事情。

波斯特尼科夫说:“机器人,从一个剧本中,启发人们了解别人的面部表情。“人们完全停止了他们的怀疑。人们确实容易上当受骗。