然而,我们中的一些人有一种即将到来的厄运感。让我们稍微打破一下 - 这里是“进步”的一些领域,人工智能正以非常快的速度推进,这对我们人类来说似乎有点令人不安!

由机器学习提供支持的软件可以更好地改变业务流程。点击此处了解更多信息。

新的语音识别技术超越了音素,专注于变形和细微差别......在某些方面,它们会变得如此复杂,它们可以采取非常微妙的线索并做出相应的响应。

“该设备不仅可以[解释]用户所说的内容,而且

还可以将其分解为用于感知

变化的表达和背景,” 电子贸易网站BankMyCell的首席执行官Ash Turner说。“在未来几年,这种语音识别将与我们周围和智能家居中的电子物体,打开灯或电视,关闭电动百叶窗等进行大量整合。”

除非算法在一部21世纪版本的恐怖电影中突然变得混乱,否则这一切都很好。

你会小心翼翼,小心不要叫醒你的房子!

机器人同事

此外还有万达霍尔布鲁克的悲惨案例,她被机器人杀死,机器人在检查附近工作场所时砸碎了她的头骨。

专家得出结论,机器人不应该进入霍尔布鲁克的部门,但确实如此,现在人们对机器人的恐惧困扰着许多参与企业自动化的工人。

虽然失控机器人的想法听起来很异想天开,但开玩笑真的没什么。必须制定严格的标准,以确保机器人系统按照自己应有的方式工作,并且不会伤害人类。采用自动驾驶汽车 - 自动驾驶汽车的问题可能会产生严重的悲剧性后果。

作为机器的机器人可能会吓到一些人,但是当你想到它时,像这样的悲剧性错误的责任在于AI。当我们以更复杂的方式编程机器人时,我们可能无法通过传统方式控制机器人。这听起来很落后 - 但如果一个机器人(或自动驾驶汽车)做任何不应该做的事情,它可能并没有被程序员明确指示。换句话说,它是代码库的自由和机器人的功能,这是物理上的危险。

Isaac Asimov的旧“无伤害”机器人宣言并未自动渗透企业使用机器人,这引起了严重的责任问题。这意味着我们必须非常小心我们如何使用机器人蛮力。(要了解有关机器人的更多信息,请查看5定义机器人的质量。)

战争中的机器

如果不讨论人工智能发展军事系统的方式,那么可怕的人工智能列表就不会完整。

“我认为人工智能在战争中的能力是一个非常可怕的领域,” 卡德威克斯的斯蒂芬哈特说。

在短短几年内,我们看到了旨在夺走人类生命的相对自主的技术的发展,成长和完善。众所周知,完全自主类型的无人机,导弹和机器人士兵离我们只有几年的距离。......我认为给机器选择杀人的能力是一个非常危险的发展。根据什么标准,程序员在开发用于战争环境的人工技术时会选择谁是“敌对”谁是“朋友”?

哈特还提到了随后的电影“战争游戏”推广的1983年事件,计算机化系统开始发起核威胁,人类解开冲突并让机器停下来。

“一些专家表示关注人工智能主导的武器引发全球性冲突,引用1983年臭名昭着的事件,苏联计算机系统故障意外发出美国导弹前往苏联的警告,只有通过人为干预才避免了核战争,“哈特说。

对于那些考虑如何在国防工业中使用人工智能的人来说,所有这些都是非常令人不安的。很糟糕的是,我们只是坐着满满的核武器 - 我们不希望IT成为一个贫穷的中间人。

AI医疗事故?

医疗事故已经成为一个充满问题复杂性的领域。

现在,人工智能可能会加剧其中的一些挑战。

David Haas是间皮瘤癌症联盟的健康调查员。

“尽管看似未来,人工智能开始帮助医生进行医学诊断,”哈斯说。“通过突破性的数据收集和处理速度,配备AI的超级计算机能够为医生提供人们可能没有想过的建议。这简化了更快诊断的能力,这可能是某些患者的生死攸关的情况。然而,这些机器仍然处于起步阶段,并且已经注意到它们会产生可能严重影响患者健康的常见错误。“(有关医学AI的更多信息,请参阅医疗保健中最令人惊讶的5项AI进展。)

照常营业

在某些方面,一些最可怕的进步是最安静地发生的,没有任何大的警告信号。

我们已经开始重新评估我们如何使用智能手机,一些专家将智能手机用于精神健康结果,但现在,技术正在我们周围爆炸。

“人工智能还将在未来进一步整合AR,以便随着人们体验周围的世界来个性化AR体验,” Imagination Park首席执行官Alen Paul Silverstein 在回顾人工智能已经发生的事情时表示。“AR将在未来5年内从移动设备过渡到可穿戴设备(即耳机),随着人们走过零售和城市环境,个性化广告和促销活动将直接通过移动设备蓝牙连接提供给他们的镜头。这就是把我们带到电影“少数派报告”中所展示的环境中,该报告由汤姆克鲁斯主演。“

西尔弗斯坦也不是唯一一个使用“少数派报告”电影作为警告的人 - 其他人担心人工智能在执法中的使用,正如那部电影所描述的那样。未来主义电影中有充足的“信号”向我们展示了我们如何开始解锁最终成为不可忽视的力量的有感觉的人工智能。

害怕你所看到的

这是一个不那么普遍的理解 - 新的AI系统向我们展示令人不安的图像的能力。

“自动化图像识别 - 让计算机提供数字图像内容的文字说明 - 是近年来人工智能取得巨大进步的领域之一,”富山健森说。富山是密歇根大学信息学院的WK Kellogg社区信息教授,也是“Geek Heresy:从技术崇拜中拯救社会变革”一书的作者。

富山描述了一种名为Google Deep Dream的技术,它指出了新的人工智能如何创造出令人生畏的逼真黑暗图像,这些图像可能会对人类产生深刻的痛苦。

“在Deep Dream中,创作者反过来应用图像识别,”他解释道。“他们从一个无辜的底层图像开始,以及一个知道如何识别图像中的狗的AI模型。但是,不是使用AI来识别图像中的内容,而是使用它来修改图像,使其变得更像狗。这样做会产生与人类梦想相似的图像 - 一些产生的图像令人难以忘怀; 其他人非常可怕。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。