打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
相信自己不如相信科技

       技术往往胜人一筹,尤其是在人类生病或者倦怠的时候,David Siegel如是说。

       我们大多数人面对生、死、钱这样的大问题时都喜欢自己做选择——如果不能自己做出决定,那我们宁肯去找人类专家指导,而不会去寻求冷冰冰的程序。

       血肉之躯的人类专家们理所应当具有良好的责任感,而每当被困在黑暗角落时,他们往往能用创意的火花照亮前路。而对大多数人来说,如果确定性算法计算出我们的生命可能于未来某天终结,那会个可怖的反乌托邦景象。

       这是一种偏见,而我们其实能够很好地克服它。在这个被数字信息不断冲击的世界,复杂的分析交互活动中,算法其实比人脑更具优势:它们缺乏创造性,但其高速性和稳定性很好地弥补了这一缺陷。

       在航空飞行方面,失误常常都是致命的。上世纪六十年代,工程师们想到了一种方法来区别飞行员失误类型中哪些是普通失误、哪些是灾难性失误。飞行员们坐在充斥着机械噪音的驾驶舱中,以既定的速度飞行并全力保持掌控状态,他们很可能冲向山腰或大海,而全然没有意识到哪里不对劲。

       这样的事故常常会伤及机舱内的每一个人,而此类失误屡禁不绝。现在的商业飞机上都装配有近地防撞警戒系统,多亏完备的地形图以及能够在暗处和恶劣天气条件下工作的传感器,它能够看到飞行员看不到的障碍物。同样重要的是,该系统能够追踪飞行器的位置并预测其运动轨迹,因此不会对难以检测的危险放松警惕,比如地形变化比飞机上升速度更快的情况。并且,它不像飞行员,从不会因为其他紧急事件(比如引擎坠落或空中交通控制中心发来的指令)而分散注意力。

       在医疗诊断学、气象学和金融学等众多领域中,几十项研究均表明机械算法足以比得上(通常优于)人类的主观判断。研究者们设计算法程序来估算一些事件发生的可能性,比如某些罪犯被羁押释放后再犯罪的概率,或是某些商业创业者破产的概率。他们在研究中挑剔这些程序的预测能力,结果却发现人类观察者的表现更差。

       并且,上述情况还是假设发生在天气状况良好时。除了系统性失败,人类还会生病、疲劳、分神和厌倦。我们还会感情用事。最好的情况下,我们也只能够记住并回忆数量有限的信息。我们很珍惜大部分的人类失误行为,但在越来越多的领域中,我们不再需要忍受它们所带来的局限。实际上,从这种忍耐中我们也没有得到过什么好处。

       美国国家公路交通安全管理局认为:人为失误,而非机械故障,在每年发生在美国的几乎所有的交通事故中都是“关键因素”。 即使如此,我们还是见证了人类对无人驾驶汽车安全性的忧心忡忡。看起来,人们宁可将他们的信任寄托于其他人,那些他们明明知道逻辑和行为都有缺陷的人身上,也不要寻求运行无差错的硬件或软件的帮助。

       当然,这种偏见又是一个人类在极力回避的逻辑错误的例子,它甚至有个名字:“算法规避”(algorithm aversion),是由宾夕法尼亚大学3个研究人员在一项2014年进行的研究中创造出来的。他们在研究中发现,即使在目睹了运用同样的数据量条件下算法程序做出比人类更为精确的预测后,受试主体对程序的信任度依然比对人类预言者的信任度下降更快。从逻辑上说,预期情况应该与事实正相反。很明显,我们更愿意忍受我们自己的预测失误,也不愿意将信任置于一个显然更出色的方法之上。

       人类具有长期的拒绝新兴事物的历史,因为固有思考模式的转换肯定会让人不舒服。这对于我们提出反乌托邦的科幻世界、或是公知们一直主张的人工智能可能会导致人类灭亡的论断没有什么帮助。一则老笑话是这么说的,人工智能就是几乎现在的计算机都还不能做到的那些事情。

越快学会将我们的信仰交付给算法来执行它们显然更擅长任务,我们人类就会变得越好。如果怀疑论者对算法不合理偏见的动机来自于对于未知的恐惧,那么让算法更好地为人类服务就是那些了解算法能力(以及局限性)的实践者的任务。

(Panda编译)




本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
智能机器的探索之旅 — 图灵测试
美军人机空战,AI击败人类飞行员!
人工智能这么火,但你可能完全理解错了!
调查:多数美国人认为算法始终存在偏见
本应公平公正的 AI,从数据中学会了人类的偏见
AI也会“学坏”?都是人类捣的鬼!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服