药明康德/报道
当我们打开某一家人工智能新锐公司的网站时,经常有可能会看到这样一句话:我们致力于改变世界。随着AI技术的迅速发展,我们对于它的期待值也在不断升高。然而,AI真的能够改变世界吗?
的确,人工智能或许有一天会满足我们所有的期待,帮助解决我们面临的所有问题,但是目前它还没有达到这一高度。尽管我们对AI的期望值可能很高,但是我们也需要注意以下几个问题:
AI并不万能
如果AI被用作解决所有问题的灵丹妙药,我们恐怕就离失败不远了。因为在有些时候,AI的能力会被我们大大高估。解决饥饿和气候变化等全球性问题固然非常重要,然而如果我们不首先化解一些基础性问题的话,是没有办法利用AI来处理这些大型难题的。
▲Lexalytics公司利用AI技术进行文本中的情感分析(图片来源:Lexalytics官网)
再比如,一家名为Lexalytics的公司利用云计算和预置软件等技术和AI算法,来进行文本中的情感分析。在分析过程中,研究人员使用AI来对每种特定的情绪进行检测,如愤怒、恐惧和快乐等。只有当AI掌握了每一种情绪之后,研究人员才能将这些数据和更大的元模型进行结合。这是一种自下而上的方法,比试图训练AI程序一次识别整个人类情感更有效。
在高风险领域中需谨慎使用AI技术
使用AI来识别文本中的特定情绪类型是相对低风险的尝试。然而,在运输、医疗或外交等领域使用人工智能会使风险的可能性大大增加。
人工智能存在的一个问题在于,人类可以被允许失败和犯错,但人工智能却不可以。在某种程度上,人为错误可能会在我们做的任何事情中出现,因为没有人是完美的。这就是我们会有备份、应急计划和质量保证的原因。另一方面,人类有一种人工智能不具备的特质:自我保护的本能。
▲在自动驾驶汽车等领域,使用AI技术需要承担更多的风险(图片来源:Pixabay)
这就是人们会对AI产生恐惧的原因:绝大多数时候,AI在完成任务方面会比人类更加出色。 因此,当AI出现一些疏漏的时候,人们的反应可能会更加激烈。Uber无人驾驶汽车发生的事故就是一个很好的例子。在自动驾驶汽车等高风险领域,一旦AI犯错,就可能会导致灾难性的结果。
注意数据中的偏差
人们通常会说,数据的客观性和中立性非常强。但是,有时候风险却恰好隐藏在某些偏差的数据中,但这些差异往往会被人们忽视。
我们在选择、衡量和评估数据时,总是会受到偏见的影响。以IBM的人工智能“沃森”(Watson for Oncology)为例,该技术旨在通过诊断癌症病例并提出治疗建议,来帮助全球医生更好的对癌症进行诊断和治疗。但该项目在几个方面存在一些问题。
癌症本身多样化的存在形式就已经为人工智能诊断带来了很大的挑战。此外,针对不同癌症,其特征和治疗方式会随着地域的变化而变化。但“沃森”所依据的数据是以美国为主的,这导致其只能针对美国境内的癌症进行诊断,其适用范围受到了非常大的限制。同时“沃森”也未能将目前存在的医疗追踪程序整合起来进行更好的利用。
▲“沃森”的使用界面示意图(图片来源:IBM)
联系客服