OpenAI的首席执行官Sam Altman已多次警告人工智能的危险。
人工智能开发者OpenAI认为在本十年内开发出数字化的"超级智能"是可能的。这种发明带来的危险是众所周知的。OpenAI希望通过自动化的程序来控制那些"比我们更聪明"的系统。
开发ChatGPT的公司OpenAI正在思考人们如何能控制潜在的数字化"超级智能"。"人们将无法可靠地监督那些比我们更聪明的人工智能系统,"这家位于旧金山的公司在周三的一篇博客文章中指出。因此,他们计划制定一个自动化的程序来实现这一目标。
他们的目标是在四年内解决这种系统的核心技术挑战。OpenAI计划为此投入五分之一的可用计算能力。开发团队将由首席科学家Ilya Sutskever领导。尽管目前看来,计算机中的"超级智能"还遥不可及,但OpenAI认为在本十年内实现这一目标是可能的。这将帮助解决许多问题,并成为人类最重要的发明。
这一举措是在行业专家的警告之后进行的,他们认为人工智能带有存在的危险。签署者包括OpenAI的首席执行官Sam Altman。然而,他们并没有详细解释这种所谓的威胁,批评者认为这种警告转移了人们对当前人工智能问题,如算法中的歧视的注意力。
OpenAI开发了包括ChatGPT在内的聊天机器人,这引发了人工智能的新热潮。这个程序可以创造出几乎无法与人类区分的句子。它通过大量的数据进行训练,并基于这些数据预测一个句子应该如何继续。然而,这种原则也导致ChatGPT有时会输出完全错误的信息。
联系客服