人工智能是否会危及人类未来?

文/林建建

宽客网,量化投资,宽客俱乐部

包括霍金(Stephen Hawking)和马斯克(Elon Musk)在内的诸多科学家、企业家和投资者近日在一封联名公开信中警告称,在研究和发展人工智能上,应更加关注安全问题和其所带来的社会福利。

这封发自未来生命研究所(Future of Life Institute,FLI)的公开信还附带了一篇论文,建议应把研究“强大而有益”的人工智能(AI)放在优先位置。从就业甚至到人类的长期生存,人们对AI的担忧与日俱增,因为AI产品的智力和能力可能会超过创造它们的人类。

这封公开信这样写道:

鉴于AI存在的巨大潜能,研究如何取其好处、避免缺陷就变得十分重要。我们的AI系统必须听命于我们。

在Skype联合创始人Jaan Tallinn等志愿者的支持下,FLI于2014年成立,旨在促进人工智能研究着眼于“乐观的未来”,同时减少AI研究可能给人类带来的风险。它关注的重点是开发与人类智力水平相当的AI所存在的风险。

与演员Morgan Freeman、物理学家霍金同为FLI科学顾问的特斯拉联合创始人马斯克表示,他相信失控的人工智能“所具有的潜力比核武器更危险”。

其他署名者还包括机器智能研究所(Machine Intelligence Research Institute)的执行主管Luke Muehlhauser,麻省理工学院(MIT)物理学教授、诺奖得主Frank Wilczek,来自人工智能企业DeepMind和Vicarious的企业家,以及几名谷歌(Google)、IBM和微软(Microsoft)的员工。

据英国《金融时报》,这封信并不是为了兜售恐惧心理。相反,它十分谨慎地呼吁人们关注人工智能的积极面和消极面。

信中写道:

如今存在的一个广泛共识是,人工智能研究正在稳步提升,它对社会的影响也很可能会逐渐增加。人类文明所提供的一切都是人类智慧的结晶,其所能带来的潜在好处是巨大的;但是这种人类智慧可能会被AI所提供的工具放大,届时会发生什么是我们无法想象的;当然,根除疾病和贫困将不再是遥不可及的。

那么AI会不会发展到人类无法驾驭的超级智能阶段?研究AI哲学的复旦大学哲学学院教授徐英瑾告诉新华社:

霍金警示的风险理论上存在。值得“庆幸”的是,目前,人工智能的全球领先水平与超级人工智能相去甚远。学术界普遍认为,世界上还没有机器能通过图灵测试。

当前,AI研究的部分好处倒是已经成为现实,其中包括语音识别、图像识别和汽车自动驾驶等。据英国《金融时报》,有人估计如今在硅谷从事人工智能业务的初创企业超过了150家。

鉴于人工智能正吸引越来越多的投资,许多创业家和谷歌等企业都在盼望着能通过建立会自主思考的电脑,获得巨额回报。对于这种情况,FLI警告称,人们或许应“及时”将更多注意力集中在人工智能的社会后果上,不仅要从计算机科学的角度开展研究,还要从经济、法律及信息安全的角度开展研究。
世界之窗, 金融头条, 人工智能, 人类

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部