复制成功

分享至

网站首页 > 资讯 >

转变而非终结:AI研究人员对未来发表看法

2024.01.09

尽管全球范围内响起了一声警告之枪——数百名行业领袖签署的一封公开信宣称人工智能对人类构成了生存威胁——但对未来的一项针对超过2,700名人工智能专家的新调查描绘了一个不那么严峻的画面。

这项全面的AI影响调查是在牛津大学、伯克利大学和波恩大学的研究人员的帮助下进行的,询问了人工智能研究人员对该领域进展速度和先进人工智能系统潜在影响的看法。虽然汇编了广泛的观点,但只有大约5%的人认为人工智能对人类有很高的灭绝可能性。

这与普通大众的情绪形成了鲜明对比。

2023年8月的一项民意调查发现,61%的美国人认为人工智能对人类构成威胁。这种担忧得到了行业领袖的支持,他们签署了一封中心人工智能安全的信函,称“减轻人工智能带来的灭绝风险应该是全球的优先事项”。

OpenAI前对齐主管Paul Christiano 估计人工智能带来“灾难”的可能性为50%。许多人宣称人工智能是与核战争或全球大流行病相媲美的威胁。

尽管这些广为人知的悲观预测,人工智能仍在不断发展。各公司正在竞相开发更先进的系统,OpenAI首席执行官Sam Altman主张在推动技术边界的同时制定规定。

在人工智能能力方面,许多调查对象预测,人工智能将在10年内实现重大的创造性里程碑:例如,从头开始编写整个支付网站,或者创作出与当今流行歌曲难以区分的歌曲。但对于数学定理证明等挑战,时间表则延长了。

更具体地说,高级机器智能(HLMI)成为现实的可能性已经提前了13年,预计到2047年有50%的成功概率。同样,埃隆·马斯克的有争议的预测之一——劳动全自动化(FAOL)的时间表也提前了48年,至2116年。

当被问及人工智能是否有能力匹敌所有人类能力时,研究人员预测到2047年有50%的成功概率。这比2022年类似调查的预测提前了13年。

调查对象对于更快或更慢的进展对人类是否更有利存在分歧。

有趣的是,尽管预计到2043年的人工智能系统能够找到意想不到的方式来实现目标,但研究人员对人类解释这些行为的能力缺乏信心。人工智能决策工作方式的这种模糊性凸显了优先考虑人工智能安全研究的必要性,这种观点被70%的受访者所赞同。

对于2028年的人工智能是否可以信任其解释自己推理的观点存在分歧。

人们也普遍担心人工智能可能带来的风险,如错误信息、不平等和大规模监视。

尽管研究人员总体上持谨慎乐观态度,大约40%的人认为高级人工智能存在一定(而非零)的人类灭绝可能性。因此,虽然杀人机器人并非即将到来,但研究人工智能伦理和安全仍然至关重要。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKx资讯仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

相关推荐

industry-frontier