当科技的迅猛发展背离了人类的道德规则与相关法规,必将酝酿更多的不安与骚乱。近日,据媒体报道,OpenAI正在解散其“AGI Readiness”团队,团队成员将分配至内部其它团队。AGI全称为Artificial general intelligence,即通用人工智能,它具备自主的感知、认知、决策、学习、执行和社会协作等能力,且在设计上趋向于符合人类情感、伦理与道德观念。AGI Readiness团队负责向OpenAI提供AGI发展的政策建议,并进行安全监督。
据悉,AGI Readiness负责人Miles Brundage宣布离职,计划在OpenAI之外继续从事该领域研究工作,并希望减少偏见。他表示,他已在OpenAI完成所有工作,在外部工作将産生更大的影响。在他看来,OpenAI及世界还未做好准备迎接AGI的到来,因此他计划创建自己的非营利组织,专注于人工智能政策研究和宣传。显然,科学家们对于高科技的未来隐患已经心知肚明。
前不久,2024年诺贝尔物理学奖授予了美国科学家约翰·霍普菲尔德和加拿大科学家杰弗里·辛顿,表彰他们“通过人工神经网络实现机器学习的基础性发现和发明”。无独有偶,2024年诺贝尔化学奖的共同获奖者丹米斯·哈萨比斯和约翰·乔普开发了一种人工智能模型解决了一个50年前的问题:预测蛋白质的复杂结构。两个诺奖同时颁给了智能技术的使用者,可见AI已经成为尖端科学研究的关键工具。
全球人工智能领域的重要人物、OpenAI前研究副总裁达里奥·阿莫迪,曾在公开发表的文章中预言:当AGI到来,它的纯粹智力方面甚至能超越诺贝尔奖得主,将科学新发现的速度提高10倍。现在看来,梦想似乎进入了加速度的时期。当机器能够像人类一样进行思考和推理,解决广泛的复杂问题,显然将给商业进化带来极大的想像空间。不过,以当下的实际情况来看,从AI到AGI,这中间还有很长的路要走。
近年来,虽然AI的发展突飞猛进,但即使是最领先的AI工具,也仍是执行人类命令和实现人机交互的程序,而不具备独立决策的能力。——问题来了,当这些“未来智能人”可以独立决策的时候,还要人类干什么呢?尤其,一旦它们具备了人类基本的七情六欲,是否在其中既可以诞生“孔子”与“苏格拉底”,同样也能造出“希特勒”与“索马里海盗”? 那么,抵达AGI时代需要跨过怎样的技术鸿沟?以及要解决哪些复杂的现实挑战?
相比人工智能产品不断迭代增加,OpenAI对于人工智能的安全建设相对迟缓。2023年7月,成立8年的Open.AI才组建“超级对齐”团队,目标是用20%的算力,在未来4年内解决控制超级智能AI的核心技术挑战。然而成立不到一年,“超级对齐”团队随着OpenAI 联合创始人、首席科学家Ilya Sutskever离职而解散。Ilya Sutskever在社交媒体解释了离职原因,他表示:“制造比人类更聪明的机器本身就是一项危险的事业。OpenAI代表全人类肩负著巨大的责任。但在过去几年里,安全文化和流程已经让位于闪亮的产品。”
此外,能耗问题亦不容忽视。根据国际能源署发布的数据,全球数据中心消耗的电力超过250TWh,约占全球电力需求的1%,占全球碳排放的0.3%。预计到2030年,这一数字将达到8%。因此,如何构建新一代数字基础设施,实现更高效、更智能的能耗治理,提高数据中心的整体能效,事关产业的高质量发展。
尽管面临诸多挑战,但某些行内人士依旧对AGI时代的到来仍持乐观态度。“现在我们能够看到openAI推出的新模型O1已经出现了慢思考、推理的过程,加上脑科学、神经科学的进展,所以我相信AI会越来越接近人类。” 也许,AGI的出现只是时间的问题,一旦出现则将会深刻改变人们的生活与工作模式,助力社会各个层面的创新与发展,同时也会给犯罪分子提供新的渠道与手段。
以上内容归星岛新闻集团所有,未经许可不得擅自转载引用。