罗永浩称自己没打算退休:还能折腾十几年以上 !
...
2025-12-08
中美两国人工智能领域的顶尖专家和技术领袖联名发起一项呼吁,在科学界达成“安全可控开发超级智能的广泛共识”前,应暂停“超级智能”的研发。
这项倡议由非营利组织“未来生命研究所”发起,目前已获多位重量级人士签名支持,包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森、经济学家达龙·阿西莫格鲁,以及前美国国家安全顾问苏珊·赖斯。此外,哈里王子与夫人梅根、前政治顾问史蒂夫·班农等公众人物也参与联署。
截至10月23日中午,联署人数已达3193人。中国学界亦有重要代表加入,包括中国科学院院士、图灵奖得主姚期智,清华大学讲席教授张亚勤,以及清华大学苏世民书院院长薛澜等。
所谓“超级智能”,指的是在所有认知任务上超越人类水平的人工智能形态。尽管目前大多数公司所研发的仍属于通用人工智能(AGI),但“超级智能”所预示的能力已引发业界普遍忧虑。
声明中指出,多家领先的AI企业正竞相投入超级智能的研发,这一趋势“引发了广泛担忧,包括人类在经济上被取代与边缘化、自由与公民权利受损、尊严与控制权丧失,乃至国家安全风险,甚至可能带来人类灭绝的极端威胁”。
当前,“超级智能”已成为AI领域的热词。从埃隆·马斯克的xAI到萨姆·奥特曼领导的OpenAI,多家机构正积极推进更先进的大语言模型研发。Meta甚至将其大语言模型部门直接命名为“Meta超级智能实验室”。
在这一背景下,科技界对人工智能发展的态度日益分化:一方视AI为推动社会进步的关键力量,主张自由发展;另一方则强调其潜在风险,呼吁加强监管。
值得注意的是,即便是马斯克、奥特曼等身处AI研发前沿的领军人物,过去也曾对超级智能的风险发出警告。例如,奥特曼在2015年的一篇博客中写道:“发展超人类机器智能可能是对人类持续存在的最大威胁。”
中国科学院计算技术研究所研究员曾毅指出,目前绝大多数企业所研发的仍属通用人工智能工具,并非真正意义上的超级智能。然而,超级智能所带来的风险目前在科学上仍无法有效控制。他特别提到,美国企业如Meta设立超级智能实验室,以及阿里巴巴等中国公司公开宣称研发超级智能,这些动向已超出通用人工智能工具的范畴,值得高度关注。

版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件至 3941001135@qq.com举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
相关文章
热评文章
宾利推出超豪华儿童三轮车 :售价5380元!
日本核污水将排放30年 全球百余家公司已研发“人造海
男孩脚踩兰博基尼炫耀致车损17万 车主再发声:会追责
多地机票跳水!上海飞成都机票降价80%!
2023国庆档票房破26亿:张艺谋电影《坚如磐石》上
曾与林正英、李小龙搭档 著名武打演员孟海去世:终年6