人工智慧(AI)技术以惊人速度发展之际,全球逾850位科技领袖与专家联署发表《关于超智能的声明》(Statement on Superintelligence),呼吁暂停开发可能全面超越人类认知能力的“超智能”(Superintelligence)。 据《CNBC》报道,这份于美东时间22日公布的联署声明,宛如科技界的“名人录”,不仅有维珍集团(Virgin Group)创办人布兰森(Richard Branson)与苹果公司(Apple)共同创办人沃兹尼克(Steve Wozniak)等科技巨擘,更汇聚了被誉为“AI教父”、“深度学习教父”的电脑科学家班吉奥(Yoshua Bengio)与辛顿(Geoffrey Hinton),以及加州大学柏克莱分校(UC Berkeley)权威学者罗素(Stuart Russell)等人工智慧先驱。 这份跨领域联署阵容堪称罕见,除了科技界与学术界,还囊括美国跨党派的前政要,包括前参谋长联席会议主席穆伦(Mike Mullen)、前国家安全顾问莱斯(Susan Rice),以及美国总统川普(Donald Trump)的媒体界盟友,像是川普1.0的白宫首席策略长兼总统顾问班农(Steve Bannon)、保守派政治评论家贝克(Glenn Beck)等。 与此同时,英国哈利王子(Prince Harry)与其妻梅根(Meghan Markle)、前爱尔兰总统罗宾逊(Mary Robinson)亦名列其中。联署名单至今仍在不断增加。 “超智能”已成为当前人工智慧领域最炙手可热的关键字。从全球首富马斯克(Elon Musk)创立的“xAI”,到奥特曼(Sam Altman)领导的“OpenAI”,科技巨头竞相开发更先进的大型语言模型。脸书母公司Meta甚至直接将其大型语言模型部门,命名为“Meta超智能实验室”(Meta Superintelligence Labs)。 然而,这波AI竞速发展引发联署专家的深切忧虑,声明中指出超智能可能导致“人类经济价值丧失、自主权剥夺、自由与公民权利沦陷、国家安全风险乃至人类灭绝等潜在危机。” 这份声明主张,在达成2项关键前提前应禁止超智能的开发:首先是建立强有力的公众支持,再来是形成科学界对安全建构与控制技术的共识。联署网站特别指出,即便是马斯克与奥特曼这类引领AI发展的企业领袖,过去亦曾公开警示超智能的危险性。 据悉,奥特曼曾在2015年尚未担任OpenAI执行长时,便于部落格撰文直言“超人类机器智能(Superhuman Machine Intelligence,SMI)的发展可能是人类存续的最大威胁”;马斯克今年初在播客节目中谈及先进AI超越人类智能的风险时,更直言“人类毁灭的可能性约有20%。”
全球逾850位科技领袖与专家联署发表《关于超智能的声明》(Statement on Superintelligence)。(图/达志/美联社) 根据声明引用的美国研究与推广机构“生命未来研究所”(Future of Life Institute)的最新民调显示,仅5%的美国成年人支持“当前快速且缺乏监管的”超智能发展现状。这项针对2千名美国成年受访者的调查显示,多数民众认为在证实安全可控前,不应创造“超人类人工智慧”,并强烈要求对先进AI实施严格监管。 联署发起人班吉奥透过声明指出,AI系统恐在数年内于大多数认知任务上超越多数人类。他强调这项突破虽有助解决全球性挑战,但同时伴随重大风险,“为安全迈向超智能,我们必须透过科学方法设计出根本无法伤害人类的AI系统,无论是由于错位还是恶意使用。我们更需要确保公众在形塑集体未来的决策中,拥有更大的发言权。” 如今,科技领域正逐渐形成“人工智慧末日论者”(AI doomers)与“人工智慧繁荣论者”(AI boomers)的对立观点,前者视AI为需要严格监管的潜在威胁,后者则认为AI是值得无限制发展的积极力量。这场由科技先驱发起的倡议,不仅呼吁为当前如火如荼的AI竞赛按下暂停键,更引发全球对科技发展伦理边界的深刻思辨。 |
电话:647-830-8888|www.66.ca 多伦多六六网
GMT-4, 2025-10-24 12:44 AM , Processed in 0.044371 second(s), 23 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.