多伦多 六六网  www.66.ca

 找回密码
 立即注册

扫描二维码登录本站

搜索

人类正走进高度不确定未来 AI教父最深层恐惧

2025-12-27 08:00 PM| 发布者: 啊-清风| 查看: 64| 评论: 0

被誉为“人工智能教父”的辛顿(Geoffrey Hinton),今年稍早接受美国新闻节目 60 Minutes 专访,深入谈论人工智能(AI)的发展原理、潜在风险与他个人的反思。 尽管这场访谈距今已约四个月,但在生成式 AI 能力持续跃进的背景下,相关观点近期再度被频繁引用,也让当时的警告显得更具现实意义。

长期孤军研究,奠定深度学习基础

辛顿在节目中回顾自己自1970年代投入人工神经网络研究的历程。 当年主流学界多半不看好以神经网络模拟人脑运作的方向,但他仍选择长期投入,最终奠定现代深度学习的技术基础。 这项贡献也让他在2019年与其他两位学者共同获得图灵奖,被视为AI发展史上的关键人物。

不是写规则,而是设计学习方式

谈到 AI 的学习方式,辛顿强调,人类并非为机器逐条撰写行为规则,而是设计“学习演算法”,再透过回馈与试错机制,让系统自行调整内部链接。 他形容,这更像是在制定演化的规则,而非编写一份完整的作说明书。 随着模型与大量数据互动,最终形成的神经网络结构高度复杂,甚至连设计者本身,也难以完全理解其内部运作。

AI 是否真的“理解”世界?

对于 AI 是否具备理解与推理能力,辛顿在访谈中表态相当明确。 他认为,近年大型语言模型在多步推理与规划任务上的表现,已超越单纯的文字接龙。 他也以GPT-4解决复杂逻辑问题的案例为例,指出这类系统已展现出某种程度的理解与决策能力。

最大忧虑:AI可能脱离人类控制

不过,辛顿同时也对 AI 的长期风险表达深切忧虑。 他指出,未来若 AI 能自行撰写并修改程式码,甚至优化自身结构,将可能逐步摆脱人类原本设定的控制框架。 此外,AI若全面吸收人类历史中的政治、心理与权术知识,可能在说服与纵人类行为上展现极高效率,进而影响民主制度与社会秩序。

在社会层面,辛顿也点出多项潜在冲击,包括就业结构剧烈变动、假信息扩散、算法偏见,以及自主武器系统进入战场的风险。 他警告,当 AI 在智慧与决策能力上全面超越人类时,带来的将不只是产业调整问题,而是攸关整体人类社会存续的挑战。

没有保证安全的答案

对于未来该如何因应,辛顿坦言,目前看不到一条能保证绝对安全的明确道路。 他呼吁各国政府应更积极介入监管,特别是在军事应用领域,应透过国际条约限制自主武器的发展,并投入更多研究理解AI的行为与风险。

尽管这场专访播出已有数月,但随着 AI 技术持续加速演进,辛顿当时提出的多项警告并未随时间淡化,反而在现实发展中不断被重新检视,也让这场访谈至今仍具高度讨论与参考价值。


鲜花

握手

雷人

路过

鸡蛋

最新评论

电话:647-830-8888|www.66.ca 多伦多六六网

GMT-5, 2025-12-28 05:34 PM , Processed in 0.045070 second(s), 23 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

返回顶部