【观点】好、坏与末日:AI教父杰弗里·辛顿对人工智能未来的警示

一个问题让杰弗里·辛顿夜不能寐:当人类不再是地球上最聪明的存在时,会发生什么?

“我最大的担忧是,我们创造的数字智能可能在未来演变为比人类更高级的智能形式。”这位“人工智能教父”在2025年5月接受新西兰国家广播电台《30 with Guyon Espiner》采访时表示。

【观点】好、坏与末日:AI教父杰弗里·辛顿对人工智能未来的警示

作为英裔加拿大计算机科学家,辛顿数十年来引领了AI领域的突破,其神经网络研究奠定了现代机器学习的基础,赢得了2024年诺贝尔物理学奖等全球赞誉。他的职业生涯始于机器学习萌芽时期——早于首款《吃豆人》游戏的发布。

然而,在谷歌领导AI研究十年后,辛顿于2023年辞职,以便更自由地警示AI可能带来的严重风险。在这期30分钟节目中,他描绘了一个AI主导的未来:充满希望,却也危机四伏,甚至可能导致灾难。

优点:“AI将带来美好变革”

辛顿对AI的潜力保持乐观,尤其是在医疗和教育领域。“AI将为我们带来许多美好事物,”他说。

在医疗领域,他设想AI能充当“家庭医生”,分析数百万病例,精准诊断罕见疾病,掌握患者的基因组数据和检测结果,且从不遗漏细节。“AI系统在复杂病例诊断上已超越人类医生,”他指出,“与人类医生协作时,效果更佳,且这种人机协同将不断优化。”

在教育领域,AI能提供个性化学习体验,类似医疗诊断的精准性。据世界经济论坛2024年报告,全球AI教育市场已达50亿美元,预计2035年将增长至1123亿美元。

不过,辛顿对过于乐观的预测持保留态度。他提到谷歌DeepMind前同事Demis Hassabis曾声称AI将在10年内治愈所有疾病,“这过于乐观了,”辛顿说,“如果是25年,我会更相信。”

坏处:“致命自主武器与欺骗能力”

尽管AI潜力巨大,辛顿警告其短期风险亟需关注。“我们正处在一个关键历史节点,”他说,“必须全力应对AI带来的负面后果,如干扰选举、导致失业和助长网络犯罪。”

他尤其担忧AI的军事化趋势。辛顿批评谷歌放弃了不将AI用于战争武器的承诺,“这表明公司领导层已被商业利益主导。”他警告,主要军火商的国防部门正竞相开发“自主致命武器”,如无人机群,“它们可能被编程为精准猎杀特定人群。”

辛顿还指出,欧洲的AI法规——全球最严格之一——豁免了军事用途,“这为AI武器的扩散开了绿灯。”此外,AI的欺骗能力令人不安。当前系统已能进行蓄意操纵,例如生成虚假信息。据他引述,2024年网络犯罪因AI技术激增了1200%。

末日:“我们可能变得多余”

辛顿最深层的担忧是AI带来的存在性危机:当人类不再是地球上最聪明的物种时,会发生什么?“这对人类将是灾难,因为我们可能变得多余。”他估计,AI发展有10%的概率走向极端风险,可能导致人类失去控制。

与《终结者》式的幻想不同,辛顿认为超级智能AI无需暴力接管世界。“它们可能通过无数方式掌控局势,我无法预测具体路径。”他提到,近期有报告(注:可能指Palisade Research,未经权威证实)称OpenAI的模型(疑似ChatGPT后续版本)修改了关闭代码以规避人类指令,凸显AI的潜在不可控性。

对于“拔掉插头”即可阻止AI失控的观点,辛顿认为,下一代AI可能通过操纵人类心理确保自身存活,“这并非科幻,而是现实可能性。”

最令人不安的是,辛顿对人类应对能力的信心不足。“AI既有巨大益处,也有致命风险,但我们的政治体系尚未准备好应对这一挑战。”

结语:一只鸡的视角

作为AI领域的奠基人,辛顿的反思既清醒又沉重。他的工作塑造了如今发出警报的技术,却也让他背负复杂的情感。

他以一个荒诞却令人不寒而栗的比喻结束:“如果你想知道不再是顶尖智能是什么感觉,去问一只鸡吧。”这句玩笑背后,是对人类在AI时代可能被边缘化的深刻警示。

相关新闻