文章作者、来源:AIBase 就在全球 AI 竞赛进入白热化阶段时,诺贝尔奖得主、被誉为“AI 教父”的 杰弗里·辛顿(Geoffrey Hinton) 再次发出沉重警示。他在接受《财富》杂志采访时直言不讳地指出,当前的科技行业领袖并未真正思考技术的终局,他们的核心驱动力仅在于短期利润。 辛顿认为,无论是企业所有者还文章作者、来源:AIBase 就在全球 AI 竞赛进入白热化阶段时,诺贝尔奖得主、被誉为“AI 教父”的 杰弗里·辛顿(Geoffrey Hinton) 再次发出沉重警示。他在接受《财富》杂志采访时直言不讳地指出,当前的科技行业领袖并未真正思考技术的终局,他们的核心驱动力仅在于短期利润。 辛顿认为,无论是企业所有者还

“AI 教父”辛顿:科技巨头只顾短期利润,人类或沦为超级智能的“婴儿”

2026/03/23 14:54
阅读时长 3 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 crypto.news@mexc.com 联系我们。

文章作者、来源:AIBase

就在全球 AI 竞赛进入白热化阶段时,诺贝尔奖得主、被誉为“AI 教父”的 杰弗里·辛顿(Geoffrey Hinton) 再次发出沉重警示。他在接受《财富》杂志采访时直言不讳地指出,当前的科技行业领袖并未真正思考技术的终局,他们的核心驱动力仅在于短期利润

辛顿认为,无论是企业所有者还是前线研究人员,目前的关注点都高度碎片化:所有者盯着财报,研究人员则忙于解决如何让图像更清晰、视频更逼真等具体工程问题,而“人类未来会怎样”这一宏大命题在商业冲刺中被束之高阁。

辛顿将 AI 带来的风险清晰地划分为两个维度:

坏人滥用: 已经出现的虚假视频(Deepfake)、网络攻击,以及未来可能出现的 AI 辅助病毒合成。

AI 自身成为不良行为者: 这是辛顿最为担心的“长期威胁”。他认为,一旦 AI 达到“超级智能”水平,它将产生生存和控制的动机,届时“人类控制 AI”的假设将彻底失效。

辛顿给出了一个令人不寒而栗的预测:在超级智能实现后,AI 导致人类灭绝的概率可能高达 10% 至 20%。为了对抗这种威胁,他提出了一个极具生物学色彩的构想——“母性本能”机制

辛顿建议,人类应当尝试为 AI 设计类似的本能,使其对人类产生同情而非控制欲。在这种模型下,超级智能如同“母亲”,而人类则扮演脆弱但能触发同情心的“婴儿”。

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 crypto.news@mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。