诺贝尔奖得主、被誉为“AI 教父”的杰弗里·辛顿近日在接受《财富》杂志采访时表示,全球人工智能竞争加剧,但科技巨头的关注重点仍集中于短期利润,而非技术的最终影响。他指出,企业领导者关注财务表现,科研人员聚焦具体工程问题,人类命运被忽视。辛顿将 AI 风险分为两类:一是被不法分子滥用,如深度伪造、网络攻击及潜在的 AI 辅助病毒合成;二是 AI 自身可能成为不良行为者。当人工智能演化为超级智能时,或将具备自主控制与生存动机,使人类丧失主导权。他推测此情境下人类灭绝风险达 10% 至 20%。为降低风险,辛顿提出在 AI 系统中设计“母性本能”机制,使其对人类产生同理与保护欲,以替代控制倾向。