北美商业电讯

| 简体 | 繁体 | 2024年11月22日
+
订阅

AI“教父”辛顿离开谷歌,对人工智能技术的危险发出警告

更新于2023-05-04 16:07
美新社

被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)周一证实,他上周辞去了谷歌的职务,对他帮助开发的这项技术的“危险”发表了看法。

辛顿在神经网络方面的开创性工作塑造了为当今许多产品提供动力的人工智能系统。他在谷歌兼职工作了十年,参与了这家科技巨头的人工智能开发工作,但他后来开始对这项技术以及他在推动这项技术方面的作用感到担忧。

这名75岁的AI专家在接受《纽约时报》采访时表示:“我用通常的借口来安慰自己:如果我不做,别人就会做。”

在周一的一条推文中,辛顿表示,他离开谷歌是为了能够自由地谈论人工智能的风险,而不是因为想专门批评谷歌。

辛顿在推特上说:“我离开是为了能够谈论人工智能的危险,而不考虑这对谷歌的影响。”

他在推文中强调,“谷歌的行为非常负责任。”

谷歌首席科学家杰夫·迪恩(Jeff Dean)表示,辛顿“在人工智能领域取得了根本性突破”,并对辛顿“在谷歌的十年贡献”表示赞赏。

“我们仍然致力于对人工智能采取负责任的态度,”迪恩在一份声明中表示。“我们在不断学习理解新出现的风险的同时,也在大胆创新。”

辛顿决定退出谷歌并就人工智能技术发表意见之际,越来越多的立法者、宣传团体和科技界人士对新一批人工智能聊天机器人传播错误信息和取代工作岗位的可能性提出了警告。

去年年底围绕ChatGPT的关注浪潮,帮助科技公司重新掀起了一场军备竞赛,在其产品中开发和部署类似的人工智能工具。

OpenAI、微软和谷歌处于这一趋势的最前沿,但IBM、亚马逊、百度和腾讯也在研究类似的技术。

今年3月,科技界的一些知名人士签署了一封信,呼吁人工智能实验室停止训练最强大的人工智能系统至少6个月,理由是“对社会和人类构成严重风险”。

这封信是由特斯拉CEO埃隆·马斯克支持的非营利组织“生命未来研究所”发表的,就在OpenAI宣布了GPT-4之后的两周。

在接受采访时,辛顿也表达了对人工智能可能会消除工作岗位、创造一个许多人“无法再知道什么是真的”的世界的担忧。他还指出了AI惊人的发展速度,远远超出了他和其他人的预期。

辛顿在采访中说:“一些人相信,这种东西实际上会变得比人更聪明。但大多数人认为这是不可能的。我也觉得这不可能。我认为那是30到50年甚至更长时间的事。显然,我不再这么想了。”

甚至在离开谷歌之前,辛顿就曾公开谈论过人工智能的潜在好处和坏处。

“我相信,人工智能的快速发展将以我们尚未完全了解的方式改变社会,而且并非所有的影响都是好的,”辛顿在2021年孟买印度理工学院的毕业典礼上说。

他指出人工智能将如何促进医疗保健,同时也为致命的自主武器创造机会。“我发现这种前景比机器人取代人类的前景更直接,也更可怕,我认为机器人取代人类还有很长的路要走。”

辛顿并不是第一个对人工智能提出异议的谷歌员工。去年7月,谷歌以违反雇佣和数据安全政策为由,解雇了软件工程师Blake Lemoine,后者曾公开宣称谷歌未发布的LaMDA对话人工智能系统已经具备了知觉和自我意识。

主编精选,篇篇重磅,请点击订阅“邮件订阅

编辑:Vincy Lu
版权声明:本文版权归北美商业电讯所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
评论
用户名: 登录可见
匿名
发表评论
×

分享到微信朋友圈

打开微信点击底部的“发现”
使用“扫一扫”即可将网页分享至朋友圈