北美商业电讯

| 简体 | 繁体 | 2024年11月22日
+
订阅

全球围剿ChatGPT,中美都准备出手了

更新于2023-04-12 10:39

推出两个月即拥有1亿活跃用户的ChatGPT,在全球范围引发生成式AI热潮的同时,其潜在风险也引发关注。

3月31日,意大利数据保护局发布了一项针对ChatGPT的暂时禁令,并对其涉嫌违反隐私规则开始进行调查。

在意大利率先对ChatGPT下达禁令后,德国、法国、爱尔兰等国家已开始准备效仿意大利的做法,加强对ChatGPT的监管。

韩国芯片巨头三星在引入ChatGPT短短20天内,就发生3起数据外泄事件,其中2次和半导体设备有关,1次和内部会议有关。

对此,三星近日表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。

而在中国,随着ChatGPT类人工智能产品如病毒式的广泛流行,监管机构已开始酝酿措施。

4月10日,中国支付清算协会发布倡议书,提示支付行业从业人员合规使用ChatGPT等工具,以避免数据泄露风险。

这份倡议书称,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,协会向行业发出三个方面的倡议。

具体来看,一是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。

二是不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。

三是会员单位加强内部管理和引导。会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。

4月11日,中国互联网监管机构——国家互联网信息办公室(CAC),发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),其中提出生成式人工智能产品提供服务前需申报安全评估。

生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。《征求意见稿》要求,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

《征求意见稿》指出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。

此外,《征求意见稿》提出,提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。

就在中国发布上述《征求意见稿》的同一天,ChatGPT的诞生地——美国,也正在就人工智能系统的潜在问责措施征求公众意见。

美国商务部下属的国家电信和信息管理局(NTIA)计划起草一份报告,以研究“确保人工智能系统像声称的那样工作,并且不会造成伤害”,并表示此举将为拜登政府正在进行的工作提供信息,以“确保联邦政府对人工智能相关风险和机遇采取连贯和全面的方法”。

NTIA希望获得公众意见,因为对人工智能“问责机制”的“监管兴趣日益浓厚”,同时该机构想知道是否有措施可以落实到位,以确保“人工智能系统是合法、有效、道德、安全和值得信赖的”。

据悉,美国当地时间周三,人工智能开发领域顶尖企业的高管和员工将开会讨论制定关于如何使用人工智能技术的标准。

该会议由著名科技投资人Ron Conway的投资公司SV Angel召集,OpenAI、微软、谷歌、苹果、英伟达、Stability AI、Hugging Face 和 Anthropic 等公司的代表预计将出席,讨论如何以最负责任的态度继续开发人工智能。

主编精选,篇篇重磅,请点击订阅“邮件订阅

编辑:Vincy Lu
版权声明:本文版权归北美商业电讯所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
评论
用户名: 登录可见
匿名
发表评论
×

分享到微信朋友圈

打开微信点击底部的“发现”
使用“扫一扫”即可将网页分享至朋友圈