焦点资讯:意大利禁用ChatGPT!AIGC高歌猛进下数据安全如何保障
发布时间:2023-04-03 20:13:43 文章来源:证券日报网
当前位置: 主页 > 资讯 > 国内 > 正文

据央视新闻消息,当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查。


(相关资料图)

据悉,OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。由此,意大利成为了全球首个禁止使用ChatGPT的国家,有关“数据安全”的警报被再次拉响。

“ChatGPT热”背后的“冷思考”

ChatGPT的诞生给AI产业注入了一剂“强心针”,国内外知名互联网企业都纷纷抢滩,加入这场具有颠覆性的“革命”。谷歌发布Bard、百度发布文心一言、微软变革办公软件……AI产业几乎每天都有新消息,ChatGPT、文心一言“朋友圈”持续扩容。可以说自ChatGPT问世,AI产业终于迎来了生机勃勃的春天。

不过,任何事情都是一把“双刃剑”,ChatGPT的出现既给产业带来了十分广阔的想象力,也带来了无法躲避的数据安全问题。

此次意大利禁用ChatGPT主要是因为3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。此外,平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。

“意大利禁用ChatGPT透露出了对于生成式聊天机器人技术的担忧和对于用户数据隐私的重视。随着人工智能技术的快速发展,一些新生事物出现后,法律和监管跟不上的问题也开始显现。在这种情况下,一些国家可能会选择禁用这些技术以避免潜在的安全问题,而另一些国家则可能会更加开放。未来是否会有更多国家跟进这一举措,取决于他们自身的法律体系和政策取向。”全联并购公会信用管理委员会专家安光勇对《证券日报》记者说道。

对此,天使投资人、知名互联网专家郭涛对《证券日报》记者表示,随着以ChatGPT为代表的人工智能技术的快速大规模落地应用,相关网络安全威胁和风险日益突出,在监管体系尚不完善和成熟的情况下,暂时封禁可以最大程度上降低相关威胁和风险,短期来看将会有越来越多的国家跟进意大利的脚步禁止ChatGPT及其相关的AI技术。行业发展迫切需要制定全球范围内行之有效的国际规则、标准,同时国家间也需要通过互利合作达到取长补短、共同进步的目的。

国家层面外,还有诸多名人也在发声暂停ChatGPT的进一步研究。近日,特斯拉CEO马斯克、图灵奖得主约书亚·本吉奥在内的1000多名科技界大佬和AI业内人士签署联名信,呼吁立即暂停研究比GPT4更强大的AI系统。

北京社科院研究员王鹏在接受《证券日报》记者采访时表示,ChatGPT产生的风险是市场广泛关注的问题。首当其冲的就是数据风险,大量数据在汇聚过程中对个人隐私以及公关安全的影响是不可忽视的。其次,还有经济发展、社会治理对大模型的过度依赖,可能会对经济社会的发展产生不利影响。

多维度规范数据安全

“因噎废食”不可取,那么如何才能在合法合规的范围内最大限度地发挥AIGC相关产品的效用,就成为了我们不得不深入思考的问题。

安光勇认为在数据安全方面可以“以子之矛攻子之盾”。虽然生成式聊天机器人等人工智能技术可能存在安全问题,但可以通过这些技术来提高数据安全。例如,可以使用人工智能来分析和检测网络攻击、异常行为和安全漏洞等问题,从而及时采取措施加强网络安全。

“为了保护数据,企业可以采取各种措施,例如实施严格的访问控制、使用加密技术保护敏感信息、定期备份数据以及监控数据系统是否有任何可疑活动。”商务部研究院电商所副研究员洪勇对《证券日报》记者说道,“此外,企业还可以建立清晰的数据处理政策和程序,并定期对员工进行培训。企业要不断评估和改进其数据安全措施,以应对不断发展的威胁。”

作为ChatGPT的热门概念股,海天瑞声相关工作人员告诉《证券日报》记者:“一直以来,海天瑞声都高度重视数据安全管理以及相关能力的建设。为确保所提供的数据产品和服务在网络、数据、个人信息方面的安全、合规,海天瑞声主要是从技术和管理两大维度综合施策。”

对于如何保障数据安全,上述工作人员表示,建议在保护生成式AI技术良性发展的基础上,明确生成、合成类算法治理的对象,确立算法治理的基本原则,并鼓励相关行业组织加强行业自律,建立健全行业标准、准则和自律管理制度,强化生成式AI服务提供者和技术支持者的主体责任,为安全可靠的生成式AI指明方向,为技术的服务应用提供指引和规范。

标签:

最近更新