【ChatGPT】ChatGPT背后的数字安全威胁
2023-02-17
来源:澎湃新闻
2个月用户破亿迅速爆火的ChatGPT,让普通人拥抱人工智能变得不再遥不可及。已经成为互联网领域发展20年来,增长速度最快的一款2C的消费类应用程序。
你只要给ChatGPT发提示(问题)就可以生成任意主题的文本内容,可以写诗歌,小说散文,段子,甚至写论文,做方案PPT等等,也可以让ChatGPT写代码进行编程,甚至生成恶意软件和链接。
ChatGPT的“入侵”已经引起了各行各业对内容抄袭的担忧,及网络数据安全的提防意识的提高。虽然AI技术是中立的,但并不能成为规避责任与义务的理由。
教育界和学术界已最先做出反击。目前已有数千种科学期刊明令禁止或限制投稿人使用 ChatGPT 撰写或编辑论文,包括知名学术期刊《科学》,《自然》等都更新了编辑规则。美国一些大学也通过网络禁止接入ChatGPT,甚至要取消回家作业。
其实AI伦理风险也一直被广泛关注,即指AI可能会生产违反常规、违背法律和道德的内容,或帮助人类以作弊等形式完成违反常规、违背法律和道德。ChatGPT涉及的网络数据安全合规主要涉及数据获取,及恶意滥用所产生的问题。
曾参与过行研社数据安全研讨会的专家,北京师范大学互联网发展研究院院长助理吴沈括教授认为ChatGPT在实际应用层面将面临三种风险:
第一种是在更巨量数据汇聚的过程中,可能会产生法律和安全风险;
第二种是在模型和算法设计的过程中,可能产生伦理和违法风险;
第三种是在实际应用过程中,可能被用于违法犯罪行为,进而带来社会风险。
知识产权
目前最大的争议是ChatGPT的“文本数据挖掘”是否需要相应的知识产权授权?ChatGPT通过互联网抓取信息进行深度学习,而大多数网站都有防止第三方收集信息的网站隐私政策条款。从法律角度来看,国内的文本数据挖掘理论上需要相应的知识产权授权。并且,目前国内外大部分国家的知识产权法律下,仅有自然人可以享有著作权。这意味这如果AI利用真人的作品拼接出的创作,有可能存在侵权。因此,我国也已出台了对AI深度合成技术的一些规范要求。
数据合规
生成式AI技术的商业化趋势已经到来,众多公司正在应用到自身的产品和服务中去。通过在线服务、智能客服,融入各类产品文本理解分析,多模态检索等等,全面提升自身产品和服务的AI化。因此,网络数据安全问题也开始被重视。
ChatGPT可能导致一些敏感数据泄露风险。本月开始微软和亚马逊于已宣布禁止公司员工向ChatGPT分享。微软内部的工程师也警告不要将敏感数据发送给OpenAI终端,因为OpenAI可能会将其用于未来模型的训练。
ChatGPT的虚假信息回复问题。作为基于语言模型的人工智能工具,ChatGPT也会编造一些看似正确的答案,即“一本正经的胡说八道”。这样的虚假回复在商业化中会造成严重后果,甚至有法律风险。
企业数字安全风险
行研社APP平台的数字化转型行业圈汇聚了国内网络数字安全领域顶级专家团队。下面是在数字化转型行业圈的行研会上,专家对企业在数字化转型中遇到的各类数据安全、数据合规问题进行的深入讲解。