首页
社区
课程
招聘
[原创]超过10万个 ChatGPT 用户数据被盗出售,AIGC时代如何安全地使用ChatGPT?
2023-6-29 17:53 6014

[原创]超过10万个 ChatGPT 用户数据被盗出售,AIGC时代如何安全地使用ChatGPT?

2023-6-29 17:53
6014

今年年初,ChatGPT像一声惊雷,让全球见识到了AIGC(生成式AI)的威力。

在推出仅两个月后,ChatGPT的月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序,远远快于Facebook、Instagram、TikTok等曾经的现象级应用。

科技业在沉寂多时后,热情再度被AIGC激活。据投资界预测,未来2至3年间,与AIGC相关的初创公司和商业落地方案将持续增加,到2030年,AIGC市场规模或将超过万亿人民币。

以ChatGPT为代表的生成式人工智能,或将重新定义人类与世界的互动方式。

红利汹涌而至,风险也如影随形。

据网络安全公司 Group-IB 最新报告显示,在 2022 年 6 月至今年 5 月间,全球有 101134 个 ChatGPT 账号信息被盗,并被黑客置于暗网交易平台上出售,被盗出售账号数量在今年 5 月到达峰值,有 25802 个。

Group-IB 的 Dmitry Shestakov 表示,许多企业正在将 ChatGPT 整合到自身操作流程中,当员工输入机密信件或优化内部专有代码时,鉴于 ChatGPT 的标准配置会保留所有对话,一旦威胁者获得账户凭证,这可能会无意中为攻击者提供大量敏感情报。

当我们惊叹于ChatGPT的强大和AIGC迅猛发展的同时,如何避免技术发展所带来的“安全威胁”?

本文将从数据安全、潜在风险、人工智能监管和安全措施等方面进行探讨,以便帮助大家更好地了解ChatGPT和AI语言模型的安全性,从而在使用这种强大的大型语言模型时降低安全风险,做出明智的决策,提升生产效率。

在公钥密码开放社区(公众号:OpenPKI)回复关键词“ChatGPT”获取CSA发布的《ChatGPT的安全影响》报告下载。

一、ChatGPT 有为用户提供安全措施吗?

不可否认,随着ChatGPT的爆发式增长,安全性等问题会日益凸显。

想要降低或者预防使用过程中的安全风险,那就有必要清楚地了解ChatGPT现有的安全程度。以下是Open AI安全页面上的一些措施:
加密:ChatGPT服务器在静态和传输过程中都使用加密技术来保护用户数据免受未经授权的访问。用户数据在存储以及在系统之间传输时都是加密的。
访问控制:OpenAI实施了严格的访问控制机制,以确保只有授权人员才能访问敏感的用户数据。这包括使用身份验证和授权协议,以及基于角色的访问控制。
外部安全审计:OpenAI API每年由外部第三方进行审计,以识别和解决系统中的潜在漏洞。这有助于确保安全措施在保护用户数据方面保持最新和有效。
事件响应计划:OpenAI已经建立了事件响应计划,以便在安全漏洞发生时有效管理和沟通。这些计划有助于将任何潜在违规行为的影响降到最低,并确保问题迅速得到解决。
漏洞赏金计划:除了定期审计外,OpenAI还创建了一个漏洞赏金计划,以鼓励道德黑客、安全研究科学家和技术爱好者识别和报告安全漏洞。

虽然OpenAI安全措施的具体技术细节没有公开披露,但这些都表明了该公司对用户数据保护和ChatGPT安全的承诺。

二、使用ChatGPT的潜在安全隐患有哪些?
诚然,OpenAI采取了加密、访问控制等措施来提升使用ChatGPT的安全性,但即使有这些保护措施,依然避免不了使用ChatGPT存在的风险。

◆ 数据泄露
在使用任何在线服务(包括ChatGPT)时,数据泄露都是一个潜在的风险。
“您无法下载ChatGPT,因此您必须通过网络浏览器访问它。”在这种情况下,如果未经授权的一方访问用户对话记录、用户信息或其他敏感数据,则可能发生数据泄露。
这可能会有几个后果:
隐私泄露:如果发生数据泄露,私人对话、个人信息或敏感数据可能会暴露给未经授权的个人或实体,从而损害用户隐私。
身份盗窃:网络犯罪分子可能会将暴露的个人信息用于身份盗窃或其他欺诈活动,对受影响的用户造成财务和声誉损害。
滥用数据:在数据泄露事件中,用户数据可能会被出售或与恶意方共享,这些恶意方可能会将这些信息用于定向广告、虚假信息活动或其他恶意目的。

◆ 未经授权访问机密信息
如果员工或个人将敏感的商业信息(包括密码或商业秘密)输入到ChatGPT,这些数据可能会被不法分子拦截或利用。

基于这样的担忧,国际咨询公司埃森哲警告其全球70万名员工,不要使用ChatGPT,因为担心客户的机密数据最终会落入他人之手;而像三星这样科技巨头已经直接禁止员工在工作电脑上使用 ChatGPT,甚至威胁要开除不遵守该政策的员工。

此外,攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。

三、ChatGPT安全措施和最佳实践

面对前述潜藏风险,个人、相关企业、监管方如何从实践、技术和制度等层面等加强使用ChatGPT的数据安全保护?

OpenAI已经实施了几项安全措施来保护用户数据,并确保人工智能系统的安全,但从个人角度来看,用户还应该采用某些最佳实践,以便在与ChatGPT交互时将风险降至最低。

限制敏感信息:再次避免在与ChatGPT的对话中分享个人或敏感信息。

查看隐私政策:在使用ChatGPT驱动的应用程序或任何使用OpenAI语言模型的服务之前,仔细查看平台的隐私政策和数据处理方法,以深入了解平台如何存储和使用对话。

使用匿名或假名帐户:如果可以,在与ChatGPT或使用ChatGPT API的产品交互时,使用匿名或假名帐户。这有助于最大限度地减少对话数据与真实身份的关联。

监控数据保留策略:熟悉使用的平台或服务的数据保留策略,以了解对话在被匿名或删除之前存储了多长时间。

保持信息畅通:随时了解最新对OpenAI安全措施或隐私政策的任何变化,并相应地调整做法,以保持使用ChatGPT时的高度安全性。

通过了解OpenAI实施的安全措施并遵循这些最佳实践,用户个人可以将潜在的风险降至最低,并在与ChatGPT互动时享受更安全的体验。

从企业层面来说,企业首先需要制定内部管理规范,设立相关的监督部门,对AI技术应用场景的各个环节进行数据监督,确保数据来源合法、处理合法、输出合法,从而保障自身的合规性。

另外,企业要对员工进行安全培训,各级员工都要接受最新网络安全意识和预防技能的常规培训和再培训,并格外关注利用AI技术的网络钓鱼诈骗。

从监管层面来看,全球多个国家相继出台了针对AIGC产业发展的监管措施:
◆ 今年4月,美国商务部公开征求意见,探讨存在潜在风险的新人工智能模型发布前是否应该通过认证程序;
◆ 而加拿大联邦隐私监管机构已经出手,对OpenAI展开调查,追责该公司涉嫌“未经同意收集、使用和披露个人信息”;
◆ 就在同期,中国网信办也发布了《生成式人工智能服务管理办法(征求意见稿)》,强调了安全评估和算法备案的前提性和必要性;表态要确保数据安全和个人信息保护合规。

依托优良的网络环境,丰富的内容治理经验,以及持续完善的AI监管框架,相信AIGC产业的安全发展和AI产品的安全使用将得到有效保障。

结语
AIGC时代,ChatGPT的发展是把双刃剑,用得好能极大提升生产效率,如虎添翼;用不好疏忽了安全、隐私和合规,会带来难以估量的损失。

因此,为了安全使用ChatGPT,我们需要采取一系列关键措施,包括对ChatGPT进行有效的训练和筛选,实施内容审核和监管机制,加强数据保护和隐私保障,预防恶意使用和滥用,并提高用户的教育和意识水平。

此外,安全使用ChatGPT不仅是开发者和平台的责任,也需要政策监管,用户与企业安全意识提升。只有通过共同努力,才能确保在AIGC时代中,ChatGPT得到安全、可靠地使用。
参考资料:https://blog.enterprisedna.co/is-chat-gpt-safe/


[培训]内核驱动高级班,冲击BAT一流互联网大厂工作,每周日13:00-18:00直播授课

收藏
点赞0
打赏
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回