周六. 7 月 5th, 2025

近日据韩国媒体报告,三星电子引入ChatGPT不到20天,便爆出三起机密资料外泄的严重数据安全事故。这些数据很可能已经存入ChatGPT的数据库中,并随时面临泄露风险。

1) 三星DS部门(半导体装置解决方案)的员工,在测试软件的过程中发现代码有问题,便将代码完整复制到ChatGPT中询问答案,这导致三星的机密代码被提供给了ChatGPT;

(2) 同样是DS部门员工在试图用ChatGPT优化代码时,将原始代码完整复制给了ChatGPT,但这些代码涉及芯片良品率;

(3) 另一位员工试图让ChatGPT记录内部会议并作成摘要,虽然不是技术机密,但也可能导致其他机密内容外泄。

据韩媒报道,三星电子从今年3月11日开始使用chatgpt,结果不到20天的时间,就发生了上述三起泄露事件,我们该怎么做好数据维护,防止类似的大模型AI泄露机密数据呢?下面数据是由国外专业机构统计的数据。

Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。

他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。

光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:

那么这其中又有多少敏感数据呢?

数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。

例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码

上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。

ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。

人们对于ChatGPT的担忧,还远不止“信息泄漏”这一点。尽管ChatGPT在回复时经常会带有一种异常坚定的语气,但这个回复却可能存在大量的常识性错误。如果仅仅是常识性错误,还比较容易鉴别,可一旦涉及到比较专业的问题,非相关专业人士就很可能被ChatGPT带入歧途。

据浙江大学医院医学院附属第一医院人员分析认为,可能是ChatGPT从网上学到了错误的答案。同时,该医院人员发现,ChatGPT存在严重的偏科现象,比如内科领域准确率仅20%,而微生物学则能够达到70%。

在信息安全威胁下,我们还能安心使用ChatGPT吗?

任何事情都具有两面性。作为颠覆性科技,ChatGPT为人类带来了前所未有的机遇,但因其产生的安全隐患也不容忽视。对此,我们应该理性对待,更多的监管与限制也应同步跟上,提高驾驭ChatGPT的能力,让ChatGPT成为人类的好助手。

举报/反馈

Avatar photo

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

服务平台
跨境人脉通
选品平台
U选Market
展会&沙龙
群通天下