近日据韩国媒体报告,三星电子引入ChatGPT不到20天,便爆出三起机密资料外泄的严重数据安全事故。这些数据很可能已经存入ChatGPT的数据库中,并随时面临泄露风险。

1) 三星DS部门(半导体装置解决方案)的员工,在测试软件的过程中发现代码有问题,便将代码完整复制到ChatGPT中询问答案,这导致三星的机密代码被提供给了ChatGPT;
(2) 同样是DS部门员工在试图用ChatGPT优化代码时,将原始代码完整复制给了ChatGPT,但这些代码涉及芯片良品率;
(3) 另一位员工试图让ChatGPT记录内部会议并作成摘要,虽然不是技术机密,但也可能导致其他机密内容外泄。

据韩媒报道,三星电子从今年3月11日开始使用chatgpt,结果不到20天的时间,就发生了上述三起泄露事件,我们该怎么做好数据维护,防止类似的大模型AI泄露机密数据呢?下面数据是由国外专业机构统计的数据。
Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。
他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。
光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:

那么这其中又有多少敏感数据呢?
数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。
例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码

上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。
ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。
人们对于ChatGPT的担忧,还远不止“信息泄漏”这一点。尽管ChatGPT在回复时经常会带有一种异常坚定的语气,但这个回复却可能存在大量的常识性错误。如果仅仅是常识性错误,还比较容易鉴别,可一旦涉及到比较专业的问题,非相关专业人士就很可能被ChatGPT带入歧途。

据浙江大学医院医学院附属第一医院人员分析认为,可能是ChatGPT从网上学到了错误的答案。同时,该医院人员发现,ChatGPT存在严重的偏科现象,比如内科领域准确率仅20%,而微生物学则能够达到70%。
在信息安全威胁下,我们还能安心使用ChatGPT吗?
任何事情都具有两面性。作为颠覆性科技,ChatGPT为人类带来了前所未有的机遇,但因其产生的安全隐患也不容忽视。对此,我们应该理性对待,更多的监管与限制也应同步跟上,提高驾驭ChatGPT的能力,让ChatGPT成为人类的好助手。