周一. 11 月 10th, 2025

6月16日消息,据外媒报道,在OpenAI训练的人工智能聊天机器人ChatGPT大火之后,多家公司在开发类似的产品,也有不少公司将ChatGPT等人工智能工具引入到了他们的服务或工作中。

ChatGPT等人工智能工具在为相关的服务或产品带来全新功能、为工作带来便利的同时,也带来了机密信息泄露的风险,三星电子半导体业务部门的员工在使用ChatGPT时就导致部分源代码泄漏,三星随后也禁止员工在工作场所使用ChatGPT等生成式人工智能聊天工具。

而从外媒最新的报道来看,作为ChatGPT竞品的谷歌Bard,也有类似的泄密风险。

外媒援引消息人士的透露报道称,谷歌母公司Alphabet已告知员工,不要将机密信息输入人工智能聊天机器人,并警告员工包括自家Bard在内的人工智能工具的风险。

除了不要将机密信息输入人工智能聊天机器人,Alphabet还建议工程师不要直接使用人工智能聊天机器人生成的代码。

此外,从外媒的报道来看,谷歌方面似乎很早就有信息泄露方面的担忧,在今年2月份,也就是Bard人工智能聊天机器人还在内部测试时,谷歌就已告知参与测试的员工,在正式发布之前不要输入内部信息。

作为在ChatGPT大火之后尽全力推出的竞品,Bard对谷歌多项业务的未来发展至关重要,他们目前正在全球超过180个国家以40种语言推广。

随着ChatGPT、谷歌Bard等人工智能工具的不断强大,使用这些工具的人群也在不断壮大,也有大量的公司员工在工作时使用,这也就增加了公司信息泄露的风险。相关机构在1月份对12000人的调查就显示,大约43%的专业人士在使用ChatGPT或其他人工智能工具时,通常不会告知他们的老板。

—【 THE END 】—

往期精彩文章回顾:

小米14全系外观细节曝光:“2.7D”极窄微曲屏加持 视觉边框窄出天际

“蔚小理”胜负已分?新势力头部格局分化加剧

丨第二次试飞!马斯克:SpaceX星际飞船将在6到8周内再次进行轨道级测试飞行

Avatar photo

作者 UU 13723417500

友情提示:现在网络诈骗很多,做跨境电商小心被骗。此号发布内容皆为转载自其它媒体或企业宣传文章,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。---无意冒犯,如有侵权请联系13723417500删除!

声明本文由该作者发布,如有侵权请联系删除。内容不代表本平台立场!

发表回复

服务平台
跨境人脉通
选品平台
U选Market
展会&沙龙
群通天下