最近,一起起因员工使用AI工具而导致的机密信息泄露事件,真是让人心惊胆战。这些事件不仅暴露了企业在使用AI时的安全隐患,也提醒我们,科技的双刃剑效应是多么的明显。

三星公司员工使用AI工具办公,无意泄露内部代码。

据悉,三星电子的半导体部门在一个月内竟然发生了三次严重的泄密事件!员工们被允许使用ChatGPT来解决代码问题,但没想到他们无意中将公司的核心机密上传到了这个AI系统。这些泄密的数据包括新程序的源代码和硬件相关的内部会议记录。

三星内部备忘录显示,三星担心自身数据被传输到ChatGPT、Bard等人工智能平台的外部服务器上,最终导致泄露,并考虑完全禁止在公司内部使用ChatGPT。

事实上,不仅是三星公司,其他许多公司也报告了类似的问题。员工在使用ChatGPT处理日常工作时,无意中泄露了包括财务数据、客户信息和内部决策在内的敏感信息。企业机构的每一次泄露都可能导致巨大的经济损失和声誉损害。

该事件再次给各行业敲响了数据安全的警钟。

随着AI技术的普及,企业在享受便利的同时,也必须提高警惕,防范数据泄露的风险。公司需要制定严格的AI及其他技术软件的使用规定,针对业务、财务、技术、研发、运维、管理人员定期进行安全意识培训,以及培养良好的数据使用习惯,以避免出现类似的数据泄露事件。

Logo

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。

更多推荐