三星电子发现员工将敏感的代码上传到ChatGPT后,宣布禁止使用此类生成式人工智能工具,该技术在工作场所的广泛应用遭遇阻碍。
总部位于韩国水原的三星周一通过一份内部通函,向一个主要业务部门的员工通知了这一新政策。该通知显示,三星担心通过包括谷歌的Bard和必应等此类AI平台传输的数据存储在外部服务器,从而难以收回和删除,并可能最终向其他用户披露。
该公司上月就AI工具的使用进行了内部调查,并称65%的受访者认为此类工具构成安全风险。该通函指出,4月早些时候,三星的工程师将内部源代码上传至ChatGPT,不慎将其泄漏。不清楚其中包含哪些信息。
三星的一位代表证实,上周的确发出了一份通函,禁止使用生成式AI工具。
三星仅仅是对此技术表达担忧的最新一家大型公司。2月份,OpenAI的ChatGPT在科技界掀起热潮的短短几个月后,一些华尔街银行,包括摩根大通、美国银行和花旗集团或禁止,或限制了其使用。意大利也因为隐私顾虑而禁止使用ChatGPT,但其最近几天改变了这一立场。