近期,人工智能领域的热门企业Scale AI遭遇了一场数据安全危机,这一事件引发了广泛关注。据悉,这家备受瞩目且由meta斥资148亿美元获得49%股权的公司,竟然借助公共的谷歌文档平台存储了包括meta、谷歌以及xAI等重量级客户的高度敏感信息。
谷歌文档,作为一款广受欢迎的在线协作工具,其便捷的共享功能却成为了此次安全事件的导火索。据了解,该工具允许文件以“邀请访问”或“完全公开”的方式分享,这无疑与各大企业严格的信息安全规范背道而驰。更令人惊讶的是,任何获取到Scale AI文档链接的人,都能轻松浏览到这些包含绝密项目详情、电子邮件地址及付款记录等敏感信息的文档。
面对这一尴尬局面,Scale AI的一位发言人迅速作出回应,表示公司正在全力展开调查,并已明令禁止所有用户公开分享Scale AI管理系统内的任何文档。然而,截至目前,谷歌与xAI方面仍未就此事发表任何评论,而meta则选择了保持沉默。
据多位Scale AI的承包商透露,谷歌文档在该公司内部的使用极为普遍。网络安全专家分析指出,尽管目前尚未有证据表明这些公开文件已造成实际的数据泄露,但这种存储方式无疑使Scale AI面临着巨大的安全风险,极易成为黑客的攻击目标。
调查数据显示,在Scale AI采取补救措施之前,已有多达85份、涵盖数千页的项目信息被公众随意查阅。这些信息详细记录了Scale AI与多家大型科技企业之间的敏感合作关系。例如,其中就包含了谷歌如何利用OpenAI的ChatGPT技术来优化自家聊天机器人的细节。
更加令人咋舌的是,至少有七份被明确标记为机密的谷歌项目手册竟然对公众开放。这些手册中不仅包含了改进谷歌聊天机器人Bard的具体建议,还详细列出了埃隆·马斯克“木琴计划”的诸多细节,如用于训练xAI人工智能模型的700个对话提示等。
承包商们还表示,尽管这些项目通常都使用秘密代号,但他们仍能清楚地知道自己正在为哪家客户服务。在使用人工智能产品时,聊天机器人有时甚至会在被询问时直接泄露客户信息。
除了客户的机密项目信息外,Scale AI的谷歌文档中还意外泄露了数千名员工的姓名及私人联系方式。更为严重的是,部分文件甚至详细列出了个体承包商的工资数额,以及关于工资纠纷和差异的详细描述。这些信息无疑暴露了Scale AI在数据安全管理上的重大疏漏,并可能引发一系列法律纠纷。
值得注意的是,就在meta入股Scale AI后不久,业界便传出消息,称包括谷歌在内的一些大客户已经开始与Scale AI保持距离,以避免其向meta泄露敏感信息。此次谷歌文档事件无疑将进一步加深客户对Scale AI数据安全能力的质疑和担忧。
文章采集于互联网