微软人工智能团队意外泄露 38TB 敏感数据

据BleepingComputer消息,微软云安全公司 Wiz 近期披露 ,人工微软人工智能研究部门在向公共 GitHub 存储库贡献开源人工智能学习模型时意外泄露了38 TB 的团队敏感数据。

Wiz 的意外安全研究人员发现 ,一名微软员工无意中共享了因配置错误而泄露敏感信息的泄露 Azure Blob 存储桶URL。

微软认为这是敏感由于使用过于宽松的源码下载共享访问签名(SAS)令牌 ,该令牌能对共享文件进行完全的数据控制 ,进而能以不可监控和撤销的微软方式进行数据共享。Wiz的人工研究人员警告称 ,由于缺乏监控和治理 ,团队SAS 令牌存在安全风险,亿华云意外应尽可能限制其使用 ,泄露由于微软没有提供在 Azure中集中管理的敏感方式 ,这些令牌非常难以跟踪 。数据

Wiz发现 ,微软泄露的信息包括属于微软员工的个人信息备份 、微软服务密码以及来自 359 名 微软员工共计 3万多条内部 Microsoft Teams 消息的模板下载存档 。

在9月18日发布的一份通报中 ,微软安全响应中心(MSRC)团队表示没有客户数据被泄露,也没有其他内部服务因此次事件而面临危险。

Wiz 于 2023 年 6 月 22 日向 MSRC 报告了该事件  ,MSRC 撤销了 SAS 令牌以阻止对 Azure 存储帐户的所有外部访问,从而于 2023 年 6 月 24 日缓解了该问题 。服务器租用

Wiz 首席技术官兼联合创始人 Ami Luttwak 向BleepingComputer表示  ,人工智能为科技公司释放了巨大的潜力 。然而 ,随着数据科学家和工程师竞相将新的人工智能解决方案投入生产,他们处理的大量数据需要额外的安全检查和保障措施。云计算

就在1年前,2022 年 9 月  ,威胁情报公司 SOCRadar发现了另一个微软配置错误的 Azure Blob 存储桶 ,其中包含存储在 2017 年至 2022 年 8 月文件中的敏感数据 ,这些数据与来自全球 111 个国家和地区的 65000 多个实体存在关联。

免费模板
滇ICP备2023006006号-25