近日,据CNMO了解,一家名为Wiz Research的云安全初创公司发布研究报告,指出微软的人工智能(AI)研究团队在GitHub上的大量私人数据缓存被意外泄露。这一事件由一个配置错误的SAS令牌引发,暴露了38TB的其他内部数据,其中包含微软两名员工的个人电脑磁盘备份。
微软
据了解,微软的AI研究团队原本在GitHub上发布了开源训练数据,但由于SAS令牌的错误配置,这些数据被意外暴露。在这些暴露的数据中,包含了机密、私人密钥、密码和超过30000条Microsoft Teams的内部消息。
对此,微软做出回应,表示已撤销SAS令牌并完成潜在影响的内部调查。他们强调,没有客户数据因此暴露,也没有其他微软服务因该问题而陷于危险之中。
然而,云安全初创公司Wiz Research认为,这一事件提醒了工程师们,他们在组织人工智能研究时,必须充分考虑到所需的安全措施。即使是像微软这样的科技巨头,也可能因为一个小小的配置错误而导致如此大规模的数据泄露。
这一事件不仅对微软自身造成了影响,也对整个科技行业发出了警示。在人工智能和云计算等新兴技术的推动下,如何保护隐私和数据安全,已经成为了每一个科技公司都必须面对的问题。