前OpenAI技术官Mira Murati成立了新公司Thinking Machines Lab,致力于推动AI技术的安全性和可访问性。该公司汇聚了多位行业顶尖人才,目标是构建更符合伦理、能促进人机协作的AI系统。
启明星辰推出大模型应用安全防护新产品“三件套”,包括MAF防火墙、MASB安全代理与MAVAS安全评估系统,全面提升AI原生安全保障。新产品为大模型的全生命周期安全提供强有力支持,助力企业应对复杂的安全威胁。
英国政府拟在明年推出AI监管法案,将自愿AI测试协议上升为法律义务,重点聚焦生成式AI的风险防控。政府承诺支持AI基础设施发展,并计划成立独立的AI安全研究所,专注于国民利益。
由OpenAI前首席科学家Ilya Sutskever创立的AI初创公司Safe Superintelligence(SSI)已成功融资10亿美元,估值达50亿美元。这笔资金将用于开发安全的超级智能系统,并扩展其人才与硬件设备。
OpenAI宣布与洛斯阿拉莫斯国家实验室合作,研究生成式AI在生物科学中的应用与安全性。这项合作旨在加速科学研究,并确保AI技术在医疗保健等领域的安全使用。