OpenAI近日宣布成立了一个名为“Preparedness”的AI风险防范小组,该小组由麻省理工学院的Aleksander Madry主持。该团队的主要任务是追踪和预防未来人工智能系统可能带来的风险,包括但不限于网络钓鱼攻击和恶意代码生成。
OpenAI强调,随着AI技术的快速发展,其潜在的风险也在增加。因此,该公司正在积极寻求解决方案,以确保AI技术的安全和可靠应用。与此同时,OpenAI还在社区中征集有关AI风险研究的想法,并为前十名提供2.5万美元的奖金和工作机会。
该公司的创始人Sam Altman也是一位出名的“AI末日论”支持者,他曾多次呼吁需要对强大的AI技术进行更严格的监管。OpenAI甚至建议,可能需要一个类似于国际原子能机构(IAEA)的组织来监管AI的发展。