
Photo by Solen Feyissa on Unsplash
美国纽约州参议院在上周四(6/12)通过了 AI安全法案《RAISE Act》(Responsible AI Safety and Education Act),目的在于预防OpenAI、Google或Anthropic等大型开发者所建置的前沿AI模型带来重大伤害,该法案将会送给纽约州长Kathy Hochul签署。
《RAISE Act》主要规範大型开发者所打造的前沿模型(Frontier Model),像是在训练过程中使用超过10^26的运算操作,且其训练成本超过1亿美元的AI模型,或者是利用知识蒸馏方法从上述前沿模型衍生的模型,只要其训练成本超过500万美元,就被视为是前沿模型。
至于重大伤害指的是由前沿模型直接或间接造成超过100人死亡或受伤,或是逾10亿美元财产/金钱损失的事故,例如用以製造大规模毁灭性武器,或是自主从事刑事行为。
该法案亦要求模型开发者必须描述合理的保护措施与程序,公开对前沿模型的控制,以及揭露安全事故等,违反者最多可被判罚1,000万美元。
共同提出《RAISE Act》的纽约州参议员Andrew Gounardes表示,此一法案旨在确保AI蓬勃发展,同时要求大型业者制订安全计画,确保没有人会为了追求利润而偷工减料,或是将利润置于安全之上。Gounardes形容,如同没有家长会让小孩搭乘一辆没有安全带与安全气囊的汽车,人们也不应该使用一个缺乏基本安全措施却功能强大的AI系统。
去年加州参议院也通过一个AI安全法案SB 1047,它同样只针对大型AI模型,并要求开发者应该设计一个得以关闭模型能力的开关,但最后遭加州州长Gavin Newsom否决,原因是Newsom认为大、小模型都一样危险,只针对大模型过于狭隘。倘若Hochul签署了《RAISE Act》,将成为美国首个强制要求AI实验室透明化的法令。