12月19日,OpenAI在官網(wǎng)中宣布,其正在擴展內(nèi)部安全流程,以抵御有害人工智能的威脅。一個新的“安全顧問小組”將位于技術(shù)團隊之上,向領(lǐng)導(dǎo)層提出建議,并且董事會被授予否決權(quán)。
OpenAI的團隊將根據(jù)四個風(fēng)險類別對每個模型進行評級:網(wǎng)絡(luò)安全、“說服”(例如虛假信息)、模型自主性(即自行行動)和CBRN(化學(xué)、生物、放射性和核威脅,例如創(chuàng)造新病原體的能力)。
OpenAI假定了各種緩解措施:例如,模型對于描述制作凝固汽油或管式炸彈的過程保持合理的保留態(tài)度。在考慮已知的緩解措施后,如果一個模型仍然被評估為具有“高”風(fēng)險,它將無法部署,如果一個模型存在任何“關(guān)鍵”風(fēng)險,將不會進一步開發(fā)。
而制作模型的人不一定是評估模型和提出建議的最佳人選。正是由于這個原因,OpenAI正在組建一個“跨職能安全咨詢小組”,該小組將位于技術(shù)層面,審查研究人員的報告并從更高的角度提出建議,希望為其發(fā)現(xiàn)一些“未知的未知”。
這個過程要求這些建議同時發(fā)送給董事會和領(lǐng)導(dǎo)層,領(lǐng)導(dǎo)層將決定是繼續(xù)還是停止運行,但董事會將能夠撤銷這些決定。這有望避免在董事會不知情的情況下讓高風(fēng)險產(chǎn)品或流程獲得批準。
這項更新引起注意很大程度上是因為,此前OpenAI首席執(zhí)行官Sam Altman被董事會罷黜的一個緣由似乎與大模型安全問題相關(guān)。而在高層人事混亂后,OpenAI董事會的兩名“減速主義”成員Ilya Sutskever和Helen Toner失去了董事會席位。
不過,依然令外界擔(dān)心的是,如果專家小組提出建議,首席執(zhí)行官根據(jù)該信息做出了決策,那么OpenAI目前這個董事會真的會感到有權(quán)反駁并踩下剎車嗎?如果他們這樣做了,外界的公眾會聽到相關(guān)的聲音嗎?目前除了OpenAI將征求獨立第三方審計的承諾之外,其透明度問題實際上并沒有真正得到解決。