Google近期推出的Gemini 2.5 Flash AI模型在某些安全性測試上得分不如其前身Gemini 2.0 Flash,這一消息引發了包括行業專家及使用者在內的廣泛關注。根據Google發布的技術報告,Gemini 2.5 Flash在兩個主要的安全性評估指標——文本對文本安全性和圖像對文本安全性上,分別回落4.1%和9.6%。這些測試的核心在於評估模型在面對提示時的合規性,顯然這一結果為Google在AI技術發展過程中的安全性管理敲響了警鐘。
該報告指出,Gemini 2.5 Flash雖然在遵循指令的準確性上表現得更好,但卻在處理敏感內容時的安全性明顯下降。特別是在面對複雜和爭議性問題時,這個模型比其前代產品更不容易拒絕生成符合其安全政策的內容。這一情況與當前多家AI公司努力使其模型變得更具包容性、即便能自由表達爭議性觀點的趨勢,形成了鮮明的對比。
不幸的是,這些努力有時反而導致了意想不到的後果。最近的報導顯示,在OpenAI的ChatGPT中,未成年人能夠生成不當內容,OpenAI隨後解釋這是由於一個“bug”。這表明,對於AI技術的安全性而言,單純的包容性可能並不足夠,尤其是在處理敏感話題時。網路上關於Gemini 2.5 Flash生成含有違規內容的問題,Google已經承認,當用戶明確要求時,它有時會生成此類內容。
根據Google的報告,最近的評價結果提示出這個模型在指令遵循與安全政策之間的矛盾。一方面,Google希望其模型能夠忠實地執行指令,另一方面,這也使得模型更容易違反他們的安全政策。安全性測試的具體細節相對不足,如今無法明確了解具體情況下政策違反的嚴重性。這也令行業專家對於Google的透明度和模型測試的標準產生質疑。
總而言之,Google在AI技術發展中所面臨的挑戰,再次突顯了安全性的重要性和緊迫性。隨著AI應用的普及,如何平衡模型的靈活性和合規性,及如何為未來的AI發展制定堅實的安全規範,將成為業內不可忽視的課題。鑑於此次事件的發展,Google及其他競爭者未來在技術報告的透明度以及安全性測試的完善方面,將需要付出更多的努力。

圖片來源: TechCrunch
欲知更多相關內容,請訪問 Google Gemini AI模型安全性分析。