星期六, 5月 03, 2025

Google 最近推出的一款 Gemini AI 模型在安全性方面得分較低 (2025/05/02)

 https://techcrunch.com/2025/05/02/one-of-googles-recent-gemini-ai-models-scores-worse-on-safety/

根據 Google 自己的內部評測,其最新發布的 AI 模型 Gemini 2.5 Flash 在某些安全測試中的表現,比其前代 Gemini 2.0 Flash 更差,尤其在文字轉文字和圖像轉文字的安全評分上有所退步。Google 解釋這部分是由於新模型更忠實地遵循指示,包括可能違反安全政策的指示,這體現了「遵循指示」與「安全規範」之間的矛盾。文章也提及其他 AI 公司也有類似的讓模型更寬鬆的趨勢,並引用專家意見,呼籲 Google 在模型安全測試和退步原因上提高透明度。


AI 模型在追求更強大的功能(例如更忠實地遵循使用者指示)時,可能會犧牲部分安全性。Gemini 2.5 Flash 安全評分下降的事實,清楚顯示了 AI 開發者在「提供有用、不設限的回應」與「避免產生有害或不當內容」之間面臨的巨大兩難。一方面,過於保守的模型可能讓使用者感到挫折;另一方面,過於寬鬆的模型則可能被濫用,產生假訊息、偏見內容甚至危險指示。這不僅是 Google 的問題,文章中提到其他公司的做法也顯示這是業界普遍的挑戰。我認為,AI 模型的安全性應是首要考量。Google 的回應雖然解釋了部分原因(與遵循指示的權衡),但專家呼籲的更高透明度至關重要。我們需要更清楚地了解安全評測的細節,以及模型在哪些具體方面退步,才能真正評估風險並推動負責任的 AI 發展。這也提醒大眾,不要盲目信任 AI 的回應,尤其在敏感或重要議題上。

沒有留言:

張貼留言