在此演講中,講者將闡明如何通過對抗性攻擊來誤導大語言模型(LLM)。講者將涵蓋常見的 LLM 應用案例,重點說明技術所產生的新興威脅,深入探討 LLM 對抗性攻擊後,通過實際案例來說明可能之負面影響。演講將介紹 LLM 安全與合規測試的概念,強調此類測試在評估和增強 LLM 安全性以提高可信任 AI 方面的關鍵作用。最終,此演講旨在提高觀眾對於 LLM 技術風險的理解,並鼓勵採取積極策略以防範此類對抗性威脅。
TOPIC / TRACK
AI 安全論壇
LOCATION
臺北南港展覽二館
4F 展區會議室 4A
LEVEL
通識 通識議程探討資安新知與非技術性的議題,適合尚未具備或只具備少許資安知識的資訊與資安人員。
SESSION TYPE
Breakout Session
LANGUAGE
中文
SUBTOPIC
AI
AI Security
Compliance