5/14 (二) 16:30 - 17:00 4F 展區會議室 4A

LLM 對抗性攻擊 - 網絡安全專家不應忽視的威脅

在此演講中,講者將闡明如何通過對抗性攻擊來誤導大語言模型(LLM)。講者將涵蓋常見的 LLM 應用案例,重點說明技術所產生的新興威脅,深入探討 LLM 對抗性攻擊後,通過實際案例來說明可能之負面影響。演講將介紹 LLM 安全與合規測試的概念,強調此類測試在評估和增強 LLM 安全性以提高可信任 AI 方面的關鍵作用。最終,此演講旨在提高觀眾對於 LLM 技術風險的理解,並鼓勵採取積極策略以防範此類對抗性威脅。

周彥儒 (Stanley Chou)
講者
OneDegree
資安長

TOPIC / TRACK
AI 安全論壇

LOCATION
臺北南港展覽二館
4F 展區會議室 4A

LEVEL
通識 通識議程探討資安新知與非技術性的議題,適合尚未具備或只具備少許資安知識的資訊與資安人員。

SESSION TYPE
Breakout Session

LANGUAGE
中文

SUBTOPIC
AI
AI Security
Compliance