正如同 VirusTotal 於 2021 年所報告每 15 億個樣本中約有 90% 是重複的且具有高度混淆、這迫使本是稀缺的專家人力在企業組織下實務調查分析中費時而雪上加霜,難以在有限時間專注於更隱匿且細膩的外部攻擊風險。隨著大型語言模型推進了 AI/ML 各項頂級資安解決方案的防護,在這一波 AI 演算法革命的浪潮中能否以先進的 Transformer 對於抽象符號理解能力建模人類專家推理的過程成為了新的一道曙光。
為扭轉這項來自外部攻擊的非對稱局勢,我們首度提出了一種新穎的 LLM 神經網路符號化執行引擎 CuIDA(Cuda-trained Interactive Decompile Agent)其借鏡了 Google 發表的模型 Attention Is All You Need 並專注仿生人類逆向專家推理的流程成為了可能 —— 透過未知函數之參數污點傳播來大規模從黑盒程序中學習 Windows APIs 的上下文語境理解、並有效捕捉開發者對於 Win32 API 的使用習慣,並成功攻克現代端點防護最具挑戰的三大困境 (a.) 非擬態 Shellcode 自動推理模型 (b.) 純靜態掃描的混淆指針推理器 與 (c.) 無需脫殼下的商業殼所保護行為之破譯。
我們也同時實戰這項新穎的模型在大規模田野樣本自動化推理中展現的實戰能力,並發現許多令人訝異偵測防護當前困境,例如在高達 3000+ 樣本的自動化調查中發現多數頂級資安解決方案遺漏了近 67% 樣本而未起疑竇、由於這些威脅濫用了 MSIL + x86 的混合交互執行特性;亦有多數樣本採用 Shellcode 作為混淆手段進行免殺、而我們的模型能單純以非擬態堆疊參數資訊進行有效推理並預測可能的風險行為組合。而在議程尾聲,我們也探索了商業加殼中最先進的混淆技術是否能被此模型的 AI 建模語義上下文理解所突破 —— 我們將開源並 Demo 使用此模型有效的仿生推理並取證調查 VMProtect 與 Themida 所保護的混淆程式碼之原始行為內容、展現了 LLM 對於逆向分析推理的經驗採樣與人類分析策略建模的可能性。
TOPIC / TRACK
AI Security & Safety 論壇
Lunch Learning Session
LOCATION
臺北南港展覽二館
1F 展區會議室 1B
LEVEL
中階 中級議程聚焦在資安架構、工具與實務應用等,適合已經具備資安基礎的資安與資訊人員。
SESSION TYPE
Breakout Session
LANGUAGE
中文
SUBTOPIC
AI
Endpoint Detection & Response
Threat Hunting