Yi-An Lin

TXOne Networks Inc. / 產品資安事件應變暨威脅研究團隊 資安威脅研究員

林怡安目前於 TXOne Networks Inc. 擔任 Threat Reseacher,主要負責研究於攻擊相關技巧、Threat Intelligence、Threat Hunting 等,也有興趣於鑽研 AI/ML 和漏洞技巧。曾於 BlackHat USA, BlackHat MEA, CodeBlue, CYBERSEC, Cloud Summit Taiwan 擔任講者。 

SPEECH
演講議程
4/15 (二) 14:45 - 15:15 4F 4C Threat Research 論壇 Live Translation Session
黑帽更新技法:濫用過度被信任的系統升級器來降級你電腦的一切防護?;)

噢不…又要 Windows Update?系統更新升級一直是許多用戶頭痛的功能,打斷了工作節奏與對電腦的掌控 —— 但其實這也是各頂級資安解決方案所吶喊的痛點。

受到 Black Hat USA 一篇研究《Windows Downgrade Attacks using Windows Updates》所啟發,我們研究並調查了這類攻擊手法實務上對於資安解決方案所供的監控保護如何有效的在防護產品的架構間的註冊表、運行程序、與磁碟文件之三者對於安全性的理解不一致達成堆砌出了新的攻擊面。

此議程內容將包含 Windows 11 最新版本對於系統內置基於 Trusted Installer 升級架構進行深度拆解、防護產品與升級器間存有的定位窘境,以及基於事件記錄器作為系統與防護產品通訊架構的嫌隙問題,攻擊者最終得以偽造未受保護的註冊表與磁碟項目並成功劫持升級器身份進行“任意升級”以達成完美劫持防毒作為後門執行工具的能力;並在議程尾聲我們統整了藍隊夥伴該如何應對此類問題,並在鑑識調查與回應能有效感知野外攻擊者濫用此類技巧。

4/16 (三) 12:00 - 12:45 1F 1B AI Security & Safety 論壇 Lunch Learning Session
保持絕對專注,以打造次世代 AI 端點語義偵測

正如同 VirusTotal 於 2021 年所報告每 15 億個樣本中約有 90% 是重複的且具有高度混淆、這迫使本是稀缺的專家人力在企業組織下實務調查分析中費時而雪上加霜,難以在有限時間專注於更隱匿且細膩的外部攻擊風險。隨著大型語言模型推進了 AI/ML 各項頂級資安解決方案的防護,在這一波 AI 演算法革命的浪潮中能否以先進的 Transformer 對於抽象符號理解能力建模人類專家推理的過程成為了新的一道曙光。

為扭轉這項來自外部攻擊的非對稱局勢,我們首度提出了一種新穎的 LLM 神經網路符號化執行引擎 CuIDA(Cuda-trained Interactive Decompile Agent)其借鏡了 Google 發表的模型 Attention Is All You Need 並專注仿生人類逆向專家推理的流程成為了可能 —— 透過未知函數之參數污點傳播來大規模從黑盒程序中學習 Windows APIs 的上下文語境理解、並有效捕捉開發者對於 Win32 API 的使用習慣,並成功攻克現代端點防護最具挑戰的三大困境 (a.) 非擬態 Shellcode 自動推理模型 (b.) 純靜態掃描的混淆指針推理器 與 (c.) 無需脫殼下的商業殼所保護行為之破譯。

我們也同時實戰這項新穎的模型在大規模田野樣本自動化推理中展現的實戰能力,並發現許多令人訝異偵測防護當前困境,例如在高達 3000+ 樣本的自動化調查中發現多數頂級資安解決方案遺漏了近 67% 樣本而未起疑竇、由於這些威脅濫用了 MSIL + x86 的混合交互執行特性;亦有多數樣本採用 Shellcode 作為混淆手段進行免殺、而我們的模型能單純以非擬態堆疊參數資訊進行有效推理並預測可能的風險行為組合。而在議程尾聲,我們也探索了商業加殼中最先進的混淆技術是否能被此模型的 AI 建模語義上下文理解所突破 —— 我們將開源並 Demo 使用此模型有效的仿生推理並取證調查 VMProtect 與 Themida 所保護的混淆程式碼之原始行為內容、展現了 LLM 對於逆向分析推理的經驗採樣與人類分析策略建模的可能性。

4/16 (三) 13:00 - 13:30 1F 1B AI Security & Safety 論壇 Lunch Learning Session
通過思想鏈將最先進的大語言模型煉成 7/24 隨時待命的逆向專家

根據 USENIX 2022 牛津大學「99% False Positives」研究指出,企業網管每日收到十萬條來自端點防護產品的警訊,其中高達 99% 為誤報。人員疲於篩選無用警告,導致真正的 1% 威脅被忽略,錯失黃金補救時間,使駭客滲透更加容易。研究進一步發現,這一困境源於端點偵測警訊與網管人員推論邏輯的斷層,尤其是不同偵測引擎對同一樣本以單一分類方法得出不一致結論,迫使人員耗費大量時間研究與確認威脅。儘管攻擊趨勢持續增長且變種日益複雜,最終攻擊目的往往集中於後門監控、勒索攻擊或蠕蟲感染等常規行為。但目前分析方法耗費大量人力,效率低下。

 有別於市面上諸多的白箱模型。這場議程我們提出首個基於純黑盒態逆向工程代理(LLM Agents)的仿生人類專家,基於程式碼分析與推論邏輯並落地於安全偵測防護上。此模型基於開源 LLaMA 3.1-8B 模型並透過 Chain-of-Thought(CoT)並透過符號執行引擎萃取陌生樣本潛在高風險行為、並由其執行流程圖上行為所具有行為鏈(Chain-of-Capability)進行 LLM 逆向推論明確的偵測結果。在議程尾聲也將展示此模型能如同真實逆向專家版聊天機器人,明確告知分析報告與惡意判定依據的明確函數指針地址、行為,使人員能在不用手工使用 IDA / Ghidra 工具前提下完成全自動化逆向工程。

這一創新大幅提升惡意程式分析效率,減少人力投入,為次世代安全偵測提供全新解決方案。