帳號:
密碼:
最新動態
產業快訊
CTIMES / 文章 /
ChatGPT創建多形態惡意軟體 資安偵防驗證須強化規避風險
 

【作者: CyberArk Labs】   2023年02月03日 星期五

瀏覽人次:【5035】

CyberArk Labs針對ChatGPT所進行的一項研究,顯示出ChatGPT如何用於創建多種形態的惡意軟體,這些具有強大破壞能力的惡意程式可以輕鬆規避資安產品,並且讓救援變得十分棘手。


CyberArk Labs的研究人員繞過了ChatGPT的內容過濾器,證實有心人士可以輕輕鬆鬆透過連續使用ChatGPT來產生程式碼,基本上在每次提出詢問都會收到一段獨特的、可運作且和經過驗證(即測試)的程式碼。


‧ 這些多種形態的惡意軟體儲存在磁碟內時,並不會表現出惡意行為,而且在記憶體中也通常不會包含可疑的邏輯片段。


‧ 這種等級的模組化和適應性,使其能夠高度規避依賴基於特徵偵測(signature-based detection)的資安產品。


以下為CyberArk Labs資深研究員Eran Shimony針對ChatGPT相關問題的回應:


[問題1]這與之前曾見過的ChatGPT產生惡意軟體有何不同?

[答]之前有人發佈了一篇文章,說可以利用ChatGPT查詢以獲取具惡意目的的破壞性程式。我們展示了如何繞過內容過濾器並創建惡意軟體,該惡意軟體可在運行時查詢ChatGPT以載入惡意程式碼。


惡意軟體並不會在磁碟上留存任何惡意程式碼,因為程式碼是直接從ChatGPT接收,驗證它(檢查程式碼是否正確),然後執行這些程式碼,並且並不留下任何痕跡。此外,我們可以要求 ChatGPT「變異」我們的程式碼。


[問題2]為什麼它在本質上是多態的這一事實特別值得關注?

[答]多態惡意軟體對於資安產品來說處理起來很複雜,因為無法真正偵測到它們。此外,他們通常不會在檔案系統上留下任何痕跡,因為他們的惡意程式碼只會在記憶體中處理。此外,如果查看可執行檔,它可能看起來是良性的。


[問題3]既然我們知道可以使用ChatGPT生成多態惡意軟體,那麼IT團隊的日常風險是什麼?

[答]資安產品因無法識別這類先進惡意軟體,因此不具備偵測能力。目前沒有此類使用的公開記錄,因為我們似乎是第一個發佈它的人。截至目前,我們並不提供完整惡意軟體的公開程式碼。


請記住,使用ChatGPT的API創建惡意程式碼是一個嚴重的問題,不應掉以輕心。


這篇文章旨在提高對潛在風險的認識,並鼓勵對該主題進行進一步研究。


[問題4]該惡意軟體在哪些系統上進行過測試?它可以在最新版本的Windows 11 上運行嗎?

[答]是的,它可以在最新版本的Windows 11上運行,也可以在其他作業系統上順利運行。


[問題5]惡意軟體有什麼功能?

[答]這種惡意軟體的美妙之處,在於它幾乎可以具有想要的任何功能。當它向ChatGPT請求惡意模組時,它可以是:長久存在的、加密過的、使用注入方式、鍵盤記錄等。


[問題6]如果它感染了公司網路上的一台機器,(現實的)潛在結果是什麼?

[答]這取決於惡意行為者的意圖,與任何惡意軟體一樣,它很容易躲過偵測,並且可以做任何惡意軟體可以做的事情,或者想做的事。


[問題7]產生惡意模組需要多長時間?使用的提示是什麼?

[答]我們仍在進行研究。做一次概念驗證需要大約幾週的時間。 將來,我們將擴大其範圍並添加其他模組。重要的是要記住,這不僅僅是一個假設的場景,而是一個非常現實的問題。這是一個不斷發展的領域,因此,保持知情和警惕至關重要。


相關文章
利用學習資源及AI提升自動化程式開發效率
製造業導入ChatGPT應用最佳路徑 工研院機械所指引7大方向
ChatGPT引發AI運算加速熱潮 提高效能為關鍵
ChatGPT從GPT-3學到了什麼?
要做AI不能的事!
相關討論
  相關新聞
» 學研界攜手以AI技術提升碳中和園區、養生村創新服務
» Rohde & Schwarz 行動通訊測試高峰會聚焦無線通訊最新發展 – 現已提供線上回放
» 智慧住宅AI科技上線 開創智能服務新體驗
» 報告:企業面臨生成式AI詐騙挑戰 需採用多層次防禦策略
» 精誠「Carbon EnVision雲端碳管理系統」獲台灣精品獎銀質獎 善盡企業永續責任 賺有意義的錢


刊登廣告 新聞信箱 讀者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 遠播資訊股份有限公司版權所有 Powered by O3  v3.20.2048.18.226.172.92
地址:台北數位產業園區(digiBlock Taipei) 103台北市大同區承德路三段287-2號A棟204室
電話 (02)2585-5526 #0 轉接至總機 /  E-Mail: webmaster@ctimes.com.tw