安全服务公司CyberArk Labs,日前针对ChatGPT进行了一项研究,显示出ChatGPT用於创建多种形态的恶意软体,可以轻松规避资安产品并使援救变得十分棘手。
研究指出,CyberArk Labs 的研究人员绕过了 ChatGPT 的内容过滤器,证实了有心人士可以轻轻松松透过连续使用 ChatGPT来产生程式码,基本上每次提出询问都会收到一段独特的、可运作且和经过验证(即测试)的程式码。
这些多种形态的恶意软体储存在磁碟内时并不会表现出恶意行为而且在记忆体中也通常不会包含可疑的逻辑片段。这种等级的模组化和适应性使其能够高度规避依赖基於特徵侦测(signature-based detection)的资安产品。
CyberArk Labs的资深研究员Eran Shimony表示,们展示了如何绕过内容过滤器并创建恶意软体,该恶意软体可在运行时查询 ChatGPT 以载入恶意程式码。恶意软体并不会在磁碟上留存任何恶意程式码,因为程式码是直接从 ChatGPT接收,验证它(检查程式码是否正确),然後执行这些程式码,且并不留下任何痕迹。
此外,多态恶意软体对於资安产品来说处理起来很复杂,因为无法真正侦测到它们,他们通常不会在档案系统上留下任何痕迹,因为他们的恶意程式码只会在记忆体中处理。 此外,如果查看可执行档,它可能看起来是良性的。
Eran Shimony强调,资安产品因无法识别这类先进恶意软体因此不具备侦测能力。目前,没有此类使用的公开记录,因为我们似??是第一个发布它的人。截至目前,我们并不提供完整恶意软体的公开程式码。使用ChatGPT的API创建恶意程式码是一个严重的问题,不应掉以轻心。