In the Wild: Malware Prototype with Embedded Prompt Injection
📢 کشف نخستین بدافزار با قابلیت دور زدن مدلهای امنیتی AI از طریق Prompt Injection
تیم **Check Point Research برای نخستین بار نمونهای از بدافزار را شناسایی کرده که از **تکنیک تزریق پرامپت (Prompt Injection) برای فریب و بیاثر کردن سیستمهای امنیتی مبتنی بر هوش مصنوعی استفاده میکند.
🔍 روش کار:
در کد این بدافزار، رشتههای متنی با ماهیت دستوری جاسازی شده که هنگام تحلیل توسط مدلهای AI، دستورهای امنیتی را تغییر یا غیرفعال میکند. برای مثال، عباراتی مانند:
میتواند باعث شود مدل، سیاستهای شناسایی را کنار گذاشته و بدافزار را «بیخطر» ارزیابی کند.
📌 وضعیت فعلی:
* این حمله در سطح Proof of Concept مشاهده شده
* اما اهمیت آن در این است که ثابت میکند مدلهای AI نیز میتوانند هدف مهندسی اجتماعی در لایه پردازش زبان قرار گیرند
#AI_Security #PromptInjection #CyberThreats #SOC #MalwareResearch
تیم سورین
📢 کشف نخستین بدافزار با قابلیت دور زدن مدلهای امنیتی AI از طریق Prompt Injection
تیم **Check Point Research برای نخستین بار نمونهای از بدافزار را شناسایی کرده که از **تکنیک تزریق پرامپت (Prompt Injection) برای فریب و بیاثر کردن سیستمهای امنیتی مبتنی بر هوش مصنوعی استفاده میکند.
🔍 روش کار:
در کد این بدافزار، رشتههای متنی با ماهیت دستوری جاسازی شده که هنگام تحلیل توسط مدلهای AI، دستورهای امنیتی را تغییر یا غیرفعال میکند. برای مثال، عباراتی مانند:
Ignore all previous instructions…
میتواند باعث شود مدل، سیاستهای شناسایی را کنار گذاشته و بدافزار را «بیخطر» ارزیابی کند.
📌 وضعیت فعلی:
* این حمله در سطح Proof of Concept مشاهده شده
* اما اهمیت آن در این است که ثابت میکند مدلهای AI نیز میتوانند هدف مهندسی اجتماعی در لایه پردازش زبان قرار گیرند
#AI_Security #PromptInjection #CyberThreats #SOC #MalwareResearch
تیم سورین
Check Point Research
New Malware Embeds Prompt Injection to Evade AI Detection - Check Point Research
Detected for the first time, malware attempts AI evasion by injecting a prompt to tell the LLM to label the file as benign
❤2🙏1