ReverserAI
#ReverseEngineering #LLM #AI
ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.
Ссылка на инструмент.
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
#ReverseEngineering #LLM #AI
ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.
Ссылка на инструмент.
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
Vulnhuntr
#LLM #scaner #vulnerability #полезное
Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.
Ссылка на инструмент
Ссылка на блог
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
#LLM #scaner #vulnerability #полезное
Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.
Ссылка на инструмент
Ссылка на блог
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
Анатомия LLM RCE
#LLM #RCE #AI #статья@haccking #перевод@haccking
По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.
В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.
Ссылка на статю.
LH | Новости | Курсы | Мемы
#LLM #RCE #AI #статья@haccking #перевод@haccking
По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.
В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.
Ссылка на статю.
LH | Новости | Курсы | Мемы