ReverserAI
#ReverseEngineering #LLM #AI
ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.
Ссылка на инструмент.
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
#ReverseEngineering #LLM #AI
ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.
Ссылка на инструмент.
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
👍9🔥8❤2🤔1😐1
Vulnhuntr
#LLM #scaner #vulnerability #полезное
Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.
Ссылка на инструмент
Ссылка на блог
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
#LLM #scaner #vulnerability #полезное
Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.
Ссылка на инструмент
Ссылка на блог
LH | Новости | Курсы | Мемы
#рекомендация
#рекомендации
🔥9👍8❤4
Анатомия LLM RCE
#LLM #RCE #AI #статья@haccking #перевод@haccking
По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.
В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.
Ссылка на статю.
LH | Новости | Курсы | Мемы
#LLM #RCE #AI #статья@haccking #перевод@haccking
По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.
В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.
Ссылка на статю.
LH | Новости | Курсы | Мемы
👍10🔥5❤4
Garak, сканер уязвимостей LLM
#LLM #AI #сканер
Набор для оценки и проверки AI на основе генеративных моделей
garak проверяет, может ли LLM быть вынужден ошибаться нежелательным образом. garak исследует на предмет утечек данных, подмены запросов, дезинформации, генерации токсичных ответов, взломов и многих других уязвимостей. Если вы знаете nmap, то это nmap для LLM.
Ссылка на инструмент.
LH | Новости | Курсы | OSINT
#LLM #AI #сканер
Набор для оценки и проверки AI на основе генеративных моделей
garak проверяет, может ли LLM быть вынужден ошибаться нежелательным образом. garak исследует на предмет утечек данных, подмены запросов, дезинформации, генерации токсичных ответов, взломов и многих других уязвимостей. Если вы знаете nmap, то это nmap для LLM.
Ссылка на инструмент.
LH | Новости | Курсы | OSINT
👍7🔥5❤4
Как мы обучали LLM для поиска уязвимостей в смарт-контрактах Solidity
#статья #solidity #LLM
Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.
Ссылка на статью
LH | Новости | Курсы | OSINT
#статья #solidity #LLM
Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.
Ссылка на статью
LH | Новости | Курсы | OSINT
👍10👾2🔥1
PyRIT
#AI #ML #LLM
Инструмент Python Risk Identification Tool (PyRIT) для генеративного ИИ — это открытая автоматизированная платформа, которая помогает специалистам по безопасности и инженерам машинного обучения проактивно выявлять риски в их системах на основе генеративного ИИ.
Ссылка на GitHub
LH | Новости | Курсы | OSINT
#AI #ML #LLM
Инструмент Python Risk Identification Tool (PyRIT) для генеративного ИИ — это открытая автоматизированная платформа, которая помогает специалистам по безопасности и инженерам машинного обучения проактивно выявлять риски в их системах на основе генеративного ИИ.
Ссылка на GitHub
LH | Новости | Курсы | OSINT
🔥8👍7❤3🤔1
AI на фронтире кибервойны. Как LLM меняют ИБ-ландшафт
#AI #LLM #статья
Искусственный интеллект в информационной безопасности — такая обширная тема, что можно легко заблудиться в дебрях спекулятивных прогнозов. Понятие ИИ охватывает все — от рекомендательных алгоритмов, подсовывающих видео с котиками, до роботов, которые хотят убить всех человеков. Чтобы не написать вместо статьи сценарий низкобюджетного sci-fi, стоит сузить фокус.
Представим, что мир ИИ застыл. Никаких революций, никаких сверхразумных AGI на горизонте. Сосредоточимся на анализе больших языковых моделей (LLM) и их влиянии на информационную безопасность. Конечно, выпуск новой мощной модели может разнести вдребезги все эти выкладки, но примем этот риск. Ведь с чего-то надо начинать.
В этой статье я рассмотрю, какие новые возможности открываются перед атакующими и защитниками, и что за вызовы стоят перед отраслью. Под катом вас ждет увлекательное путешествие на ИБ-фронтир.
Ссылка на статью
LH | Новости | Курсы | OSINT
#AI #LLM #статья
Искусственный интеллект в информационной безопасности — такая обширная тема, что можно легко заблудиться в дебрях спекулятивных прогнозов. Понятие ИИ охватывает все — от рекомендательных алгоритмов, подсовывающих видео с котиками, до роботов, которые хотят убить всех человеков. Чтобы не написать вместо статьи сценарий низкобюджетного sci-fi, стоит сузить фокус.
Представим, что мир ИИ застыл. Никаких революций, никаких сверхразумных AGI на горизонте. Сосредоточимся на анализе больших языковых моделей (LLM) и их влиянии на информационную безопасность. Конечно, выпуск новой мощной модели может разнести вдребезги все эти выкладки, но примем этот риск. Ведь с чего-то надо начинать.
В этой статье я рассмотрю, какие новые возможности открываются перед атакующими и защитниками, и что за вызовы стоят перед отраслью. Под катом вас ждет увлекательное путешествие на ИБ-фронтир.
Ссылка на статью
LH | Новости | Курсы | OSINT
👍11❤3🔥3
LLM4Decompile
#RE #LLM
Декомпиляция бинарного кода с использованием больших языковых моделей. Текущая версия поддерживает декомпиляцию бинарных файлов для Linux архитектуры x86_64, с уровнями оптимизации от O0 до O3 (компилятор GCC), преобразует в читаемый человеком исходный код на языке C.
🔗 Ссылка на GitHub
LH | News | OSINT | AI
#RE #LLM
Декомпиляция бинарного кода с использованием больших языковых моделей. Текущая версия поддерживает декомпиляцию бинарных файлов для Linux архитектуры x86_64, с уровнями оптимизации от O0 до O3 (компилятор GCC), преобразует в читаемый человеком исходный код на языке C.
LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍10❤6
Awesome GPT Super Prompting
#LLM #AI
- ChatGPT Jailbreaks
- Утечки команд помощников GPT
- Инъекция команд GPT
- Безопасность LLM
- Суперкоманды
- Взлом команд
- Безопасность команд
- Инженерия команд ИИ
- Adversarial Machine Learning
🔗 Ссылка на GitHub
LH | News | OSINT | AI
#LLM #AI
- ChatGPT Jailbreaks
- Утечки команд помощников GPT
- Инъекция команд GPT
- Безопасность LLM
- Суперкоманды
- Взлом команд
- Безопасность команд
- Инженерия команд ИИ
- Adversarial Machine Learning
LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥9❤4🤔2
Как устроены LLM-агенты: архитектура, планирование и инструменты
#LLM #AI #статья
Сейчас об этих самых «LLM-агентах» кричат буквально из каждого утюга, поэтому пришло время наконец-то разобраться, что это такое, как они работают и с чем их, собственно, едят. Прыгайте под кат, будет интересно!
LLM агент — это программная система на основе большой языковой модели, способная самостоятельно решать, какие действия предпринимать для достижения поставленной цели. Иными словами, такой агент действует не по жестко запрограммированному сценарию, а сам выбирает последовательность шагов на основе ответа модели. Например, LLM-агент может решить, какой из доступных инструментов ему вызвать, когда выдать ответ или как разбить сложную задачу на простые подзадачи.
В последние годы появились проекты вроде AutoGPT и аналогичные автономные сервисы, которые демонстрируют потенциал LLM-агентов в решении нетривиальных задач. Чтобы понять, как это работает на уровне системы, важно разобраться, из чего состоит подобный агент. Разберем его внутреннюю архитектуру: как он планирует свои действия, как хранит информацию и как использует внешние инструменты.
🔗 Ссылка на статью
LH | News | OSINT | AI
#LLM #AI #статья
Сейчас об этих самых «LLM-агентах» кричат буквально из каждого утюга, поэтому пришло время наконец-то разобраться, что это такое, как они работают и с чем их, собственно, едят. Прыгайте под кат, будет интересно!
LLM агент — это программная система на основе большой языковой модели, способная самостоятельно решать, какие действия предпринимать для достижения поставленной цели. Иными словами, такой агент действует не по жестко запрограммированному сценарию, а сам выбирает последовательность шагов на основе ответа модели. Например, LLM-агент может решить, какой из доступных инструментов ему вызвать, когда выдать ответ или как разбить сложную задачу на простые подзадачи.
В последние годы появились проекты вроде AutoGPT и аналогичные автономные сервисы, которые демонстрируют потенциал LLM-агентов в решении нетривиальных задач. Чтобы понять, как это работает на уровне системы, важно разобраться, из чего состоит подобный агент. Разберем его внутреннюю архитектуру: как он планирует свои действия, как хранит информацию и как использует внешние инструменты.
LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥6❤4