Life-Hack - Хакер
60.9K subscribers
1.65K photos
85 videos
17 files
8.23K links
Сообщество по информационной безопасности (кибербезопасности).
Статьи, гайды, обучения, рекомендации, обзоры, новости, подборки полезного софта!
#хакинг #Linux #OSINT
Наши каналы - @LifeHackmedia

РКН: https://clck.ru/3GLmbM

По всем вопросам - @adm1nLH
Download Telegram
ReverserAI

#ReverseEngineering #LLM #AI

ReverserAI — это исследовательский проект, предназначенный для автоматизации и улучшения реверс-инжиниринга за счет использования локально размещенных больших языковых моделей (LLM). ReverserAI предоставляется в виде плагина Binary Ninja; однако его архитектура позволяет перевод на другие платформы реверс-инжиниринга, такие как IDA и Ghidra.

Ссылка на инструмент.

LH | Новости | Курсы | Мемы

#рекомендация
#рекомендации
👍9🔥82🤔1😐1
Vulnhuntr

#LLM #scaner #vulnerability #полезное

Используйте возможности LLM для автоматического анализа кода. Позволяет выявлять сложные многослойные уязвимости, и сильно превосходит возможности традиционных инструментов статического анализа кода.

Ссылка на инструмент

Ссылка на блог

LH | Новости | Курсы | Мемы

#рекомендация
#рекомендации
🔥9👍84
Анатомия LLM RCE

#LLM #RCE #AI #статья@haccking #перевод@haccking

По мере того, как большие языковые модели (LLM) становятся все более сложными, и разработчики наделяют их новыми возможностями, резко увеличиваются случаи возникновения угрозы безопасности. Манипулируемые LLM представляют собой не только риск нарушения этических стандартов, но и реальную угрозу безопасности, способную скомпрометировать системы, в которые они интегрированы. Такие критические уязвимости недавно были выявлены в различных приложениях, включая платформу управления данными для LLM под названием LlamaIndex, SQL-агент Vanna.AI и даже фреймворк для интеграции LLM LangChain.

В этой статье мы проанализируем данный риск, рассмотрев анатомию уязвимости удалённого выполнения кода (RCE) в LLM. Мы начнём с объяснения того, как языковые модели могут исполнять код, и подробно разберем конкретную уязвимость, которую нам удалось выявить.

Ссылка на статю.

LH | Новости | Курсы | Мемы
👍10🔥54
Garak, сканер уязвимостей LLM

#LLM #AI #сканер

Набор для оценки и проверки AI на основе генеративных моделей
garak проверяет, может ли LLM быть вынужден ошибаться нежелательным образом. garak исследует на предмет утечек данных, подмены запросов, дезинформации, генерации токсичных ответов, взломов и многих других уязвимостей. Если вы знаете nmap, то это nmap для LLM.

Ссылка на инструмент.

LH | Новости | Курсы | OSINT
👍7🔥54
Как мы обучали LLM для поиска уязвимостей в смарт-контрактах Solidity

#статья #solidity #LLM

Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.

Ссылка на статью

LH | Новости | Курсы | OSINT
👍10👾2🔥1
PyRIT

#AI #ML #LLM

Инструмент Python Risk Identification Tool (PyRIT) для генеративного ИИ — это открытая автоматизированная платформа, которая помогает специалистам по безопасности и инженерам машинного обучения проактивно выявлять риски в их системах на основе генеративного ИИ.

Ссылка на GitHub

LH | Новости | Курсы | OSINT
🔥8👍73🤔1
AI на фронтире кибервойны. Как LLM меняют ИБ-ландшафт

#AI #LLM #статья

Искусственный интеллект в информационной безопасности — такая обширная тема, что можно легко заблудиться в дебрях спекулятивных прогнозов. Понятие ИИ охватывает все — от рекомендательных алгоритмов, подсовывающих видео с котиками, до роботов, которые хотят убить всех человеков. Чтобы не написать вместо статьи сценарий низкобюджетного sci-fi, стоит сузить фокус.

Представим, что мир ИИ застыл. Никаких революций, никаких сверхразумных AGI на горизонте. Сосредоточимся на анализе больших языковых моделей (LLM) и их влиянии на информационную безопасность. Конечно, выпуск новой мощной модели может разнести вдребезги все эти выкладки, но примем этот риск. Ведь с чего-то надо начинать.

В этой статье я рассмотрю, какие новые возможности открываются перед атакующими и защитниками, и что за вызовы стоят перед отраслью. Под катом вас ждет увлекательное путешествие на ИБ-фронтир.

Ссылка на статью

LH | Новости | Курсы | OSINT
👍113🔥3
Gaze-LLE

#llm #полезное

Модель позволяющая определить, куда направлен взгляд человека на видео. Метод поддерживает многопользовательскую инференцию, обрабатывая пакеты изображений с указанием ограничивающих рамок на головы людей.

👩‍💻 Ссылка на GitHub

LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍108🔥51
LLM4Decompile

#RE #LLM

Декомпиляция бинарного кода с использованием больших языковых моделей. Текущая версия поддерживает декомпиляцию бинарных файлов для Linux архитектуры x86_64, с уровнями оптимизации от O0 до O3 (компилятор GCC), преобразует в читаемый человеком исходный код на языке C.

🔗 Ссылка на GitHub

LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍106
PgAssistant

#LLM #AI #db #admin #полезное

Инструмент, который позволяет не только просмотреть текущий статус запросов и работы PostgreSQL, но и даёт возможность подключить LLM модели для анализа запросов и оптимизации работы сервера БД.

🔗 Ссылка на GitHub

LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍115🔥3
Awesome GPT Super Prompting

#LLM #AI

- ChatGPT Jailbreaks
- Утечки команд помощников GPT
- Инъекция команд GPT
- Безопасность LLM
- Суперкоманды
- Взлом команд
- Безопасность команд
- Инженерия команд ИИ
- Adversarial Machine Learning

🔗 Ссылка на GitHub

LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥94🤔2
GhidraMCP

#RE #LLM

Model Context Protocol (MCP) сервер, который позволяет большим языковым моделям (LLMs) автономно выполнять реверс-инжиниринг приложений. Он предоставляет множество инструментов от базовой функциональности Ghidra до MCP-клиентов.

🔗 Ссылка на GitHub

LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍6👌41
Как устроены LLM-агенты: архитектура, планирование и инструменты

#LLM #AI #статья

Сейчас об этих самых «LLM-агентах» кричат буквально из каждого утюга, поэтому пришло время наконец-то разобраться, что это такое, как они работают и с чем их, собственно, едят. Прыгайте под кат, будет интересно!

LLM агент — это программная система на основе большой языковой модели, способная самостоятельно решать, какие действия предпринимать для достижения поставленной цели. Иными словами, такой агент действует не по жестко запрограммированному сценарию, а сам выбирает последовательность шагов на основе ответа модели. Например, LLM-агент может решить, какой из доступных инструментов ему вызвать, когда выдать ответ или как разбить сложную задачу на простые подзадачи.

В последние годы появились проекты вроде AutoGPT и аналогичные автономные сервисы, которые демонстрируют потенциал LLM-агентов в решении нетривиальных задач. Чтобы понять, как это работает на уровне системы, важно разобраться, из чего состоит подобный агент. Разберем его внутреннюю архитектуру: как он планирует свои действия, как хранит информацию и как использует внешние инструменты.

🔗 Ссылка на статью

LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥64