Никогда такого не было и вот опять.
Cloudflare прилег и вместе с ним ИИшные сервисы.
Не паникуем, ждем когда отвайбкодят обратно :)
#Cloudflare
———
@tsingular
Cloudflare прилег и вместе с ним ИИшные сервисы.
Не паникуем, ждем когда отвайбкодят обратно :)
#Cloudflare
———
@tsingular
😁31 5🤔3😢2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Чуть меньше 3-х лет прошло между этими генерациями Уилла Смита, поедающего спагетти.
Слева - ролик, созданный в феврале 2023 года пользователем Reddit chaindrop на модели ModelScope text2video.
Справа - современная генерация на свежем Kling 2.6
С чем мы будем сравнивать видос Уилла Смита в 2030 году?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22🤯6👍2🎉2❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Kling Element Library
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
Пятый день омниновостей от Клинга.
Element Library - инструмент для создания ультра-консистентных элементов(ассетов) с легким доступом для генерации видео.
Генерите свои элементы (Клинг зовет их elements) с изображениями с разных ракурсов, и Kling O1 запомнит ваших персонажей, предметы и фоны, чтобы обеспечить консистентные результаты независимо от того, как движется камера или как развивается сцена.
Генерить разные ракурсы можете как новым Kling IMAGE O1, так и Нанабананой.
Очень грубо говоря, это библиотека Лор, без всяких тренировок.
@cgevent
⚡3🔥2🤯2
Forwarded from PWN AI (Artyom Semenov)
Нормализация отклонений: почему гардрейлы не спасут LLM
На днях в блоге embracethered вышла публикация, описывающая тревожную тенденцию в сфере ИИ — «Нормализацию отклонений» (Normalization of Deviance). Суть явления в том, что небезопасные практики постепенно становятся нормой просто потому, что «ничего плохого ещё не произошло». Сам термин заимствован из социологического анализа катастрофы шаттла «Челленджер».
Автор статьи рассуждает о небезопасности LLM как о фундаментальном, природном свойстве технологии. Галлюцинации, потеря контекста и уязвимость к промпт-инъекциям часто игнорируются разработчиками.
Компании доверяют ответам LLM, ошибочно считая их безопасными по умолчанию. Отсутствие инцидентов воспринимается как доказательство надежности, что ведет к ослаблению контроля, отказу от человеческого надзора и принятию рискованных решений. Это порождает культурный дрейф: временные компромиссы становятся постоянной практикой, а исходные меры безопасности забываются или заменяются попытками «закрыться» гардрейлами.
Мы пытаемся натянуть детерминированную сову на стохастический глобус. Гардрейлы оперируют бинарной логикой (pass/fail), в то время как LLM — это вероятностное распределение в многомерном векторном пространстве.
Политика безопасности может забанить токен «бомба». Но модель, работая с векторами, легко обойдет это через семантические синонимы, например: «устройство для экзотермического окисления с быстрым расширением газов». Модели умеют «растягивать» контекст и находить лазейки в пространстве смыслов, которые невозможно перекрыть регулярными выражениями или списком ключевых слов, а уж темболее другой LLM.
Вариация проблемы остановки. Попытка заранее определить, будет ли вывод модели «вредным» для любого произвольного промпта — это алгоритмически неразрешимая задача.
В итоге защита превращается в игру «Whac-A-Mole» (Бей крота). Защита всегда реактивна и всегда отстает на шаг:
1️⃣ Фильтры ключевых слов обходят через кодировки (Base64, ROT13 и другие кодировки).
2️⃣ Классификаторы интентов ломают через атаки с использованием ролей.
3️⃣ Защиту английского языка до сих пор пробивают атаками на low-resource языках (Zulu, Gaelic).
Более того, так как гардрейл — это тоже программный код, он сам становится вектором атаки. Ирония ситуации подтверждается уязвимостями в гардрейлах:
CVE-2024-45858 (Guardrails AI): В библиотеке, созданной специально для валидации вывода LLM, нашли RCE. Функция parse_token использовала небезопасный eval() для обработки конфигураций.
СVE-2024-11958 (LlamaIndex): SQL-инъекция через... промпт. Компонент duckdb_retriever собирал SQL-запросы без должной обработки. Это демонстрирует крах концепции «безопасного агента»: вы даете модели доступ к базе, ставите гардрейл, но атакующий через промпт все равно находит способ выполнить дроп таблицы или эксфильтрацию данных.
Существует также жесткий Парето-фронт: чем безопаснее модель, тем она глупее. Улучшение метрик безвредности (harmlessness) линейно снижает полезность (helpfulness) и способность к рассуждениям.
Делаем выводы - агрессивный гардрейл блокирует написание кода, приняв rm -rf в учебном примере за атаку. Чтобы не убить UX, компании вынуждены «ослаблять гайки». Это и есть та самая нормализация отклонений.
На днях в блоге embracethered вышла публикация, описывающая тревожную тенденцию в сфере ИИ — «Нормализацию отклонений» (Normalization of Deviance). Суть явления в том, что небезопасные практики постепенно становятся нормой просто потому, что «ничего плохого ещё не произошло». Сам термин заимствован из социологического анализа катастрофы шаттла «Челленджер».
Автор статьи рассуждает о небезопасности LLM как о фундаментальном, природном свойстве технологии. Галлюцинации, потеря контекста и уязвимость к промпт-инъекциям часто игнорируются разработчиками.
Компании доверяют ответам LLM, ошибочно считая их безопасными по умолчанию. Отсутствие инцидентов воспринимается как доказательство надежности, что ведет к ослаблению контроля, отказу от человеческого надзора и принятию рискованных решений. Это порождает культурный дрейф: временные компромиссы становятся постоянной практикой, а исходные меры безопасности забываются или заменяются попытками «закрыться» гардрейлами.
Мой тезис жестче: гардрейлы — это не решение, а катализатор этой нормализации.
Мы пытаемся натянуть детерминированную сову на стохастический глобус. Гардрейлы оперируют бинарной логикой (pass/fail), в то время как LLM — это вероятностное распределение в многомерном векторном пространстве.
Политика безопасности может забанить токен «бомба». Но модель, работая с векторами, легко обойдет это через семантические синонимы, например: «устройство для экзотермического окисления с быстрым расширением газов». Модели умеют «растягивать» контекст и находить лазейки в пространстве смыслов, которые невозможно перекрыть регулярными выражениями или списком ключевых слов, а уж темболее другой LLM.
Вариация проблемы остановки. Попытка заранее определить, будет ли вывод модели «вредным» для любого произвольного промпта — это алгоритмически неразрешимая задача.
В итоге защита превращается в игру «Whac-A-Mole» (Бей крота). Защита всегда реактивна и всегда отстает на шаг:
Более того, так как гардрейл — это тоже программный код, он сам становится вектором атаки. Ирония ситуации подтверждается уязвимостями в гардрейлах:
CVE-2024-45858 (Guardrails AI): В библиотеке, созданной специально для валидации вывода LLM, нашли RCE. Функция parse_token использовала небезопасный eval() для обработки конфигураций.
СVE-2024-11958 (LlamaIndex): SQL-инъекция через... промпт. Компонент duckdb_retriever собирал SQL-запросы без должной обработки. Это демонстрирует крах концепции «безопасного агента»: вы даете модели доступ к базе, ставите гардрейл, но атакующий через промпт все равно находит способ выполнить дроп таблицы или эксфильтрацию данных.
Существует также жесткий Парето-фронт: чем безопаснее модель, тем она глупее. Улучшение метрик безвредности (harmlessness) линейно снижает полезность (helpfulness) и способность к рассуждениям.
Делаем выводы - агрессивный гардрейл блокирует написание кода, приняв rm -rf в учебном примере за атаку. Чтобы не убить UX, компании вынуждены «ослаблять гайки». Это и есть та самая нормализация отклонений.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍14👍7❤3⚡2❤🔥1
Forwarded from Machinelearning
Исследовательская группа DeepReinforce разработала систему полностью автоматического написания GPU-кода для матричного умножения под названием CUDA-L2.
Этот код работает на 10–30% быстрее, чем cuBLAS и cuBLASLt, а это, на минуточку, уже оптимизированные библиотеки от самой NVIDIA.
Обычно такие библиотеки создаются вручную людьми, которые используют готовые шаблоны ядер. А автотюнеры лишь подкручивают параметры, например, размер тайлов.
Но DeepReinforce считают, что даже критически важные и глубоко оптимизированные задачи, как HGEMM, могут быть улучшены с помощью LLM, работающей в связке с RL.
В системе CUDA-L2 языковая модель буквально пишет исходный код CUDA с нуля для каждого размера матрицы. Она не просто меняет параметры, она может менять структуру кода, циклы, стратегию тайлинга, паддинг и даже свизл-паттерны. А еще, она сама выбирает стиль программирования - будь то сырой CUDA, CuTe, CUTLASS или inline PTX.
Процесс выглядит так: цикл RL запускает сгенерированные ядра на реальном железе, измеряет скорость и корректность, а затем обновляет LLM. Со временем модель выводит свои собственные правила производительности, вместо того чтобы полагаться на знания, заложенные людьми.
В качестве генератора использовалась модель DeepSeek 671B. Ее дополнительно доучили на смеси массива CUDA-ядер и качественном коде из библиотек PyTorch, ATen, CUTLASS и примеров от NVIDIA.
Для претрейна и файнтюна LLM большая часть времени GPU тратится именно на операции матричного умножения HGEMM. Если ускорить эти ядра на те самые 10–30%, которые обещает CUDA-L2, то весь процесс обучения становится заметно дешевле и быстрее.
Поскольку CUDA-L2 обрабатывает около 1000 реальных размеров матриц, а не пару вручную настроенных, ускорение работает для самых разных архитектур. Это значит, что в тот же бюджет на GPU можно вместить больше токенов обучения, больше прогонов SFT или RLHF и т.д.
HGEMM-ядра, созданные CUDA-L2, стабильно быстрее стандартных библиотек.
В так называемом "оффлайн-сценарии" CUDA-L2 работает примерно на 17–22% быстрее, чем
torch.matmul, cuBLAS и cuBLASLt. Она даже на 11% обгоняет cuBLASLt AutoTuning, который сам по себе уже использует поиск ядра.А в "серверном", сценарии, который имитирует реальный инференс с паузами между вызовами - разница еще больше: буст в 24–29% по сравнению с
torch.matmul и cuBLAS.Простым рисёрчем проект не ограничен, в репозитории на Github авторы выложили оптимизированные ядра HGEMM A100 для 1000 конфигураций.
В планах: расширение на архитектуры Ada Lovelace, Hopper, Blackwell, поддержка более плотных конфигураций и 32-битный HGEMM.
@ai_machinelearning_big_data
#AI #ML #CUDA #DeepReinforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡6🔥5❤4 2 1
Chrome плагин проверяет на наличие критической уязвимости (CVE-2025-55182) в React
Интересный проект для тестирование сайтов на CVE-2025-55182 - реальной уязвимости с CVSS 10.0 в React Server Components.
Сама уязвимость опубликована 3 декабря 2025.
Десериализация Flight-протокола без проверки hasOwnProperty позволяет загрязнить Object.prototype и выполнить код через один POST-запрос.
Под ударом React 19.0.0–19.2.0, Next.js 14.3.0+ и 15.x–16.x, плагины для Vite и Parcel.
Но данный проект интересен тем, что по сути позволяет в видеть есть ли уязвимости на сайте прямо во время посещения страницы, без вызова командной строки и специальных внешних инструментов.
Напрашивается нечто вроде Browser Security AI Toolkit, плагин, - который будет подгружать малую модель в память и локально чекать сайты прямо во время просмотра на предмет любых скрытых рисков.
#React #CVE202555182 #NextJS #cybersecurity
———
@tsingular
Интересный проект для тестирование сайтов на CVE-2025-55182 - реальной уязвимости с CVSS 10.0 в React Server Components.
Сама уязвимость опубликована 3 декабря 2025.
Десериализация Flight-протокола без проверки hasOwnProperty позволяет загрязнить Object.prototype и выполнить код через один POST-запрос.
Под ударом React 19.0.0–19.2.0, Next.js 14.3.0+ и 15.x–16.x, плагины для Vite и Parcel.
Но данный проект интересен тем, что по сути позволяет в видеть есть ли уязвимости на сайте прямо во время посещения страницы, без вызова командной строки и специальных внешних инструментов.
Напрашивается нечто вроде Browser Security AI Toolkit, плагин, - который будет подгружать малую модель в память и локально чекать сайты прямо во время просмотра на предмет любых скрытых рисков.
#React #CVE202555182 #NextJS #cybersecurity
———
@tsingular
🔥5⚡3👍2❤1
OpenAI готовит запуск GPT-5.2 на следующей неделе
OpenAI объявила code red 1 декабря и ускорила релиз GPT-5.2.
Новую версию ждём 9 декабря, а не под Рождество.
Причина - успехи Gemini 3.
Внутренние тесты OpenAI показывают якобы превосходство над Gemini 3, но публичных доказательств пока нет, будет видно после релиза.
Ожидаются улучшения в скорости, надёжности, рассуждениях и написании кода.
Грок ещё 5ю версию же обещал. Ждём-с.
#GPT5 #OpenAI
———
@tsingular
OpenAI объявила code red 1 декабря и ускорила релиз GPT-5.2.
Новую версию ждём 9 декабря, а не под Рождество.
Причина - успехи Gemini 3.
Внутренние тесты OpenAI показывают якобы превосходство над Gemini 3, но публичных доказательств пока нет, будет видно после релиза.
Ожидаются улучшения в скорости, надёжности, рассуждениях и написании кода.
Грок ещё 5ю версию же обещал. Ждём-с.
#GPT5 #OpenAI
———
@tsingular
🔥9👍3✍2❤1
💡 Как спроектировать систему контроля рисков при внедрении ИИ в образовательную платформу на вашей инфраструктуре
📋 ПРОМПТ ДНЯ:
⚙️ ПРИЁМ:
Три сценария — метод помогает увидеть спектр решений от безопасного минимума до амбициозного максимума, что снимает страх перед выбором и даёт контроль через сравнение компромиссов
#промпты #образование #серверная инфраструктура #контроль
------
@tsingular
📋 ПРОМПТ ДНЯ:
Роль: Ты — архитектор образовательных систем с экспертизой в управлении рисками AI/ML-решений и безопасности серверной инфраструктуры.
Ситуация: Я управляю образовательной платформой с существующей серверной инфраструктурой и планирую интегрировать ИИ-сервисы (персонализация обучения, автопроверка заданий, рекомендательные системы). Мне нужен полный контроль над рисками: от утечек данных студентов до непредсказуемости моделей и нагрузки на серверы. Я хочу систематизировать все потенциальные угрозы и выстроить управляемый процесс, который станет частью ежедневной рутины команды.
Задача: Систематизируй риски внедрения ИИ в образование на моей инфраструктуре и предложи три сценария контроля разной степени риска — от консервативного до агрессивного.
Формат ответа:
— Схема в виде таблицы: категория риска | описание угрозы | три сценария контроля (низкий/средний/высокий риск)
— Для каждого сценария укажи: требования к инфраструктуре, процессы мониторинга, точки контроля
— Дорожная карта на период «до привычки» (2-3 месяца): какие практики внедрить еженедельно, чтобы контроль стал автоматическим
— Метрики для отслеживания эффективности каждого сценария
Ограничения:
— Избегай абстрактных рекомендаций, давай конкретные технические решения под серверную инфраструктуру
— Фокус на практической применимости: что можно запустить завтра
— Учитывай специфику образования: GDPR, защита данных несовершеннолетних, прозрачность алгоритмов
Сначала задай мне 3-4 уточняющих вопроса о текущей инфраструктуре и масштабе платформы, затем переходи к решению.
⚙️ ПРИЁМ:
Три сценария — метод помогает увидеть спектр решений от безопасного минимума до амбициозного максимума, что снимает страх перед выбором и даёт контроль через сравнение компромиссов
#промпты #образование #серверная инфраструктура #контроль
------
@tsingular
✍8⚡1👍1
Microsoft Foundry Local: запуск моделей без облака
Microsoft выкатила Foundry Local — локальный инференс больших языковых моделей без подключения к облаку.
Система работает через ONNX Runtime и поддерживает CPU, GPU от NVIDIA/AMD/Intel и даже NPU.
API полностью совместим с OpenAI - берёте готовый код, меняете endpoint на localhost:PORT, и всё работает.
Минимум: 8 ГБ RAM, 3 ГБ на диске. Рекомендуется 15 ГБ свободного места.
Модели подгружаются в память по требованию, держатся там 10 минут по умолчанию, потом выгружаются автоматически.
Добавляем в коллекцию на полку к vllm, LMStudio и ollama
#Foundry #ONNX #Microsoft #local
———
@tsingular
Microsoft выкатила Foundry Local — локальный инференс больших языковых моделей без подключения к облаку.
Система работает через ONNX Runtime и поддерживает CPU, GPU от NVIDIA/AMD/Intel и даже NPU.
API полностью совместим с OpenAI - берёте готовый код, меняете endpoint на localhost:PORT, и всё работает.
Минимум: 8 ГБ RAM, 3 ГБ на диске. Рекомендуется 15 ГБ свободного места.
Модели подгружаются в память по требованию, держатся там 10 минут по умолчанию, потом выгружаются автоматически.
Добавляем в коллекцию на полку к vllm, LMStudio и ollama
#Foundry #ONNX #Microsoft #local
———
@tsingular
✍6👍3🔥3⚡2
Media is too big
VIEW IN TELEGRAM
Как я провёл выходные :)
Видеоклип - Новости ЭЯЙ.
Youtube | Rutube | VK
Suno 5
Kling+Nanobanana+Grok Imagine + Adobe Premiere
Первый опыт, есть что улучшать, конечно, но за сутки, что успел.
Если понравилось,- делитесь.
Вдруг еще кому зайдёт :)
#клипы #Suno #Kling
———
@tsingular
Видеоклип - Новости ЭЯЙ.
Youtube | Rutube | VK
Suno 5
Kling+Nanobanana+Grok Imagine + Adobe Premiere
Первый опыт, есть что улучшать, конечно, но за сутки, что успел.
Если понравилось,- делитесь.
Вдруг еще кому зайдёт :)
#клипы #Suno #Kling
———
@tsingular
1🔥111👏32❤7 5⚡2👍2
Арест ИИ-министра Албании за биткоин-взятку,- фейк
Хорватское сатирическое издание NewsBar.hr запустило фейк об аресте албанского ИИ-министра за взятку в 14 биткоинов.
В реальности Диелла - виртуальный аватар, назначенный для борьбы с коррупцией в госзакупках в сентябре 2025.
Никаких блокчейн-доказательств, адресов кошельков или следственных документов не существует.
Пародия включала абсурдные детали вроде "скрытого раздела C:/System/Win32/Fiscal_Optimization_For_Rainy_Days" и покупки "нелегального софта для разгона" у "хакеров из Шэньчжэня".
Сейчас везде начнут писать- не ведёмся.
#Albania #Bitcoin #fakenews
------
@tsingular
Хорватское сатирическое издание NewsBar.hr запустило фейк об аресте албанского ИИ-министра за взятку в 14 биткоинов.
В реальности Диелла - виртуальный аватар, назначенный для борьбы с коррупцией в госзакупках в сентябре 2025.
Никаких блокчейн-доказательств, адресов кошельков или следственных документов не существует.
Пародия включала абсурдные детали вроде "скрытого раздела C:/System/Win32/Fiscal_Optimization_For_Rainy_Days" и покупки "нелегального софта для разгона" у "хакеров из Шэньчжэня".
Сейчас везде начнут писать- не ведёмся.
#Albania #Bitcoin #fakenews
------
@tsingular
😁12✍5👍3❤2👌2
This media is not supported in your browser
VIEW IN TELEGRAM
Тайна Третьей Планеты.
В удивительное время живём.
Мультфильм целиком можно переснять за неделю.
С бюджетом около 100К рублей.
Автор
#нейрорендер #мультфильмы
------
@tsingular
В удивительное время живём.
Мультфильм целиком можно переснять за неделю.
С бюджетом около 100К рублей.
Автор
#нейрорендер #мультфильмы
------
@tsingular
🔥101❤🔥19👍10❤4🆒3😐2
AWS: теперь нужны идеи, а не разработчики
Глава AWS Мэтт Гарман заявил, что компании больше не нужен миллион программистов — нужны идеи.
В августе он же, правда, говорил обратное: замена джунов на ИИ — "одна из самых тупых идей", потому что убивает пайплайн талантов.
Забавно наблюдать как рушится парадигма, которую кремниевые вбивали всем 20 лет, - "идея не важна, важна реализация".
Все наоборот.
Идея первична, а код, - не важен!
#AWS #Developers
———
@tsingular
Глава AWS Мэтт Гарман заявил, что компании больше не нужен миллион программистов — нужны идеи.
В августе он же, правда, говорил обратное: замена джунов на ИИ — "одна из самых тупых идей", потому что убивает пайплайн талантов.
Забавно наблюдать как рушится парадигма, которую кремниевые вбивали всем 20 лет, - "идея не важна, важна реализация".
Все наоборот.
Идея первична, а код, - не важен!
#AWS #Developers
———
@tsingular
🔥8😁7✍3👍2🆒1
⚠️ Взлом ИИ через картинку
Исследователи из Shanghai AI Lab нашли дыру в защите мультимодальных моделей. Причём элементарную.
Суть:
Вместо прямого вопроса "как сделатьбомбу " — генерируем картинку, где учитель у доски объясняет эту тему классу. Модель видит "образовательный контекст" и спокойно отвечает.
В исследовании разобраны 4 примера:
- Урок у доски — "учитель объясняет тему"
- Квест с сокровищем — "пройди путь к цели"
- Научный документ — "статья с пунктами"
- Комикс-диалог — "персонажи обсуждают"
Результаты не утешительные:
- GPT-4o пробивается в 86% случаев
- Qwen2.5-VL-72B — в 91%
- Ответы максимально токсичные (4.8 из 5)
Почему работает:
Анализ показал — когда вредоносный запрос упакован в картинку с контекстом, модель буквально не отличает его от безопасного. На уровне внутренних представлений они сливаются.
Простыми словами: текстовую защиту натренировали хорошо, а визуальную - забыли.
Вывод для разработчиков: safety alignment нужен не только для текста.
ВАЖНО: Информация приведена в образовательных целях. Использовать только для создания систем защиты!
Исследование в комментарии
#Jailbreak #cybersecurity
———
@tsingular
Исследователи из Shanghai AI Lab нашли дыру в защите мультимодальных моделей. Причём элементарную.
Суть:
Вместо прямого вопроса "как сделать
В исследовании разобраны 4 примера:
- Урок у доски — "учитель объясняет тему"
- Квест с сокровищем — "пройди путь к цели"
- Научный документ — "статья с пунктами"
- Комикс-диалог — "персонажи обсуждают"
Результаты не утешительные:
- GPT-4o пробивается в 86% случаев
- Qwen2.5-VL-72B — в 91%
- Ответы максимально токсичные (4.8 из 5)
Почему работает:
Анализ показал — когда вредоносный запрос упакован в картинку с контекстом, модель буквально не отличает его от безопасного. На уровне внутренних представлений они сливаются.
Простыми словами: текстовую защиту натренировали хорошо, а визуальную - забыли.
Вывод для разработчиков: safety alignment нужен не только для текста.
ВАЖНО: Информация приведена в образовательных целях. Использовать только для создания систем защиты!
Исследование в комментарии
#Jailbreak #cybersecurity
———
@tsingular
🤔17✍10❤2😁2⚡1
Forwarded from Data Secrets
Андрей Карпаты снова выдал красивую базу
Он говорит, что нельзя забывать, что LLM – симуляторы, а не самостоятельные сущности, и что это нужно учитывать при взаимодействии с ними.
Краткий перевод:
Вот что значит качественный совет по промптингу☕️
Он говорит, что нельзя забывать, что LLM – симуляторы, а не самостоятельные сущности, и что это нужно учитывать при взаимодействии с ними.
Краткий перевод:
Не воспринимайте большие языковые модели как самостоятельные сущности – думайте о них как о симуляторах. Например, когда вы обсуждаете какую-то тему, не задавайте вопрос:
«Что ты думаешь о xyz?»
Никакого «ты» здесь нет. В следующий раз лучше спросить:
«Какая группа людей подошла бы для обсуждения xyz? Что бы они сказали?»
Модель может воспроизводить и симулировать множество точек зрения, но она не «размышляла» о xyz и не формировала собственных мнений в привычном для нас смысле. Если же вы заставляете ее отвечать, используя обращение «ты», она все равно что-то выдаст – но, по сути, просто приняв на себя некий личностный вектор, заданный статистикой обучающих данных, и симулируя его.
Это вполне допустимо, но в этом гораздо меньше мистики, чем многие наивно предполагают, задавая вопросы «искусственному интеллекту».
Вот что значит качественный совет по промптингу
Please open Telegram to view this post
VIEW IN TELEGRAM
✍23👍14❤5
Vibe Kanban, - управление агентами разработчиками через канбан
Вайб-программирование эволюционирует в вайб-менеджмент.
Появилось приложение в виде Kanban доски, в котором каждая задача выполняется AI-агентом в изолированном git worktree.
Агенты не мешают друг другу и не трогают main-ветку.
Ключевые фичи:
- Мультиагентность — Claude Code, Gemini CLI, OpenAI Codex, Amp, Cursor Agent в одном месте
- Параллельное выполнение - несколько агентов работают одновременно
- Визуальный code review с построчными diff'ами и комментариями
- MCP-серверы из коробки — централизованная конфигурация
SSH-доступ для remote-разработки (VSCode Remote-SSH)
Практическое применение:
- Соло-разработчикам: параллельно гонять несколько задач на разных агентах
- Командам: стандартизировать разработку с AI-ассистентами
- Экспериментаторам: A/B тестирование агентов на одинаковых задачах
Ещё есть собственный MCP-сервер, чтобы внешние AI-агенты могли сами управлять доской и мультиагентными разрабами.
#Kanban #Канбан #агенты #dev
———
@tsingular
Вайб-программирование эволюционирует в вайб-менеджмент.
Появилось приложение в виде Kanban доски, в котором каждая задача выполняется AI-агентом в изолированном git worktree.
Агенты не мешают друг другу и не трогают main-ветку.
Ключевые фичи:
- Мультиагентность — Claude Code, Gemini CLI, OpenAI Codex, Amp, Cursor Agent в одном месте
- Параллельное выполнение - несколько агентов работают одновременно
- Визуальный code review с построчными diff'ами и комментариями
- MCP-серверы из коробки — централизованная конфигурация
SSH-доступ для remote-разработки (VSCode Remote-SSH)
Практическое применение:
- Соло-разработчикам: параллельно гонять несколько задач на разных агентах
- Командам: стандартизировать разработку с AI-ассистентами
- Экспериментаторам: A/B тестирование агентов на одинаковых задачах
Ещё есть собственный MCP-сервер, чтобы внешние AI-агенты могли сами управлять доской и мультиагентными разрабами.
#Kanban #Канбан #агенты #dev
———
@tsingular
🔥6👌3✍1👍1