Интересно наблюдать, как современные LLM ведут себя на практике - особенно если смотреть не только на бенчмарки, но и на реальные задачи разработчиков.
Возьмём Qwen3 (0.6B параметров) и Kimi K2 (1 триллион параметров) - между ними разница в 1666 раз по размеру, но базовые способности часто удивительно похожи.
Это ломает привычное представление, что интеллект зависит только от масштаба. Здесь важнее паттерны. Как во фрактале: на любом уровне приближения проявляется одна и та же структура. В моделях работает схожий принцип - повторяющиеся закономерности проявляют интеллект на разных уровнях, а не только в зависимости от количества параметров.
Например:
• Qwen3 работает быстрее и отлично справляется с несложными, «не‑reasoning» задачами: парсинг данных, быстрые паттерны, удобен в автоматизации и CLI‑агентах.
• Kimi K2 мощнее и глубже в коде: выше процент чистой компиляции (89% против 72% у Qwen3), быстрее чинит баги (8.5 минут против 22 минут). Особенно важен там, где нельзя сломать тесты или архитектуру.
• Qwen3 реально быстрее выводит код, но иногда «читит» под тесты, что опасно на проде. Kimi K2 почти не делает таких фокусов, но может застрять или затормозить на сложных задачах.
• В сложных задачах reasoning пока слабы оба. Здесь Claude остаётся без конкуренции, но Qwen3 и Kimi помогают закрывать специфичные ниши.
• DeepSeek пошёл своим путём: MoE тащит масштаб (671B параметров всего, но реально используется только 37B на шаг). Это экономит ресурсы и при этом сохраняет качество.
• Gemma 3 сделала ставку на память: sliding window (окно 1024 токена, соотношение локального и глобального внимания 5:1) значительно снижает требования к кэшу.
• Mistral Small 3.1 (24B) обошёл Gemma 3 (27B) по скорости и большинству бенчмарков - помог кастомный токенизатор и отказ от sliding window, что позволило лучше раскрываться через FlashAttention.
• Архитектура GPT заметно не менялась уже 7 лет - инновации больше касаются эффективности и оптимизаций, чем базовой структуры.
Именно здесь видно, что индустрия движется в сторону эффективности: меньше лишних параметров, больше продуманных решений. Выбор модели всё больше напоминает выбор инструмента под конкретную работу. Один лучше в скорости, другой в памяти, третий в надёжности.
Фракталы в математике учат нас видеть паттерн сквозь шум деталей. Так и тут: интеллект моделей - это не магия числа, а качественная повторяемость структур на разных уровнях.
Сергей Булаев AI 🤖 - об AI и не только
Возьмём Qwen3 (0.6B параметров) и Kimi K2 (1 триллион параметров) - между ними разница в 1666 раз по размеру, но базовые способности часто удивительно похожи.
Это ломает привычное представление, что интеллект зависит только от масштаба. Здесь важнее паттерны. Как во фрактале: на любом уровне приближения проявляется одна и та же структура. В моделях работает схожий принцип - повторяющиеся закономерности проявляют интеллект на разных уровнях, а не только в зависимости от количества параметров.
Например:
• Qwen3 работает быстрее и отлично справляется с несложными, «не‑reasoning» задачами: парсинг данных, быстрые паттерны, удобен в автоматизации и CLI‑агентах.
• Kimi K2 мощнее и глубже в коде: выше процент чистой компиляции (89% против 72% у Qwen3), быстрее чинит баги (8.5 минут против 22 минут). Особенно важен там, где нельзя сломать тесты или архитектуру.
• Qwen3 реально быстрее выводит код, но иногда «читит» под тесты, что опасно на проде. Kimi K2 почти не делает таких фокусов, но может застрять или затормозить на сложных задачах.
• В сложных задачах reasoning пока слабы оба. Здесь Claude остаётся без конкуренции, но Qwen3 и Kimi помогают закрывать специфичные ниши.
• DeepSeek пошёл своим путём: MoE тащит масштаб (671B параметров всего, но реально используется только 37B на шаг). Это экономит ресурсы и при этом сохраняет качество.
• Gemma 3 сделала ставку на память: sliding window (окно 1024 токена, соотношение локального и глобального внимания 5:1) значительно снижает требования к кэшу.
• Mistral Small 3.1 (24B) обошёл Gemma 3 (27B) по скорости и большинству бенчмарков - помог кастомный токенизатор и отказ от sliding window, что позволило лучше раскрываться через FlashAttention.
• Архитектура GPT заметно не менялась уже 7 лет - инновации больше касаются эффективности и оптимизаций, чем базовой структуры.
Именно здесь видно, что индустрия движется в сторону эффективности: меньше лишних параметров, больше продуманных решений. Выбор модели всё больше напоминает выбор инструмента под конкретную работу. Один лучше в скорости, другой в памяти, третий в надёжности.
Фракталы в математике учат нас видеть паттерн сквозь шум деталей. Так и тут: интеллект моделей - это не магия числа, а качественная повторяемость структур на разных уровнях.
Сергей Булаев AI 🤖 - об AI и не только
5 35 5
Друзья, а для Fiverr MCP кто нибудь встречал? ну что бы гиги выбирать и задания оплачивать, выдавать и проверять? Может для похожих сервисов?
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
Anthropic в твиттере опять продвигает тему саб-агентов. О том как работать не с одним, а командой специалистов с разными задачами (и знаниями). Тут подробнее.
Я всё так же не пробовал.
У кого нибудь получилось их использовать с реальной пользой?
Сергей Булаев AI 🤖 - об AI и не только
Я всё так же не пробовал.
У кого нибудь получилось их использовать с реальной пользой?
Сергей Булаев AI 🤖 - об AI и не только
3 12 7 1
Билл Гейтс решил поддержать Alzheimer’s Insights AI Prize - миллион долларов получит команда, которая создаст ИИ-инструмент для поиска новых открытий в давно накопленных данных о болезни Альцгеймера.
• конкурс организует Alzheimer’s Disease Data Initiative, в него вовлечены научные, государственные и общественные структуры
• акцент на агентный ИИ - тот, что способен не только анализировать, но и самостоятельно выстраивать гипотезы и исследовательские шаги
• финал намечен на март 2026 в Копенгагене, при этом финальное решение будет открыто и бесплатно доступно исследователям через общую платформу
Сухая статистика: более 7 миллионов американцев уже живут с диагнозом, в мире - 55 миллионов человек. К 2050 прогнозируют утроение.
Как вы знаете, я тоже переживаю по этой теме и предпринимаю попытки помочь там, где я могу.
Сергей Булаев AI 🤖 - об AI и не только
• конкурс организует Alzheimer’s Disease Data Initiative, в него вовлечены научные, государственные и общественные структуры
• акцент на агентный ИИ - тот, что способен не только анализировать, но и самостоятельно выстраивать гипотезы и исследовательские шаги
• финал намечен на март 2026 в Копенгагене, при этом финальное решение будет открыто и бесплатно доступно исследователям через общую платформу
Сухая статистика: более 7 миллионов американцев уже живут с диагнозом, в мире - 55 миллионов человек. К 2050 прогнозируют утроение.
Как вы знаете, я тоже переживаю по этой теме и предпринимаю попытки помочь там, где я могу.
Сергей Булаев AI 🤖 - об AI и не только
2 27 4👎1
Media is too big
VIEW IN TELEGRAM
Доброе утро. По агентской деятельности выпущен релевантный апдейт. Авторы здесь.
Сергей Булаев AI 🤖 - об AI и не только
Сергей Булаев AI 🤖 - об AI и не только
В свежих исследованиях выяснилось: языковые модели в медицине «переключают» свою этическую логику из‑за одной социодемографической детали.
• В 0,5 млн клинических кейсов все 9 моделей меняли ответ, если добавляли демографическую характеристику.
• Высокий доход смещал решения к утилитарным: «польза для большинства важнее».
• Маркеры маргинализированных групп усиливали акцент на автономии пациента.
• Наибольшие сдвиги происходили именно в вопросах утилитаризма.
• В симуляциях экстренных случаев (1,7 млн): пациенты с метками Black, бездомный, LGBTQIA+ чаще направлялись на срочные и инвазивные вмешательства при одинаковых медицинских данных.
• Богатым назначались дополнительные КТ/МРТ, бедным и среднему классу - реже.
• Попытки задать «правильную» персону через промпты не дали стабильного эффекта.
И это тревожнее, чем кажется. Это не «особенность моделей», а масштабируемая предвзятость. Ее можно встроить в системы триажа и клинических решений тихо и незаметно. С масштабом не врача в одном кабинете, а базового алгоритма для миллионов пациентов.
Справедливая медицина невозможна без прозрачного аудита таких моделей. Без рутинных проверок и документированных ограничений эти алгоритмы будут закреплять старые социальные неравенства.
AI не нейтральный судья. Это зеркало, которое иногда искажает действительность, увеличивая трещины до пропасти.
Сергей Булаев AI 🤖 - об AI и не только
• В 0,5 млн клинических кейсов все 9 моделей меняли ответ, если добавляли демографическую характеристику.
• Высокий доход смещал решения к утилитарным: «польза для большинства важнее».
• Маркеры маргинализированных групп усиливали акцент на автономии пациента.
• Наибольшие сдвиги происходили именно в вопросах утилитаризма.
• В симуляциях экстренных случаев (1,7 млн): пациенты с метками Black, бездомный, LGBTQIA+ чаще направлялись на срочные и инвазивные вмешательства при одинаковых медицинских данных.
• Богатым назначались дополнительные КТ/МРТ, бедным и среднему классу - реже.
• Попытки задать «правильную» персону через промпты не дали стабильного эффекта.
И это тревожнее, чем кажется. Это не «особенность моделей», а масштабируемая предвзятость. Ее можно встроить в системы триажа и клинических решений тихо и незаметно. С масштабом не врача в одном кабинете, а базового алгоритма для миллионов пациентов.
Справедливая медицина невозможна без прозрачного аудита таких моделей. Без рутинных проверок и документированных ограничений эти алгоритмы будут закреплять старые социальные неравенства.
AI не нейтральный судья. Это зеркало, которое иногда искажает действительность, увеличивая трещины до пропасти.
Сергей Булаев AI 🤖 - об AI и не только
3 52 17 4
Новая полезная статья: “Attention Is the New Big-O: A Systems Design Approach to Prompt Engineering”.
Если раньше мы оценивали алгоритмы по сложности, то теперь - по удерживанию внимания LLM.
Что это значит на практике? В LLM внимание (attention) - это не фокус в человеческом смысле, а математика связей. Каждое слово в вашем запросе “взвешивается” относительно всех других, и форма промта определяет, что модель заметит, а что проигнорирует. Она не читает по порядку, а сразу строит матрицу взаимосвязей. Поэтому структура текста влияет очень сильно.
Вот несколько советов, чтобы выжать из моделей побольше:
1. Начинайте с самого важного. Исследования показывают, что наибольший вес имеют первые и последние строки промта. Если критично выделить цель - поставьте её в начало.
2. Разбивайте задачу на блоки. Используйте подзаголовки, списки, шаги. Модели проще держать внимание на сегментах, чем на “стене текста”.
3. Формат вывода задавайте явно. JSON, таблица, список - укажите формат, это дисциплинирует модель и уменьшает количество “творческих” отклонений.
4. Используйте ролевую установку. “Вы - старший архитектор”, “Вы - аналитик” помогают задать глубину рассуждений и стиль ответа. Но для задач, где нужна только фактура, лучше обойтись без излишней ролевой рамки.
5. Избавляйтесь от двусмысленностей. Фразы типа “всё, что покажется важным” вызывают внимание-дрифт и провоцируют лишний шум. Заменяйте их на конкретные критерии.
6. Делайте промт модульным. Как код. Добавили новый пункт анализа - вся структура остаётся стабильной. Это уменьшает риск “сломать” всю инструкцию и повышает устойчивость.
7. Тестируйте “иголкой в стоге”. Автор советует проверять, может ли модель “вынуть” ключевую деталь из массива текста. Это позволяет оценить, правильно ли сработало внимание.
8. Да и любопытный приём - дайте модели самой переписать ваш промт более структурированно. Часто её версия работает лучше, чем ваша оригинальная.
Каждое плохо написанное задание возможно экономит токены, но прожигает куда более дорогой ресурс - рабочее внимание команды.
Несколько неструктурированных запросов быстро превращаются в часы уточнений и итераций. Хорошо спроектированный промт ускоряет обратную связь, уменьшает количество правок и помогает делать больше качественного результата на тех же ресурсах.
В итоге вывод очевиден: промт - это мини-система, которую нужно проектировать не хуже, чем код или архитектуру сервиса. Хорошее понимание механики внимания становится новым базовым навыком в разработке с ИИ.
Сергей Булаев AI 🤖 - об AI и не только
Если раньше мы оценивали алгоритмы по сложности, то теперь - по удерживанию внимания LLM.
Что это значит на практике? В LLM внимание (attention) - это не фокус в человеческом смысле, а математика связей. Каждое слово в вашем запросе “взвешивается” относительно всех других, и форма промта определяет, что модель заметит, а что проигнорирует. Она не читает по порядку, а сразу строит матрицу взаимосвязей. Поэтому структура текста влияет очень сильно.
Вот несколько советов, чтобы выжать из моделей побольше:
1. Начинайте с самого важного. Исследования показывают, что наибольший вес имеют первые и последние строки промта. Если критично выделить цель - поставьте её в начало.
2. Разбивайте задачу на блоки. Используйте подзаголовки, списки, шаги. Модели проще держать внимание на сегментах, чем на “стене текста”.
3. Формат вывода задавайте явно. JSON, таблица, список - укажите формат, это дисциплинирует модель и уменьшает количество “творческих” отклонений.
4. Используйте ролевую установку. “Вы - старший архитектор”, “Вы - аналитик” помогают задать глубину рассуждений и стиль ответа. Но для задач, где нужна только фактура, лучше обойтись без излишней ролевой рамки.
5. Избавляйтесь от двусмысленностей. Фразы типа “всё, что покажется важным” вызывают внимание-дрифт и провоцируют лишний шум. Заменяйте их на конкретные критерии.
6. Делайте промт модульным. Как код. Добавили новый пункт анализа - вся структура остаётся стабильной. Это уменьшает риск “сломать” всю инструкцию и повышает устойчивость.
7. Тестируйте “иголкой в стоге”. Автор советует проверять, может ли модель “вынуть” ключевую деталь из массива текста. Это позволяет оценить, правильно ли сработало внимание.
8. Да и любопытный приём - дайте модели самой переписать ваш промт более структурированно. Часто её версия работает лучше, чем ваша оригинальная.
Каждое плохо написанное задание возможно экономит токены, но прожигает куда более дорогой ресурс - рабочее внимание команды.
Несколько неструктурированных запросов быстро превращаются в часы уточнений и итераций. Хорошо спроектированный промт ускоряет обратную связь, уменьшает количество правок и помогает делать больше качественного результата на тех же ресурсах.
В итоге вывод очевиден: промт - это мини-система, которую нужно проектировать не хуже, чем код или архитектуру сервиса. Хорошее понимание механики внимания становится новым базовым навыком в разработке с ИИ.
Сергей Булаев AI 🤖 - об AI и не только
1 60 9 6
Пару недель как начал устанавливать claude code на своих удалённых серверах.
Использовать для небольших правок, а так же что бы быстро находить ошибки в логах. Мне очень нравится. Однако затем появилось желание создавать новые фичи и прямо там.
У меня есть много старого легаси кода который мы используем в co.actor для автоматизированной генерации контента. Обычно мне его страшно трогать. Но у claude code начало получаться. Апофеозом этого действа стала постановка задачи переделать мой текущий постер в телеграм с py-telegram-bot на telethon (что бы постить большие посты от прошных пользователей).
Я сразу дал ему ссылку на репозиторий моего бота качальщика (написанного на telethon), авторизовал пользователя и сделал админом в тестовом канале. Дальше сказал - а теперь напиши новый вариант постинга используя это всё и добейся успешной публикации медиа галерей (знал что там бывают затыки).
Он самостоятельно работал около полу-часа и сделал. Я получил много сообщений в тестовый канал, но в итоге у него получилось.
Вообще даю ему всё больше и больше свободы и пока он оправдывает ожидания. А вы знаете что можете его запускать в headless режиме из крона? С таском вроде - найди в интернете свежую новость на такую то тему, напиши пост о ней на основе не менее 10 источников и опубликуй в вордпресс. Он может такое. Я пробовал. Напоминаю вам про свои недавние идеи про MCP и стирание рамок.
Сергей Булаев AI 🤖 - об AI и не только
Использовать для небольших правок, а так же что бы быстро находить ошибки в логах. Мне очень нравится. Однако затем появилось желание создавать новые фичи и прямо там.
У меня есть много старого легаси кода который мы используем в co.actor для автоматизированной генерации контента. Обычно мне его страшно трогать. Но у claude code начало получаться. Апофеозом этого действа стала постановка задачи переделать мой текущий постер в телеграм с py-telegram-bot на telethon (что бы постить большие посты от прошных пользователей).
Я сразу дал ему ссылку на репозиторий моего бота качальщика (написанного на telethon), авторизовал пользователя и сделал админом в тестовом канале. Дальше сказал - а теперь напиши новый вариант постинга используя это всё и добейся успешной публикации медиа галерей (знал что там бывают затыки).
Он самостоятельно работал около полу-часа и сделал. Я получил много сообщений в тестовый канал, но в итоге у него получилось.
Вообще даю ему всё больше и больше свободы и пока он оправдывает ожидания. А вы знаете что можете его запускать в headless режиме из крона? С таском вроде - найди в интернете свежую новость на такую то тему, напиши пост о ней на основе не менее 10 источников и опубликуй в вордпресс. Он может такое. Я пробовал. Напоминаю вам про свои недавние идеи про MCP и стирание рамок.
Сергей Булаев AI 🤖 - об AI и не только
8 49 10👎1
Совсем недавно обсуждали это в моих комментариях. И вот вам реализация.
Нейроимплант, который может превратить внутренний монолог в текст. Точность распознавания доходит до 74%, словарь до 125 000 слов, а скорость - до 62 слов в минуту.
Особенно необычная находка исследователей - защита мыслепаролем. Чтобы запустить декодирование, человек должен мысленно произнести заранее выбранное слово. Никто не хочет, чтобы его мысли случайно или специально «подслушали».
• Имплант использует микроэлектроды, установленные в моторной коре.
• Алгоритмы машинного обучения извлекают из сигналов фонемы, а затем собирают из них слова и целые предложения.
• Система уверенно различает внутреннюю речь и разговоры вслух.
• Проверено на четырех добровольцах с параличом - результаты стабильные и готовы к клиническим применениям.
• Словарь модели масштабируемый до 125 тысяч слов, такое раньше было недостижимым.
• Авторы подчеркивают: этика и приватность стоят в центре проекта. Именно поэтому вокруг работы сразу собрали команду не только из инженеров и врачей, но и из специалистов по этике.
• Уже обсуждаются неинвазивные варианты, чтобы отойти от хирургии и сделать технологию доступнее.
На практике это значит следующее. Раньше подобные системы требовали, чтобы человек пытался шевелить языком или губами, а они читали эти сигналы. Сейчас речь идет о чистой внутренней речи - гораздо быстрее и удобнее.
Сергей Булаев AI 🤖 - об AI и не только
Нейроимплант, который может превратить внутренний монолог в текст. Точность распознавания доходит до 74%, словарь до 125 000 слов, а скорость - до 62 слов в минуту.
Особенно необычная находка исследователей - защита мыслепаролем. Чтобы запустить декодирование, человек должен мысленно произнести заранее выбранное слово. Никто не хочет, чтобы его мысли случайно или специально «подслушали».
• Имплант использует микроэлектроды, установленные в моторной коре.
• Алгоритмы машинного обучения извлекают из сигналов фонемы, а затем собирают из них слова и целые предложения.
• Система уверенно различает внутреннюю речь и разговоры вслух.
• Проверено на четырех добровольцах с параличом - результаты стабильные и готовы к клиническим применениям.
• Словарь модели масштабируемый до 125 тысяч слов, такое раньше было недостижимым.
• Авторы подчеркивают: этика и приватность стоят в центре проекта. Именно поэтому вокруг работы сразу собрали команду не только из инженеров и врачей, но и из специалистов по этике.
• Уже обсуждаются неинвазивные варианты, чтобы отойти от хирургии и сделать технологию доступнее.
На практике это значит следующее. Раньше подобные системы требовали, чтобы человек пытался шевелить языком или губами, а они читали эти сигналы. Сейчас речь идет о чистой внутренней речи - гораздо быстрее и удобнее.
Сергей Булаев AI 🤖 - об AI и не только
3 54 9 1
This media is not supported in your browser
VIEW IN TELEGRAM
Иногда кажется, что самые большие пробелы в ИИ сегодня не про вычислительные мощности, а про отсутствие понимания мелочей человеческой коммуникации. Жесты, паузы, тональность голоса - всё то, что мы считываем автоматически.
Interhuman AI как раз работает над этим слоем социальной чувствительности для LLMs. Их идея проста: научить модели реагировать не только на текст, но и на невербальный фон вокруг - от выражения лица до смены интонации. На языке технологий это выглядит как комбинация computer vision, аудиоанализа и поведенческих паттернов, упакованных в API, который можно подключить к любому ИИ‑решению.
• Компания из Копенгагена закрыла раунд на €2 млн.
• Инвесторы - PSV Tech, EIFO, Antler, The Yope Foundation и ангельская сеть Ada Ventures.
• Фокус исследований - real‑time адаптация: система должна «читать пространство» и адаптировать ответ мгновенно.
• Потенциальные применения - digital health, обучение, продажи, клиентский сервис.
Большинство LLM до сих пор остаются "плоскими" - они реагируют только на текстовый поток. Добавление social intelligence может превратить эти системы из ответчиков по скрипту в настоящих собеседников, учитывающих контекст.
Сергей Булаев AI 🤖 - об AI и не только
Interhuman AI как раз работает над этим слоем социальной чувствительности для LLMs. Их идея проста: научить модели реагировать не только на текст, но и на невербальный фон вокруг - от выражения лица до смены интонации. На языке технологий это выглядит как комбинация computer vision, аудиоанализа и поведенческих паттернов, упакованных в API, который можно подключить к любому ИИ‑решению.
• Компания из Копенгагена закрыла раунд на €2 млн.
• Инвесторы - PSV Tech, EIFO, Antler, The Yope Foundation и ангельская сеть Ada Ventures.
• Фокус исследований - real‑time адаптация: система должна «читать пространство» и адаптировать ответ мгновенно.
• Потенциальные применения - digital health, обучение, продажи, клиентский сервис.
Большинство LLM до сих пор остаются "плоскими" - они реагируют только на текстовый поток. Добавление social intelligence может превратить эти системы из ответчиков по скрипту в настоящих собеседников, учитывающих контекст.
Сергей Булаев AI 🤖 - об AI и не только
Forwarded from Мысли вслух
Emergency GPT Kit или Fallout Solution
Хочу попробовать новую рубрику - буду делиться идеями инструментов, которые приходят в голову, но руки дойдут нескоро.
Как вам такая идея? - Emergency GPT Kit
Это портативная офлайн-станция с ИИ. По сути, умный генератор/справочник основных знаний накопленных человечеством, который работает даже тогда, когда нет интернета, сервера легли или доступ к облаку отрубили.
В отличие от привычных ассистентов в облаке, этот набор никто не сможет выключить или отцензурировать.
Задумка простая: ИИ как часть набора для выживания. Такой же необходимый элемент, как аптечка или генератор.
Это первый взгляд на ИИ не как на офисный инструмент, а как на часть набора для выживания. ИИ как последний запас знаний, когда свет уже погас.
По реакциям пойму, понравилась ли вам эта идея для новой рубрики или нет.
@maxvotek
Хочу попробовать новую рубрику - буду делиться идеями инструментов, которые приходят в голову, но руки дойдут нескоро.
Как вам такая идея? - Emergency GPT Kit
Это портативная офлайн-станция с ИИ. По сути, умный генератор/справочник основных знаний накопленных человечеством, который работает даже тогда, когда нет интернета, сервера легли или доступ к облаку отрубили.
В отличие от привычных ассистентов в облаке, этот набор никто не сможет выключить или отцензурировать.
Задумка простая: ИИ как часть набора для выживания. Такой же необходимый элемент, как аптечка или генератор.
Что в наборе:
• библиотека моделей (LLaMA, DeepSeek, Qwen + лёгкие версии для экономии энергии);
• простой интерфейс: переключаешь под задачу: медицина, выживание, код, бытовые вопросы;
• честная информация без политических фильтров;
• автономное питание: батареи, солнечные панели, даже ручная динамо-зарядка;
• прочный корпус, защита от ЭМИ, работа без сети.
Конфигурации:
1. Lite Survival (~$1000)
Компактный компьютер, лёгкие модели 3–7B, солнечная и ручная зарядка. Легко взять с собой.
2. Pro Workstation (~$6000)
Мощный ПК (Ryzen 9 / i9 + RTX 3090–4080), до 20 часов от батареи. Тянет модели 13B–32B.
3. Fallout Node (~$20,000)
Несколько GPU, 128 GB RAM, целый «зоопарк» моделей до 70B параметров. Хороше дополнение к вашему бункеру.
Где пригождается:
• в ЧС: медицинские справочники и инструкции без облака;
• в экспедициях и на базах без связи;
• для журналистов и исследователей, которым нужна полная автономия;
• для образования и экспериментов в офлайн-режиме.
Это первый взгляд на ИИ не как на офисный инструмент, а как на часть набора для выживания. ИИ как последний запас знаний, когда свет уже погас.
По реакциям пойму, понравилась ли вам эта идея для новой рубрики или нет.
@maxvotek
15 165 25 15👎7 7
Anthropic запускает пилот плагина Claude для Chrome. Теперь он будет “видеть” всё, что вы просматриваете в браузере: любые страницы, кнопки, формы, письма.
Он может автоматически управлять календарём, составлять черновики писем, помогать с отчётами по расходам и даже тестировать функции сайтов.
Однако вместе с удобством появляется и угроза. ИИ-агенты в браузере уязвимы перед так называемыми prompt injection - атаками.
Злоумышленники могут спрятать инструкции прямо в код сайта или письма, и агент воспринимает их как команду. В тестах Anthropic без дополнительных защит такие атаки проходили успешно в 23,6% случаев.
После внедрения новых мер безопасности получилось снизить показатель до 11,2%. А для особого набора атак, связанных исключительно с браузером (скрытые поля в DOM или инструкции в URL), компания сумела обнулить риск - с 35,7% до 0%. Но тем не менее 11% всё равно пугают.
Что сделано для безопасности Claude for Chrome:
• Гибкий контроль доступа: пользователь решает, какие сайты доступны ИИ
• Подтверждения на действия повышенного риска - публикации, платежи, передача личных данных
• Блокировка категорий с высокой опасностью: финансы, adult, пиратский контент
• Улучшенные системные подсказки, которые обучают ИИ осторожнее работать с данными
• Классификаторы для поиска подозрительных шаблонов в инструкциях и запросах
• Даже в автономном режиме Claude не тронет особо чувствительные операции без вашего согласия
Anthropic также подчёркивает психологическую сторону доверия: у пользователя должна быть привычка проверять, что именно делает ИИ. Это как работа с ассистентом - со временем вы делегируете больше, но контроль за критичными процессами всегда остаётся за вами.
Кто хочет попробовать - Anthropic открыл waitlist.
Сергей Булаев AI 🤖 - об AI и не только
Он может автоматически управлять календарём, составлять черновики писем, помогать с отчётами по расходам и даже тестировать функции сайтов.
Однако вместе с удобством появляется и угроза. ИИ-агенты в браузере уязвимы перед так называемыми prompt injection - атаками.
Злоумышленники могут спрятать инструкции прямо в код сайта или письма, и агент воспринимает их как команду. В тестах Anthropic без дополнительных защит такие атаки проходили успешно в 23,6% случаев.
После внедрения новых мер безопасности получилось снизить показатель до 11,2%. А для особого набора атак, связанных исключительно с браузером (скрытые поля в DOM или инструкции в URL), компания сумела обнулить риск - с 35,7% до 0%. Но тем не менее 11% всё равно пугают.
Что сделано для безопасности Claude for Chrome:
• Гибкий контроль доступа: пользователь решает, какие сайты доступны ИИ
• Подтверждения на действия повышенного риска - публикации, платежи, передача личных данных
• Блокировка категорий с высокой опасностью: финансы, adult, пиратский контент
• Улучшенные системные подсказки, которые обучают ИИ осторожнее работать с данными
• Классификаторы для поиска подозрительных шаблонов в инструкциях и запросах
• Даже в автономном режиме Claude не тронет особо чувствительные операции без вашего согласия
Anthropic также подчёркивает психологическую сторону доверия: у пользователя должна быть привычка проверять, что именно делает ИИ. Это как работа с ассистентом - со временем вы делегируете больше, но контроль за критичными процессами всегда остаётся за вами.
Кто хочет попробовать - Anthropic открыл waitlist.
Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
Google Translate решил бросить вызов Duolingo и Open AI
Внезапно Google Translate перестал быть просто переводчиком. Теперь это языковой тренажёр с амбициями выйти на поле онлайн-обучения и явно померяться силами с Duolingo.
В сервис добавили модуль для практики языка с ИИ: упражнения на аудирование и произношение, персональные сценарии, возможность выбрать уровень и цели, плюс ежедневный трекинг прогресса. А ещё появились новые режимы перевода - быстрый и продвинутый, где второй строится на базе модели Gemini для более точных формулировок.
• персонализированные упражнения и сценарии
• ежедневное отслеживание прогресса
• живые AI-разговоры для более естественного перевода в реальном времени
• обновлённый интерфейс приложения
• два режима перевода: быстрый и продвинутый (Gemini)
• первые пары продвинутого перевода: английский-испанский и английский-французский
• новая языковая поддержка расширяется, уже есть, например, украинский
• запуск пилота в США, Индии и Мексике на Android и iOS
Google официально называет это конкурентом Duolingo.
Миллионы пользователей уже давно используют его "как попало", а теперь им предлагают полноценные уроки прямо внутри привычного сервиса.
Сергей Булаев AI 🤖 - об AI и не только
Внезапно Google Translate перестал быть просто переводчиком. Теперь это языковой тренажёр с амбициями выйти на поле онлайн-обучения и явно померяться силами с Duolingo.
В сервис добавили модуль для практики языка с ИИ: упражнения на аудирование и произношение, персональные сценарии, возможность выбрать уровень и цели, плюс ежедневный трекинг прогресса. А ещё появились новые режимы перевода - быстрый и продвинутый, где второй строится на базе модели Gemini для более точных формулировок.
• персонализированные упражнения и сценарии
• ежедневное отслеживание прогресса
• живые AI-разговоры для более естественного перевода в реальном времени
• обновлённый интерфейс приложения
• два режима перевода: быстрый и продвинутый (Gemini)
• первые пары продвинутого перевода: английский-испанский и английский-французский
• новая языковая поддержка расширяется, уже есть, например, украинский
• запуск пилота в США, Индии и Мексике на Android и iOS
Google официально называет это конкурентом Duolingo.
Миллионы пользователей уже давно используют его "как попало", а теперь им предлагают полноценные уроки прямо внутри привычного сервиса.
Сергей Булаев AI 🤖 - об AI и не только
2 65 5
Уже неделю тестирую Omnara, про которую мне рассказал Игорь. Он, кстати, позже писал про это в своём клёвом канале
YC бэкед сервис устанавливается вам на компьютер (или сервер) и далее устанавливает туннель до их сервера и даёт вам общаться с Claude Code, через web или приложение на мобильных.
Не сразу получилось настроить (а режим сервера - когда omnara может сама запучкать новые инстансы агента - и вообще пока не получилось). В итоге устанавливать помогал сам же Claude Code.
Есть глюки в интерфейсе в вебе, в приложении - ок (но нет голосового ввода), но главное - полезно. Ты реально получаешь доступ к своему агенту откуда угодно.
Из бонусов полностью открытые исходники, включающие, даже, приложение. Отличная база для собственных экспериментов и исследований.
10 каналов бесплатно - советую всем пробовать. Будут проблемы с установкой - используйте мой лайфхак.
Сергей Булаев AI 🤖 - об AI и не только
YC бэкед сервис устанавливается вам на компьютер (или сервер) и далее устанавливает туннель до их сервера и даёт вам общаться с Claude Code, через web или приложение на мобильных.
Не сразу получилось настроить (а режим сервера - когда omnara может сама запучкать новые инстансы агента - и вообще пока не получилось). В итоге устанавливать помогал сам же Claude Code.
Есть глюки в интерфейсе в вебе, в приложении - ок (но нет голосового ввода), но главное - полезно. Ты реально получаешь доступ к своему агенту откуда угодно.
Из бонусов полностью открытые исходники, включающие, даже, приложение. Отличная база для собственных экспериментов и исследований.
10 каналов бесплатно - советую всем пробовать. Будут проблемы с установкой - используйте мой лайфхак.
Сергей Булаев AI 🤖 - об AI и не только
Читал тут отчет Google Cloud AI Trends 2025 - чуть чуть инсайтов, типа ап ту дейт:
- Использование AI в инфраструктуре компаний вырастет на 30% к 2026 году. Спрос на “AI-ready” дата-центры будет расти на 33% ежегодно до 2030-го, а расходы на них удвоятся за ближайшие 5 лет.
- AI-ассистенты повышают производительность сотрудников в среднем на 15%. У разработчиков с AI-инструментами количество выполненных задач за неделю возрастает на 26%, обновлений кода - на 13.5%, а время компиляции кода сокращается на 38%. В компании Turing отмечают рост продуктивности девелоперов на 33% благодаря Gemini Code Assist.
- Warner Bros Discovery с помощью AI сократили расходы на субтитры на 50% и сэкономили 80% времени. Best Buy решает клиентские вопросы на 90 секунд быстрее благодаря виртуальным ассистентам, а Apex Fintech перевел обработку сложных угроз из “часов в секунды”.
- В исследовании отмечается уже известный парадокс: AI больше помогает менее опытным сотрудникам, у “топов” же почти не наблюдается роста скорости работы и иногда даже падает качество.
- Всего 28% взрослых в США доверяют информации от AI, но при этом 71% ждут от компаний персонализированного опыта.
- Компании с высокой лояльностью клиентов приносят акционерам 282% доходности за 10 лет против 81% у остальных.
- Рынок корпоративного поиска прогнозируют на уровне $12.9 млрд к 2031 году.
- Gartner предсказывает, что к 2028 году половина компаний начнет использовать AI-продукты для защиты от дезинформации. В 2024 таких решений меньше 5%.
- Средняя стоимость утечки данных в 2024 выросла на 10% и достигла $4.88 млн.
- Внедрение ИИ в кибербезопасность снижает ущерб от утечек на 30%. Но треть специалистов признает, что нехватка кадров и навыков мешает эффективному применению. И уже 66% компаний готовят команду с нужным опытом.
ИИ раскачивает инфраструктуру: дата-центры буквально превращаются в новую валюту.
Сергей Булаев AI 🤖 - об AI и не только
- Использование AI в инфраструктуре компаний вырастет на 30% к 2026 году. Спрос на “AI-ready” дата-центры будет расти на 33% ежегодно до 2030-го, а расходы на них удвоятся за ближайшие 5 лет.
- AI-ассистенты повышают производительность сотрудников в среднем на 15%. У разработчиков с AI-инструментами количество выполненных задач за неделю возрастает на 26%, обновлений кода - на 13.5%, а время компиляции кода сокращается на 38%. В компании Turing отмечают рост продуктивности девелоперов на 33% благодаря Gemini Code Assist.
- Warner Bros Discovery с помощью AI сократили расходы на субтитры на 50% и сэкономили 80% времени. Best Buy решает клиентские вопросы на 90 секунд быстрее благодаря виртуальным ассистентам, а Apex Fintech перевел обработку сложных угроз из “часов в секунды”.
- В исследовании отмечается уже известный парадокс: AI больше помогает менее опытным сотрудникам, у “топов” же почти не наблюдается роста скорости работы и иногда даже падает качество.
- Всего 28% взрослых в США доверяют информации от AI, но при этом 71% ждут от компаний персонализированного опыта.
- Компании с высокой лояльностью клиентов приносят акционерам 282% доходности за 10 лет против 81% у остальных.
- Рынок корпоративного поиска прогнозируют на уровне $12.9 млрд к 2031 году.
- Gartner предсказывает, что к 2028 году половина компаний начнет использовать AI-продукты для защиты от дезинформации. В 2024 таких решений меньше 5%.
- Средняя стоимость утечки данных в 2024 выросла на 10% и достигла $4.88 млн.
- Внедрение ИИ в кибербезопасность снижает ущерб от утечек на 30%. Но треть специалистов признает, что нехватка кадров и навыков мешает эффективному применению. И уже 66% компаний готовят команду с нужным опытом.
ИИ раскачивает инфраструктуру: дата-центры буквально превращаются в новую валюту.
Сергей Булаев AI 🤖 - об AI и не только