Новая полезная статья: “Attention Is the New Big-O: A Systems Design Approach to Prompt Engineering”.
Если раньше мы оценивали алгоритмы по сложности, то теперь - по удерживанию внимания LLM.
Что это значит на практике? В LLM внимание (attention) - это не фокус в человеческом смысле, а математика связей. Каждое слово в вашем запросе “взвешивается” относительно всех других, и форма промта определяет, что модель заметит, а что проигнорирует. Она не читает по порядку, а сразу строит матрицу взаимосвязей. Поэтому структура текста влияет очень сильно.
Вот несколько советов, чтобы выжать из моделей побольше:
1. Начинайте с самого важного. Исследования показывают, что наибольший вес имеют первые и последние строки промта. Если критично выделить цель - поставьте её в начало.
2. Разбивайте задачу на блоки. Используйте подзаголовки, списки, шаги. Модели проще держать внимание на сегментах, чем на “стене текста”.
3. Формат вывода задавайте явно. JSON, таблица, список - укажите формат, это дисциплинирует модель и уменьшает количество “творческих” отклонений.
4. Используйте ролевую установку. “Вы - старший архитектор”, “Вы - аналитик” помогают задать глубину рассуждений и стиль ответа. Но для задач, где нужна только фактура, лучше обойтись без излишней ролевой рамки.
5. Избавляйтесь от двусмысленностей. Фразы типа “всё, что покажется важным” вызывают внимание-дрифт и провоцируют лишний шум. Заменяйте их на конкретные критерии.
6. Делайте промт модульным. Как код. Добавили новый пункт анализа - вся структура остаётся стабильной. Это уменьшает риск “сломать” всю инструкцию и повышает устойчивость.
7. Тестируйте “иголкой в стоге”. Автор советует проверять, может ли модель “вынуть” ключевую деталь из массива текста. Это позволяет оценить, правильно ли сработало внимание.
8. Да и любопытный приём - дайте модели самой переписать ваш промт более структурированно. Часто её версия работает лучше, чем ваша оригинальная.
Каждое плохо написанное задание возможно экономит токены, но прожигает куда более дорогой ресурс - рабочее внимание команды.
Несколько неструктурированных запросов быстро превращаются в часы уточнений и итераций. Хорошо спроектированный промт ускоряет обратную связь, уменьшает количество правок и помогает делать больше качественного результата на тех же ресурсах.
В итоге вывод очевиден: промт - это мини-система, которую нужно проектировать не хуже, чем код или архитектуру сервиса. Хорошее понимание механики внимания становится новым базовым навыком в разработке с ИИ.
Сергей Булаев AI 🤖 - об AI и не только
Если раньше мы оценивали алгоритмы по сложности, то теперь - по удерживанию внимания LLM.
Что это значит на практике? В LLM внимание (attention) - это не фокус в человеческом смысле, а математика связей. Каждое слово в вашем запросе “взвешивается” относительно всех других, и форма промта определяет, что модель заметит, а что проигнорирует. Она не читает по порядку, а сразу строит матрицу взаимосвязей. Поэтому структура текста влияет очень сильно.
Вот несколько советов, чтобы выжать из моделей побольше:
1. Начинайте с самого важного. Исследования показывают, что наибольший вес имеют первые и последние строки промта. Если критично выделить цель - поставьте её в начало.
2. Разбивайте задачу на блоки. Используйте подзаголовки, списки, шаги. Модели проще держать внимание на сегментах, чем на “стене текста”.
3. Формат вывода задавайте явно. JSON, таблица, список - укажите формат, это дисциплинирует модель и уменьшает количество “творческих” отклонений.
4. Используйте ролевую установку. “Вы - старший архитектор”, “Вы - аналитик” помогают задать глубину рассуждений и стиль ответа. Но для задач, где нужна только фактура, лучше обойтись без излишней ролевой рамки.
5. Избавляйтесь от двусмысленностей. Фразы типа “всё, что покажется важным” вызывают внимание-дрифт и провоцируют лишний шум. Заменяйте их на конкретные критерии.
6. Делайте промт модульным. Как код. Добавили новый пункт анализа - вся структура остаётся стабильной. Это уменьшает риск “сломать” всю инструкцию и повышает устойчивость.
7. Тестируйте “иголкой в стоге”. Автор советует проверять, может ли модель “вынуть” ключевую деталь из массива текста. Это позволяет оценить, правильно ли сработало внимание.
8. Да и любопытный приём - дайте модели самой переписать ваш промт более структурированно. Часто её версия работает лучше, чем ваша оригинальная.
Каждое плохо написанное задание возможно экономит токены, но прожигает куда более дорогой ресурс - рабочее внимание команды.
Несколько неструктурированных запросов быстро превращаются в часы уточнений и итераций. Хорошо спроектированный промт ускоряет обратную связь, уменьшает количество правок и помогает делать больше качественного результата на тех же ресурсах.
В итоге вывод очевиден: промт - это мини-система, которую нужно проектировать не хуже, чем код или архитектуру сервиса. Хорошее понимание механики внимания становится новым базовым навыком в разработке с ИИ.
Сергей Булаев AI 🤖 - об AI и не только
1 61 9 6
Пару недель как начал устанавливать claude code на своих удалённых серверах.
Использовать для небольших правок, а так же что бы быстро находить ошибки в логах. Мне очень нравится. Однако затем появилось желание создавать новые фичи и прямо там.
У меня есть много старого легаси кода который мы используем в co.actor для автоматизированной генерации контента. Обычно мне его страшно трогать. Но у claude code начало получаться. Апофеозом этого действа стала постановка задачи переделать мой текущий постер в телеграм с py-telegram-bot на telethon (что бы постить большие посты от прошных пользователей).
Я сразу дал ему ссылку на репозиторий моего бота качальщика (написанного на telethon), авторизовал пользователя и сделал админом в тестовом канале. Дальше сказал - а теперь напиши новый вариант постинга используя это всё и добейся успешной публикации медиа галерей (знал что там бывают затыки).
Он самостоятельно работал около полу-часа и сделал. Я получил много сообщений в тестовый канал, но в итоге у него получилось.
Вообще даю ему всё больше и больше свободы и пока он оправдывает ожидания. А вы знаете что можете его запускать в headless режиме из крона? С таском вроде - найди в интернете свежую новость на такую то тему, напиши пост о ней на основе не менее 10 источников и опубликуй в вордпресс. Он может такое. Я пробовал. Напоминаю вам про свои недавние идеи про MCP и стирание рамок.
Сергей Булаев AI 🤖 - об AI и не только
Использовать для небольших правок, а так же что бы быстро находить ошибки в логах. Мне очень нравится. Однако затем появилось желание создавать новые фичи и прямо там.
У меня есть много старого легаси кода который мы используем в co.actor для автоматизированной генерации контента. Обычно мне его страшно трогать. Но у claude code начало получаться. Апофеозом этого действа стала постановка задачи переделать мой текущий постер в телеграм с py-telegram-bot на telethon (что бы постить большие посты от прошных пользователей).
Я сразу дал ему ссылку на репозиторий моего бота качальщика (написанного на telethon), авторизовал пользователя и сделал админом в тестовом канале. Дальше сказал - а теперь напиши новый вариант постинга используя это всё и добейся успешной публикации медиа галерей (знал что там бывают затыки).
Он самостоятельно работал около полу-часа и сделал. Я получил много сообщений в тестовый канал, но в итоге у него получилось.
Вообще даю ему всё больше и больше свободы и пока он оправдывает ожидания. А вы знаете что можете его запускать в headless режиме из крона? С таском вроде - найди в интернете свежую новость на такую то тему, напиши пост о ней на основе не менее 10 источников и опубликуй в вордпресс. Он может такое. Я пробовал. Напоминаю вам про свои недавние идеи про MCP и стирание рамок.
Сергей Булаев AI 🤖 - об AI и не только
8 51 10👎1
Совсем недавно обсуждали это в моих комментариях. И вот вам реализация.
Нейроимплант, который может превратить внутренний монолог в текст. Точность распознавания доходит до 74%, словарь до 125 000 слов, а скорость - до 62 слов в минуту.
Особенно необычная находка исследователей - защита мыслепаролем. Чтобы запустить декодирование, человек должен мысленно произнести заранее выбранное слово. Никто не хочет, чтобы его мысли случайно или специально «подслушали».
• Имплант использует микроэлектроды, установленные в моторной коре.
• Алгоритмы машинного обучения извлекают из сигналов фонемы, а затем собирают из них слова и целые предложения.
• Система уверенно различает внутреннюю речь и разговоры вслух.
• Проверено на четырех добровольцах с параличом - результаты стабильные и готовы к клиническим применениям.
• Словарь модели масштабируемый до 125 тысяч слов, такое раньше было недостижимым.
• Авторы подчеркивают: этика и приватность стоят в центре проекта. Именно поэтому вокруг работы сразу собрали команду не только из инженеров и врачей, но и из специалистов по этике.
• Уже обсуждаются неинвазивные варианты, чтобы отойти от хирургии и сделать технологию доступнее.
На практике это значит следующее. Раньше подобные системы требовали, чтобы человек пытался шевелить языком или губами, а они читали эти сигналы. Сейчас речь идет о чистой внутренней речи - гораздо быстрее и удобнее.
Сергей Булаев AI 🤖 - об AI и не только
Нейроимплант, который может превратить внутренний монолог в текст. Точность распознавания доходит до 74%, словарь до 125 000 слов, а скорость - до 62 слов в минуту.
Особенно необычная находка исследователей - защита мыслепаролем. Чтобы запустить декодирование, человек должен мысленно произнести заранее выбранное слово. Никто не хочет, чтобы его мысли случайно или специально «подслушали».
• Имплант использует микроэлектроды, установленные в моторной коре.
• Алгоритмы машинного обучения извлекают из сигналов фонемы, а затем собирают из них слова и целые предложения.
• Система уверенно различает внутреннюю речь и разговоры вслух.
• Проверено на четырех добровольцах с параличом - результаты стабильные и готовы к клиническим применениям.
• Словарь модели масштабируемый до 125 тысяч слов, такое раньше было недостижимым.
• Авторы подчеркивают: этика и приватность стоят в центре проекта. Именно поэтому вокруг работы сразу собрали команду не только из инженеров и врачей, но и из специалистов по этике.
• Уже обсуждаются неинвазивные варианты, чтобы отойти от хирургии и сделать технологию доступнее.
На практике это значит следующее. Раньше подобные системы требовали, чтобы человек пытался шевелить языком или губами, а они читали эти сигналы. Сейчас речь идет о чистой внутренней речи - гораздо быстрее и удобнее.
Сергей Булаев AI 🤖 - об AI и не только
3 55 9 1
This media is not supported in your browser
VIEW IN TELEGRAM
Иногда кажется, что самые большие пробелы в ИИ сегодня не про вычислительные мощности, а про отсутствие понимания мелочей человеческой коммуникации. Жесты, паузы, тональность голоса - всё то, что мы считываем автоматически.
Interhuman AI как раз работает над этим слоем социальной чувствительности для LLMs. Их идея проста: научить модели реагировать не только на текст, но и на невербальный фон вокруг - от выражения лица до смены интонации. На языке технологий это выглядит как комбинация computer vision, аудиоанализа и поведенческих паттернов, упакованных в API, который можно подключить к любому ИИ‑решению.
• Компания из Копенгагена закрыла раунд на €2 млн.
• Инвесторы - PSV Tech, EIFO, Antler, The Yope Foundation и ангельская сеть Ada Ventures.
• Фокус исследований - real‑time адаптация: система должна «читать пространство» и адаптировать ответ мгновенно.
• Потенциальные применения - digital health, обучение, продажи, клиентский сервис.
Большинство LLM до сих пор остаются "плоскими" - они реагируют только на текстовый поток. Добавление social intelligence может превратить эти системы из ответчиков по скрипту в настоящих собеседников, учитывающих контекст.
Сергей Булаев AI 🤖 - об AI и не только
Interhuman AI как раз работает над этим слоем социальной чувствительности для LLMs. Их идея проста: научить модели реагировать не только на текст, но и на невербальный фон вокруг - от выражения лица до смены интонации. На языке технологий это выглядит как комбинация computer vision, аудиоанализа и поведенческих паттернов, упакованных в API, который можно подключить к любому ИИ‑решению.
• Компания из Копенгагена закрыла раунд на €2 млн.
• Инвесторы - PSV Tech, EIFO, Antler, The Yope Foundation и ангельская сеть Ada Ventures.
• Фокус исследований - real‑time адаптация: система должна «читать пространство» и адаптировать ответ мгновенно.
• Потенциальные применения - digital health, обучение, продажи, клиентский сервис.
Большинство LLM до сих пор остаются "плоскими" - они реагируют только на текстовый поток. Добавление social intelligence может превратить эти системы из ответчиков по скрипту в настоящих собеседников, учитывающих контекст.
Сергей Булаев AI 🤖 - об AI и не только
Forwarded from Мысли вслух
Emergency GPT Kit или Fallout Solution
Хочу попробовать новую рубрику - буду делиться идеями инструментов, которые приходят в голову, но руки дойдут нескоро.
Как вам такая идея? - Emergency GPT Kit
Это портативная офлайн-станция с ИИ. По сути, умный генератор/справочник основных знаний накопленных человечеством, который работает даже тогда, когда нет интернета, сервера легли или доступ к облаку отрубили.
В отличие от привычных ассистентов в облаке, этот набор никто не сможет выключить или отцензурировать.
Задумка простая: ИИ как часть набора для выживания. Такой же необходимый элемент, как аптечка или генератор.
Это первый взгляд на ИИ не как на офисный инструмент, а как на часть набора для выживания. ИИ как последний запас знаний, когда свет уже погас.
По реакциям пойму, понравилась ли вам эта идея для новой рубрики или нет.
@maxvotek
Хочу попробовать новую рубрику - буду делиться идеями инструментов, которые приходят в голову, но руки дойдут нескоро.
Как вам такая идея? - Emergency GPT Kit
Это портативная офлайн-станция с ИИ. По сути, умный генератор/справочник основных знаний накопленных человечеством, который работает даже тогда, когда нет интернета, сервера легли или доступ к облаку отрубили.
В отличие от привычных ассистентов в облаке, этот набор никто не сможет выключить или отцензурировать.
Задумка простая: ИИ как часть набора для выживания. Такой же необходимый элемент, как аптечка или генератор.
Что в наборе:
• библиотека моделей (LLaMA, DeepSeek, Qwen + лёгкие версии для экономии энергии);
• простой интерфейс: переключаешь под задачу: медицина, выживание, код, бытовые вопросы;
• честная информация без политических фильтров;
• автономное питание: батареи, солнечные панели, даже ручная динамо-зарядка;
• прочный корпус, защита от ЭМИ, работа без сети.
Конфигурации:
1. Lite Survival (~$1000)
Компактный компьютер, лёгкие модели 3–7B, солнечная и ручная зарядка. Легко взять с собой.
2. Pro Workstation (~$6000)
Мощный ПК (Ryzen 9 / i9 + RTX 3090–4080), до 20 часов от батареи. Тянет модели 13B–32B.
3. Fallout Node (~$20,000)
Несколько GPU, 128 GB RAM, целый «зоопарк» моделей до 70B параметров. Хороше дополнение к вашему бункеру.
Где пригождается:
• в ЧС: медицинские справочники и инструкции без облака;
• в экспедициях и на базах без связи;
• для журналистов и исследователей, которым нужна полная автономия;
• для образования и экспериментов в офлайн-режиме.
Это первый взгляд на ИИ не как на офисный инструмент, а как на часть набора для выживания. ИИ как последний запас знаний, когда свет уже погас.
По реакциям пойму, понравилась ли вам эта идея для новой рубрики или нет.
@maxvotek
15 169 25 15👎7 7
Anthropic запускает пилот плагина Claude для Chrome. Теперь он будет “видеть” всё, что вы просматриваете в браузере: любые страницы, кнопки, формы, письма.
Он может автоматически управлять календарём, составлять черновики писем, помогать с отчётами по расходам и даже тестировать функции сайтов.
Однако вместе с удобством появляется и угроза. ИИ-агенты в браузере уязвимы перед так называемыми prompt injection - атаками.
Злоумышленники могут спрятать инструкции прямо в код сайта или письма, и агент воспринимает их как команду. В тестах Anthropic без дополнительных защит такие атаки проходили успешно в 23,6% случаев.
После внедрения новых мер безопасности получилось снизить показатель до 11,2%. А для особого набора атак, связанных исключительно с браузером (скрытые поля в DOM или инструкции в URL), компания сумела обнулить риск - с 35,7% до 0%. Но тем не менее 11% всё равно пугают.
Что сделано для безопасности Claude for Chrome:
• Гибкий контроль доступа: пользователь решает, какие сайты доступны ИИ
• Подтверждения на действия повышенного риска - публикации, платежи, передача личных данных
• Блокировка категорий с высокой опасностью: финансы, adult, пиратский контент
• Улучшенные системные подсказки, которые обучают ИИ осторожнее работать с данными
• Классификаторы для поиска подозрительных шаблонов в инструкциях и запросах
• Даже в автономном режиме Claude не тронет особо чувствительные операции без вашего согласия
Anthropic также подчёркивает психологическую сторону доверия: у пользователя должна быть привычка проверять, что именно делает ИИ. Это как работа с ассистентом - со временем вы делегируете больше, но контроль за критичными процессами всегда остаётся за вами.
Кто хочет попробовать - Anthropic открыл waitlist.
Сергей Булаев AI 🤖 - об AI и не только
Он может автоматически управлять календарём, составлять черновики писем, помогать с отчётами по расходам и даже тестировать функции сайтов.
Однако вместе с удобством появляется и угроза. ИИ-агенты в браузере уязвимы перед так называемыми prompt injection - атаками.
Злоумышленники могут спрятать инструкции прямо в код сайта или письма, и агент воспринимает их как команду. В тестах Anthropic без дополнительных защит такие атаки проходили успешно в 23,6% случаев.
После внедрения новых мер безопасности получилось снизить показатель до 11,2%. А для особого набора атак, связанных исключительно с браузером (скрытые поля в DOM или инструкции в URL), компания сумела обнулить риск - с 35,7% до 0%. Но тем не менее 11% всё равно пугают.
Что сделано для безопасности Claude for Chrome:
• Гибкий контроль доступа: пользователь решает, какие сайты доступны ИИ
• Подтверждения на действия повышенного риска - публикации, платежи, передача личных данных
• Блокировка категорий с высокой опасностью: финансы, adult, пиратский контент
• Улучшенные системные подсказки, которые обучают ИИ осторожнее работать с данными
• Классификаторы для поиска подозрительных шаблонов в инструкциях и запросах
• Даже в автономном режиме Claude не тронет особо чувствительные операции без вашего согласия
Anthropic также подчёркивает психологическую сторону доверия: у пользователя должна быть привычка проверять, что именно делает ИИ. Это как работа с ассистентом - со временем вы делегируете больше, но контроль за критичными процессами всегда остаётся за вами.
Кто хочет попробовать - Anthropic открыл waitlist.
Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
Google Translate решил бросить вызов Duolingo и Open AI
Внезапно Google Translate перестал быть просто переводчиком. Теперь это языковой тренажёр с амбициями выйти на поле онлайн-обучения и явно померяться силами с Duolingo.
В сервис добавили модуль для практики языка с ИИ: упражнения на аудирование и произношение, персональные сценарии, возможность выбрать уровень и цели, плюс ежедневный трекинг прогресса. А ещё появились новые режимы перевода - быстрый и продвинутый, где второй строится на базе модели Gemini для более точных формулировок.
• персонализированные упражнения и сценарии
• ежедневное отслеживание прогресса
• живые AI-разговоры для более естественного перевода в реальном времени
• обновлённый интерфейс приложения
• два режима перевода: быстрый и продвинутый (Gemini)
• первые пары продвинутого перевода: английский-испанский и английский-французский
• новая языковая поддержка расширяется, уже есть, например, украинский
• запуск пилота в США, Индии и Мексике на Android и iOS
Google официально называет это конкурентом Duolingo.
Миллионы пользователей уже давно используют его "как попало", а теперь им предлагают полноценные уроки прямо внутри привычного сервиса.
Сергей Булаев AI 🤖 - об AI и не только
Внезапно Google Translate перестал быть просто переводчиком. Теперь это языковой тренажёр с амбициями выйти на поле онлайн-обучения и явно померяться силами с Duolingo.
В сервис добавили модуль для практики языка с ИИ: упражнения на аудирование и произношение, персональные сценарии, возможность выбрать уровень и цели, плюс ежедневный трекинг прогресса. А ещё появились новые режимы перевода - быстрый и продвинутый, где второй строится на базе модели Gemini для более точных формулировок.
• персонализированные упражнения и сценарии
• ежедневное отслеживание прогресса
• живые AI-разговоры для более естественного перевода в реальном времени
• обновлённый интерфейс приложения
• два режима перевода: быстрый и продвинутый (Gemini)
• первые пары продвинутого перевода: английский-испанский и английский-французский
• новая языковая поддержка расширяется, уже есть, например, украинский
• запуск пилота в США, Индии и Мексике на Android и iOS
Google официально называет это конкурентом Duolingo.
Миллионы пользователей уже давно используют его "как попало", а теперь им предлагают полноценные уроки прямо внутри привычного сервиса.
Сергей Булаев AI 🤖 - об AI и не только
2 66 5
Уже неделю тестирую Omnara, про которую мне рассказал Игорь. Он, кстати, позже писал про это в своём клёвом канале
YC бэкед сервис устанавливается вам на компьютер (или сервер) и далее устанавливает туннель до их сервера и даёт вам общаться с Claude Code, через web или приложение на мобильных.
Не сразу получилось настроить (а режим сервера - когда omnara может сама запучкать новые инстансы агента - и вообще пока не получилось). В итоге устанавливать помогал сам же Claude Code.
Есть глюки в интерфейсе в вебе, в приложении - ок (но нет голосового ввода), но главное - полезно. Ты реально получаешь доступ к своему агенту откуда угодно.
Из бонусов полностью открытые исходники, включающие, даже, приложение. Отличная база для собственных экспериментов и исследований.
10 каналов бесплатно - советую всем пробовать. Будут проблемы с установкой - используйте мой лайфхак.
Сергей Булаев AI 🤖 - об AI и не только
YC бэкед сервис устанавливается вам на компьютер (или сервер) и далее устанавливает туннель до их сервера и даёт вам общаться с Claude Code, через web или приложение на мобильных.
Не сразу получилось настроить (а режим сервера - когда omnara может сама запучкать новые инстансы агента - и вообще пока не получилось). В итоге устанавливать помогал сам же Claude Code.
Есть глюки в интерфейсе в вебе, в приложении - ок (но нет голосового ввода), но главное - полезно. Ты реально получаешь доступ к своему агенту откуда угодно.
Из бонусов полностью открытые исходники, включающие, даже, приложение. Отличная база для собственных экспериментов и исследований.
10 каналов бесплатно - советую всем пробовать. Будут проблемы с установкой - используйте мой лайфхак.
Сергей Булаев AI 🤖 - об AI и не только
Читал тут отчет Google Cloud AI Trends 2025 - чуть чуть инсайтов, типа ап ту дейт:
- Использование AI в инфраструктуре компаний вырастет на 30% к 2026 году. Спрос на “AI-ready” дата-центры будет расти на 33% ежегодно до 2030-го, а расходы на них удвоятся за ближайшие 5 лет.
- AI-ассистенты повышают производительность сотрудников в среднем на 15%. У разработчиков с AI-инструментами количество выполненных задач за неделю возрастает на 26%, обновлений кода - на 13.5%, а время компиляции кода сокращается на 38%. В компании Turing отмечают рост продуктивности девелоперов на 33% благодаря Gemini Code Assist.
- Warner Bros Discovery с помощью AI сократили расходы на субтитры на 50% и сэкономили 80% времени. Best Buy решает клиентские вопросы на 90 секунд быстрее благодаря виртуальным ассистентам, а Apex Fintech перевел обработку сложных угроз из “часов в секунды”.
- В исследовании отмечается уже известный парадокс: AI больше помогает менее опытным сотрудникам, у “топов” же почти не наблюдается роста скорости работы и иногда даже падает качество.
- Всего 28% взрослых в США доверяют информации от AI, но при этом 71% ждут от компаний персонализированного опыта.
- Компании с высокой лояльностью клиентов приносят акционерам 282% доходности за 10 лет против 81% у остальных.
- Рынок корпоративного поиска прогнозируют на уровне $12.9 млрд к 2031 году.
- Gartner предсказывает, что к 2028 году половина компаний начнет использовать AI-продукты для защиты от дезинформации. В 2024 таких решений меньше 5%.
- Средняя стоимость утечки данных в 2024 выросла на 10% и достигла $4.88 млн.
- Внедрение ИИ в кибербезопасность снижает ущерб от утечек на 30%. Но треть специалистов признает, что нехватка кадров и навыков мешает эффективному применению. И уже 66% компаний готовят команду с нужным опытом.
ИИ раскачивает инфраструктуру: дата-центры буквально превращаются в новую валюту.
Сергей Булаев AI 🤖 - об AI и не только
- Использование AI в инфраструктуре компаний вырастет на 30% к 2026 году. Спрос на “AI-ready” дата-центры будет расти на 33% ежегодно до 2030-го, а расходы на них удвоятся за ближайшие 5 лет.
- AI-ассистенты повышают производительность сотрудников в среднем на 15%. У разработчиков с AI-инструментами количество выполненных задач за неделю возрастает на 26%, обновлений кода - на 13.5%, а время компиляции кода сокращается на 38%. В компании Turing отмечают рост продуктивности девелоперов на 33% благодаря Gemini Code Assist.
- Warner Bros Discovery с помощью AI сократили расходы на субтитры на 50% и сэкономили 80% времени. Best Buy решает клиентские вопросы на 90 секунд быстрее благодаря виртуальным ассистентам, а Apex Fintech перевел обработку сложных угроз из “часов в секунды”.
- В исследовании отмечается уже известный парадокс: AI больше помогает менее опытным сотрудникам, у “топов” же почти не наблюдается роста скорости работы и иногда даже падает качество.
- Всего 28% взрослых в США доверяют информации от AI, но при этом 71% ждут от компаний персонализированного опыта.
- Компании с высокой лояльностью клиентов приносят акционерам 282% доходности за 10 лет против 81% у остальных.
- Рынок корпоративного поиска прогнозируют на уровне $12.9 млрд к 2031 году.
- Gartner предсказывает, что к 2028 году половина компаний начнет использовать AI-продукты для защиты от дезинформации. В 2024 таких решений меньше 5%.
- Средняя стоимость утечки данных в 2024 выросла на 10% и достигла $4.88 млн.
- Внедрение ИИ в кибербезопасность снижает ущерб от утечек на 30%. Но треть специалистов признает, что нехватка кадров и навыков мешает эффективному применению. И уже 66% компаний готовят команду с нужным опытом.
ИИ раскачивает инфраструктуру: дата-центры буквально превращаются в новую валюту.
Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
#КриповаяСуббота
RL-фитнес для роботов... немного страшненько.. Не верится..
Ссылка на полное видео
Сергей Булаев AI 🤖 - об AI и не только
RL-фитнес для роботов... немного страшненько.. Не верится..
Ссылка на полное видео
Сергей Булаев AI 🤖 - об AI и не только
Assort Health - американский стартап, который строит голосовых AI-агентов для медицины. Вы берёте всё, что висит на плечах колл-центров и администраторов клиник, и передаёте им это. Звонки пациентов, запись на приём, проверка страховок, продление рецептов, направление к правильным врачам, напоминания о пропущенных визитах - всё это обрабатывается их системой Assort OS, интегрированной прямо в электронные медкарты (EHR).
На днях они закрыли новый раунд Series B на 50 млн долларов при оценке в 750 млн. Лид-инвестор - Lightspeed. Рынок автоматизации здравоохранения вызревает, и деньги теперь идут туда, где уже есть реальные результаты.
• AI-агенты Assort Health уже обработали больше 14 млн взаимодействий с пациентами
• Средняя оценка удовлетворенности - 4.3 из 5 по десяткам тысяч отзывов
• После внедрения в клиниках доля брошенных звонков упала с 41% до 8%
• Время ожидания на линии сократилось с 11 минут до чуть больше 1 минуты
• 88% медзаписей в США всё еще проходят по телефону - и именно здесь AI реально помогает
• Новая функция Sibling Scheduling дает родителям возможность записывать нескольких детей подряд за один звонок - простая деталь, которая сразу снимает лишний стресс
• Каждый год в США около 20 млн пациентов записывают не к тому врачу - такие ошибки автоматизация сводит на нет
50 млн на этом этапе выглядят логичным шагом. Спрос на скорость и точность коммуникаций растет. И в отличие от модных приложений, здесь результат измерим в минутах, миллионах звонков и тысячах довольных пациентов.
Сергей Булаев AI 🤖 - об AI и не только
На днях они закрыли новый раунд Series B на 50 млн долларов при оценке в 750 млн. Лид-инвестор - Lightspeed. Рынок автоматизации здравоохранения вызревает, и деньги теперь идут туда, где уже есть реальные результаты.
• AI-агенты Assort Health уже обработали больше 14 млн взаимодействий с пациентами
• Средняя оценка удовлетворенности - 4.3 из 5 по десяткам тысяч отзывов
• После внедрения в клиниках доля брошенных звонков упала с 41% до 8%
• Время ожидания на линии сократилось с 11 минут до чуть больше 1 минуты
• 88% медзаписей в США всё еще проходят по телефону - и именно здесь AI реально помогает
• Новая функция Sibling Scheduling дает родителям возможность записывать нескольких детей подряд за один звонок - простая деталь, которая сразу снимает лишний стресс
• Каждый год в США около 20 млн пациентов записывают не к тому врачу - такие ошибки автоматизация сводит на нет
50 млн на этом этапе выглядят логичным шагом. Спрос на скорость и точность коммуникаций растет. И в отличие от модных приложений, здесь результат измерим в минутах, миллионах звонков и тысячах довольных пациентов.
Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Расскажу вам про SSRL (Self‑Search Reinforcement Learning) - новый метод обучения моделей.
Суть простая: вместо того чтобы подключать интернет и гонять модель в поисковик, ей предлагают искать ответы прямо внутри себя, используя то, что уже «прошито» в памяти. Получается внутренняя имитация поиска - модель играет роль собственного поисковика.
Факты, которые стоит знать:
• SSRL - это метод обучения больших языковых моделей (LLM).
• Работает примерно в 5,5 раза быстрее по сравнению с подходом ZeroSearch.
• Модели с таким обучением меньше галлюцинируют, выдавая более надежные ответы.
• Особенно заметно улучшение у инструкционных моделей.
• Формат ответа совпадает с Search‑R1, так что при необходимости можно легко подключить реальный поиск.
• Чем больше модель делает проходов внутри себя (итераций самопоиска), тем выше точность и полезность при подключении наружного поиска.
• Обучение обходится дешевле и стабильнее, потому что не нужно дергать настоящие API поисковиков.
Если переводить это в человеческий язык - SSRL учит модель «копаться в себе». Как будто студент готовится к экзамену без шпаргалок: сначала вынужден вспоминать своими силами, а потом уже проверяет ответы с книгами. Эффективнее, быстрее, и в голове остается больше прочного знания.
Видимо SSRL открывает дорогу к более автономным и экономичным ИИ, которые способны решать задачи без постоянной зависимости от внешних сервисов. А если понадобится доступ к реальному поиску - модель уже готова встроиться в этот процесс органично.
Это напоминает тренировку: сперва делаешь упражнения на собственном весе, а потом переходишь к настоящему железу. SSRL - это как раз та база, которая делает ИИ более выносливым и самостоятельным.
Ссылка на GitHub здесь.
Сергей Булаев AI 🤖 - об AI и не только
Суть простая: вместо того чтобы подключать интернет и гонять модель в поисковик, ей предлагают искать ответы прямо внутри себя, используя то, что уже «прошито» в памяти. Получается внутренняя имитация поиска - модель играет роль собственного поисковика.
Факты, которые стоит знать:
• SSRL - это метод обучения больших языковых моделей (LLM).
• Работает примерно в 5,5 раза быстрее по сравнению с подходом ZeroSearch.
• Модели с таким обучением меньше галлюцинируют, выдавая более надежные ответы.
• Особенно заметно улучшение у инструкционных моделей.
• Формат ответа совпадает с Search‑R1, так что при необходимости можно легко подключить реальный поиск.
• Чем больше модель делает проходов внутри себя (итераций самопоиска), тем выше точность и полезность при подключении наружного поиска.
• Обучение обходится дешевле и стабильнее, потому что не нужно дергать настоящие API поисковиков.
Если переводить это в человеческий язык - SSRL учит модель «копаться в себе». Как будто студент готовится к экзамену без шпаргалок: сначала вынужден вспоминать своими силами, а потом уже проверяет ответы с книгами. Эффективнее, быстрее, и в голове остается больше прочного знания.
Видимо SSRL открывает дорогу к более автономным и экономичным ИИ, которые способны решать задачи без постоянной зависимости от внешних сервисов. А если понадобится доступ к реальному поиску - модель уже готова встроиться в этот процесс органично.
Это напоминает тренировку: сперва делаешь упражнения на собственном весе, а потом переходишь к настоящему железу. SSRL - это как раз та база, которая делает ИИ более выносливым и самостоятельным.
Ссылка на GitHub здесь.
Сергей Булаев AI 🤖 - об AI и не только
Недавно перечитывал статью Генри Бейкера 1992 года про Lively Linear Lisp и задумался о том, что казалось «академической экзотикой» тридцать лет назад, сегодня напрямую резонирует с проблемами инженеров, работающих с LLM. И в частности контекст инженеров.
В чём фишка Lively Linear Lisp? Всё просто и гениально: если у объекта есть только одна ссылка, его можно переписать прямо на месте. Без копирования, без долгих танцев со «сборкой мусора».
Такая линейная логика запрещает скрытое совместное использование данных и даёт более прозрачное управление памятью.
Зачем это современному инженеру контекста, который строит системы вокруг больших языковых моделей?
• управление контекстом - вместо бесконечного дублирования истории можно отслеживать уникальные блоки и обновлять их прямо в памяти
• снижение расходов - чем меньше копируем гигабайтные структуры, тем дешевле хранение и быстрее доступ
• безопасность - уникальность ссылок гарантирует, что данные одного пользователя или задачи случайно не пересекутся с другими
• предсказуемость - упрощается логика «кто и когда владеет памятью», что критично для продакшн‑систем и приватных чатов
Совет, который можно взять в работу уже сейчас: смотрите на свои пайплайны обработки контекста глазами Лиспа из 92‑го. Где вы зря копируете данные? Где допускаете неявное разделение доступа? Попробуйте ввести для себя правила линейного владения ресурсами.
По идее сама ментальная модель помогает проектировать архитектуру чище и надёжнее.
И да, занятно, что жизнь всё время возвращает нас к базовым вопросам: «кто владеет памятью и кто её освобождает?» Для LLM этот вопрос уже давно стал не философией, а суровой практикой.
Сергей Булаев AI 🤖 - об AI и не только
В чём фишка Lively Linear Lisp? Всё просто и гениально: если у объекта есть только одна ссылка, его можно переписать прямо на месте. Без копирования, без долгих танцев со «сборкой мусора».
Такая линейная логика запрещает скрытое совместное использование данных и даёт более прозрачное управление памятью.
Зачем это современному инженеру контекста, который строит системы вокруг больших языковых моделей?
• управление контекстом - вместо бесконечного дублирования истории можно отслеживать уникальные блоки и обновлять их прямо в памяти
• снижение расходов - чем меньше копируем гигабайтные структуры, тем дешевле хранение и быстрее доступ
• безопасность - уникальность ссылок гарантирует, что данные одного пользователя или задачи случайно не пересекутся с другими
• предсказуемость - упрощается логика «кто и когда владеет памятью», что критично для продакшн‑систем и приватных чатов
Совет, который можно взять в работу уже сейчас: смотрите на свои пайплайны обработки контекста глазами Лиспа из 92‑го. Где вы зря копируете данные? Где допускаете неявное разделение доступа? Попробуйте ввести для себя правила линейного владения ресурсами.
По идее сама ментальная модель помогает проектировать архитектуру чище и надёжнее.
И да, занятно, что жизнь всё время возвращает нас к базовым вопросам: «кто владеет памятью и кто её освобождает?» Для LLM этот вопрос уже давно стал не философией, а суровой практикой.
Сергей Булаев AI 🤖 - об AI и не только
1 24 5