Наткнулся на чудо-рекламушку КРОК! А на ней — QR-кот, никогда такого не было, и вот стряслось!
По ссылке открылся проект от КРОК «OUT OF THE BOX», до 30 марта предлагается решить всякие вумные нестандартные ИТ-кейсы — задачи по ИИ, техническому и проектному управлению.
Весьма увлекательно! Не тесты дурацкие, а конкретно задачечки на повтыкать-подумать. Это любим мы!
От вам ссылка по секрету. Тыкайте, расскажите потом, как оно там всё у вас вышло!
По ссылке открылся проект от КРОК «OUT OF THE BOX», до 30 марта предлагается решить всякие вумные нестандартные ИТ-кейсы — задачи по ИИ, техническому и проектному управлению.
Весьма увлекательно! Не тесты дурацкие, а конкретно задачечки на повтыкать-подумать. Это любим мы!
От вам ссылка по секрету. Тыкайте, расскажите потом, как оно там всё у вас вышло!
😁43🔥26👍7✍2❤2
Как Яндекс, Avito, Ozon ИИ-агентов используют для разработки
посмотрел доклады AI Dev Day трехдневной давности, делюсь выжимкой
🟡 Эффект внедрения
Начну с, кажется, главного — эффект внедрения разработки с ИИ-агентами.
Яндекс говорит об экономии 2% времени разработчиков. Да, всего 2%. Амбиция — улучшить до 10% в рамках года. По самоощущениям разработчиков причём они ускорились аж на 30%, что в 15 раз (!) выше реальной цифры. Кажется, это многое говорит о состоянии дел.
Avito — заявляет ускорение в командах с хорошей адаптацией использования агентов порядка 4-5%.
Ozon бизнес-метрики внедрения агентной разработки ещё не измеряют.
🟡 Какие агенты и модели используют?
Яндекс использует Yandex Code Assistant судя по всему на GLM, связка демонстрирует лучшую эффективность на их собственном бенчмарке.
Avito топят за использование SOTA-моделей (то есть самых передовых существующих на сегодня моделей) и отошли от попыток заниматься fine tuning опенсорсных моделей. Используют разные агенты (continue, cline, opencode, claude code), и модели (qwen3-coder, GLM, openai, claude). В то же время похоже что лучшей связкой сейчас тестируют Claude Code и Claude Sonnet.
Ozon делают свой инференс, используют опенсорсные модели MiniMax+Cline/OpenCode. Внешние модели широко разработчикам не дают.
🟡 Доля сгенерированного агентами закоммиченного кода
Яндекс — 23% кода, сгенерированного агентами. Сами говорят, что цифра неточная, но что-то около.
Avito — 20% пул-реквестов с использованием AI.
Ozon цифр не раскрывает.
🟡 К какому ускорению теоретически может привести ИИ?
По исследованиям Яндекс разработчики тратят 35% на написание кода, 30% времени на коммуникации, 15% на планирование и поиск информации, и по 5% на DevOps, работу с данными и кодревью.
Цифры Avito схожие, 32% времени на кодинг, 28% на исследования и тд.
Таким образом, если сократить те самые 35% времени написания кода даже до нуля, то сие буйство ускорит разработчиков лишь на треть. Сопоставимого эффекта можно добиться, убрав излишние коммуникации (30% времени, то есть полтора целых дня из пятидневной недели на потрындеть). Возможно ли это для бигтеха, драматично снизить коммуникацию? Не знаю.
Компании понимают, что оптимизировать надо не только написание кода, но и остальные блоки, и прилагают усилия к уменьшению времени поиска, ускорению код ревью и тд.
🟡 Общие тренды
Яндекс, Avito, Ozon — все пытаются увеличить использование агентной разработки с ИИ, например, предоставляя разработчикам установку всего пакета необходимых тулзов одной командой, проводя воркшопы, делая общие чатики, где можно получить ответы на то, как использовать ИИ в своей разработке и тд.
Конечно, все пилят свои RAG-и, строчат свои MCP-сервера, скиллы и прочее. Кто-то делает общие репозитории со скиллами и промптами.
В то же время все компании отмечают, что один из вызовов на ближайший год это оптимизация использования токенов, потому что это (оупс) дороговатенько как-то оно всё выходит. И это к ним ещё бизнес не пришёл спросить за те самые 2% эффекта от этих трат:)
посмотрел доклады AI Dev Day трехдневной давности, делюсь выжимкой
Начну с, кажется, главного — эффект внедрения разработки с ИИ-агентами.
Яндекс говорит об экономии 2% времени разработчиков. Да, всего 2%. Амбиция — улучшить до 10% в рамках года. По самоощущениям разработчиков причём они ускорились аж на 30%, что в 15 раз (!) выше реальной цифры. Кажется, это многое говорит о состоянии дел.
Avito — заявляет ускорение в командах с хорошей адаптацией использования агентов порядка 4-5%.
Ozon бизнес-метрики внедрения агентной разработки ещё не измеряют.
Яндекс использует Yandex Code Assistant судя по всему на GLM, связка демонстрирует лучшую эффективность на их собственном бенчмарке.
Avito топят за использование SOTA-моделей (то есть самых передовых существующих на сегодня моделей) и отошли от попыток заниматься fine tuning опенсорсных моделей. Используют разные агенты (continue, cline, opencode, claude code), и модели (qwen3-coder, GLM, openai, claude). В то же время похоже что лучшей связкой сейчас тестируют Claude Code и Claude Sonnet.
Ozon делают свой инференс, используют опенсорсные модели MiniMax+Cline/OpenCode. Внешние модели широко разработчикам не дают.
Яндекс — 23% кода, сгенерированного агентами. Сами говорят, что цифра неточная, но что-то около.
Avito — 20% пул-реквестов с использованием AI.
Ozon цифр не раскрывает.
По исследованиям Яндекс разработчики тратят 35% на написание кода, 30% времени на коммуникации, 15% на планирование и поиск информации, и по 5% на DevOps, работу с данными и кодревью.
Цифры Avito схожие, 32% времени на кодинг, 28% на исследования и тд.
Таким образом, если сократить те самые 35% времени написания кода даже до нуля, то сие буйство ускорит разработчиков лишь на треть. Сопоставимого эффекта можно добиться, убрав излишние коммуникации (30% времени, то есть полтора целых дня из пятидневной недели на потрындеть). Возможно ли это для бигтеха, драматично снизить коммуникацию? Не знаю.
Компании понимают, что оптимизировать надо не только написание кода, но и остальные блоки, и прилагают усилия к уменьшению времени поиска, ускорению код ревью и тд.
Яндекс, Avito, Ozon — все пытаются увеличить использование агентной разработки с ИИ, например, предоставляя разработчикам установку всего пакета необходимых тулзов одной командой, проводя воркшопы, делая общие чатики, где можно получить ответы на то, как использовать ИИ в своей разработке и тд.
Конечно, все пилят свои RAG-и, строчат свои MCP-сервера, скиллы и прочее. Кто-то делает общие репозитории со скиллами и промптами.
В то же время все компании отмечают, что один из вызовов на ближайший год это оптимизация использования токенов, потому что это (оупс) дороговатенько как-то оно всё выходит. И это к ним ещё бизнес не пришёл спросить за те самые 2% эффекта от этих трат:)
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥114✍46❤33😁22👍15
This media is not supported in your browser
VIEW IN TELEGRAM
как бы Max ни хейтили, но он действительно может работать без интернета и это неоспоримый факт
пользователи без интернета написать в него не смогут, но сам Max работать будет🐤
пользователи без интернета написать в него не смогут, но сам Max работать будет
Please open Telegram to view this post
VIEW IN TELEGRAM
4😁496✍25🔥19🎉4❤1
Диджитализируй!
Платные LLM против локальной модели на бытовом ноутбуке — велика ли разница? YouTube | VK | RuTube | Дзен
По результатам комментов было выяснено, что:
— 32гб оперативы это мажорство (25 тыс руб на авито ноуты с 32гб оперативы при медианной зп по стране в 60-70к, сбериндекс)
— LLM (например, Claude) и ИИ-агент, использующий эту LLM (например Claude Code) это одно и тоже (ну разумеется)
— модели Антропик лучше, потому что их агент для написания кода (клод код) работает хорошо (ну разумеется)
Хорошооо:)
— 32гб оперативы это мажорство (25 тыс руб на авито ноуты с 32гб оперативы при медианной зп по стране в 60-70к, сбериндекс)
— LLM (например, Claude) и ИИ-агент, использующий эту LLM (например Claude Code) это одно и тоже (ну разумеется)
— модели Антропик лучше, потому что их агент для написания кода (клод код) работает хорошо (ну разумеется)
Хорошооо:)
😁217✍37❤11👍8
Сколько времени обычно уходит на сборку полноценной data-архитектуры? Дни, недели или даже месяцы?
2 апреля команда Yandex Cloud покажет, как развернуть Lakehouse по клику и получить рабочую аналитическую архитектуру без долгой интеграции разрозненных инструментов.
В основе — единый стек:
raw-данные в Object Storage (S3);
табличный слой на Iceberg;
обработка через Trino и Spark;
интерактив — витрины в ClickHouse и BI.
✅ Зачем приходить
— Поймёте, как выглядит целевая архитектура «от данных до BI» и как собрать её без лишней ручной интеграции
— Получите практические ответы «как делать правильно»: Iceberg, ingestion, метаданные и доступы
— Услышите опыт крупного бизнеса: где «чистый Lakehouse» достаточен, а где нужен слой витрин (Magnit Tech, F&R, десятки петабайт)
— Разберёте паттерны для низкой латентности и потоковых сценариев: витрины, ClickHouse + Kafka, интеграции с BI
— Узнаете, что дальше по roadmap: Iceberg REST Catalog (управляемость/контроль доступа) + AI‑агенты для работы с кодом и пайплайнами + как попасть в лист ожидания
— В конце — Q&A и сбор заявок на воркшопы/пилоты после митапа
Бонусом вас ждут практические рекомендации по производительности и развитие платформы, включая AI-ускорение ETL/ELT. Для команд, которые строят или модернизируют DWH/Lakehouse и хотят сократить время, это маст!
Всё бесплатно, регистрируйтесь тут.
2 апреля команда Yandex Cloud покажет, как развернуть Lakehouse по клику и получить рабочую аналитическую архитектуру без долгой интеграции разрозненных инструментов.
В основе — единый стек:
raw-данные в Object Storage (S3);
табличный слой на Iceberg;
обработка через Trino и Spark;
интерактив — витрины в ClickHouse и BI.
✅ Зачем приходить
— Поймёте, как выглядит целевая архитектура «от данных до BI» и как собрать её без лишней ручной интеграции
— Получите практические ответы «как делать правильно»: Iceberg, ingestion, метаданные и доступы
— Услышите опыт крупного бизнеса: где «чистый Lakehouse» достаточен, а где нужен слой витрин (Magnit Tech, F&R, десятки петабайт)
— Разберёте паттерны для низкой латентности и потоковых сценариев: витрины, ClickHouse + Kafka, интеграции с BI
— Узнаете, что дальше по roadmap: Iceberg REST Catalog (управляемость/контроль доступа) + AI‑агенты для работы с кодом и пайплайнами + как попасть в лист ожидания
— В конце — Q&A и сбор заявок на воркшопы/пилоты после митапа
Бонусом вас ждут практические рекомендации по производительности и развитие платформы, включая AI-ускорение ETL/ELT. Для команд, которые строят или модернизируют DWH/Lakehouse и хотят сократить время, это маст!
Всё бесплатно, регистрируйтесь тут.
👍24❤11🔥6✍2
Как устроен мир — для самых маленьких
Инженеры (это такие дядьки вумные, которые всё проектируют) понимают, что при проектировании любого устройства им ставят приоритетную задачу и ограничения и им нужно найти оптимальный компромисс, решив при этом основную задачу.
Где-то цель для ноутбука — мощность. Можно в рамках ограничений жертвовать размерами, весом, но критично важно получить требуемую высокую мощность. Где-то главный приоритет — элегантный вид и малый вес, но максимальной мощности там не достичь.
Так уж устроена жизнь. Везде причём. В айтишной жизни примером можно вспомнить теорему CAP. Или память — самая быстрая память это кэши процессора, но она маленькая. RAM больше, но медленнее. Диск еще больше, но и еще медленнее. Или безопасность vs удобство пользователя. Или шифрование vs производительность.
А ноут, показанный в видео, весом 980г это буквально самый легкий ноут с современным железом с 14". Инженеры понимают, что это, помимо прочего, означает компромисс по мощности.
Инженеры (это такие дядьки вумные, которые всё проектируют) понимают, что при проектировании любого устройства им ставят приоритетную задачу и ограничения и им нужно найти оптимальный компромисс, решив при этом основную задачу.
Где-то цель для ноутбука — мощность. Можно в рамках ограничений жертвовать размерами, весом, но критично важно получить требуемую высокую мощность. Где-то главный приоритет — элегантный вид и малый вес, но максимальной мощности там не достичь.
Так уж устроена жизнь. Везде причём. В айтишной жизни примером можно вспомнить теорему CAP. Или память — самая быстрая память это кэши процессора, но она маленькая. RAM больше, но медленнее. Диск еще больше, но и еще медленнее. Или безопасность vs удобство пользователя. Или шифрование vs производительность.
А ноут, показанный в видео, весом 980г это буквально самый легкий ноут с современным железом с 14". Инженеры понимают, что это, помимо прочего, означает компромисс по мощности.
🔥82👍42❤16😁16
окак
яндех решил заодно под белые списки интырнета попиарить свои быстрые ответы в поиске
работает, кстате, хорошо!
яндех решил заодно под белые списки интырнета попиарить свои быстрые ответы в поиске
работает, кстате, хорошо!
😁241✍15🔥10❤5🎉4
Ну шо, котаны, берём Beelink GTR9 Pro AI Max+ 395 128gb? Потыкаем, как оно там локальные LLM запускает и насколько юзабельно для интерактивных агентов?!
Anonymous Poll
64%
берём!
9%
нннне берём!
3%
берём другое, напишу в комментах!
38%
лучше пять кило бананов!!!
✍12❤7👍5🔥3
А нонча — праздник, всемирный день интернета!
Между прочим, к этому праздничку приложила руку Католическая церковь, признав в 1998м году, что «Интернет — это мировая сокровищница знаний и важнейшей информации». О как.
4 апреля — день смерти святого Исидора Севильского, покровителя учеников и студентов и любителя науки. В 2003 г. из всех вариантов святых Иоанн Павел Второй решил выбрать именно епископа Исидора и назвал его «патроном пользователей Всемирной паутины».
Смотрите, какая милая страничка об этом празднике. Не мог не заглянуть в вёрстку:
Старый добрый интернет:)
Воот.
Помянем!
Между прочим, к этому праздничку приложила руку Католическая церковь, признав в 1998м году, что «Интернет — это мировая сокровищница знаний и важнейшей информации». О как.
4 апреля — день смерти святого Исидора Севильского, покровителя учеников и студентов и любителя науки. В 2003 г. из всех вариантов святых Иоанн Павел Второй решил выбрать именно епископа Исидора и назвал его «патроном пользователей Всемирной паутины».
Смотрите, какая милая страничка об этом празднике. Не мог не заглянуть в вёрстку:
<div class="div_prazdnik">...</div>
Старый добрый интернет:)
День интернета 4 апреля отмечают не только рядовые пользователи, то есть мы все с вами, но и профильные специалисты: веб-мастера, разработчики программного обеспечения, копирайтеры, даже хакеры.
Формально Интернет появился в России в 1991 г. (но пользовался им узкий круг технических специальностей). Сейчас же количество соотечественников, активно «серфящих» по просторам Сети, составляет порядка 70% населения (из которых ежедневно у компьютера около 70 млн. человек).
Воот.
Помянем!
😁119🎉43🔥12❤8
Потыкал тут локально установленную свежевышедшую гугловую модельку Gemma 4 (если быть точным, gemma-4-26b-a4b и заодно gemma-4-31b). Потрындеть в чатике, может, и неплохо, но для агентского использования не алё, несмотря на то, что Agentic workflows стоит аж на первом месте в Capabilities на официальном сайте.
Пишу тут себе новую версию агента для подготовки бухгалтерских документов (сделаю видео) и хочу, чтобы моделька была локальной. Задача агента — вести диалог, надёжно доставать поля с корректными реквизитами компании из диалога или текста произвольных документов, вызывать инструменты генерации документов с этими реквизитами, хранить историю и тд.
Gemma жестоко глючит, косячит слова, например, вместо «Общество с ограниченной ответственностью» достаёт «Общество с ограниченной ответственю», вместо «ул. Молодогвардейская» даёт «ул. Молодогвардйская», вместо «Борисович» даёт «Борис_ович»), где-то зачем-то меняет кириллические буквы на похожие английские (О на O), а где-то вовсе уходит в отрыв, повторяя одно слово несчислимое количество раз.
А вот локальный алибабашный qwen (конкретно, например, qwen3.5-9b) справляется с задачей отлично. 50 разных вариаций входных реквизитов в разных форматах — 50 успешных прогонов.
ЗЫ: неееет, я не хочу становиться этим ИИ-обзорщиком, писающим кипятком при выходе новой модели с заголовком в духе «new_model уничтожил ChatGPT/Claude/etc». Просто локальные модельки меня заинтересовали:)
Пишу тут себе новую версию агента для подготовки бухгалтерских документов (сделаю видео) и хочу, чтобы моделька была локальной. Задача агента — вести диалог, надёжно доставать поля с корректными реквизитами компании из диалога или текста произвольных документов, вызывать инструменты генерации документов с этими реквизитами, хранить историю и тд.
Gemma жестоко глючит, косячит слова, например, вместо «Общество с ограниченной ответственностью» достаёт «Общество с ограниченной ответственю», вместо «ул. Молодогвардейская» даёт «ул. Молодогвардйская», вместо «Борисович» даёт «Борис_ович»), где-то зачем-то меняет кириллические буквы на похожие английские (О на O), а где-то вовсе уходит в отрыв, повторяя одно слово несчислимое количество раз.
А вот локальный алибабашный qwen (конкретно, например, qwen3.5-9b) справляется с задачей отлично. 50 разных вариаций входных реквизитов в разных форматах — 50 успешных прогонов.
ЗЫ: неееет, я не хочу становиться этим ИИ-обзорщиком, писающим кипятком при выходе новой модели с заголовком в духе «new_model уничтожил ChatGPT/Claude/etc». Просто локальные модельки меня заинтересовали:)
🔥152😁56👍43❤23✍3