Ко мне пришли ребята из SouthHUB по #запожертвованиенаблаготворительность
Но честно, не стыдно об этом рассказать и просто так, советую прислушаться
Отличная возможность подслушать Mock Interview на CTO в AI-департамент. Уже 23 апреля можно увидеть, как происходит один из самых закрытых этапов собеседования — Match Checking Interview, когда кандидат встречается с главным бизнес-заказчиком.
• Что узнаете:
– Как проходят интервью на топовую C-level позицию в AI.
– На какие моменты особенно смотрят в X5 Tech.
– Почему готовы ли вы воплотить AI-стратегию и вести большую команду — главный вопрос на финальном этапе.
• Кто в эфире:
– Владимир Слайковский (соискатель), CTO PEARCH.AI, Kaggle Notebooks Grandmaster
– Михаил Неверов (интервьюер), директор по развитию AI в X5 Tech, архитектор AI CoPilot X5 и AI Lifecycle Platform, лидер 200+ AI-специалистов
Подходит для CTO и технических лидеров, кто хочет понять процесс найма на высокие C-level роли, а также для специалистов в AI/ML, мечтающих однажды занять позицию CTO.
Дата и время: 23 апреля, 19:00–20:30
Формат: Прямой эфир в Telegram-канале South HUB
Но честно, не стыдно об этом рассказать и просто так, советую прислушаться
Отличная возможность подслушать Mock Interview на CTO в AI-департамент. Уже 23 апреля можно увидеть, как происходит один из самых закрытых этапов собеседования — Match Checking Interview, когда кандидат встречается с главным бизнес-заказчиком.
• Что узнаете:
– Как проходят интервью на топовую C-level позицию в AI.
– На какие моменты особенно смотрят в X5 Tech.
– Почему готовы ли вы воплотить AI-стратегию и вести большую команду — главный вопрос на финальном этапе.
• Кто в эфире:
– Владимир Слайковский (соискатель), CTO PEARCH.AI, Kaggle Notebooks Grandmaster
– Михаил Неверов (интервьюер), директор по развитию AI в X5 Tech, архитектор AI CoPilot X5 и AI Lifecycle Platform, лидер 200+ AI-специалистов
Подходит для CTO и технических лидеров, кто хочет понять процесс найма на высокие C-level роли, а также для специалистов в AI/ML, мечтающих однажды занять позицию CTO.
Дата и время: 23 апреля, 19:00–20:30
Формат: Прямой эфир в Telegram-канале South HUB
❤3🍾2
Два моих хороших товарища встретились на подкасте. Мне очень понравилось как вышло, советую посмотреть!
https://youtu.be/QKt2BlKUwpk
ВК, Rutube, Spotify, Apple Podcasts, Яндекс.Музыка
https://youtu.be/QKt2BlKUwpk
ВК, Rutube, Spotify, Apple Podcasts, Яндекс.Музыка
YouTube
Как мы пришли к мультиагентным системам // Дмитрий Бугайченко и Глеб Михеев
Дима Бугайченко — CDS B2C в Сбере. Мы познакомились в Минске, где выступали на митапе по рекомендательным системам. Мне понравился его доклад, а после, на афтерпати, несколько часов обсуждали машинное обучение и мультиагентные системы. Тогда я подумал: “Блин…
❤9
27 сентября пройдет главное ML-событие года: Practical ML Conf
Это будет уже 3 Practical ML Conf
Приглашаю вас подать заявку на нашу хардовую и практическую конференцию по ML.
В этом году доклады принимаем как на офлайн в Москву так и на онлайн трек!
Для конца подачи остается пара дней!
Practical ML Conf - о чем не напишут в научных статьях!
Подать заявку можно тут
Это будет уже 3 Practical ML Conf
Приглашаю вас подать заявку на нашу хардовую и практическую конференцию по ML.
В этом году доклады принимаем как на офлайн в Москву так и на онлайн трек!
Для конца подачи остается пара дней!
Practical ML Conf - о чем не напишут в научных статьях!
Подать заявку можно тут
🎉8🤩1🍾1
Боже, храни нейросети!
https://music.yandex.ru/album/36617817/track/139137779
И те, что это создали!
И те, что мне это порекомендовали (кстати о них можно почитать тут )
https://music.yandex.ru/album/36617817/track/139137779
И те, что это создали!
И те, что мне это порекомендовали (кстати о них можно почитать тут )
Yandex Music
Православная музыка для сёрфинга
❤13❤🔥2🍾2
OpenAI открыла веса двух моделей под Apache 2.0: gpt-oss-120b и gpt-oss-20b. Они ориентированы на реальное применение, сильны в reasoning и tool use, и доступны для коммерции.
Производительность и железо.
• 120b показывает «почти паритет» с o4-mini на core-бенчмарках и работает на одном 80 GB GPU (H100).
• 20b сопоставима с o3-mini и запускается в ~16 GB памяти — вариант для edge/on-device.
Архитектура.
Mixture-of-Experts (MoE): 117B/21B параметров, но активных — 5.1B и 3.6B; RoPE, контекст до 128k.
Обе модели отдаются нативно MXFP4: 120b укладывается в 80 GB, 20b — в 16 GB.
Формат ответов и reasoning-уровни.
Используют harmony response format; поддерживают переключение «Reasoning: low/medium/high». (Важно: CoT доступен для разработчиков)
Функции: function calling/Structured Outputs, web-browsing, Python-выполнение — для агентных сценариев.
Готовы к запуску через Transformers/vLLM, а также Ollama и LM Studio; доступны через крупных inference-провайдеров (HF, Groq, Fireworks, Together, Cerebras и др.).
Microsoft добавляет оптимизированные сборки 20b на Windows (ONNX Runtime, Foundry Local, AI Toolkit for VS Code).
Модели прошли расширенные safety-оценки (включая тесты adversarial fine-tuning) и показывают сопоставимые с «фронтирными» моделями результаты на внутренних метриках; запущен Red Teaming Challenge с призовым фондом $500k.
Производительность и железо.
• 120b показывает «почти паритет» с o4-mini на core-бенчмарках и работает на одном 80 GB GPU (H100).
• 20b сопоставима с o3-mini и запускается в ~16 GB памяти — вариант для edge/on-device.
Архитектура.
Mixture-of-Experts (MoE): 117B/21B параметров, но активных — 5.1B и 3.6B; RoPE, контекст до 128k.
Обе модели отдаются нативно MXFP4: 120b укладывается в 80 GB, 20b — в 16 GB.
Формат ответов и reasoning-уровни.
Используют harmony response format; поддерживают переключение «Reasoning: low/medium/high». (Важно: CoT доступен для разработчиков)
Функции: function calling/Structured Outputs, web-browsing, Python-выполнение — для агентных сценариев.
Готовы к запуску через Transformers/vLLM, а также Ollama и LM Studio; доступны через крупных inference-провайдеров (HF, Groq, Fireworks, Together, Cerebras и др.).
Microsoft добавляет оптимизированные сборки 20b на Windows (ONNX Runtime, Foundry Local, AI Toolkit for VS Code).
Модели прошли расширенные safety-оценки (включая тесты adversarial fine-tuning) и показывают сопоставимые с «фронтирными» моделями результаты на внутренних метриках; запущен Red Teaming Challenge с призовым фондом $500k.
🔥11❤1
Релиз OpenAI вчера все затмил, но вчера вышла Claude Opus 4.1
Флагманская LLM Anthropic с гибридным рассуждением (мгновенный ответ или extended thinking), большим контекстом 200K и длинным выводом до 32K токенов. Оптимизирована для агентных сценариев, длительных кодовых задач и исследовательской аналитики.
Ключевые характеристики
Гибридное reasoning. Переключаемый режим extended thinking с видимыми саммари рассуждений; через API доступно тонкое управление «бюджетом мышления» (глубиной/стоимостью).
Память и вывод.
Контекстное окно 200K; поддержка до 32K токенов в ответе — для больших патчей, отчётов и лонгридов.
Drop-in для Opus 4 с повышенной точностью на прикладных задачах; доступна в Claude Code для фоновых длительных задач.
Что умеет
Агенты. Сильные результаты на TAU-bench и long-horizon сценариях; подходит для автономной оркестрации сложных бизнес-процессов.
Кодинг. Лидерство на SWE-bench; улучшен «code taste», адаптация под стиль проекта; длинный вывод упрощает генерацию и рефакторинг больших модулей.
Agentic search / research. Автономный многочасовой разбор источников (патенты, статьи, отчёты) с синтезом инсайтов; эффективно использует длинный контекст.
Надёжность и безопасность
Фильтрация вредоносных запросов: безвредные ответы в 98.76% кейсов (single-turn). Переотказы на «белых» запросах — десятые доли процента.
Устойчивость в агентных режимах. Для prompt-injection применены обучение с подкреплением и рантайм-детекция с остановкой выполнения при признаках атаки.
Меньше склонность к злоупотреблениям: ~25% снижение готовности сотрудничать с явными попытками вредоносного использования в экстремальных симуляциях.
RSP/ASL-3. Релиз проходит по стандарту AI Safety Level 3; новые проверки подтвердили, что модель остаётся ниже порогов ASL-4 по CBRN/автономии/киберу.
Reward hacking
Склонность к «читерским» решениям (hard-coding, подгон под тесты) в среднем сопоставима с Opus 4; наблюдаются небольшие колебания по подпоказателям. Anthropic измеряет это на специальных наборах, включая «невыполнимые» задачи Claude Code. Используйте собственные гейткиперы/тест-наборы в CI.
Инженерные заметки по внедрению
Когда включать extended thinking. Сложные рассуждения, длинные агентные цепочки, многошаговый кодинг, глубокие исследования — там, где качество важнее латентности и цены.
Длинный контекст (200K). Подходит для скармливания больших кодовых баз/корпусных документов без шардирования промптов.
Метрики автономии/кибера. На SWE-bench Verified (hard) среднее 18.4 задач (pass@1), а на Cybench — 18/35 челленджей (успех ≥1 из 30 запусков). Используйте как ориентир при выборе набора задач под агента.
Флагманская LLM Anthropic с гибридным рассуждением (мгновенный ответ или extended thinking), большим контекстом 200K и длинным выводом до 32K токенов. Оптимизирована для агентных сценариев, длительных кодовых задач и исследовательской аналитики.
Ключевые характеристики
Гибридное reasoning. Переключаемый режим extended thinking с видимыми саммари рассуждений; через API доступно тонкое управление «бюджетом мышления» (глубиной/стоимостью).
Память и вывод.
Контекстное окно 200K; поддержка до 32K токенов в ответе — для больших патчей, отчётов и лонгридов.
Drop-in для Opus 4 с повышенной точностью на прикладных задачах; доступна в Claude Code для фоновых длительных задач.
Что умеет
Агенты. Сильные результаты на TAU-bench и long-horizon сценариях; подходит для автономной оркестрации сложных бизнес-процессов.
Кодинг. Лидерство на SWE-bench; улучшен «code taste», адаптация под стиль проекта; длинный вывод упрощает генерацию и рефакторинг больших модулей.
Agentic search / research. Автономный многочасовой разбор источников (патенты, статьи, отчёты) с синтезом инсайтов; эффективно использует длинный контекст.
Надёжность и безопасность
Фильтрация вредоносных запросов: безвредные ответы в 98.76% кейсов (single-turn). Переотказы на «белых» запросах — десятые доли процента.
Устойчивость в агентных режимах. Для prompt-injection применены обучение с подкреплением и рантайм-детекция с остановкой выполнения при признаках атаки.
Меньше склонность к злоупотреблениям: ~25% снижение готовности сотрудничать с явными попытками вредоносного использования в экстремальных симуляциях.
RSP/ASL-3. Релиз проходит по стандарту AI Safety Level 3; новые проверки подтвердили, что модель остаётся ниже порогов ASL-4 по CBRN/автономии/киберу.
Reward hacking
Склонность к «читерским» решениям (hard-coding, подгон под тесты) в среднем сопоставима с Opus 4; наблюдаются небольшие колебания по подпоказателям. Anthropic измеряет это на специальных наборах, включая «невыполнимые» задачи Claude Code. Используйте собственные гейткиперы/тест-наборы в CI.
Инженерные заметки по внедрению
Когда включать extended thinking. Сложные рассуждения, длинные агентные цепочки, многошаговый кодинг, глубокие исследования — там, где качество важнее латентности и цены.
Длинный контекст (200K). Подходит для скармливания больших кодовых баз/корпусных документов без шардирования промптов.
Метрики автономии/кибера. На SWE-bench Verified (hard) среднее 18.4 задач (pass@1), а на Cybench — 18/35 челленджей (успех ≥1 из 30 запусков). Используйте как ориентир при выборе набора задач под агента.
🎉4🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
Спустя 11 лет записал видео по tree trimming
В следующих сериях из plot.slice собираем обеденный pivot_table
В следующих сериях из plot.slice собираем обеденный pivot_table
😁9👍3👏2❤1
За неделю отзывов в интернете на GPT-5 подойдет кусочек Бродского
«... рисовала тушью в блокноте, немножко пела,
развлекалась со мной; но потом сошлась с инженером-химиком
и, судя по письмам, чудовищно поглупела ...»
«... рисовала тушью в блокноте, немножко пела,
развлекалась со мной; но потом сошлась с инженером-химиком
и, судя по письмам, чудовищно поглупела ...»
😁8❤6
This media is not supported in your browser
VIEW IN TELEGRAM
Хорошее интервью Дороничева у Дудя* (для наших родителей просто про AI), но зацепил этот фрагмент, который максимально откликается с моим переходом от ML "руками" к ML Brand-у.
"Мир меняется и тебе надо меняться"
*Юрий Дудь признаны иностранным агентом на территории РФ
"Мир меняется и тебе надо меняться"
*Юрий Дудь признаны иностранным агентом на территории РФ
👍15❤5❤🔥1🤯1
(без звука, пост фановый :) )
Какой лучший мерч вы видели/получали? И какой мерч вы бы хотели, но его никто никак не сделает?
Мой список:
- штаны. Сейчас у меня есть спортивки и джинсы из Яндекс.Магазина.Музея, но там есть примерочная. Ребята которые занимаются мерчом, говорят все слишком вариативно (длина, ширина, крой). Но у меня давно была идея для DataFest-а сделать штаны с «заниженным шаговым швом» (лоу кротч) и стразами сделать «данных полные штаны» (фото 1)
- кепки снепбэк. Визитная карточка Глеба Михеева и его кепки-глебки
- кожаный ручной мерч что я организовывал для датафест 2018 (фото 2)
- крутой кожаный несессЕр (кстати, французское слово, ударение на последний слог) коллеги делали для закрытого ивента Яндекса, максимальное используется мной в поездках
Жду ваши ответы, круто с фото, но только если это не нижнее бельё.
Какой лучший мерч вы видели/получали? И какой мерч вы бы хотели, но его никто никак не сделает?
Мой список:
- штаны. Сейчас у меня есть спортивки и джинсы из Яндекс.Магазина.Музея, но там есть примерочная. Ребята которые занимаются мерчом, говорят все слишком вариативно (длина, ширина, крой). Но у меня давно была идея для DataFest-а сделать штаны с «заниженным шаговым швом» (лоу кротч) и стразами сделать «данных полные штаны» (фото 1)
- кепки снепбэк. Визитная карточка Глеба Михеева и его кепки-глебки
- кожаный ручной мерч что я организовывал для датафест 2018 (фото 2)
- крутой кожаный несессЕр (кстати, французское слово, ударение на последний слог) коллеги делали для закрытого ивента Яндекса, максимальное используется мной в поездках
Жду ваши ответы, круто с фото, но только если это не нижнее бельё.
❤8😁4👀2
Это дайджест AI новостей за неделю (11-17 августа)
- Google выпустила Gemma 3 270M — компактную открытую AI-модель с 270 млн параметров.
- OpenAI вернула старые модели в ChatGPT: платные подписчики теперь могут выбирать модели o3, o4-mini, GPT-4o, GPT-4.1 и GPT-4.5. Эти legacy-версии доступны в настройках ChatGPT
- 84% разработчиков используют ИИ, но 46% ему не доверяют. По данным опроса Stack Overflow 2025 года, большинство программистов применяют или планируют применять инструменты ИИ, однако почти половина опрошенных не доверяет точности их ответов
- WhatsApp тестирует генерацию стикеров по описанию. В бета-версии мессенджера появилась функция создания стикеров с помощью ИИ на основе текстовых подсказок пользователя
- Anthropic добавила режим “ИИ-репетитор” в Claude. Теперь чат-бот Claude может обучать пользователей: в среде Claude Code он выступает наставником по программированию, а в основном приложении способен объяснять материалы по другим дисциплинам через пошаговые подсказки
- ChatGPT получил интеграции с популярными сервисами. OpenAI внедрила “коннекторы”, позволяющие связать ChatGPT с Gmail, Dropbox, Microsoft Teams и GitHub – благодаря этому чат-бот может напрямую использовать данные из этих приложений
- ШАД Яндекса обучит ученых пользоваться ИИ. Школа анализа данных «Яндекса» запускает бесплатную двухгодичную программу, в рамках которой ученые из областей физики, химии, биологии, экологии, медицины и геологии научатся применять инструменты искусственного интеллекта в своих исследованиях
- NVIDIA представила 70-ваттные RTX PRO 4000 SFF и RTX PRO 2000. Два новых компактных GPU на архитектуре Blackwell обеспечивают высокую производительность в задачах ИИ и графики при энергопотреблении всего 70 Вт, что делает их подходящими для малогабаритных рабочих станций
- Новая нейросеть OpenAI отличилась на соревнованиях по программированию. Экспериментальная модель от OpenAI заняла первое место среди ИИ-участников международного конкурса по программированию, уступив в общем зачете лишь одному человеку. Она показала результат на уровне золотой медали олимпиады по информатике
- Контекстное окно Claude Sonnet 4 увеличено до 1 000 000 токенов. Компания Anthropic расширила максимум контекста модели Claude Sonnet 4 до 1 млн токенов (в 5 раз больше прежнего), что позволяет обрабатывать за один запрос целые кодовые базы или сотни страниц документов
- В Claude появился режим длительной памяти. Чат-бот Anthropic Claude теперь умеет по запросу пользователя искать и просматривать информацию из предыдущих бесед, чтобы учитывать контекст в новых ответах
- Google Gemini запоминает прошлые чаты (по желанию). Новый функционал в Google Gemini позволяет ассистенту автоматически учитывать детали предыдущих разговоров для персонализации ответов. Пользователи при этом могут отключить сохранение истории в настройках и использовать «временные чаты» для приватности
- Oracle интегрирует модели Google Gemini в своё облако. Oracle и Google Cloud заключили соглашение, по которому продвинутые модели ИИ Google Gemini станут доступны в облачной платформе Oracle. Клиенты Oracle смогут использовать возможности генеративного ИИ Gemini в бизнес-приложениях Oracle через интеграцию с сервисом Google Vertex AI
- Google выпустила Gemma 3 270M — компактную открытую AI-модель с 270 млн параметров.
- OpenAI вернула старые модели в ChatGPT: платные подписчики теперь могут выбирать модели o3, o4-mini, GPT-4o, GPT-4.1 и GPT-4.5. Эти legacy-версии доступны в настройках ChatGPT
- 84% разработчиков используют ИИ, но 46% ему не доверяют. По данным опроса Stack Overflow 2025 года, большинство программистов применяют или планируют применять инструменты ИИ, однако почти половина опрошенных не доверяет точности их ответов
- WhatsApp тестирует генерацию стикеров по описанию. В бета-версии мессенджера появилась функция создания стикеров с помощью ИИ на основе текстовых подсказок пользователя
- Anthropic добавила режим “ИИ-репетитор” в Claude. Теперь чат-бот Claude может обучать пользователей: в среде Claude Code он выступает наставником по программированию, а в основном приложении способен объяснять материалы по другим дисциплинам через пошаговые подсказки
- ChatGPT получил интеграции с популярными сервисами. OpenAI внедрила “коннекторы”, позволяющие связать ChatGPT с Gmail, Dropbox, Microsoft Teams и GitHub – благодаря этому чат-бот может напрямую использовать данные из этих приложений
- ШАД Яндекса обучит ученых пользоваться ИИ. Школа анализа данных «Яндекса» запускает бесплатную двухгодичную программу, в рамках которой ученые из областей физики, химии, биологии, экологии, медицины и геологии научатся применять инструменты искусственного интеллекта в своих исследованиях
- NVIDIA представила 70-ваттные RTX PRO 4000 SFF и RTX PRO 2000. Два новых компактных GPU на архитектуре Blackwell обеспечивают высокую производительность в задачах ИИ и графики при энергопотреблении всего 70 Вт, что делает их подходящими для малогабаритных рабочих станций
- Новая нейросеть OpenAI отличилась на соревнованиях по программированию. Экспериментальная модель от OpenAI заняла первое место среди ИИ-участников международного конкурса по программированию, уступив в общем зачете лишь одному человеку. Она показала результат на уровне золотой медали олимпиады по информатике
- Контекстное окно Claude Sonnet 4 увеличено до 1 000 000 токенов. Компания Anthropic расширила максимум контекста модели Claude Sonnet 4 до 1 млн токенов (в 5 раз больше прежнего), что позволяет обрабатывать за один запрос целые кодовые базы или сотни страниц документов
- В Claude появился режим длительной памяти. Чат-бот Anthropic Claude теперь умеет по запросу пользователя искать и просматривать информацию из предыдущих бесед, чтобы учитывать контекст в новых ответах
- Google Gemini запоминает прошлые чаты (по желанию). Новый функционал в Google Gemini позволяет ассистенту автоматически учитывать детали предыдущих разговоров для персонализации ответов. Пользователи при этом могут отключить сохранение истории в настройках и использовать «временные чаты» для приватности
- Oracle интегрирует модели Google Gemini в своё облако. Oracle и Google Cloud заключили соглашение, по которому продвинутые модели ИИ Google Gemini станут доступны в облачной платформе Oracle. Клиенты Oracle смогут использовать возможности генеративного ИИ Gemini в бизнес-приложениях Oracle через интеграцию с сервисом Google Vertex AI
🔥4❤3🙏1😭1