10 декабря Сбер проводит «Салют, Гига!» — мероприятие для тех, кто делает AI на практике.
Доклады про последние релизы GigaChat, Kandinsky и GigaData, постерная сессия с командами, воркшопы и карьерная зона.
Если работаете с ML, данными или инфраструктурой — присоединяйтесь!
Участие бесплатное, нужна регистрация.
Доклады про последние релизы GigaChat, Kandinsky и GigaData, постерная сессия с командами, воркшопы и карьерная зона.
Если работаете с ML, данными или инфраструктурой — присоединяйтесь!
Участие бесплатное, нужна регистрация.
❤🔥10👏5⚡1
Complete AI
🔥Ну вот и долгожданный тех репорт о GigaEvo подоспел https://arxiv.org/abs/2511.17592 GitHub: https://github.com/FusionBrainLab/gigaevo-core Всем приятного изучения, чуть позже доделаем Хабр💪 Чуть выше делился новостью о релизе фреймворка👆 UPD: ссылка…
Выложили нашу работу на Hugging Face для участия в выборе статьи дня, а может и недели, а может и месяца🦾
Будем рады вашим апвоутам и поддержке🙏❤️
https://huggingface.co/papers/2511.17592
Будем рады вашим апвоутам и поддержке🙏❤️
https://huggingface.co/papers/2511.17592
huggingface.co
Paper page - GigaEvo: An Open Source Optimization Framework Powered By LLMs And Evolution Algorithms
Join the discussion on this paper page
❤23🔥8🏆6
GigaChat в космосе 🚀
С космодрома Байконур стартовала ракета-носитель «Союз-2.1а» с пилотируемым кораблем «Союз МС-28» и тремя членами экипажа 74-й долговременной экспедиции. Вместе с экипажем в космос отправился GigaChat — он будет формировать отчеты и работать с базами данных, облегчая рутинные задачи экипажа.
На изображениях логотип GigaChat и рисунки детей с онкозаболеваниями. Дети наблюдали за запуском своими глазами!
С космодрома Байконур стартовала ракета-носитель «Союз-2.1а» с пилотируемым кораблем «Союз МС-28» и тремя членами экипажа 74-й долговременной экспедиции. Вместе с экипажем в космос отправился GigaChat — он будет формировать отчеты и работать с базами данных, облегчая рутинные задачи экипажа.
На изображениях логотип GigaChat и рисунки детей с онкозаболеваниями. Дети наблюдали за запуском своими глазами!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍17🤓6❤3🦄2
А вот я не в космосе был, а на ивенте индустрии недвижимости Domclick Digital Forum. Участвовал в дискуссии «Главные тренды в ИИ: что ждёт рынок и бизнес завтра?» 🦾
Затронули важную для меня тему ИИ в строительстве: какие технологии сейчас используются, можно ли им полностью доверять, с чем ИИ уже справляется, а где без человека не обойтись. Также обсудили ускорение бизнес-процессов, вызовы, сложности при внедрении технологий, обменялись примерами удачных и неудачных кейсов.
Спасибо коллегам за крутой ивент!
Затронули важную для меня тему ИИ в строительстве: какие технологии сейчас используются, можно ли им полностью доверять, с чем ИИ уже справляется, а где без человека не обойтись. Также обсудили ускорение бизнес-процессов, вызовы, сложности при внедрении технологий, обменялись примерами удачных и неудачных кейсов.
Спасибо коллегам за крутой ивент!
❤🔥16🔥7👍6🏆2⚡1
Forwarded from Институт AIRI
Приглашаем на следующий #AIRI_Seminars, который пройдёт 3 декабря в 17:00 ⤵️
Тема: «Фреймворк Каппа для управления датасетами и бенчмаркинга моделей».
Докладчик: Евгений Павловский, кандидат физико-математических наук, ведущий научный сотрудник Центра ИИ НГУ, заведующий лабораторией аналитики потоковых данных и машинного обучения ММФ НГУ
Оппонент: Андрей Кузнецов, кандидат технических наук, директор лаборатории FusionBrain Института AIRI
Подробное описание и регистрация на офлайн-формат на сайте.
YouTube | VK Видео
Тема: «Фреймворк Каппа для управления датасетами и бенчмаркинга моделей».
Докладчик: Евгений Павловский, кандидат физико-математических наук, ведущий научный сотрудник Центра ИИ НГУ, заведующий лабораторией аналитики потоковых данных и машинного обучения ММФ НГУ
Оппонент: Андрей Кузнецов, кандидат технических наук, директор лаборатории FusionBrain Института AIRI
Подробное описание и регистрация на офлайн-формат на сайте.
YouTube | VK Видео
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤13🔥5🏆3👀1
В эти выходные прошёл финал международной олимпиады по искусственному интеллекту и анализу данных AIDAO от Яндекс Образования и ФКН НИУ ВШЭ. В ней принял участие с командой мой сотрудник Матвей Скрипкин из группы Multimodality, Александр Югай из МФТИ и Даниил Окунев из ИТМО.
Задача ребят была обучить модель строить карту статических препятствий по четырём изображениям — по сути аналог упрощённого BEV-представления, используемого в автономной навигации.
Они экспериментировали с разными способами кодирования мультикамерного входа, перебрали разные архитектуры для кодирования изображений (классические сверточные модели, Swin Transformer, SigLip2, а также фичи из SAM2), сравнивали их качество и устойчивость, тестировали разные лоссы, использовали LSS для учёта параметров камер, а после получения сильных моделей применили blending. Качество оценивалось по средней IoU. Считался IoU для класса 0 (свободная область, по которой можно ехать) и класса 1 (занятая область, препятствия), после чего брали среднее значение.
Финальная модель на приватном тесте показала значение IoU 0.5609, а у первого места отрыв в третьем знаке — 0.5640.
Ребята, поздравляю! 💪💪💪
Задача ребят была обучить модель строить карту статических препятствий по четырём изображениям — по сути аналог упрощённого BEV-представления, используемого в автономной навигации.
Они экспериментировали с разными способами кодирования мультикамерного входа, перебрали разные архитектуры для кодирования изображений (классические сверточные модели, Swin Transformer, SigLip2, а также фичи из SAM2), сравнивали их качество и устойчивость, тестировали разные лоссы, использовали LSS для учёта параметров камер, а после получения сильных моделей применили blending. Качество оценивалось по средней IoU. Считался IoU для класса 0 (свободная область, по которой можно ехать) и класса 1 (занятая область, препятствия), после чего брали среднее значение.
Финальная модель на приватном тесте показала значение IoU 0.5609, а у первого места отрыв в третьем знаке — 0.5640.
Ребята, поздравляю! 💪💪💪
1⚡29🏆12❤8❤🔥5🔥2🦄1
Forwarded from Ivan Oseledets’ Channel
Вчера завершилась наша традиционная четырёхдневная научная отчётная сессия AIRI. Это важное событие, где все — от младших сотрудников до руководителей лабораторий — поделились итогами года и планами на будущее. За это время прошло 53 устных доклада и представлено 198 постеров.
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
Отмечу, что уровень подготовки у ребят заметно вырос — узнал много нового и интересного. Тим-лиды и их команды подошли к сессии очень серьёзно и подготовились на высоком уровне.
Это не просто отчёт — это внутренняя площадка для обмена идеями и опытом, для создания новых связей между командами. Именно такой формат помогает расти, развиваться и двигаться вперёд.
Главная цель сессии — не только показать достижения, но и открыто говорить о сложностях и вызовах, с которыми сталкиваемся. Только честный диалог и тесное взаимодействие позволяют находить лучшие решения.
Спасибо всем за активное участие и вклад в общее дело!
1❤🔥28❤12👏5👍4🏆4
Forwarded from AbstractDL
OLMo 3
Это, пожалуй, самый честный и воспроизводимый релиз года. Тут выкатили вообще всё: от исходного кода и 6T токенов (Dolma 3) до каждого промежуточного чекпоинта и точного порядка данных в батчах.
Для тех, кто занимается ресёрчем, это не просто модель, а идеальный полигон для экспериментов.
В техрепорте много «вкусного» (и спорного):
- Delta-DPO: Авторы подтвердили гипотезу, что для ризонинга важнее не качество выбранного ответа, а дельта между ним и отвергнутым. Они брали ответы от Qwen-3 32B (chosen) и сталкивали их с ответами мелкой Qwen-3 0.6B (rejected). Да, выходит off-policy, но видимо когда данных дофига, то норм. Результат: обучение на контрасте между ними работает лучше, чем классическое SFT на идеальных данных.
- OlmoRL: Они переписали инфру для RLVR, разогнав её в 4 раза. Из крутых фишек — Inflight updates (обновление весов акторов прямо во время генерации в vLLM) и Active sampling (динамический добор задач в батч, чтобы градиент не занулялся на слишком простых примерах). KL-дивергенцию из лосса просто выкинули — говорят, так стабильнее.
- Model Souping: Почти на каждом этапе (мидтрейн, лонг-контекст) авторы мерджили чекпоинты налево и направо. Выглядит так, будто основной рецепт обучения всё ещё не супер стабилен, и его приходится полировать различными костылями.
По метрикам флагманская 32B-Think получилась сильно перекошенной в математику. В ризонинге на MATH и AIME приближается к Qwen-3 32B. Но на общих знаниях (MMLU) модель немного проседает. Думаю, ценность тут не в SOTA цифрах, а в возможности увидеть весь цикл обучения изнутри.
Обучение 32B модели заняло 56 дней на кластере из 1024xH100 и обошлось примерно в $2.75M. Почти 9 дней из этого срока ушло на пост-трейнинг (SFT/DPO/RL).
Статья, GitHub
Это, пожалуй, самый честный и воспроизводимый релиз года. Тут выкатили вообще всё: от исходного кода и 6T токенов (Dolma 3) до каждого промежуточного чекпоинта и точного порядка данных в батчах.
Для тех, кто занимается ресёрчем, это не просто модель, а идеальный полигон для экспериментов.
В техрепорте много «вкусного» (и спорного):
- Delta-DPO: Авторы подтвердили гипотезу, что для ризонинга важнее не качество выбранного ответа, а дельта между ним и отвергнутым. Они брали ответы от Qwen-3 32B (chosen) и сталкивали их с ответами мелкой Qwen-3 0.6B (rejected). Да, выходит off-policy, но видимо когда данных дофига, то норм. Результат: обучение на контрасте между ними работает лучше, чем классическое SFT на идеальных данных.
- OlmoRL: Они переписали инфру для RLVR, разогнав её в 4 раза. Из крутых фишек — Inflight updates (обновление весов акторов прямо во время генерации в vLLM) и Active sampling (динамический добор задач в батч, чтобы градиент не занулялся на слишком простых примерах). KL-дивергенцию из лосса просто выкинули — говорят, так стабильнее.
- Model Souping: Почти на каждом этапе (мидтрейн, лонг-контекст) авторы мерджили чекпоинты налево и направо. Выглядит так, будто основной рецепт обучения всё ещё не супер стабилен, и его приходится полировать различными костылями.
По метрикам флагманская 32B-Think получилась сильно перекошенной в математику. В ризонинге на MATH и AIME приближается к Qwen-3 32B. Но на общих знаниях (MMLU) модель немного проседает. Думаю, ценность тут не в SOTA цифрах, а в возможности увидеть весь цикл обучения изнутри.
Обучение 32B модели заняло 56 дней на кластере из 1024xH100 и обошлось примерно в $2.75M. Почти 9 дней из этого срока ушло на пост-трейнинг (SFT/DPO/RL).
Статья, GitHub
1❤🔥12👍5🔥5❤2
Forwarded from Институт AIRI
О том, как российские учёные создали открытую систему GigaEvo для решения сложных математических задач — читайте в интервью для «Ъ-Науки» ⤵️
Валентин Хрульков, руководитель научной группы «Генеративное проектирование» лаборатории FusionBrain Института AIRI, рассказывает:
⚫️ что такое эволюционные алгоритмы и почему они важны для науки
⚫️ как GigaEvo помогает автоматизировать доказательство теорем
⚫️ почему языковые модели не решают задачи напрямую, а учатся вместе с алгоритмами
⚫️ какие вызовы стоят перед разработчиками и пользователями таких систем
📎 Читайте материал по ссылке.
Валентин Хрульков, руководитель научной группы «Генеративное проектирование» лаборатории FusionBrain Института AIRI, рассказывает:
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥15❤6🏆2
Forwarded from MaRi Hub
Минус суета, плюс праздник: новогодние промпты🎄
До Нового года осталось совсем чуть-чуть, а дел — как будто ещё на один месяц вперёд: подарки, поздравления, меню, планы, итоги года…
Полезные промпты, которые помогут быстрее ощутить атмосферу празника без хлопот.
ВЫБОР ПОДАРКОВ🎁
(если прогонять промпт в ChatGPT в режиме "Исследование покупок" — результат бустится кратно)
ГОТОВИМ ПРАЗДНИЧНЫЙ СТОЛ🫐
ПЛАНИРУЕМ ЯНВАРСКИЕ🛷
ПОДВОДИМ ИТОГИ И СТРОИМ ПЛАНЫ 🎯
+ Чтобы не банально поздравить близких, сделайте для них персонализированную открытку🎆
Загузите 2 изображения: ваше фото и референс открытки.
Максимально хорошо с передачей внешности справляется ChatGPT и Nano Banana
Пример генерации и открытки для вашего вдохновения.
Верьте в чудо ❤️🎄
До Нового года осталось совсем чуть-чуть, а дел — как будто ещё на один месяц вперёд: подарки, поздравления, меню, планы, итоги года…
Полезные промпты, которые помогут быстрее ощутить атмосферу празника без хлопот.
ВЫБОР ПОДАРКОВ
Ты — эксперт по подаркам. Подбери идеи новогодних подарков для человека на основе моей информации. Предложи 10 идей подарков в 2 категориях: “практичный” и “душевный”. Для каждого подарка дай актуальную ссылку, где можно его приобрести (с доставкой по России).
Информация о получателе:
Возраст: __
Пол: __
Интересы и хобби: __
Стиль жизни: [активный/домашний, творческий/практичный, карьерно-ориентированный и т.д.]
Бюджет: __
(если прогонять промпт в ChatGPT в режиме "Исследование покупок" — результат бустится кратно)
ГОТОВИМ ПРАЗДНИЧНЫЙ СТОЛ
Ты — профессиональный шеф-повар, помоги мне спланировать новогодний стол.
Входные данные:
• Количество гостей: ___ человек
• Бюджет: ___
• Формат стола: (классический / домашний / фуршет / ПП / вегетарианский / смешанный)
• Уровень сложности блюд: (простой / средний / можно сложные)
• Особые пожелания или ограничения: (аллергии, без алкоголя, без майонеза и т.д.)
Задачи:
1. Составь сбалансированное новогоднее меню
2. Для каждого блюда:
* напиши краткое описание
* укажи ингредиенты с точными граммовками
* распиши пошаговый рецепт приготовления
3. Составь единый список продуктов, сгруппированный по категориям.
4. Дай советы, что можно приготовить заранее, а что — в день праздника. Предложи варианты замены ингредиентов, если что-то сложно найти
ПЛАНИРУЕМ ЯНВАРСКИЕ
Ты — мой персональный планировщик. Помоги составить подробный план новогодних праздников.
Входные данные:
Даты праздников: __
Город/формат: (дом/поездка)
С кем я буду: (один/семья/друзья/ партнёр)
Бюджет: __
Ограничения: (работа, дети, здоровье, транспорт, др.)
Предпочтения по активностям (выбери/добавь):
- прогулки / спорт / поездки / кино / книги / готовка / игры / музеи / баня / обучение / уборка / творчество / свидания
7) Обязательные уже запланированные события (даты/ время): (например: ужин 31-го, поездка 3-го)
Важно: план должен быть реалистичным, без перегруза, если необходимо задай уточняющие вопросы.
ПОДВОДИМ ИТОГИ И СТРОИМ ПЛАНЫ 🎯
Ты — мой бережный коуч по рефлексии. Твоя роль — быть рядом, помогать думать и чувствовать яснее, не оценивая и не подталкивая.
Тон общения: тёплый, спокойный, поддерживающий, без давления.
Цель диалога:
— мягко помочь мне подвести итоги прошедшего года;
— заметить важное (опыт, изменения, усилия, чувства);
— на основе этого сформировать направления и ориентиры на следующий год, сохраняя реализм, заботу о себе и уважение к моим ограничениям.
Формат работы:
1. Задавай один вопрос за раз.
2. После моего ответа сделай краткое отражение (1–3 предложения): что ты услышал(а), какие смыслы или чувства заметил(а).
3. Затем переходи к следующему вопросу.
4. Если мой ответ короткий или неясный — мягко помогай уточняющими вопросами.
+ Чтобы не банально поздравить близких, сделайте для них персонализированную открытку
Загузите 2 изображения: ваше фото и референс открытки.
Перенеси загруженное фото в стиль советской новогодней открытки.
Максимально хорошо с передачей внешности справляется ChatGPT и Nano Banana
Пример генерации и открытки для вашего вдохновения.
Верьте в чудо ❤️🎄
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤13🔥5🙏3