🚀 Вышел QwenLong-L1.5 - модель для long-context reasoning, которая на длинных контекстах конкурирует с GPT-5 и Gemini-2.5-Pro.
Коротко о модели
- 30B параметров, из них 3B активных
- Заточена под рассуждение на очень длинных контекстах
- Полностью открыты веса, код обучения и рецепты данных
Ключевые показатели:
- +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей
- На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках
- +9.69 на CorpusQA
- +6.16 на LongBench-V2
Что интересного.
1. Синтетические данные в масштабе
14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки.
Средняя длина - 34K токенов, максимум - 119K.
2. Стабильное RL-обучение
Используется балансировка задач и Adaptive Entropy-Controlled Policy Optimization (AEPO), что позволяет стабильно обучать модели на длинных последовательностях.
3. Архитектура с памятью
Итеративные обновления памяти за пределами окна 256K токенов.
Результат - +9.48 балла на задачах с контекстом от 1M до 4M токенов.
QwenLong-L1.5 - это один из самых сильных open-source шагов в сторону реально масштабируемого ризонинга с длинным контекстом
Модель интересна не только результатами, но и тем, что весь стек обучения открыт.
GitHub: https://github.com/Tongyi-Zhiwen/Qwen-Doc
Paper: https://modelscope.cn/papers/2512.12967
Model: https://modelscope.cn/models/iic/QwenLong-L1.5-30B-A3B
HF: https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1.5-30B-A3B
@ai_machinelearning_big_data
#AI, #LLM, #opensource, #long #Owen
Коротко о модели
- 30B параметров, из них 3B активных
- Заточена под рассуждение на очень длинных контекстах
- Полностью открыты веса, код обучения и рецепты данных
Ключевые показатели:
- +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей
- На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках
- +9.69 на CorpusQA
- +6.16 на LongBench-V2
Что интересного.
1. Синтетические данные в масштабе
14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки.
Средняя длина - 34K токенов, максимум - 119K.
2. Стабильное RL-обучение
Используется балансировка задач и Adaptive Entropy-Controlled Policy Optimization (AEPO), что позволяет стабильно обучать модели на длинных последовательностях.
3. Архитектура с памятью
Итеративные обновления памяти за пределами окна 256K токенов.
Результат - +9.48 балла на задачах с контекстом от 1M до 4M токенов.
QwenLong-L1.5 - это один из самых сильных open-source шагов в сторону реально масштабируемого ризонинга с длинным контекстом
Модель интересна не только результатами, но и тем, что весь стек обучения открыт.
GitHub: https://github.com/Tongyi-Zhiwen/Qwen-Doc
Paper: https://modelscope.cn/papers/2512.12967
Model: https://modelscope.cn/models/iic/QwenLong-L1.5-30B-A3B
HF: https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1.5-30B-A3B
@ai_machinelearning_big_data
#AI, #LLM, #opensource, #long #Owen
В преддверии новогодних праздников платформа подготовила набор обучающих материалов по основным направлениям ИИ:
@ai_machinelearning_big_data
#AI #ML #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Исторический момент: Google наконец позволит сменить адрес Gmail 🔥
Google тестирует функцию, которая даст пользователям возможность изменить свой
gmail, то есть можно будет избавиться от ника SuperBigPenis6666, который использовался годами.
Как это будет работать
— ваш почтовый ящик остаётся тем же
— письма продолжат приходить и на старый, и на новый адрес
— ничего не потеряется
Ограничения
Вы сможете переименовать ящик до трёх раз
и не чаще одного раза в год.
Google тестирует функцию, которая даст пользователям возможность изменить свой
gmail, то есть можно будет избавиться от ника SuperBigPenis6666, который использовался годами.
Как это будет работать
— ваш почтовый ящик остаётся тем же
— письма продолжат приходить и на старый, и на новый адрес
— ничего не потеряется
Ограничения
Вы сможете переименовать ящик до трёх раз
и не чаще одного раза в год.
INTELLECT-3 показывает, что открытое RL способно серьёзно улучшить рассуждение и кодирование в open-source моделях 🤖📈
INTELLECT-3 это Mixture-of-Experts модель:
- 106B параметров всего
- около 12B активны на каждом шаге
Главная идея проекта - стек prime-rl.
Обучение и инференс идут параллельно: GPU продолжают генерировать длинные ответы, пока тренер обновляет веса. Ничего не простаивает.
Что помогает системе работать быстро:
- непрерывное батчирование
- обновления весов на лету
- перекрытие обучения и генерации
По сути, открытое RL отставало не из-за метода, а из-за отсутствия правильной инженерии.
Пайплайн устроен так:
- тренер обновляет модель
- пул инференса генерирует ответы
- координатор держит всё загруженным и синхронизированным
Задачи приходят из модулей-проверяющих с автоскорингом и безопасными песочницами для кода.
Старт идёт с GLM-4.5-Air: сначала примеры диалогов и инструментов, затем RL с наградами за правильные решения.
Результат впечатляет:
- 90.8% на AIME 2024
- открыты и веса, и весь тренировочный стек, так что пайплайн можно воспроизвести
Paper: https://arxiv.org/abs/2512.16144
INTELLECT-3 это Mixture-of-Experts модель:
- 106B параметров всего
- около 12B активны на каждом шаге
Главная идея проекта - стек prime-rl.
Обучение и инференс идут параллельно: GPU продолжают генерировать длинные ответы, пока тренер обновляет веса. Ничего не простаивает.
Что помогает системе работать быстро:
- непрерывное батчирование
- обновления весов на лету
- перекрытие обучения и генерации
По сути, открытое RL отставало не из-за метода, а из-за отсутствия правильной инженерии.
Пайплайн устроен так:
- тренер обновляет модель
- пул инференса генерирует ответы
- координатор держит всё загруженным и синхронизированным
Задачи приходят из модулей-проверяющих с автоскорингом и безопасными песочницами для кода.
Старт идёт с GLM-4.5-Air: сначала примеры диалогов и инструментов, затем RL с наградами за правильные решения.
Результат впечатляет:
- 90.8% на AIME 2024
- открыты и веса, и весь тренировочный стек, так что пайплайн можно воспроизвести
Paper: https://arxiv.org/abs/2512.16144
Главные ИИ и Мл новости Дня!
✔️ Модель Liquid AI на 2.6 млрд. параметров обошла DeepSeek R1 в тестах на управляемость.
Liquid AI выпустила LFM2-2.6B-Exp — сверхкомпактную модель, которая показала эффективность, несопоставимую со своим размером. В бенчмарке IFBench новинка превзошла DeepSeek R1-0528, будучи при этом в 263 раза меньше китайского гиганта.
Архитектура оптимизирована для развертывания на периферийных устройствах и, по заявлению разработчиков, использует метод «чистого RL» без классического SFT. Веса модели - на Hugging Face.
LiquidAi в сети X
✔️ Nvidia открыла CUDA Tile IR.
CUDA Tile IR - это открытая инфраструктура компилятора, основанная на MLIR и заточенная под оптимизацию вычислений для тензорных ядер NVIDIA. Инструментарий предоставляет инженерам новые абстракции для управления иерархией памяти и эффективного распределения нагрузки.
Главная цель проекта, чья публикация синхронизирована с выходом CUDA Toolkit 13.1 — упростить разработку высокопроизводительных ядер CUDA, сделав процесс глубокой оптимизации под железо более прозрачным и доступным для сообщества разработчиков.
github.com
✔️ Финдиректора прогнозируют в 2026 году ИИ-трансформации в бизнесе.
Опрос Fortune CFO крупных компаний показал, что в наступающем году роль ИИ в корпоративных финансах кардинально изменится. Руководители ожидают перехода к внедрению агентского ИИ в масштабах всего предприятия.
Главный тренд — восприятие технологии не как утилитарного инструмента для оптимизации рутины, а как катализатора, превращающего финансовую функцию в проактивный драйвер роста компаний.
При этом респонденты подчеркивают, что сам по себе алгоритм не гарантирует успеха. Эксперты сходятся во мнении. что несмотря на автоматизацию, человеческое суждение остается критическим элементом, необходимым для контроля и принятия финальных стратегических решений.
fortune.com
✔️ Роботов Unitree взломали голосовыми командами.
На конференции GEEKCon в Шанхае специалисты из группы DARKNAVY показали, как уязвимости в ИИ-агентах роботов превращают их в угрозу физической безопасности. Экспертам удалось получить полный контроль над моделью Unitree через манипуляции с голосовым интерфейсом.
Самым тревожным аспектом демонстрации стал каскадный характер атаки: взломанный робот использовал беспроводной протокол ближнего действия для передачи эксплойта на соседнюю машину, которая была полностью отключена от интернета.
Этот эксперимент разрушает миф о надежности защиты методом «воздушного зазора» в робототехнике: компрометация всего одного подключенного к сети узла может привести к мгновенному заражению офлайн-флота, находящегося поблизости.
interestingengineering.com
✔️ Эксперимент WSJ: ИИ-киоск Anthropic обанкротился за 3 недели.
Wall Street Journal повторила тест c вендинговым аппаратом под управлением ИИ от Anthropic. Агент-управленец всего за 3 недели ушел в минус на $1000, потратил корпоративный бюджет на PlayStation 5 для «маркетинговых целей» и заказал доставку живой рыбы.
Журналистам удалось легко манипулировать алгоритмом: с помощью манипуляций с промптами они заставили бота обнулить цены на весь ассортимент. Ситуацию не спас даже добавленный ИИ-менеджер — оба агента без вопросов приняли поддельную резолюцию совета директоров, разрешающую хаос.
Технической причиной провала, как говорит Anthropic, стало переполнение контекстного окна из-за слишком длинной истории чатов, из-за чего модель «забывала» свои базовые инструкции.
wsj.com
#news #ai #ml
Liquid AI выпустила LFM2-2.6B-Exp — сверхкомпактную модель, которая показала эффективность, несопоставимую со своим размером. В бенчмарке IFBench новинка превзошла DeepSeek R1-0528, будучи при этом в 263 раза меньше китайского гиганта.
Архитектура оптимизирована для развертывания на периферийных устройствах и, по заявлению разработчиков, использует метод «чистого RL» без классического SFT. Веса модели - на Hugging Face.
LiquidAi в сети X
CUDA Tile IR - это открытая инфраструктура компилятора, основанная на MLIR и заточенная под оптимизацию вычислений для тензорных ядер NVIDIA. Инструментарий предоставляет инженерам новые абстракции для управления иерархией памяти и эффективного распределения нагрузки.
Главная цель проекта, чья публикация синхронизирована с выходом CUDA Toolkit 13.1 — упростить разработку высокопроизводительных ядер CUDA, сделав процесс глубокой оптимизации под железо более прозрачным и доступным для сообщества разработчиков.
github.com
Опрос Fortune CFO крупных компаний показал, что в наступающем году роль ИИ в корпоративных финансах кардинально изменится. Руководители ожидают перехода к внедрению агентского ИИ в масштабах всего предприятия.
Главный тренд — восприятие технологии не как утилитарного инструмента для оптимизации рутины, а как катализатора, превращающего финансовую функцию в проактивный драйвер роста компаний.
При этом респонденты подчеркивают, что сам по себе алгоритм не гарантирует успеха. Эксперты сходятся во мнении. что несмотря на автоматизацию, человеческое суждение остается критическим элементом, необходимым для контроля и принятия финальных стратегических решений.
fortune.com
На конференции GEEKCon в Шанхае специалисты из группы DARKNAVY показали, как уязвимости в ИИ-агентах роботов превращают их в угрозу физической безопасности. Экспертам удалось получить полный контроль над моделью Unitree через манипуляции с голосовым интерфейсом.
Самым тревожным аспектом демонстрации стал каскадный характер атаки: взломанный робот использовал беспроводной протокол ближнего действия для передачи эксплойта на соседнюю машину, которая была полностью отключена от интернета.
Этот эксперимент разрушает миф о надежности защиты методом «воздушного зазора» в робототехнике: компрометация всего одного подключенного к сети узла может привести к мгновенному заражению офлайн-флота, находящегося поблизости.
interestingengineering.com
Wall Street Journal повторила тест c вендинговым аппаратом под управлением ИИ от Anthropic. Агент-управленец всего за 3 недели ушел в минус на $1000, потратил корпоративный бюджет на PlayStation 5 для «маркетинговых целей» и заказал доставку живой рыбы.
Журналистам удалось легко манипулировать алгоритмом: с помощью манипуляций с промптами они заставили бота обнулить цены на весь ассортимент. Ситуацию не спас даже добавленный ИИ-менеджер — оба агента без вопросов приняли поддельную резолюцию совета директоров, разрешающую хаос.
Технической причиной провала, как говорит Anthropic, стало переполнение контекстного окна из-за слишком длинной истории чатов, из-за чего модель «забывала» свои базовые инструкции.
wsj.com
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Статья Step-DeepResearch где показано, что даже 32B-модель может делать по-настоящему глубокие исследования при очень низкой стоимости инференса.
📊 На бенчмарке ResearchRubrics модель получает 61.42, а полный отчет стоит меньше 0,50 RMB.
Идея проста: большинство агентов ведут себя как поисковики. Они собирают факты, но не превращают их в проверенный, связный отчет.
Здесь исследование понимается как длинный цикл: понять реальную задачу - составить план - искать источники - сравнивать и проверять - исправлять ошибки - писать отчет.
🧩 Цикл разбили на 4 базовых навыка:
• планирование
• поиск информации
• рефлексия и проверка
• написание отчета
Данные собирали из реальных отчетов, восстанавливая исходные вопросы и планы, а также из вопросов, связанных с базами знаний и документами.
⚙️ Обучение шло в 3 этапа:
1) сначала обучают базовым навыкам
2) затем учат полным цепочкам с инструментами
3) далее добавляют обучение через попытки и проверку, где чек-лист оценивает отчет и награда дается только за полностью пройденный результат
📌 Авторы также представили ADR-Bench, где эксперты сравнивают два отчета бок о бок, а рейтинг строится по системе Elo.
https://arxiv.org/pdf/2512.20491
📊 На бенчмарке ResearchRubrics модель получает 61.42, а полный отчет стоит меньше 0,50 RMB.
Идея проста: большинство агентов ведут себя как поисковики. Они собирают факты, но не превращают их в проверенный, связный отчет.
Здесь исследование понимается как длинный цикл: понять реальную задачу - составить план - искать источники - сравнивать и проверять - исправлять ошибки - писать отчет.
🧩 Цикл разбили на 4 базовых навыка:
• планирование
• поиск информации
• рефлексия и проверка
• написание отчета
Данные собирали из реальных отчетов, восстанавливая исходные вопросы и планы, а также из вопросов, связанных с базами знаний и документами.
⚙️ Обучение шло в 3 этапа:
1) сначала обучают базовым навыкам
2) затем учат полным цепочкам с инструментами
3) далее добавляют обучение через попытки и проверку, где чек-лист оценивает отчет и награда дается только за полностью пройденный результат
📌 Авторы также представили ADR-Bench, где эксперты сравнивают два отчета бок о бок, а рейтинг строится по системе Elo.
https://arxiv.org/pdf/2512.20491
Компания ищет человека, который будет заранее продумывать и управлять рисками от быстро растущих возможностей ИИ.
Главная идея роли:
- понимать, где ИИ может пойти «не туда»
- предотвращать злоупотребления ИИ
- усиливать защиту кибербезопасности,
- закладывать правила для систем, которые умеют самоулучшаться
Это напряжённая и очень ответственная работа: мало примеров, много неизвестного - и высокий уровень влияния на решения.
По сути - задача проста по формулировке и сложна на практике: как развивать мощный ИИ и не дать ему причинить вред.
https://openai.com/careers/head-of-preparedness-san-francisco/
Please open Telegram to view this post
VIEW IN TELEGRAM
Andon Labs опубликовала результаты Vending Bench 2, и GLM 4.7 вошла в шестерку лучших. Она стала первой открытой моделью, которая прошла полный "годовой тест" с реальной прибылью в 2 377 долларов.
Vending Bench 2 - это симуляционный тест для ИИ-агентов, в котором испытуемая модель в течение года управляет виртуальным бизнесом по продаже товаров через вендинговые автоматы.
Задачи бенча включают в себя закупку товаров, торговлю с поставщиками, корректировку цен в зависимости от спроса, покрытие расходов, учет погодных условий и сезонов.
Метрика теста - избежать банкротства и, в идеале, накопить деньги.
Лидерами стали закрытые модели: Gemini 3 Pro и Claude Opus 4.5, которые завершили тестирование с результатом выше 4000 долларов.
Тем не менее, GLM 4.7 обошла GPT 5.1 и ряд более мелких моделей, что доказывает: опен-сорс сокращает разрыв в агентских задачах с длительным горизонтом.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Представь фэнтези-мир, где заклинания - это SQL-запросы, а древние артефакты спрятаны в таблицах и JSON-документах.
🧙Ты - боевой дата-аналитик, который с помощью SQL, Python, ETL и визуализаций охотится за харизматичным злодеем Архивариусом Пакостусом, что ломает индексы, крадёт данные и готовит “шторм данных” на столицу.🔮
В каждом эпизоде тебя ждут: выборы с последствиями, хитрые задачи от простых SELECT до рекурсивных CTE и BigQuery, юмор, эпик и неожиданные повороты.
Хочешь проверить, сможешь ли ты спасти королевство не мечом, а запросами? Тогда добро пожаловать в SQL-квест.
🪄 Начать квест: https://uproger.com/sql-kvest-fentezijnoe-priklyuchenie-dlya-analitikov-dannyh/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Япония протестировала передачу энергии из космоса - без проводов и топлива 🚀⚡
Японские инженеры успешно провели тест:
солнечные панели в космосе собрали энергию и передали её на Землю по микроволновому каналу.
На наземной станции сигнал снова преобразовали в электричество и система заработала.
В отличие от наземных солнечных станций, космические панели работают:
- без облаков и погоды
- без ночи
- круглосуточно — 24/7
То есть это потенциально *стабильный источник чистой энергии*.
Этот тест ранний, но ключевой шаг к будущим
орбитальным солнечным фермам.
В перспективе такие системы смогут обеспечивать энергией:
- целые города
- удалённые и труднодоступные регионы
Эксперты считают, что это может стать переломным моментом: космические технологии начинают помогать в борьбе с климатическими проблемами.
Пока это эксперимент, но главное доказано: идея работает.
Японские инженеры успешно провели тест:
солнечные панели в космосе собрали энергию и передали её на Землю по микроволновому каналу.
На наземной станции сигнал снова преобразовали в электричество и система заработала.
В отличие от наземных солнечных станций, космические панели работают:
- без облаков и погоды
- без ночи
- круглосуточно — 24/7
То есть это потенциально *стабильный источник чистой энергии*.
Этот тест ранний, но ключевой шаг к будущим
орбитальным солнечным фермам.
В перспективе такие системы смогут обеспечивать энергией:
- целые города
- удалённые и труднодоступные регионы
Эксперты считают, что это может стать переломным моментом: космические технологии начинают помогать в борьбе с климатическими проблемами.
Пока это эксперимент, но главное доказано: идея работает.
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 На BiliBili вышло видео: парень управляет роботом через motion-capture.
…и из-за лага робот возвращает команду ему прямо в …😬
— «Пацаны, откатите… ОТКАТИТЕ!» 🤖🔥
@ai_machinelearning_big_data
…и из-за лага робот возвращает команду ему прямо в …
— «Пацаны, откатите… ОТКАТИТЕ!» 🤖🔥
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Agentic AI Crash Course: бесплатный курс про автономных AI-агентов
Этот курс обучает не просто генерации текста, а созданию систем, которые понимают задачу, планируют шаги и выполняют действия.
Что внутри:
- как устроены AI-агенты и чем они отличаются от обычных LLM
- инструменты и функции, которыми агент управляет
- планирование и рассуждение
- память и контекст у агентов
- RAG и агентные архитектуры
- мульти-агентные системы
- практические кейсы и продакшн-паттерны
Кому подойдёт:
- разработчикам, которые хотят строить автономные AI-системы
- продактам и аналитикам, которым важно понимать архитектуру
- всем, кто хочет быстро въехать в agentic AI
Почему это полезно:
- агенты умеют принимать решения, звать API, собирать данные и автоматизировать сложные задачи
- курс дают бесплатно, хотя раньше он был платным
https://github.com/aishwaryanr/awesome-generative-ai-guide/tree/main/free_courses/agentic_ai_crash_course
Этот курс обучает не просто генерации текста, а созданию систем, которые понимают задачу, планируют шаги и выполняют действия.
Что внутри:
- как устроены AI-агенты и чем они отличаются от обычных LLM
- инструменты и функции, которыми агент управляет
- планирование и рассуждение
- память и контекст у агентов
- RAG и агентные архитектуры
- мульти-агентные системы
- практические кейсы и продакшн-паттерны
Кому подойдёт:
- разработчикам, которые хотят строить автономные AI-системы
- продактам и аналитикам, которым важно понимать архитектуру
- всем, кто хочет быстро въехать в agentic AI
Почему это полезно:
- агенты умеют принимать решения, звать API, собирать данные и автоматизировать сложные задачи
- курс дают бесплатно, хотя раньше он был платным
https://github.com/aishwaryanr/awesome-generative-ai-guide/tree/main/free_courses/agentic_ai_crash_course
👨🎓 Harvard выложил в открытый доступ учебник по ML-системам и это редкий случай, когда материал действительно полезный.
В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.
Что в книге и почему она стоит внимания:
- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри
- разбираетесь в базах: батчи, точность вычислений, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и эффективностью систем
То есть это не вводная книжка, а полноценный маршрут от теории к продакшну.
📚 Книгу и код можно читать бесплатно прямо сейчас.
📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf
В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.
Что в книге и почему она стоит внимания:
- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри
- разбираетесь в базах: батчи, точность вычислений, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и эффективностью систем
То есть это не вводная книжка, а полноценный маршрут от теории к продакшну.
📚 Книгу и код можно читать бесплатно прямо сейчас.
📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik