Профессиональный гайд по работе с ChatGPT (2025)
Как использовать ChatGPT не просто как «умного собеседника», а как полноценного помощника для программирования, маркетинга, аналитики и обучения?
Мы разберём, какие версии модели существуют, какие плагины открывают новые возможности, как строить промпты так, чтобы получать точные и полезные ответы, и как интегрировать ChatGPT в рабочие процессы.
Если у вас нет доступа к chatgpt можете использовать бесплатногного бота в телеге: , чтобы потестить все техники из статьи или воспользоваться обычной версией с помощью всем известного обхода блокировки.
Не будем тянуть время, Поехали!
📌 Гайд
Как использовать ChatGPT не просто как «умного собеседника», а как полноценного помощника для программирования, маркетинга, аналитики и обучения?
Мы разберём, какие версии модели существуют, какие плагины открывают новые возможности, как строить промпты так, чтобы получать точные и полезные ответы, и как интегрировать ChatGPT в рабочие процессы.
Если у вас нет доступа к chatgpt можете использовать бесплатногного бота в телеге: , чтобы потестить все техники из статьи или воспользоваться обычной версией с помощью всем известного обхода блокировки.
Не будем тянуть время, Поехали!
📌 Гайд
👎3
Black-box Optimization of LLM Outputs by Asking for Directions
В статье показан способ «взломать» закрытые модели, заставить их делать то, что они не должны, например, писать вредоносные инструкции или обходить защиту.
Самое интересное - для взлома не нужны никакие внутренние данные модели, вроде вероятностей или оценок уверенности. Достаточно только её обычных текстовых ответов, которые любой пользователь может получить.
Как это работает?
Атакующий предлагает модели два варианта (например, два промпта или два изображения) и спрашивает:
Модель честно отвечает - и этим помогает атакующему выбрать «лучший» вариант. Потом процесс повторяется: из нового варианта делают ещё два, снова спрашивают - и так шаг за шагом подбираются к промпту, который заставляет модель нарушить свои правила.
Результаты впечатляют (или пугают):
• Успешность атак — от 98% до 100%.
• Часто хватает меньше 200 запросов.
• Работает даже без доступа к коду или внутренностям модели.
• Подходит не только для текста, но и для изображений и других задач.
Самый парадоксальный момент: чем умнее и мощнее модель, тем легче её обмануть таким способом. Потому что она лучше понимает нюансы и охотнее участвует в «диалоге», помогая уточнять цель — даже если эта цель вредоносная.
Если система безопасности полагается только на то, «что модель выдаёт в ответ», - этого уже недостаточно. Нужно также анализировать как пользователь взаимодействует с моделью: например, часто ли он просит сравнивать варианты, уточнять или «подкручивать» ответы. Такие паттерны могут быть признаком атаки.
arxiv.org/abs/2510.16794
В статье показан способ «взломать» закрытые модели, заставить их делать то, что они не должны, например, писать вредоносные инструкции или обходить защиту.
Самое интересное - для взлома не нужны никакие внутренние данные модели, вроде вероятностей или оценок уверенности. Достаточно только её обычных текстовых ответов, которые любой пользователь может получить.
Как это работает?
Атакующий предлагает модели два варианта (например, два промпта или два изображения) и спрашивает:
«Какой из этих двух вариантов ближе к тому, что я хочу?»
Модель честно отвечает - и этим помогает атакующему выбрать «лучший» вариант. Потом процесс повторяется: из нового варианта делают ещё два, снова спрашивают - и так шаг за шагом подбираются к промпту, который заставляет модель нарушить свои правила.
Результаты впечатляют (или пугают):
• Успешность атак — от 98% до 100%.
• Часто хватает меньше 200 запросов.
• Работает даже без доступа к коду или внутренностям модели.
• Подходит не только для текста, но и для изображений и других задач.
Самый парадоксальный момент: чем умнее и мощнее модель, тем легче её обмануть таким способом. Потому что она лучше понимает нюансы и охотнее участвует в «диалоге», помогая уточнять цель — даже если эта цель вредоносная.
Если система безопасности полагается только на то, «что модель выдаёт в ответ», - этого уже недостаточно. Нужно также анализировать как пользователь взаимодействует с моделью: например, часто ли он просит сравнивать варианты, уточнять или «подкручивать» ответы. Такие паттерны могут быть признаком атаки.
arxiv.org/abs/2510.16794
🛠️📊 Логирование разработки с AI-поддержкой
Dev3000 собирает полную хронологию разработки вашего веб-приложения, включая логи сервера, события браузера и автоматические скриншоты. Этот инструмент упрощает отладку, позволяя AI-ассистентам, таким как Claude, анализировать все данные в одном месте.
🚀Основные моменты:
- Хранит логи с временными метками для легкого доступа.
- Автоматически создает скриншоты при навигации и ошибках.
- Интеграция с AI для мгновенной отладки.
- Поддерживает фильтрацию и поиск по логам.
- Визуальный интерфейс для просмотра логов.
📌 GitHub: https://github.com/vercel-labs/dev3000
#javascript
Dev3000 собирает полную хронологию разработки вашего веб-приложения, включая логи сервера, события браузера и автоматические скриншоты. Этот инструмент упрощает отладку, позволяя AI-ассистентам, таким как Claude, анализировать все данные в одном месте.
🚀Основные моменты:
- Хранит логи с временными метками для легкого доступа.
- Автоматически создает скриншоты при навигации и ошибках.
- Интеграция с AI для мгновенной отладки.
- Поддерживает фильтрацию и поиск по логам.
- Визуальный интерфейс для просмотра логов.
📌 GitHub: https://github.com/vercel-labs/dev3000
#javascript
MiniMax Speech 2.6 - генератор речи студийного качества
⚡ <250 мс — сверхнизкая задержка для живого диалога в реальном времени
🧠 Умная нормализация текста - корректно читает URL, email, даты, числа и спецсимволы
🎙️ Полный клон голоса + Fluent LoRA - естественная интонация, эмоции и плавность голоса
🌍 40+ языков с поддержкой inline code-switching (переключение языков внутри фразы)
👉 Попробовать: https://minimax.io/audio
🔌 API: WebSocket T2A Docs
⚡ <250 мс — сверхнизкая задержка для живого диалога в реальном времени
🧠 Умная нормализация текста - корректно читает URL, email, даты, числа и спецсимволы
🎙️ Полный клон голоса + Fluent LoRA - естественная интонация, эмоции и плавность голоса
🌍 40+ языков с поддержкой inline code-switching (переключение языков внутри фразы)
👉 Попробовать: https://minimax.io/audio
🔌 API: WebSocket T2A Docs
www.minimax.io/audio
MiniMax Audio&Music
Generate lifelike voices&musics with MiniMax Speech 2.6&Music 2.0
👍4
📄 Nanonets-OCR2-3B - новая модель для интеллектуального OCR
Модель от Nanonets на базе Qwen2.5-VL-3B умеет не просто распознавать текст, а превращать изображение документа в структурированный Markdown: с таблицами, формулами, подписями и даже схемами.
🔍 Что умеет
- Распознаёт формулы и преобразует их в LaTeX
- Понимает таблицы и сохраняет структуру в Markdown или HTML
- Выделяет чекбоксы и радиокнопки (☐ / ☑ / ☒)
- Распознаёт подписи, водяные знаки, изображения
- Может описать картинки внутри документа с помощью <img>
-Поддерживает рукописные тексты и разные языки
- Для схем и блок-схем генерирует Mermaid-код
- Умеет отвечать на вопросы по документу (Visual QA)
👉 huggingface.co/nanonets/Nanonets-OCR2-3B
Модель от Nanonets на базе Qwen2.5-VL-3B умеет не просто распознавать текст, а превращать изображение документа в структурированный Markdown: с таблицами, формулами, подписями и даже схемами.
🔍 Что умеет
- Распознаёт формулы и преобразует их в LaTeX
- Понимает таблицы и сохраняет структуру в Markdown или HTML
- Выделяет чекбоксы и радиокнопки (☐ / ☑ / ☒)
- Распознаёт подписи, водяные знаки, изображения
- Может описать картинки внутри документа с помощью <img>
-Поддерживает рукописные тексты и разные языки
- Для схем и блок-схем генерирует Mermaid-код
- Умеет отвечать на вопросы по документу (Visual QA)
👉 huggingface.co/nanonets/Nanonets-OCR2-3B
🔥4👍1
Вышел крупнейший датасет для обучения агентных LLM — 1.27 млн траекторий (~36 млрд токенов)
До сих пор крупномасштабное supervised fine-tuning для агентных моделей встречалось редко — не из-за нехватки данных, а из-за их разрозненности и разных форматов.
Чтобы это исправить, исследователи представили Agent Data Protocol (ADP) — единый стандарт, объединяющий данные из разных источников: кода, браузерных сессий, использования API и инструментов.
В рамках проекта они объединили 13 датасетов в общий формат ADP, сделали их совместимыми с несколькими фреймворками для агентов и получили в среднем +20% прироста качества, достигая уровня SOTA без дополнительной настройки под домен.
Работа открывает путь к единому стандарту обучения агентных моделей и масштабируемым пайплайнам.
📄 Paper: https://arxiv.org/abs/2510.24702
🌐 Project: https://agentdataprotocol.com
До сих пор крупномасштабное supervised fine-tuning для агентных моделей встречалось редко — не из-за нехватки данных, а из-за их разрозненности и разных форматов.
Чтобы это исправить, исследователи представили Agent Data Protocol (ADP) — единый стандарт, объединяющий данные из разных источников: кода, браузерных сессий, использования API и инструментов.
В рамках проекта они объединили 13 датасетов в общий формат ADP, сделали их совместимыми с несколькими фреймворками для агентов и получили в среднем +20% прироста качества, достигая уровня SOTA без дополнительной настройки под домен.
Работа открывает путь к единому стандарту обучения агентных моделей и масштабируемым пайплайнам.
📄 Paper: https://arxiv.org/abs/2510.24702
🌐 Project: https://agentdataprotocol.com
❤12
MIRA: Multimodal Imagination for Reasoning Assessment
Представили новый бенчмарк для проверки «воображения» ИИ - умения рассуждать, рисуя и визуализируя мыслительный процесс, а не только отвечая текстом.
В наборе: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Модели должны думать через эскизы, схемы и визуальные шаги, а не просто словами.
Режимы тестирования:
• Direct — модель отвечает напрямую
• Text-CoT — текстовый chain-of-thought
• Visual-CoT — модель рассуждает через рисунки и визуальные шаги
Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике
Вывод прост и важен:
ИИ становится умнее, когда может воображать и рисовать, а не только писать текст.
Будущее reasoning-моделей - в визуальном мышлении.
PAPER: https://arxiv.org/abs/2511.02779
PROJECT: https://mira-benchmark.github.io
Представили новый бенчмарк для проверки «воображения» ИИ - умения рассуждать, рисуя и визуализируя мыслительный процесс, а не только отвечая текстом.
В наборе: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Модели должны думать через эскизы, схемы и визуальные шаги, а не просто словами.
Режимы тестирования:
• Direct — модель отвечает напрямую
• Text-CoT — текстовый chain-of-thought
• Visual-CoT — модель рассуждает через рисунки и визуальные шаги
Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике
Вывод прост и важен:
ИИ становится умнее, когда может воображать и рисовать, а не только писать текст.
Будущее reasoning-моделей - в визуальном мышлении.
PAPER: https://arxiv.org/abs/2511.02779
PROJECT: https://mira-benchmark.github.io
❤5🔥3👍1
Media is too big
VIEW IN TELEGRAM
Научись проектировать ИИ-агентов, управлять роботами и развертывать RAG-системы 21 ноября на True Tech Champ
На бесплатном фестивале технологий от МТС тебя ждет конференция с российскими и иностранными экспертами и новый формат лектория — ИТ-качалка.
Уже известны первые спикеры и темы:
🔴 «Физический агент: на пути к когнитивным роботам общего назначения с моделями мира», Артем Лыков — ведущий R&D-разработчик MWS, аспирант ISR Lab и Skoltech.
🔴 «RAG как помощник на каждый день», Валентин Малых — руководитель фундаментальных исследований MWS AI
🔴 An introduction tutorial to AI Agent Workflows, Майкл Ланэм — канадский разработчик с 20-летним и автор книги AI Agents in Action.
Между докладами и воркшопами можно смотреть гонки и битвы роботов, устроить поединки робопауков, пройти лазерный лабиринт, собрать сервер на скорость, сделать аксессуары из плат и протестировать другие айтивности.
Выбирай формат — смотри прямой эфир или приходи в МТС Live Холл.
Регистрируйся, чтобы провести 21 ноября с пользой и драйвом.
На бесплатном фестивале технологий от МТС тебя ждет конференция с российскими и иностранными экспертами и новый формат лектория — ИТ-качалка.
Уже известны первые спикеры и темы:
Между докладами и воркшопами можно смотреть гонки и битвы роботов, устроить поединки робопауков, пройти лазерный лабиринт, собрать сервер на скорость, сделать аксессуары из плат и протестировать другие айтивности.
Выбирай формат — смотри прямой эфир или приходи в МТС Live Холл.
Регистрируйся, чтобы провести 21 ноября с пользой и драйвом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1😁1
🤖 Создание AI-агентов с нуля
Этот репозиторий предлагает практическое руководство по созданию AI-агентов без использования фреймворков. Вы изучите основы работы LLM, архитектуры агентов и их взаимодействие с инструментами, что поможет глубже понять, как работают современные AI-системы.
🚀 Основные моменты:
- Пошаговые примеры создания AI-агентов
- Изучение основ LLM и их архитектур
- Применение системных подсказок и инструментов
- Разработка агентов с памятью и стратегическим мышлением
- Практическое понимание работы без фреймворков
📌 GitHub: https://github.com/pguso/ai-agents-from-scratch
Этот репозиторий предлагает практическое руководство по созданию AI-агентов без использования фреймворков. Вы изучите основы работы LLM, архитектуры агентов и их взаимодействие с инструментами, что поможет глубже понять, как работают современные AI-системы.
🚀 Основные моменты:
- Пошаговые примеры создания AI-агентов
- Изучение основ LLM и их архитектур
- Применение системных подсказок и инструментов
- Разработка агентов с памятью и стратегическим мышлением
- Практическое понимание работы без фреймворков
📌 GitHub: https://github.com/pguso/ai-agents-from-scratch
GitHub
GitHub - pguso/ai-agents-from-scratch: Demystify AI agents by building them yourself. Local LLMs, no black boxes, real understanding…
Demystify AI agents by building them yourself. Local LLMs, no black boxes, real understanding of function calling, memory, and ReAct patterns. - pguso/ai-agents-from-scratch
🔥5❤3
⁉️Машинное обучение кажется чем-то сложным и недосягаемым? Всё проще, чем вы думаете!
Первый шаг — разобраться, как устроен ML-процесс и научиться работать в Jupyter Notebook — инструменте, с которого начинают все специалисты в Data Science.
На открытом уроке вы шаг за шагом поймёте, как строится путь от данных до модели. Научитесь запускать эксперименты в Jupyter Notebook и Google Colab, работать с виртуальными окружениями и не бояться “сломать” систему. Всё — в формате простых и наглядных примеров.
После урока вы сможете уверенно начать свой первый ML-проект и поймёте, какие инструменты нужны, чтобы перейти от теории к практике.
➡️ 13 ноября в 20:00 МСК. Открытый вебинар проходит в преддверии старта курса «Machine Learning. Basic». Регистрируйтесь и сделайте первый шаг в машинное обучение без страха и путаницы:т https://otus.pw/tAYC/?erid=2W5zFGqDWS4
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Первый шаг — разобраться, как устроен ML-процесс и научиться работать в Jupyter Notebook — инструменте, с которого начинают все специалисты в Data Science.
На открытом уроке вы шаг за шагом поймёте, как строится путь от данных до модели. Научитесь запускать эксперименты в Jupyter Notebook и Google Colab, работать с виртуальными окружениями и не бояться “сломать” систему. Всё — в формате простых и наглядных примеров.
После урока вы сможете уверенно начать свой первый ML-проект и поймёте, какие инструменты нужны, чтобы перейти от теории к практике.
➡️ 13 ноября в 20:00 МСК. Открытый вебинар проходит в преддверии старта курса «Machine Learning. Basic». Регистрируйтесь и сделайте первый шаг в машинное обучение без страха и путаницы:т https://otus.pw/tAYC/?erid=2W5zFGqDWS4
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
UNO-Bench — унифицированный бенчмарк для оценки omni-моделей.
Основное:
- 44 типа задач, 5 комбинаций модальностей
- 3.7K тщательно подобранных примеров
- оценка быстрее на 90 процентов при сохранении 98 процентов консистентности
- новый формат многошагового open-ended reasoning
- показывает композиционный закон между uni и omni производительностью
Ссылки:
huggingface.co/papers/2510.18915
huggingface.co/datasets/meituan-longcat/UNO-Bench
Основное:
- 44 типа задач, 5 комбинаций модальностей
- 3.7K тщательно подобранных примеров
- оценка быстрее на 90 процентов при сохранении 98 процентов консистентности
- новый формат многошагового open-ended reasoning
- показывает композиционный закон между uni и omni производительностью
Ссылки:
huggingface.co/papers/2510.18915
huggingface.co/datasets/meituan-longcat/UNO-Bench
huggingface.co
Paper page - UNO-Bench: A Unified Benchmark for Exploring the Compositional Law
Between Uni-modal and Omni-modal in OmniModels
Between Uni-modal and Omni-modal in OmniModels
Join the discussion on this paper page
🚀 LongCat-Flash-Omni - новая открытыая560B omni-modal модель от Meituan
Новая SOTA-модель LongCat-Flash-Omni (560B параметров) - универсальная омнимодальная система, которая работает с видео, аудио, текстом и действиями в реальном времени.
Что в ней важно:
- Mixture-of-Experts архитектура - даёт высокую скорость и низкие задержки, несмотря на масштаб 560B.
- Полноценное мультимодальное понимание: видео + аудио + текст, обработка движений и сцен в потоке.
- Modality-decoupled parallelism — модель тренировали так, чтобы эффективно комбинировать разные типы данных, не тормозя обучение.
- Заявлен SOTA-уровень качества среди открытых омнимодальных моделей.
Технический отчёт: https://huggingface.co/papers/2511.00279
Модель: https://huggingface.co/meituan-longcat/LongCat-Flash-Omni
Проект: https://longcat.ai
Новая SOTA-модель LongCat-Flash-Omni (560B параметров) - универсальная омнимодальная система, которая работает с видео, аудио, текстом и действиями в реальном времени.
Что в ней важно:
- Mixture-of-Experts архитектура - даёт высокую скорость и низкие задержки, несмотря на масштаб 560B.
- Полноценное мультимодальное понимание: видео + аудио + текст, обработка движений и сцен в потоке.
- Modality-decoupled parallelism — модель тренировали так, чтобы эффективно комбинировать разные типы данных, не тормозя обучение.
- Заявлен SOTA-уровень качества среди открытых омнимодальных моделей.
Технический отчёт: https://huggingface.co/papers/2511.00279
Модель: https://huggingface.co/meituan-longcat/LongCat-Flash-Omni
Проект: https://longcat.ai
⚡4👍3
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.
Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com
Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.
Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.
Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com
xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.
Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai
Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.
Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.
Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io
Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.
В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.
Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2
AI дает ответ, но не по теме?
С сервисом Evolution Managed RAG от Cloud.ru вы можете легко и быстро создать AI-помощника для семантического поиска по документам, сайту или базе знаний.
В Evolution Managed RAG от Cloud.ru все уже готово к использованию, без подбора векторных баз данных и сложной настройки. Просто загрузите ваши документы в хранилище — сервис автоматически обработает их, создав базу знаний для AI-помощника.
Попробуйте
LLM отвечают на любой вопрос — даже когда не знают ответ, часто галлюцинируют и опираются на недостоверные источники.
С сервисом Evolution Managed RAG от Cloud.ru вы можете легко и быстро создать AI-помощника для семантического поиска по документам, сайту или базе знаний.
С помощью такого помощника можно:😶🌫️ сократить время на поиск😶🌫️ автоматизировать рутину😶🌫️ повысить точность ответов модели
В Evolution Managed RAG от Cloud.ru все уже готово к использованию, без подбора векторных баз данных и сложной настройки. Просто загрузите ваши документы в хранилище — сервис автоматически обработает их, создав базу знаний для AI-помощника.
Попробуйте
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1🔥1
🚀 Мощный движок для мультимодальных моделей
LMMs-Engine — это легкий и гибкий фреймворк для обучения мультимодальных моделей. Он поддерживает множество архитектур и оптимизирован для работы на больших масштабах, обеспечивая высокую эффективность и простоту использования.
🚀 Основные моменты:
- Поддержка 19+ архитектур, включая модели для обработки текста, изображений и видео.
- Оптимизации для распределенного обучения и снижения потребления памяти.
- Удобные примеры запуска для различных моделей.
📌 GitHub: https://github.com/EvolvingLMMs-Lab/lmms-engine🚀 Мощный движок для многомодальных моделей
LMMs-Engine — это легкий и гибкий фреймворк для обучения мультимодальных моделей. Он поддерживает множество архитектур и оптимизирован для работы на больших масштабах, обеспечивая высокую эффективность и простоту использования.
🚀 Основные моменты:
- Поддержка 19+ архитектур, включая модели для обработки текста, изображений и видео.
- Оптимизации для распределенного обучения и снижения потребления памяти.
- Удобные примеры запуска для различных моделей.
📌 GitHub: https://github.com/EvolvingLMMs-Lab/lmms-engine🚀 Мощный движок для многомодальных моделей
❤2
Какие планы на 19 ноября?
ML-инженеры, дата-аналитики и все, кто работает с машинным обучением, бронируйте вечерний слот в календарях, потому что команда Купер.тех зовет вас на митап в Москве и онлайн.
В программе:
🟢 Первый шаг к векторному поиску
Игорь Самарин, Machine Learning Engineer в Купер.тех
🟢 Применение LLM в поиске для разметок
Александр Баранов, Data Analyst в Купер.тех
🟢 Как картинки находят себе пары
Николай Чугунников, Senior Machine Learning Engineer в Купер.тех
🟢 От интуиции к алгоритмам: data-driven подход к массовому найму
Вадим Грошев, Machine Learning Engineer в Купер.тех
Регистрируйся, чтобы попасть в офлайн или не пропустить ссылку на трансляцию.
Реклама. ООО «ИНСТАМАРТ СЕРВИС», ИНН: 9705118142. Ерид: 2W5zFGdhm9a
ML-инженеры, дата-аналитики и все, кто работает с машинным обучением, бронируйте вечерний слот в календарях, потому что команда Купер.тех зовет вас на митап в Москве и онлайн.
В программе:
🟢 Первый шаг к векторному поиску
Игорь Самарин, Machine Learning Engineer в Купер.тех
🟢 Применение LLM в поиске для разметок
Александр Баранов, Data Analyst в Купер.тех
🟢 Как картинки находят себе пары
Николай Чугунников, Senior Machine Learning Engineer в Купер.тех
🟢 От интуиции к алгоритмам: data-driven подход к массовому найму
Вадим Грошев, Machine Learning Engineer в Купер.тех
Регистрируйся, чтобы попасть в офлайн или не пропустить ссылку на трансляцию.
Реклама. ООО «ИНСТАМАРТ СЕРВИС», ИНН: 9705118142. Ерид: 2W5zFGdhm9a
❤1🔥1
📝🚀 Kimi Writing Agent: Автономный писатель для создания книг и рассказов
Kimi Writer использует модель kimi-k2-thinking для самостоятельного написания произведений. Он поддерживает различные форматы, включая романы и сборники рассказов, и предлагает функции реального времени, управления контекстом и восстановления работы.
🚀Основные моменты:
- 🤖 Автономное написание с планированием задач
- 📚 Поддержка создания книг и рассказов
- ⚡ Реальное время отображения процесса написания
- 💾 Умное управление контекстом и восстановление
- 📊 Мониторинг токенов в реальном времени
📌 GitHub: https://github.com/Doriandarko/kimi-writer
#python
Kimi Writer использует модель kimi-k2-thinking для самостоятельного написания произведений. Он поддерживает различные форматы, включая романы и сборники рассказов, и предлагает функции реального времени, управления контекстом и восстановления работы.
🚀Основные моменты:
- 🤖 Автономное написание с планированием задач
- 📚 Поддержка создания книг и рассказов
- ⚡ Реальное время отображения процесса написания
- 💾 Умное управление контекстом и восстановление
- 📊 Мониторинг токенов в реальном времени
📌 GitHub: https://github.com/Doriandarko/kimi-writer
#python
GitHub
GitHub - Doriandarko/kimi-writer: AI writing agent powered by kimi-k2-thinking - autonomously creates novels and stories with deep…
AI writing agent powered by kimi-k2-thinking - autonomously creates novels and stories with deep reasoning - Doriandarko/kimi-writer
❤4🔥1
Смотришь вакансии AI/LLM Engineer. Часто видишь:
✅ Опыт с LangChain
✅ RAG-системы и векторный поиск
✅ Агенты и tool-calling
✅ Промпт-инжиниринг и работа с LLM API
В резюме этого нет? Дальше не смотрят.
Курс «LangChain: с нуля до продакшн» покрывает эти навыки:
→ LangChain на практике (цепочки, агенты, инструменты)
→ RAG с метриками качества (precision/recall, faithfulness)
→ Tool-calling и агенты (веб-поиск, Pandas-аналитика)
→ Продакшн-контур: FastAPI, observability, PromptOps
Проект в GitHub + сертификат = можешь писать в резюме "опыт с LangChain, RAG, агентами".
Скидка 25% — 72 часа.
Начать со скидкой
✅ Опыт с LangChain
✅ RAG-системы и векторный поиск
✅ Агенты и tool-calling
✅ Промпт-инжиниринг и работа с LLM API
В резюме этого нет? Дальше не смотрят.
Курс «LangChain: с нуля до продакшн» покрывает эти навыки:
→ LangChain на практике (цепочки, агенты, инструменты)
→ RAG с метриками качества (precision/recall, faithfulness)
→ Tool-calling и агенты (веб-поиск, Pandas-аналитика)
→ Продакшн-контур: FastAPI, observability, PromptOps
Проект в GitHub + сертификат = можешь писать в резюме "опыт с LangChain, RAG, агентами".
Скидка 25% — 72 часа.
Начать со скидкой
❤2
🚀 **VibeThinker-1.5B** - модель, которая ломает миф «больше параметров = умнее».
Основное:
- всего 1.5B параметров
- обучена по новому принципу Spectrum-to-Signal (SSP)
- обходит модели в 400 раз больше (например, 671B DeepSeek-R1) на сложных математических тестах AIME24/25 и HMMT25
- сравнима с 456B MiniMax-M1 и держится на уровне Mistral Magistral-Medium на LiveCodeBench v6
- стоимость пост-обучения — менее $8K (против $290K+ у других)
💡 SSP сначала заставляет модель исследовать разные пути решения, а затем с помощью RL сужает их до оптимальных стратегий. Умная схема обучения вместо слепой гонки за размером.
🌍 Модель полностью открыта, чтобы дать исследователям и небольшим командам доступ к продвинутым возможностям без огромных бюджетов.
🔗 Попробовать:
ModelScope: https://modelscope.cn/models/WeiboAI/VibeThinker-1.5B
arXiv: https://modelscope.cn/papers/2511.06221
Основное:
- всего 1.5B параметров
- обучена по новому принципу Spectrum-to-Signal (SSP)
- обходит модели в 400 раз больше (например, 671B DeepSeek-R1) на сложных математических тестах AIME24/25 и HMMT25
- сравнима с 456B MiniMax-M1 и держится на уровне Mistral Magistral-Medium на LiveCodeBench v6
- стоимость пост-обучения — менее $8K (против $290K+ у других)
💡 SSP сначала заставляет модель исследовать разные пути решения, а затем с помощью RL сужает их до оптимальных стратегий. Умная схема обучения вместо слепой гонки за размером.
🌍 Модель полностью открыта, чтобы дать исследователям и небольшим командам доступ к продвинутым возможностям без огромных бюджетов.
🔗 Попробовать:
ModelScope: https://modelscope.cn/models/WeiboAI/VibeThinker-1.5B
arXiv: https://modelscope.cn/papers/2511.06221
👍1