Forwarded from Machinelearning
Hierarchical Reasoning Model, (HRM) - рекуррентная архитектура, которая черпает вдохновение в принципах работы человеческого мозга. В ее основе лежат 2 взаимозависимых рекуррентных модуля:
Эта структура дает модели достигать вычислительной глубины, необходимой для сложных рассуждений, при этом сохраняя стабильность и эффективность во время обучения, чего так не хватает стандартным трансформерам.
Процесс кардинально отличается от того, что происходит в обычных рекуррентных сетях, которые склонны к преждевременной сходимости, когда их скрытое состояние быстро стабилизируется, и дальнейшие вычисления практически прекращаются. В HRM все иначе:
Таким образом, вычислительный путь низкоуровневого модуля перезапускается, направляя его к новой точке локального равновесия. Механизм не дает системе застрять и позволяет ей последовательно выполнять множество различных, но взаимосвязанных этапов решения, выстраивая длинные логические цепочки.
Тестовая модель HRM с 27 млн. параметров, обученная всего на 1000 примерах без какого-либо претрейна или CoT-пар, показала неожиданно высокие результаты .
На задачах, требующих глубокого поиска и перебора вариантов ( Sudoku-Extreme ) и поиск оптимального пути ( Maze 30x30 ), HRM достигла почти идеальной точности, а вот CoT-методы полностью провалились с результатом 0%.
На бенчмарке ARC-AGI-1, HRM показывает точность в 40.3%. Для сравнения, o3-mini-high показала 34.5%, а Claude 3.7 с контекстом 8K - 21.2%.
@ai_machinelearning_big_data
#AI #ML #HRM #SapientInc
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥4❤2🥰1
🧠 PyPOTS — специализированный инструмент для работы с временными рядами, содержащими пропущенные значения. Этот Python-пакет предлагает готовые реализации современных алгоритмов машинного обучения, адаптированных для неполных данных. При этом он фокусируется именно на проблемах частично наблюдаемых временных рядов.
Проект включает модели для импутации, классификации, кластеризации и обнаружения аномалий. Инструмент обладает минимальными требованиями к предварительной обработке данных и встроенную поддержку оптимизации гиперпараметров через Microsoft NNI.
🤖 GitHub
@machinelearning_ru
Проект включает модели для импутации, классификации, кластеризации и обнаружения аномалий. Инструмент обладает минимальными требованиями к предварительной обработке данных и встроенную поддержку оптимизации гиперпараметров через Microsoft NNI.
🤖 GitHub
@machinelearning_ru
❤8👍2🔥1
Forwarded from Machinelearning
Научить робота уверенно брать предметы - это, кажется, вечная тема в робототехнике. Несмотря на десятилетия исследований, надежные и универсальные системы захвата до сих пор остаются скорее теорией, чем реальностью.
Стоит копнуть глубже стандартных демо, и выясняется, что на сложных бенчмарках, FetchBench например, точность лучших систем едва дотягивает до 20%. Это фундаментальный барьер, мешающий внедрять роботов в реальные, неструктурированные среды.
GraspGen - фреймворк для генерации 6-DOF захватов, который не только показывает SOTA результаты, но и вводит новый, крайне интересный подход к обучению.
В его основе лежит связка из генератора на базе Diffusion Transformer и дискриминатора, знакомая всем по GAN-ам архитектура, но с важным отличием.
Генератор, получив на вход облако точек объекта, предлагает множество вариантов захвата, а дискриминатор оценивает их качество и отсеивает неудачные.
И вот тут-то и кроется основная идея, которую в NVIDIA назвали «On-Generator Training». Вместо того чтобы обучать дискриминатор на заранее собранном офлайн-датасете из "хороших" и "плохих" захватов, его учат непосредственно на тех ошибках, которые генерирует его подопечный - диффузионная модель.
Иными словами, дискриминатор становится экспертом не в захватах вообще, а в типичных промахах конкретного генератора. Он учится распознавать и отбраковывать именно те ложноположительные варианты, которые сам генератор считает удачными, но которые на самом деле приведут к провалу. Такой подход создает мощную и целенаправленную обратную связь.
Разработчики выпустили симулированный датасет, содержащий более 53 млн. примеров захватов для 3 разных типов манипуляторов, включая параллельные захваты и вакуумные присоски.
В симуляции на сете ACRONYM GraspGen показывает AUC (площадь под кривой точность-покрытие) 0.94, это больше ближайших конкурентов на 48%.
На комплексном бенче FetchBench он обошел предыдущих лидеров M2T2 и Contact-GraspNet на 7.8% и 16.9% соответственно.
Но самое главное - это тесты на реальном железе. В экспериментах с роботом UR10 в зашумленной среде GraspGen достиг общей успешности в 81.3%, в то время как M2T2 и AnyGrasp показали лишь 52.6% и 63.7%.
Код, веса моделей и датасет уже доступны на GitHub и Hugging Face.
Авторы позаботились об энтузиастах: есть подробные инструкции по установке через Docker или pip, готовые демо-скрипты, позволяющие визуализировать захваты для своих облаков точек или 3D-моделей буквально в несколько команд.
Более того, GraspGen изначально спроектирован как модульная и расширяемая система. Разработчики предоставляют подробный туториал, который объясняет, как генерировать данные и обучать модели для совершенно новых объектов и, что важнее, новых типов манипуляторов, реализуя принцип BYOD.
Интеграция с симулятором Isaac Lab для еще более продвинутой генерации данных и возможность дообучения на реальных данных.
@ai_machinelearning_big_data
#AI #ML #Robotics #GraspGen #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1🔥1
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linux_read
Devops: t.me/DevOPSitsec
Базы данных: t.me/sqlhub
Мл собес t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
МЛ: t.me/machinelearning_ru
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/java_library
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://xn--r1a.website/gamedev
Физика: t.me/fizmat
SQL: t.me/databases_tg
Базы данных: t.me/sql_lib
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://xn--r1a.website/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://xn--r1a.website/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot -
📕Ит-книги: https://xn--r1a.website/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.me/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linux_read
Devops: t.me/DevOPSitsec
Базы данных: t.me/sqlhub
Мл собес t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
МЛ: t.me/machinelearning_ru
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/java_library
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://xn--r1a.website/gamedev
Физика: t.me/fizmat
SQL: t.me/databases_tg
Базы данных: t.me/sql_lib
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://xn--r1a.website/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://xn--r1a.website/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
📕Ит-книги: https://xn--r1a.website/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.me/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2😁1
Wtffmpeg — это умный инструмент для терминала, который превращает ваши простые описания в точные команды ffmpeg.
Вместо того чтобы рыться в документации и запоминать сложные параметры, вы просто пишете на естественном языке, что хотите сделать: например, «обрежь видео с 10 по 30 секунду» или «сохрани аудио из ролика в формате MP3» — и Wtffmpeg сам сформирует правильную команду.
Весь процесс происходит локально: ваши файлы и запросы не отправляются ни в какие внешние сервисы, что обеспечивает полную конфиденциальность. Перед выполнением команда отображается на экране, и вы вручную подтверждаете её запуск — так вы всегда сохраняете контроль.
Инструмент поддерживает ускорение обработки через GPU и позволяет настраивать встроенные модели, чтобы повышать точность распознавания задач под ваш стиль работы. Wtffmpeg — это удобный, безопасный и мощный способ работать с медиа, не выходя из терминала.
https://github.com/scottvr/wtffmpeg
Вместо того чтобы рыться в документации и запоминать сложные параметры, вы просто пишете на естественном языке, что хотите сделать: например, «обрежь видео с 10 по 30 секунду» или «сохрани аудио из ролика в формате MP3» — и Wtffmpeg сам сформирует правильную команду.
Весь процесс происходит локально: ваши файлы и запросы не отправляются ни в какие внешние сервисы, что обеспечивает полную конфиденциальность. Перед выполнением команда отображается на экране, и вы вручную подтверждаете её запуск — так вы всегда сохраняете контроль.
Инструмент поддерживает ускорение обработки через GPU и позволяет настраивать встроенные модели, чтобы повышать точность распознавания задач под ваш стиль работы. Wtffmpeg — это удобный, безопасный и мощный способ работать с медиа, не выходя из терминала.
https://github.com/scottvr/wtffmpeg
❤5👍5🔥2
Forwarded from Rust
🦀 Rust на каждом GPU? Теперь это реальность
Команда выпустила серьезное обновление: теперь можно писать универсальный GPU-код на Rust, который работает сразу на разных платформах — без ручной настройки под каждую.
📦 Что нового:
— Поддержка *portable shader crates*
— Один и тот же шейдер можно запускать на Vulkan, WebGPU, Metal и даже CUDA
— Расширенный стандартный набор типов и функций
— Интеграция с
— Поддержка inline-asm и более точной отладки
💡 Почему это важно:
Раньше GPU-код приходилось писать под каждую платформу отдельно (HLSL, GLSL, CUDA). Теперь можно писать всё на Rust и использовать один и тот же код для разных бэкендов.
Это приближает нас к идее truly portable GPU programming — с безопасностью и удобством Rust.
🔗 Подробнее в блоге
@rust_code
Команда выпустила серьезное обновление: теперь можно писать универсальный GPU-код на Rust, который работает сразу на разных платформах — без ручной настройки под каждую.
📦 Что нового:
— Поддержка *portable shader crates*
— Один и тот же шейдер можно запускать на Vulkan, WebGPU, Metal и даже CUDA
— Расширенный стандартный набор типов и функций
— Интеграция с
cargo и spirv-builder стала проще — Поддержка inline-asm и более точной отладки
💡 Почему это важно:
Раньше GPU-код приходилось писать под каждую платформу отдельно (HLSL, GLSL, CUDA). Теперь можно писать всё на Rust и использовать один и тот же код для разных бэкендов.
Это приближает нас к идее truly portable GPU programming — с безопасностью и удобством Rust.
🔗 Подробнее в блоге
@rust_code
🔥9❤2👍2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Команда Tencent Hunyuan представила модель, способную создавать полноценные трёхмерные сцены всего по одному описанию — тексту или изображению.
— Генерация 3D-сред из текста или картинки
— Поддержка редактирования и симуляций в стандартных CG-пайплайнах (Blender, Unity, Unreal)
— Подходит для игр, VR, цифрового контента и прототипирования живых миров
Вы просто пишете: "Japanese garden at sunset" — и модель генерирует трёхмерную сцену с деревьями, прудом и мягким освещением.
Эта модель может серьёзно повлиять на будущее генеративного 3D — от геймдева до виртуальных миров.
@ai_machinelearning_big_data
#3DGeneration #GenerativeAI #TextTo3D #Hunyuan3D #TencentAI #GameDev #VirtualReality
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥3👍1🥰1
📌 ModelDB — система управления версиями ML-моделей. Этот open-source инструмент помогает отслеживать весь жизненный цикл моделей машинного обучения — от экспериментов до продакшена.
Инструмент поддерживает метаданных, включая гиперпараметры, метрики и окружение. Интегрируется с популярными фреймворками (TensorFlow, PyTorch) и предлагает удобные дашборды для анализа результатов. Подходит командой, которые хотят сделать свои ML-эксперименты воспроизводимыми.
🤖 GitHub
@machinelearning_ru
Инструмент поддерживает метаданных, включая гиперпараметры, метрики и окружение. Интегрируется с популярными фреймворками (TensorFlow, PyTorch) и предлагает удобные дашборды для анализа результатов. Подходит командой, которые хотят сделать свои ML-эксперименты воспроизводимыми.
🤖 GitHub
@machinelearning_ru
👍4❤2
🚀 Анализ текстов задерживает скорость разработки?
Разбираемся, как классический трансформер BERT справляется с миллионами документов за доли секунды!
На открытом уроке «Решаем задачи текстовой классификации с помощью BERT» мы расскажем:
🔹 Внутреннее устройство BERT
🔹 Методы дообучения и интеграции в реальные проекты
🔹 Практические примеры от эксперта OTUS
📅 Когда: 30 июля, 18:00 МСК
🎟 Регистрация бесплатная — зарегистрируйтесь сейчас и получите скидку на программу обучения «NLP / Natural Language Processing» https://otus.pw/CDpD/?erid=2W5zFHR4QDN
Не пропустите шанс повысить свою экспертизу в области NLP!
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Разбираемся, как классический трансформер BERT справляется с миллионами документов за доли секунды!
На открытом уроке «Решаем задачи текстовой классификации с помощью BERT» мы расскажем:
🔹 Внутреннее устройство BERT
🔹 Методы дообучения и интеграции в реальные проекты
🔹 Практические примеры от эксперта OTUS
📅 Когда: 30 июля, 18:00 МСК
🎟 Регистрация бесплатная — зарегистрируйтесь сейчас и получите скидку на программу обучения «NLP / Natural Language Processing» https://otus.pw/CDpD/?erid=2W5zFHR4QDN
Не пропустите шанс повысить свою экспертизу в области NLP!
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🧪 DeePMD-kit — инструмент для молекулярного моделирования с ИИ. Этот open-source проект использует глубокое обучение для предсказания межмолекулярных взаимодействий, сочетая точность квантовых расчетов с производительностью классической молекулярной динамики.
Инструмент интегрируется с популярными симуляторами и оптимизация для GPU. Полезен для исследований в химии, биологии и материаловедении. Поддерживает TensorFlow, PyTorch и другие фреймворки.
🤖 GitHub
@machinelearning_ru
Инструмент интегрируется с популярными симуляторами и оптимизация для GPU. Полезен для исследований в химии, биологии и материаловедении. Поддерживает TensorFlow, PyTorch и другие фреймворки.
🤖 GitHub
@machinelearning_ru
❤3🔥3👍2
📌 Habitat-Lab — фреймворк от Facebook Research для разработки ИИ-агентов, способных взаимодействовать с виртуальными и реальными окружениями. Проект позволяет обучать агентов выполнять различные задачи: от навигации в помещениях до взаимодействия с людьми и перестановки объектов.
Фреймворк поддерживает обучение через имитацию и reinforcement learning, а также интеграцию с ROS для робототехники. Инструмент обладает модульностью: можно настраивать сенсоры агентов, создавать новые задачи и тестировать их в реалистичных 3D-сценах.
🤖 GitHub
Фреймворк поддерживает обучение через имитацию и reinforcement learning, а также интеграцию с ROS для робототехники. Инструмент обладает модульностью: можно настраивать сенсоры агентов, создавать новые задачи и тестировать их в реалистичных 3D-сценах.
🤖 GitHub
🔥4👍2
🧠 Seqeval — специализированная библиотека для оценки моделей последовательностной разметки. Она поддерживает различные схемы аннотации (IOB2, IOE1, BILOU) и предоставляет стандартные метрики качества для задач NER и POS-разметки.
Библиотека предлагает два режима оценки — стандартный и строгий, учитывающий специфику выбранной схемы разметки. Простота интеграции и MIT-лицензия делают её удобным инструментом для NLP-разработчиков.
🤖 GitHub
@machinelearning_ru
Библиотека предлагает два режима оценки — стандартный и строгий, учитывающий специфику выбранной схемы разметки. Простота интеграции и MIT-лицензия делают её удобным инструментом для NLP-разработчиков.
🤖 GitHub
@machinelearning_ru
🔥3❤2👍2
Forwarded from Machinelearning
В основе технологического стека - семейство моделей Codestral, с обновленной моделью Codestral 25.08.
Эта версия показала измеримые улучшения, подтвержденные на реальных кодовых базах: на 30% увеличилось количество принятых автодополнений, на 10% вырос объем сохраняемого после подсказки кода, а число генераций, когда модель производит слишком длинный и некорректный код, сократилось на 50%.
В режиме чата модель также стала лучше: ее способность следовать инструкциям выросла на 5% по метрике IF Eval v8, а общие возможности в программировании улучшились в среднем на 5% по тесту MultiplE.
За это отвечает Codestral Embed, модель для создания векторных представлений, специально спроектированная для кода, а не для обычного текста. По заявлениям Mistral, она превосходит эмбеддинг-решения от OpenAI и Cohere в реальных задачах по извлечению кода.
Ключевое преимущество - возможность настройки размерности эмбеддингов (до 256 измерений с квантованием до INT8), что позволяет балансировать между качеством поиска и хранением данных, сохраняя высокую производительность.
Они реализованные через Devstral - агентскую систему на базе фреймворка OpenHands. Система ориентирована на задачи рефакторинга, генерации тестов и создание pull-реквестов.
На бенче SWE-Bench Verified модель Devstral Small 1.1 выбивает 53.6%, а Devstral Medium - 61.6%, значительно опережая Claude 3.5 и GPT-4.1-mini.
Devstral Small (24 млрд параметров) может работать на одной Nvidia RTX 4090 или Mac с 32 ГБ ОЗУ, что идеально для локальных или изолированных сред.
Все эти возможности объединяются в плагине Mistral Code для IDE от JetBrains и VS Code. Он автодополняет код с помощью Codestral 25.08 и автоматизирует рутину: написание коммитов или docstring’ов через Devstral, и семантический поиск на базе Codestral Embed.
Плагин учитывает контекст из
Git diffs, истории терминала и инструментов статического анализа.Для корпоративных клиентов предусмотрено развертывание в облаке, VPC или полностью on-prem, а также интеграция с SSO, ведение логов аудита и отсутствие обязательной телеметрии.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
🧠 Horizon (возможно, GPT‑5) — новый уровень "интелелкта" у AI
Новая модель OpenAI с кодовым именем Horizon пробивается на вершины EQ‑лидербордов — оценок эмоционального интеллекта и креативного письма.
💬 По словам Сэма Альтмана, одна из внутренних моделей вызвала у него “AGI‑момент” — настолько она была человечной, творческой и умной.
⚡ Что известно:
— Horizon показывает выдающийся результат в творческом письме и диалогах
— Лидирует в тестах на эмоциональное понимание и эмпатию
— Возможно, это и есть GPT‑5, готовящийся к релизу
Если это так — нас ждёт ИИ, который не просто "понимает", а чувствует и создаёт почти как человек.
Следим за обновлениями.
Подпишись, чтобы не пропустить настоящую гонку AG
Новая модель OpenAI с кодовым именем Horizon пробивается на вершины EQ‑лидербордов — оценок эмоционального интеллекта и креативного письма.
💬 По словам Сэма Альтмана, одна из внутренних моделей вызвала у него “AGI‑момент” — настолько она была человечной, творческой и умной.
⚡ Что известно:
— Horizon показывает выдающийся результат в творческом письме и диалогах
— Лидирует в тестах на эмоциональное понимание и эмпатию
— Возможно, это и есть GPT‑5, готовящийся к релизу
Если это так — нас ждёт ИИ, который не просто "понимает", а чувствует и создаёт почти как человек.
Следим за обновлениями.
Подпишись, чтобы не пропустить настоящую гонку AG
👍7❤4😁4🥰1
🖼️ FLUX.1 Krea [dev] — новое качество генерации изображений с открытыми весами
🔥 Представлено сегодня в рамках совместной разработки Black Forest Labs и Krea AI
✨ Особенности:
• Самая продвинутая открытая FLUX-модель для текст-в-изображение
• Эстетика без «перенасыщенного AI look», фотореализм и богатая детализация
• Готова к донастройке: легко адаптируется под ваши стили и задачи
• Полная совместимость с экосистемой FLUX.1 [dev]
🔧 Почему это важно:
• Новая планка среди open-weight моделей — по качеству приближается к FLUX.1 [pro] и превосходит её по многим параметрам восприятия человеком
• Уникальная «opinionated» стилистика, никакого пресного AI-эффекта
🚀 Доступность:
• Весовые файлы уже опубликованы на Hugging Face под лицензией Dev Non‑Commercial
• Интеграция через API-фреймворк: включён в платформы Replicate, FAL.ai, Together.ai и саму Krea
🌐 Встраиваем в рабочий процесс:
• Используйте как базовую модель для генерации, дальнейшего обучения и fine-tuning
• Подходит для создания кастомных приложений с визуальным стилем
• Доступна для исследований и проектов с ограничениями использования
🎯 FLUX.1 Krea [dev] — это шаг вперёд в мире открытых моделей, сочетающий эстетику, гибкость и высокое качество.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
🔥 Представлено сегодня в рамках совместной разработки Black Forest Labs и Krea AI
✨ Особенности:
• Самая продвинутая открытая FLUX-модель для текст-в-изображение
• Эстетика без «перенасыщенного AI look», фотореализм и богатая детализация
• Готова к донастройке: легко адаптируется под ваши стили и задачи
• Полная совместимость с экосистемой FLUX.1 [dev]
🔧 Почему это важно:
• Новая планка среди open-weight моделей — по качеству приближается к FLUX.1 [pro] и превосходит её по многим параметрам восприятия человеком
• Уникальная «opinionated» стилистика, никакого пресного AI-эффекта
🚀 Доступность:
• Весовые файлы уже опубликованы на Hugging Face под лицензией Dev Non‑Commercial
• Интеграция через API-фреймворк: включён в платформы Replicate, FAL.ai, Together.ai и саму Krea
🌐 Встраиваем в рабочий процесс:
• Используйте как базовую модель для генерации, дальнейшего обучения и fine-tuning
• Подходит для создания кастомных приложений с визуальным стилем
• Доступна для исследований и проектов с ограничениями использования
🎯 FLUX.1 Krea [dev] — это шаг вперёд в мире открытых моделей, сочетающий эстетику, гибкость и высокое качество.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
❤5👍3🔥3