🧪 Генеративный ИИ учится строить молекулы шаг за шагом
NVIDIA представила модель ReaSyn, которая предсказывает пути синтеза молекул - от простых реагентов до целевых соединений.
Как это работает:
- Вместо одной готовой формулы ИИ строит цепочку реакций (chain of reaction)
- Каждый шаг можно проверить и скорректировать
- Усиленное обучение и поиск вариантов помогают находить оптимальные пути
Что это даёт:
✨ Химики получают не только новые молекулы, но и инструкции, как их реально синтезировать
✨ Можно искать аналоги веществ, если прямой синтез невозможен
✨ Ускоряется разработка лекарств, материалов и других инновационных соединений
ИИ теперь помогает не просто придумывать молекулы, а ещё и объясняет, как их создать в лаборатории.
https://developer.nvidia.com/blog/reasoning-through-molecular-synthetic-pathways-with-generative-ai/
@ai_machinelearning_big_data
NVIDIA представила модель ReaSyn, которая предсказывает пути синтеза молекул - от простых реагентов до целевых соединений.
Как это работает:
- Вместо одной готовой формулы ИИ строит цепочку реакций (chain of reaction)
- Каждый шаг можно проверить и скорректировать
- Усиленное обучение и поиск вариантов помогают находить оптимальные пути
Что это даёт:
✨ Химики получают не только новые молекулы, но и инструкции, как их реально синтезировать
✨ Можно искать аналоги веществ, если прямой синтез невозможен
✨ Ускоряется разработка лекарств, материалов и других инновационных соединений
ИИ теперь помогает не просто придумывать молекулы, а ещё и объясняет, как их создать в лаборатории.
https://developer.nvidia.com/blog/reasoning-through-molecular-synthetic-pathways-with-generative-ai/
@ai_machinelearning_big_data
❤81👍35🤔22🔥14💘4
Media is too big
VIEW IN TELEGRAM
🔥 HunyuanImage 3.0 — свежая open-source модель для генерации изображений по тексту (text-to-image) от Hunyuan.
Размер 80B параметров, из которых 13B активируются на токен во время инференса.
Качество сопоставимо с флагманскими закрытыми моделями индустрии.
Что интересного:
- Основана на собственной мультимодальной LLM Tencent
- Постобучение заточено под text-to-image задачи
- Архитектура MoE + Transfusion объединяет Diffusion и LLM в единую систему
🚀 Возможности:
- Понимает сложные промпты длиной до тысячи слов
- Детализированные изображения с текстом
- Генерирует сложные иллюстрации и комиксы
👉 Попробовать: https://hunyuan.tencent.com/image
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0
@ai_machinelearning_big_data
#AI #GenerativeAI #Adobe #MorganStanley
Размер 80B параметров, из которых 13B активируются на токен во время инференса.
Качество сопоставимо с флагманскими закрытыми моделями индустрии.
Что интересного:
- Основана на собственной мультимодальной LLM Tencent
- Постобучение заточено под text-to-image задачи
- Архитектура MoE + Transfusion объединяет Diffusion и LLM в единую систему
🚀 Возможности:
- Понимает сложные промпты длиной до тысячи слов
- Детализированные изображения с текстом
- Генерирует сложные иллюстрации и комиксы
👉 Попробовать: https://hunyuan.tencent.com/image
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0
@ai_machinelearning_big_data
#AI #GenerativeAI #Adobe #MorganStanley
👍86❤34🔥30🦄4💘2
🚀 Qwen Chat получил интересные апдейты
Теперь в Qwen Chat можно не только искать данные в интернете, но и сразу визуализировать их графиками благодаря связке *Code Interpreter + Web Search*.
Пример, можно прогноз погоды на 7 дней и получить готовый график прямо в чате.
📈 Если хотите быстро построить диаграмму по найденным данным, то просто напишите это в промоет.
Попробовать можно здесь: https://chat.qwen.ai
@ai_machinelearning_big_data
#qwen #llm
Теперь в Qwen Chat можно не только искать данные в интернете, но и сразу визуализировать их графиками благодаря связке *Code Interpreter + Web Search*.
Пример, можно прогноз погоды на 7 дней и получить готовый график прямо в чате.
📈 Если хотите быстро построить диаграмму по найденным данным, то просто напишите это в промоет.
Попробовать можно здесь: https://chat.qwen.ai
@ai_machinelearning_big_data
#qwen #llm
🔥92❤26🥰8👍3😁2🙈2😢1🍓1
🚀 DeepSeek-V3.2-Exp - вышла новая экспериментальная версия
⚡ Главное:
- Основана на V3.1-Terminus
- Новый механизм Sparse Attention (DSA) → быстрее и дешевле работа с длинными контекстами
- Качество почти без потерь, производительность как у V3.1
- API подешевел более чем на 50%
📊 V3.1 пока ещё будет доступна до 15 октября 2025.
💰 Цены:
- Input (cache hit): $0.07 → $0.028 (−60%)
- Input (cache miss): $0.56 → $0.28 (−50%)
- Output: $1.68 → $0.42 (−75%)
🔗 Hugging Face: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp)
🔗 Tech Report: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf)
🔗Github: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
@ai_machinelearning_big_data
#DeepSeek #AI #V32 #SparseAttention #LLM
⚡ Главное:
- Основана на V3.1-Terminus
- Новый механизм Sparse Attention (DSA) → быстрее и дешевле работа с длинными контекстами
- Качество почти без потерь, производительность как у V3.1
- API подешевел более чем на 50%
📊 V3.1 пока ещё будет доступна до 15 октября 2025.
- Input (cache hit): $0.07 → $0.028 (−60%)
- Input (cache miss): $0.56 → $0.28 (−50%)
- Output: $1.68 → $0.42 (−75%)
🔗 Hugging Face: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp)
🔗 Tech Report: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf)
🔗Github: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
@ai_machinelearning_big_data
#DeepSeek #AI #V32 #SparseAttention #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤102👍29🔥17👏3🤩2🥱2💘2🤨1
Регистрация подходит к концу — не пропусти AIDAO, международную олимпиаду по ИИ и анализу данных от Яндекс Образования и ФКН НИУ ВШЭ
Главные призы: 1 млн рублей и преимущества при поступлении в магистратуры ФКН ВШЭ.
— Задачи с реальными данными
— Два этапа: онлайн и финал в офлайне, в Москве.
— Общение с экспертами и сотрудниками научных лабораторий, возможность стать частью международного комьюнити студентов.
🚀 Собирайте команду и регистрируйтесь по ссылке до 30 сентября
Главные призы: 1 млн рублей и преимущества при поступлении в магистратуры ФКН ВШЭ.
— Задачи с реальными данными
— Два этапа: онлайн и финал в офлайне, в Москве.
— Общение с экспертами и сотрудниками научных лабораторий, возможность стать частью международного комьюнити студентов.
🚀 Собирайте команду и регистрируйтесь по ссылке до 30 сентября
❤23🔥8👍7🥱3😁2🍓1
🔬 Учёные MIT представили SCIGEN - новый инструмент, который учит генеративные модели создавать реально полезные материалы, а не только «красивые картинки».
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
❤78🔥29👍24🥰3🍓3❤🔥1
Claude Sonnet 4.5 — лучшая на сегодняшний день модель для программирования.
Топ модель для создания сложных агентов.
Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.
- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.
https://www.anthropic.com/news/claude-sonnet-4-5
@ai_machinelearning_big_data
#claude
Топ модель для создания сложных агентов.
Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.
- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.
https://www.anthropic.com/news/claude-sonnet-4-5
@ai_machinelearning_big_data
#claude
👍92🔥42❤17🥰14😁7🤣5❤🔥2😴2💘2🌚1🗿1
Media is too big
VIEW IN TELEGRAM
Это не про обучение нейросетей с нуля, а про то, как правильно и эффективно использовать их в работе.Курс кратко объясняет, как устроены модели и как их применять, освещает практические приёмы для генерации кода, включает тесты, примеры промптов и интерактив с разными ИИ. Весь материал легко проходится за один вечер.
Курс
Wired сообщает, что OpenAI разрабатывает отдельное приложение в стиле TikTok, но с одним ключевым отличием - весь контент в ленте будет полностью сгенерирован ИИ. Формат привычный: вертикальные видео и свайпы для навигации, но источником роликов станет Sora 2.
OpenAI делает шаг в сторону собственной соцсети, где пользователи будут не делиться контентом, а потреблять бесконечный поток видео, созданных ИИ.
Wired
Авиакомпания объявила о сокращениях в рамках «широкой программы реструктуризации», где ключевой упор делается на цифровизацию, ИИ и автоматизацию.
В пресс-релизе компания подчеркнула, что использование AI позволит значительно повысить эффективность процессов в разных направлениях бизнеса.
Apnews
Это обучающая программа о том, как встроить генеративные ИИ-решения Runway в полный цикл разработки игр - от первых концептов до продакшн-ресурсов и рекламных роликов.
Курс включает пять лекций: про анимацию концепт-арта, симуляцию диалогов персонажей, дизайн уровней, расширение библиотеки игровых ассетов и создание текстур.
Runway
Особенно хорошо справляются с диаграммами, инфографикой и документами
Обучены с помощью RL и «проверяемых наград», что делает подписи более разнообразными и осмысленными
Лцензия Apache 2.0
HF
Новый SDK превращает Claude в платформу для создания агентов, которые умеют работать с файлами, выполнять команды, вызывать API и решать практические задачи.
В основе — цикл агента: получить контекст, действовать, проверять результат и повторять. SDK даёт готовые инструменты, субагентов и механизмы работы с памятью и контекстом.
Поддерживаются сценарии от финансовых помощников и поддержки клиентов до исследовательских и аналитических агентов.
Anthropic
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56❤17👍16💔2🍓2
⚡️ LoRA почти так же хороша, как полный fine-tuning, но в разы дешевле
Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.
Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.
Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).
Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.
Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.
Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».
✔️ Правила от команды Thinking Machines
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.
✔️ Что в итоге:
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.
LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.
Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.
Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.
📌 Подробнее
@ai_machinelearning_big_data
#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.
Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.
Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).
Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.
Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.
Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.
LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.
Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.
Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.
📌 Подробнее
@ai_machinelearning_big_data
#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤93👍43🔥20✍7🤗2💘2🍓1