🚀 DeepSeek-V3.2-Exp - вышла новая экспериментальная версия
⚡ Главное:
- Основана на V3.1-Terminus
- Новый механизм Sparse Attention (DSA) → быстрее и дешевле работа с длинными контекстами
- Качество почти без потерь, производительность как у V3.1
- API подешевел более чем на 50%
📊 V3.1 пока ещё будет доступна до 15 октября 2025.
💰 Цены:
- Input (cache hit): $0.07 → $0.028 (−60%)
- Input (cache miss): $0.56 → $0.28 (−50%)
- Output: $1.68 → $0.42 (−75%)
🔗 Hugging Face: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp)
🔗 Tech Report: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf)
🔗Github: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
@ai_machinelearning_big_data
#DeepSeek #AI #V32 #SparseAttention #LLM
⚡ Главное:
- Основана на V3.1-Terminus
- Новый механизм Sparse Attention (DSA) → быстрее и дешевле работа с длинными контекстами
- Качество почти без потерь, производительность как у V3.1
- API подешевел более чем на 50%
📊 V3.1 пока ещё будет доступна до 15 октября 2025.
- Input (cache hit): $0.07 → $0.028 (−60%)
- Input (cache miss): $0.56 → $0.28 (−50%)
- Output: $1.68 → $0.42 (−75%)
🔗 Hugging Face: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp)
🔗 Tech Report: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf)
🔗Github: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf
@ai_machinelearning_big_data
#DeepSeek #AI #V32 #SparseAttention #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤102👍29🔥17👏3🤩2🥱2💘2🤨1
Регистрация подходит к концу — не пропусти AIDAO, международную олимпиаду по ИИ и анализу данных от Яндекс Образования и ФКН НИУ ВШЭ
Главные призы: 1 млн рублей и преимущества при поступлении в магистратуры ФКН ВШЭ.
— Задачи с реальными данными
— Два этапа: онлайн и финал в офлайне, в Москве.
— Общение с экспертами и сотрудниками научных лабораторий, возможность стать частью международного комьюнити студентов.
🚀 Собирайте команду и регистрируйтесь по ссылке до 30 сентября
Главные призы: 1 млн рублей и преимущества при поступлении в магистратуры ФКН ВШЭ.
— Задачи с реальными данными
— Два этапа: онлайн и финал в офлайне, в Москве.
— Общение с экспертами и сотрудниками научных лабораторий, возможность стать частью международного комьюнити студентов.
🚀 Собирайте команду и регистрируйтесь по ссылке до 30 сентября
❤23🔥8👍7🥱3😁2🍓1
🔬 Учёные MIT представили SCIGEN - новый инструмент, который учит генеративные модели создавать реально полезные материалы, а не только «красивые картинки».
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
❤78🔥29👍24🥰3🍓3❤🔥1
Claude Sonnet 4.5 — лучшая на сегодняшний день модель для программирования.
Топ модель для создания сложных агентов.
Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.
- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.
https://www.anthropic.com/news/claude-sonnet-4-5
@ai_machinelearning_big_data
#claude
Топ модель для создания сложных агентов.
Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.
- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.
https://www.anthropic.com/news/claude-sonnet-4-5
@ai_machinelearning_big_data
#claude
👍92🔥42❤17🥰14😁7🤣5❤🔥2😴2💘2🌚1🗿1
Media is too big
VIEW IN TELEGRAM
Это не про обучение нейросетей с нуля, а про то, как правильно и эффективно использовать их в работе.Курс кратко объясняет, как устроены модели и как их применять, освещает практические приёмы для генерации кода, включает тесты, примеры промптов и интерактив с разными ИИ. Весь материал легко проходится за один вечер.
Курс
Wired сообщает, что OpenAI разрабатывает отдельное приложение в стиле TikTok, но с одним ключевым отличием - весь контент в ленте будет полностью сгенерирован ИИ. Формат привычный: вертикальные видео и свайпы для навигации, но источником роликов станет Sora 2.
OpenAI делает шаг в сторону собственной соцсети, где пользователи будут не делиться контентом, а потреблять бесконечный поток видео, созданных ИИ.
Wired
Авиакомпания объявила о сокращениях в рамках «широкой программы реструктуризации», где ключевой упор делается на цифровизацию, ИИ и автоматизацию.
В пресс-релизе компания подчеркнула, что использование AI позволит значительно повысить эффективность процессов в разных направлениях бизнеса.
Apnews
Это обучающая программа о том, как встроить генеративные ИИ-решения Runway в полный цикл разработки игр - от первых концептов до продакшн-ресурсов и рекламных роликов.
Курс включает пять лекций: про анимацию концепт-арта, симуляцию диалогов персонажей, дизайн уровней, расширение библиотеки игровых ассетов и создание текстур.
Runway
Особенно хорошо справляются с диаграммами, инфографикой и документами
Обучены с помощью RL и «проверяемых наград», что делает подписи более разнообразными и осмысленными
Лцензия Apache 2.0
HF
Новый SDK превращает Claude в платформу для создания агентов, которые умеют работать с файлами, выполнять команды, вызывать API и решать практические задачи.
В основе — цикл агента: получить контекст, действовать, проверять результат и повторять. SDK даёт готовые инструменты, субагентов и механизмы работы с памятью и контекстом.
Поддерживаются сценарии от финансовых помощников и поддержки клиентов до исследовательских и аналитических агентов.
Anthropic
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56❤17👍16💔2🍓2
⚡️ LoRA почти так же хороша, как полный fine-tuning, но в разы дешевле
Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.
Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.
Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).
Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.
Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.
Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».
✔️ Правила от команды Thinking Machines
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.
✔️ Что в итоге:
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.
LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.
Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.
Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.
📌 Подробнее
@ai_machinelearning_big_data
#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.
Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.
Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).
Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.
Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.
Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.
LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.
Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.
Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.
📌 Подробнее
@ai_machinelearning_big_data
#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤93👍43🔥20✍7🤗2💘2🍓1
🎥 OpenAi показали Sora 2
Всё, что нужно знать коротко:
- Реализм и физика: движение стало правдоподобнее, модель учитывает сложную динамику движения.
- Законы физики соблюдаются: например, промах по кольцу в баскетболе отскакивает, а не “телепортируется”.
- Видео со звуком: синхронная генерация речи, эффектов и фоновых звуков.
- Управляемость: модель точно следует сложным промптам, держит сцены цельным, умеет в реализм и аниме.
- Cameos: можно загрузить своё видео/аудио и вставить лицо + голос в любой сгенерированный ролик.
- Пиложение: новое iOS-приложение “Sora” с лентой наподобие TikTok, ремиксами и cameo.
Доступ дают по инвайтам
- Как попробовать: доступ бесплатный, но пока только в США и Канаде, а Pro-версия генератора доступна для платных акаунтов ChatGPT Pro.
- API обещают скоро подвезти .
https://x.com/OpenAI/status/1973075422058623274
#Sora2 #OpenAI #видеогенерация #ИИ #AIvideo
Всё, что нужно знать коротко:
- Реализм и физика: движение стало правдоподобнее, модель учитывает сложную динамику движения.
- Законы физики соблюдаются: например, промах по кольцу в баскетболе отскакивает, а не “телепортируется”.
- Видео со звуком: синхронная генерация речи, эффектов и фоновых звуков.
- Управляемость: модель точно следует сложным промптам, держит сцены цельным, умеет в реализм и аниме.
- Cameos: можно загрузить своё видео/аудио и вставить лицо + голос в любой сгенерированный ролик.
- Пиложение: новое iOS-приложение “Sora” с лентой наподобие TikTok, ремиксами и cameo.
Доступ дают по инвайтам
- Как попробовать: доступ бесплатный, но пока только в США и Канаде, а Pro-версия генератора доступна для платных акаунтов ChatGPT Pro.
- API обещают скоро подвезти .
https://x.com/OpenAI/status/1973075422058623274
#Sora2 #OpenAI #видеогенерация #ИИ #AIvideo
❤133👍38🔥15😁7🗿5💘3🍓1