378K subscribers
4.37K photos
831 videos
17 files
4.85K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Claude Sonnet 4.5 — лучшая на сегодняшний день модель для программирования.

Топ модель для создания сложных агентов.

Claude Sonnet 4.5 демонстрирует заметный прогресс в логике и математике.

- Теперь у модели есть редактирование контекста и память → ИИ-агенты могут работать над задачами часами и днями без потери информации.
- 30+ часов автономного кодинга - агенты пишут код и доводят проекты до конца почти без вмешательства.
- Лучший результат в мире по программированию: 77.2% на SWE-bench Verified.
- Умеет уверенно работать в браузере: анализ конкурентов, закупки, онбординг клиентов. Для этого сделали новый Chrome Extension.
- Справляется с задачами от простого финансового анализа до сложной предиктивной аналитики.
- Можно буквально «сгенерировать» софт одним промптом — идея LLMOS от Карпатия становится реальностью.
- Цена: от $3 за миллион входных токенов и $15 за миллион выходных. С кэшем и батчем - до 90% экономии.


https://www.anthropic.com/news/claude-sonnet-4-5

@ai_machinelearning_big_data

#claude
👍92🔥4217🥰14😁7🤣5❤‍🔥2😴2💘2🌚1🗿1
Media is too big
VIEW IN TELEGRAM
✔️ Cursor запустил бесплатный мини-курс для разработчиков, которые создают софт с помощью ИИ-моделей и инструментов.

Это не про обучение нейросетей с нуля, а про то, как правильно и эффективно использовать их в работе.Курс кратко объясняет, как устроены модели и как их применять, освещает практические приёмы для генерации кода, включает тесты, примеры промптов и интерактив с разными ИИ. Весь материал легко проходится за один вечер.
Курс

✔️ OpenAI готовит к выпуску соцсеть на базе Sora 2

Wired сообщает, что OpenAI разрабатывает отдельное приложение в стиле TikTok, но с одним ключевым отличием - весь контент в ленте будет полностью сгенерирован ИИ. Формат привычный: вертикальные видео и свайпы для навигации, но источником роликов станет Sora 2.

OpenAI делает шаг в сторону собственной соцсети, где пользователи будут не делиться контентом, а потреблять бесконечный поток видео, созданных ИИ.
Wired

✔️ Lufthansa сократит 4 000 рабочих мест, так как авиакомпания делает ставку на ИИ для повышения эффективности.

Авиакомпания объявила о сокращениях в рамках «широкой программы реструктуризации», где ключевой упор делается на цифровизацию, ИИ и автоматизацию.

В пресс-релизе компания подчеркнула, что использование AI позволит значительно повысить эффективность процессов в разных направлениях бизнеса.
Apnews

✔️ Runway запустил бесплатный курс AI for Gaming

Это обучающая программа о том, как встроить генеративные ИИ-решения Runway в полный цикл разработки игр - от первых концептов до продакшн-ресурсов и рекламных роликов.

Курс включает пять лекций: про анимацию концепт-арта, симуляцию диалогов персонажей, дизайн уровней, расширение библиотеки игровых ассетов и создание текстур.
Runway

✔️InternLM представила CapRL-3B и CapRL-Eval-3B модели для генерации текста к изображениям, по точности сопоставимая с Qwen2.5-VL-72B.

Особенно хорошо справляются с диаграммами, инфографикой и документами
Обучены с помощью RL и «проверяемых наград», что делает подписи более разнообразными и осмысленными
Лцензия Apache 2.0
HF

✔️Anthropic представила Claude Agent SDK

Новый SDK превращает Claude в платформу для создания агентов, которые умеют работать с файлами, выполнять команды, вызывать API и решать практические задачи.

В основе — цикл агента: получить контекст, действовать, проверять результат и повторять. SDK даёт готовые инструменты, субагентов и механизмы работы с памятью и контекстом.

Поддерживаются сценарии от финансовых помощников и поддержки клиентов до исследовательских и аналитических агентов.
Anthropic

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5617👍16💔2🍓2
⚡️ LoRA почти так же хороша, как полный fine-tuning, но в разы дешевле

Thinking Machines выпустили новое исследование, которое смотрит на LoRA под другим углом.

Главная идея исследования: LoRA может обучаться почти как полный fine-tuning, но при этом быть проще, дешевле и предсказуемее.

Они доказали это экспериментально: взяли одинаковую модель, прогнали обучение двумя способами: полным fine-tuning и LoRA - и сравнили кривые потерь (loss vs steps).

Процесс:
- Дали чёткий рецепт, а не случайные гипотезы.
- Показали, что процесс можно повторять с одинаковым результатом.
- Выяснили, что если адаптеру не хватает памяти, модель не ломается, а просто замедляется.

Результат показал, что при правильных настройках LoRA движется по той же траектории, что и FullFT. То есть качество модели и динамика обучения совпадают, пока у адаптера хватает параметров. Когда лимит достигается, у LoRA кривая не «обрывается», а просто идёт дальше медленнее.

Именно за счёт этого LoRA демонстрирует предсказуемое и воспроизводимое поведение, а не случайные провалы, которые часто происходят при подборе гиперпараметров «на глаз».

✔️ Правила от команды Thinking Machines
1. Ставить LoRA на все слои, а не только на attention.
2. Использовать ~10× больший learning rate, чем обычно.
3. Не раздувать batch size - иначе падает стабильность.

✔️ Что в итоге:
- Кривые обучения LoRA почти совпадают с full fine-tuning.
- Даже в упоре в лимит адаптера модель ведёт себя плавно.
- Вычислений требуется на треть меньше, чем у FullFT.

LoRA может стать инструментом для надёжного и дешёвого пост-трейнинга.

Для Thinking Machines это шаг к миссии: они уверены, что непредсказуемость моделей - это не фича, а баг, который можно исправить.

Если убрать случайность и сделать выходы стабильными - ИИ станет безопасным даже для критически важных процессов.

📌 Подробнее

@ai_machinelearning_big_data


#LoRA #FineTuning #AI #MachineLearning #DeepLearning #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
193👍43🔥207🤗2💘2🍓1
🎥 OpenAi показали Sora 2

Всё, что нужно знать коротко:
- Реализм и физика: движение стало правдоподобнее, модель учитывает сложную динамику движения.
- Законы физики соблюдаются: например, промах по кольцу в баскетболе отскакивает, а не “телепортируется”.
- Видео со звуком: синхронная генерация речи, эффектов и фоновых звуков.
- Управляемость: модель точно следует сложным промптам, держит сцены цельным, умеет в реализм и аниме.
- Cameos: можно загрузить своё видео/аудио и вставить лицо + голос в любой сгенерированный ролик.
- Пиложение: новое iOS-приложение “Sora” с лентой наподобие TikTok, ремиксами и cameo.
Доступ дают по инвайтам
- Как попробовать: доступ бесплатный, но пока только в США и Канаде, а Pro-версия генератора доступна для платных акаунтов ChatGPT Pro.
- API обещают скоро подвезти .


https://x.com/OpenAI/status/1973075422058623274

#Sora2 #OpenAI #видеогенерация #ИИ #AIvideo
133👍38🔥15😁7🗿5💘3🍓1
Media is too big
VIEW IN TELEGRAM
✔️ Zai представили GLM-4.6
Новая флагманская модель получила заметные улучшения: поддержка длинного контекста до 200K токенов, сильные возможности в рассуждении, генерации кода, поиска и агентных задачах.
Hf | Api | Попробовать

✔️ NVIDIA анонсировала новые возможности для робототехники и симуляции.
Newton - это открытый физический движок с GPU-ускорением, созданный на базе NVIDIA Warp и OpenUSD и выпущенный под лицензией Apache 2.0. Он показывает огромный прирост скорости: в задачах движения до 152× быстрее, а при манипуляции объектами — до 313× быстрее по сравнению с MJX на RTX 4090.

Isaac Lab позволяет запускать тысячи параллельных симуляций для ускоренного обучения с подкреплением. Среди демонстраций — робот ANYmal, осваивающий ходьбу, и симуляция складывания одежды с реалистичной мультифизикой.
NVIDIA Blog

✔️ Anthropic опубликовала статью о том, как правильно работать с контекстом при создании LLM-агентов.
Главная идея - контекст не равен простому prompt’у: это весь набор информации (инструкции, история сообщений, память, внешние данные), который агент использует для принятия решений.

Контекст - ограниченный ресурс, длинные цепочки приводят к «context rot» - постепенной потере качества.
Нужно уметь структурировать и минимизировать инструкции, оставляя только важное.

Важно грамотно управлять вызовами инструментов: они должны возвращать релевантные и компактные данные.
Историю лучше периодически сжимать, сохраняя факты, а не «сырые токены».

Для сложных случаев полезно делить задачи между суб-агентами, а затем агрегировать их результаты.
Эффективная контекстная инженерия делает агентов точнее, дешевле и устойчивее при работе с длинными
Подробнее

✔️ServiceNow выпустила Apriel-v1.5-15B-Thinker

Новая 15B reasoning-модель с открытыми весами набрала 52 балла в Artificial Analysis Intelligence Index - уровень моделей в сотни миллиардов параметров. Отличается сильным instruction following, многошаговыми диалогами и поддержкой 128k контекста. Доступна на Hugging Face под MIT-лицензией для свободного коммерческого использования.
HF

@ai_machinelearning_big_data


#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩82👍4121🎉15🔥11👏3💘2🤔1
🔥 Интересный кейс про ML в картографии

В статье рассказано про развитие детектора Яндекс Карт для распознавания дорожных знаков на панорамах — от бинарного классификатора до нейросетей. Сейчас детектор умеет находить почти все знаки в России. Первая же версия создавалась в 2016 году с помощью небольшого датасета и модели на классических подходах компьютерного зрения. Использовали ACFFeatures + WaldBoost с бинарными решающими деревьями.

Классические методы страдали «близорукостью» — детектили знаки только «в лоб», повороты пропускали, поэтому перешли к новой версии на свёрточных нейросетях и натренировали Faster R-CNN.

Нетривиальные архитектурные решения:
▪️Объединили все знаки ограничения скорости в один класс + дополнительная сеть для распознавания чисел на вырезанном знаке
▪️ То же с направлениями по полосам — детектор находит знак, дополнительная модель выдаёт бинарный вектор направлений
▪️ Создали отдельную модель для обработки найденных знаков многополосности. Полная техническая реализация описана в статье.

🟢 Главная проблема — сбор датасета

Как обычно, всё упёрлось в данные для обучения. Терабайты фотографий улиц прогонять через асессоров — дорого и неэффективно. Выстроили такой процесс: сначала автоматически находить фотографии, где есть дорожные знаки, и только потом отправлять их на разметку асессорам.

🟢 Финальные цифры:
▪️ 300 тысяч фотографий в датасете
▪️ 1,5 миллиона размеченных знаков
▪️200+ поддерживаемых классов знаков

Любопытный факт: самый частый знак в датасете — пешеходный переход.

Практический результат: всё это помогает автоматически обновлять данные в Картах, по которым сервис строит маршруты, выдаёт голосовые подсказки о том, с какой скоростью ехать и тд. В год так вносится более 200 тысяч автообновлений

⚡️ Статья: https://habr.com/ru/companies/yandex/articles/946338/

@ai_machinelearning_big_data

#ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍325🔥254205👏88🥰56😁53🤔22🤣9🤩7👌5❤‍🔥1