Машинное обучение digest
49 subscribers
1.42K photos
194 videos
723 links
Download Telegram
🔥 Хочешь прокачаться в аналитике, но не просто читать теорию, а решать реальные задачи?

Мы запустили полностью бесплатный телеграм-тренажёр 👇

Тебя ждут сценарии, с которыми сталкиваются аналитики каждый день: от простых запросов до задач уровня собеседований.

Что внутри:

живые кейсы из реальной практики
удобный симулятор - как работа в компании, только бесплатно
разбор ошибок — понимаешь не только «как», но и «почему»
добавляем задачи с интервью и улучшаем бот вместе с сообществом

Начни тренироваться сегодня — и почувствуй уверенность в работе с данными.

t.me/Analitics_databot
🖥 Подробный вводный курс по парсингу на Python 2026 года

В этом бесплатном курсе вы шаг за шагом научитесь собирать данные с веб-сайтов с помощью Python. Мы начнём с основ парсинга (скрапинга) - автоматического сбора информации с веб-страниц – и постепенно перейдём к более продвинутым темам.

Материал разбит на модули с понятными примерами и практическими заданиями после каждой темы. Курс рассчитан на начинающих и продолжающих (junior/middle) разработчиков, знакомых с основами Python.

📌 Гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
Главные новости ИИ и Мл

✔️ Commonwealth Fusion Systems запустит термоядерный реактор в 2027 году.

Стартап Commonwealth переходит от теоретических моделей к реальному строительству демонстрационной установки SPARC. Для ускорения разработки инженеры используют «цифровых двойников» на базе ИИ, созданных в партнерстве с Siemens и Nvidia.

Получение первой плазмы запланировано уже на 2027 год. Успех этого этапа откроет дорогу к запуску полноценной коммерческой станции ARC мощностью 400 МВт в начале 2030-х годов.

Такая установка способна обеспечить электричеством около 300 тыс. домов. В компании говорят, что стабильная и чистая энергия станет важным ресурсом в первую очередь для питания дата-центров, обслуживающих ИИ.
fortune.com

✔️ Arm открывает подразделение Physical AI.

Arm Holdings проводит реструктуризацию, чтобы закрепиться на растущем рынке роботов. Компания объявила о создании нового бизнес-юнита «Physical AI», который объединит разработки для автомобильной индустрии и робототехники. Теперь глобальная стратегия Arm будет строиться вокруг трех направлений: Cloud & AI, Edge (мобильные устройства и ПК) и нового сегмента физического ИИ.

По словам директора по маркетингу Arm, слияние автомобильного и робототехнического векторов — это инженерная необходимость. Оба направления предъявляют одинаковые требования к архитектуре чипов: безопасность, отказоустойчивость и оптимизация энергопотребления. Возглавит новую структуру Дрю Генри, а компания уже анонсировала расширение штата специалистов под эти задачи.
reuters.com

✔️ NVIDIA RTX 60ХХ может задержаться до 2027 года.

По данным инсайдеров, следующее поколение потребительских видеокарт NVIDIA выйдет не раньше второй половины 2027 года. Это создаст беспрецедентный разрыв между релизами: учитывая выход серии RTX 50 в начале 2025-го, ожидание новинок растянется минимум на 30 месяцев — рекордный срок обновления для линейки GeForce.

Причиной задержки стал рост потребностей ИИ. Огромный спрос на компьют спровоцировал дефицит GDDR7 и скачок цен, из-за чего Micron пересмотрела приоритеты производства в ущерб потребительской памяти.

Ожидается, что будущая серия RTX 60ХХ будет базироваться на архитектуре Vera Rubin (GPU GR200). В качестве временной меры для насыщения рынка компания, по слухам, рассматривает повторный выпуск RTX 3060.
techspot.com

✔️ Gmail начинает переход на Gemini 3.

Google объявила о начале «эры Gemini» в своем почтовом сервисе. Главным нововведением стала система AI Overviews, заимствованная из поиска. В Gmail она выполняет 2 задачи: автоматически создает краткие выжимки из длинных цепочек писем и позволяет искать информацию через запросы.

Инструменты для написания писем также получили апгрейд. Функция Help Me Write для генерации и редактирования черновиков стала бесплатной для всех пользователей. Привычные шаблонные ответы заменили на Suggested Replies — они анализируют контекст переписки и пытаются имитировать стиль автора.

Параллельно, Google тестирует режим AI Inbox, который должен решить проблему перегруженных ящиков, автоматически выделяя приоритетные письма на основе истории взаимодействия с контактами. На данный момент эти обновления появляются у пользователей из США.
blog.google

✔️ Hugging Face запустила функцию «чата со статьями» для анализа публикаций.

Платформа интегрировала умного ассистента в раздел Hugging Face Papers. Теперь при просмотре любой научной работы доступен встроенный интерфейс на базе HuggingChat и собственного MCP-сервера.

Новый инструмент ускоряет процесс погружения в сложные исследования. Вместо полного чтения PDF можно попросить сделать саммари, объяснить ключевые концепции или найти конкретные данные внутри текста в режиме диалога.

Функция работает автоматически для всех ссылок на arXiv, размещенных на хабе.
huggingface.co

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Андрей Карпаты нашел идеальный баланс токенов и параметров для обучения LLM.

Андрей Карпаты опубликовал результаты экспериментов по оптимизации претрейна языковых моделей в условиях фиксированного бюджета.

Чтобы найти наиболее эффективный способ расходования вычислительных ресурсов, он провел серию тестов на сервере с 8х GPU H100, обучив 11 моделей разного размера при одинаковых затратах на вычисления.

🟡Главный вывод: существует «золотое сечение».

Карпаты обнаружил, что по мере увеличения мощностей оптимальное количество параметров и тренировочных токенов растут синхронно. Эмпирическое правило для протестированных конфигураций: на 1 параметр модели должно приходиться примерно 8 токенов обучающей выборки.

Если модель слишком мала, она не усваивает достаточно информации; если слишком велика — бюджет заканчивается раньше, чем она успевает обучиться.

Для инженеров этот рецепт позволяет заранее планировать архитектуру и бюджет, избегая создания заведомо неэффективных моделей.

Традиционно, все эксперименты Андрея открыты и их можно повторить самостоятельно.

🔜 Погрузиться в детали экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Karpathy
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ OpenAI поглотила команду стартапа Convogo.

OpenAI начала год с приобретения: к компании присоединяется команда Convogo, платформы для автоматизации работы HR-специалистов и бизнес-коучей. Представители техгиганта подтвердили, что речь идет именно о трансфере талантов, а не о покупке технологий или интеллектуальной собственности.

Для OpenAI это уже 9-е приобретение за последний год. В прощальном письме команда Convogo отметила, что их главная экспертиза заключается в создании прикладных инструментов, которые превращают возможности нейросетей в реальные рабочие процессы — именно этим они и продолжат заниматься на новом месте.

Финансовые условия сделки не разглашаются, однако известно, что она была полностью оплачена акциями. Сам сервис Convogo будет закрыт.
finance.yahoo.com
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ DeepSeek выпустит V4 в феврале.

Китайская лаборатория планирует представить модель следующего поколения уже в середине февраля 2026 года, пишет The Information.

Релиз V4 будет приурочен к празднованию Китайского Нового года (с 15 по 23 февраля), а главным преимуществом новой модели заявлены "выдающиеся способности в программировании".

Источники издания утверждают, что внутренние бенчмарки показывают превосходство V4 над флагманскими решениями OpenAI и Anthropic в задачах написания кода.

Архитектура модели оптимизирована для эффективной утилизации аппаратных ресурсов и обработки длинных технических промптов.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
💰 Ларри Пейдж и Сергей Брин “съезжают” из Калифорнии перед голосованием по налогу на миллиардеров

В Калифорнии готовят громкую инициативу - налог на сверхбогатых, который могут вынести на голосование в ноябре.

Суть предложения
- если ты резидент Калифорнии и твоё состояние выше $1 млрд, государство хочет взять разовый налог 5%
- платить можно растянуто, в течение 5 лет

И вот на фоне этой идеи происходят интересные движения.

По данным Fortune, Google-сооснователи начали переводить десятки своих бизнес-структур из Калифорнии в другие штаты заранее - чтобы снизить риски перед потенциальным введением налога.

Сколько это в деньгах
Если ориентироваться на оценку Bloomberg Billionaires Index, состояние Пейджа около $270 млрд.
5% от этого - примерно $13 млрд.

Дженсен Хуанг (NVIDIA) реагирует иначе
Самое забавное - не все миллиардеры нервничают.

Глава NVIDIA Дженсен Хуанг сказал, что ему всё равно:
он даже не думал об этом налоге и готов платить столько, сколько нужно.

Его логика простая:
Силиконовая долина - место, где ты живёшь, если хочешь доступ к лучшим людям и талантам.
И вместо “побега” NVIDIA, наоборот, расширяется в Bay Area.

Эта история хорошо показывает раскол среди техноэлиты:
- одни заранее оптимизируют риски и выводят активы
- другие считают, что талант и экосистема важнее любых налогов

fortune.com/2026/01/07/did-larry-page-leave-california-billionaire-tax-jensen-huang/
📌Hyundai получила награду «Лучшая инновация в области робототехники» на CES 2026.

Мобильная платформа нового поколения, Mobile Eccentric Droid (MobED), признана лучшей инновацией года.

Эта платформа размером 74 на 115 сантиметров оснащена 4 колесами и уникальной системой стабилизации. Она использует технологию Drive and Lift, которая позволяет преодолевать роботу препятствия высотой до 20 сантиметров, уверенно ехать по склонам и "лежачим полицейским", сохраняя при этом горизонтальное положение корпуса.

MobED подготовлен к работе на улице. Он разгоняется до 10 км/ч и работает более 4 часов на одном заряде. В зависимости от модификации, он может везти на себе от 47 до 57 кг. груза.

Массовое производство стартует в первом квартале этого года. Hyundai предлагает две версии:

🟠MobED Basic - тренажер для разработчиков и исследовательских институтов. Вы получаете платформу и сами пишете под неё софт.

🟢MobED Pro - готовое решение для бизнеса. Здесь предустановлены технологии автономного вождения. Система использует ИИ и сенсоры, объединяющие LiDAR и камеры. Управлять таким роботом можно удаленно — интерфейс сделали максимально интуитивным.

Представитель Hyundai Robotics Lab отметил, что эта награда - переход от концептов к реальным продуктам, которые меняют нашу повседневную жизнь.

Напомним, концепт MobED впервые показали еще на CES 2022, и вот, спустя почти 4 года, мы видим серийную модель.

Кстати, в Hyundai говорят, что если масштабировать эту технологию и увеличить грузоподъемность, в будущем мы получим персональный транспорт для человека — нечто среднее между роботом и автомобилем.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
10 дней 2026 года - и уже видно, куда всё катится 🔥

Три новости, которые выглядят как мем… но на самом деле это сигналы больших изменений.

1) Теренс Тао + Aristotle решают задачу Эрдёша
Теренс Тао - один из самых сильных математиков планеты.
И тут появляются новости, что GPT/проект Aristotle смог автономно (то есть без “пошагового ведения человеком”)
решить одну из задач уровня Paul Erdős.

ИИ начинает заходить в область, где раньше были только топ-учёные, и не просто “помогает”, а сам решает.

2) Линус Торвальдс признаёт: vibe coding лучше ручного кода
Линус - создатель Linux. Символ “старой школы” и инженерной строгости.
И он буквально пишет в коммите, что изменения, сделанные через AI-ассистента, получились лучше,
чем если бы он делал сам вручную (речь не про ядро, а про личный инструмент).

Если даже Линус говорит “да, так реально быстрее и лучше”, то AI-кодинг уже не игрушка.
Это новый стандарт разработки для всего, что не относится к сверхкритичному low-level.

3) DHH “AI не умеет кодить” → откат назад
DHH (создатель Ruby on Rails) раньше говорил, что “AI не может нормально кодить”.
Но спустя 6 месяцев он пересматривает позицию.

Скептики не “переобуваются ради хайпа” - они просто сталкиваются с фактом:
модели стали настолько сильнее, что игнорировать это уже невозможно.

Это не просто три новости.
Это три маркера одного и того же тренда:

ИИ перестаёт быть “помощником”
и становится инструментом ускорения человечества.

И похоже, нас ждёт ускорение, которого мы ещё не видели.
MIT: большие датасеты не всегда нужны - можно вычислить “минимум данных”, который гарантирует лучший ответ

Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.

Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.

То есть система отвечает на вопрос не “примерно”, а строго:

👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.

В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.

А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее

Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.

Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid

Каждое измерение может быть: дорогим, медленным, опасным или редким.

И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.

Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 DroPE: как расширить контекст LLM, просто “выкинув” позиционные эмбеддинги (механизм, который говорит трансформеру в каком порядке идут токены.)

Sakana AI выпустили DroPE - метод, который позволяет увеличить контекст у уже предобученных LLM без привычных адских затрат на long-context fine-tuning.

Идея звучит как ересь, но результаты говорят об обратном .

💡 Главный инсайт
Позиционные эмбеддинги (например RoPE) жизненно важны, чтобы модель нормально обучилась и сошлась.

Но после обучения они же становятся главным ограничителем, из-за которого модель плохо переносит контекст длиннее, чем видела на трейне.

То есть:
- для обучения - нужны
- для генерализации на очень длинные последовательности - мешают

Решение DroPE
Авторы предлагают относиться к позиционным эмбеддингам как к временным “строительным лесам”:
- в pretraining они дают стабильность
- после обучения их можно сбросить (drop)
- и получить zero-shot length extrapolation (модель начинает заметно лучше работать на длинах, которых не видела)


Большие контексты нужны пользователям :
- огромные code diff и монорепы
- юридические контракты на сотни страниц
- аналитика логов и документов без разбиения на чанки

Именно тут многие стандартные модели начинают “ломаться” просто потому что контекст слишком длинный.

Результаты
DroPE проверили на разных open-source моделях:
- калибровка занимает <1% бюджета от исходного pretraining
- а качество на long-context задачах заметно лучше популярных подходов
- сильные результаты на LongBench и RULER

Позиционка нужна, чтобы обучить модель, но может быть лишней, чтобы мыслить длинно

Возможно RoPE - не “обязательная часть архитектуры”, а просто инструмент для стабильного обучения.

📄 Paper: arxiv.org/abs/2512.12167
🔧 Code: github.com/SakanaAI/DroPE

@ai_machinelearning_big_data

#sakana #ai #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
😳 Новое оекарство увеличило REM-сон на 90% — без увеличения общего времени сна

REM (Rapid Eye Movement) - это фаза сна с быстрыми движениями глаз.

Именно в ней мозг работает почти как в бодрствовании: чаще всего снятся яркие сны, активно обрабатываются эмоции и закрепляется память.

Новый препарат смог почти в 2 раза поднять долю REM-сна
и при этом люди не спали дольше.

Почему это “вау”:
обычные снотворные просто помогают быстрее отключиться или спать глубже.
А тут другое.

Это выглядит так, будто препарат перепрошил ночной режим мозга: тот же самый объём времени сна — но внутри него мозг проводит намного больше времени в REM.

Потенциальный плюс огромный:
- быстрее обучение
- эмоциональная устойчивость
- яснее мышление

Но главный вопрос — долгосрочная безопасность.
Если мозг реально выдержит такой режим долго, это может быть шаг к
инженерному сну: не “спать дольше”, а “спать умнее”.
🧭 LLMRouter - умная маршрутизация запросов между LLM

UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:

не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее

Идея простая:
разные модели сильны в разном.

Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.

LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики

В итоге:
обычные вопросы идут в дешёвую модель
сложные reasoning-задачи - в сильную
код/инструменты - в специализированную
и всё это автоматически

Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.

Короче: это “load balancer” для LLM, но с мозгами.

GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps

@pythonl
Автоматизируем рутину на максимум: вышла Manus Academy - платформа с бесплатными курсами по ИИ-агентам.

Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).

https://academy.manus.im/
🧠 Awesome Agentic Patterns - шпаргалка по агентам, которая реально полезна

Наткнулся на репозиторий awesome-agentic-patterns - и это один из самых практичных “awesome-листов” по теме AI-агентов.

📌 Что внутри:
не теоретические рассуждения, а паттерны - мини-архитектуры и рабочие приёмы, которые используют команды, когда делают production-агентов.

Автор прямо пишет идею проекта:
> тут не про “игрушки и демки”, а про штуки, которые закрывают грязную реальность продакшена.
Почти любой агент в проде упирается в одни и те же проблемы:

- контекст не помещается → нужно умно управлять памятью
- модель косячит → нужны retry/валидация/guardrails
- цепочки действий ломаются → нужна оркестрация
- непонятно, что пошло не так → нужны логи + eval
- безопасность / PII → нужен sandbox и фильтрация

И вот под это как раз собраны паттерны.

https://github.com/nibzard/awesome-agentic-patterns

@pythonl