308K subscribers
4.89K photos
1.08K videos
17 files
5.28K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📌Онлайн курс "Преобразование Фурье и его приложения"

Преобразование Фурье – это математический метод, который широко применяется в науке и технике для анализа сигналов. Этот метод основан на представлении сигнала в виде суммы синусоидальных и косинусоидальных функций разных частот.

Анализ Фурье оказал значительное влияние на развитие математики, стимулируя развитие теории обобщенных функций. Применение преобразования Фурье основано на принципе линейности, который позволяет анализировать сложные сигналы путем разложения их на более простые составляющие.

Курс «EE 261 Преобразование Фурье и его приложения», предлагаемый онлайн-платформой Stanford Engineering Everywhere Университета Стэнфорда, посвящен изучению преобразования Фурье и его практическому применению.

Цель курса – научить студентов применять преобразование Фурье для решения практических задач в различных областях науки и техники. В рамках курса рассматриваются темы:

🟢Ряды Фурье;
🟢Основные свойства преобразования Фурье;
🟢Свертка;
🟢Обобщенные функции;
🟢Дискретизация;
🟢Линейные системы;
🟢Дискретное преобразование Фурье;
🟢Алгоритм быстрого преобразования Фурье;
🟢Двумерное преобразование Фурье.

Курс состоит из 30 лекций, дополнительных материалов к ним и предназначен для студентов с разным уровнем подготовки, для тех, кто впервые знакомится с преобразованием Фурье, так и для тех, кто уже изучал его в других курсах.

@ai_machinelearning_big_data

#AI #ML #FourierTransform #Stanford #Course
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4810🔥5🤓3🤔2👏1😁1😢1🎉1
💼 Ежегодный отчёт AI Index 2025, опубликованный Стэнфордом HAI (Human-Centered Artificial Intelligence), представляет собой ежегодное исследование, которое систематизирует и анализирует ключевые тенденции в области искусственного интеллекта (ИИ).

Главное:
Резкий рост производительности ИИ: Ai модели показывают значительное улучшение на сложных бенчмарках (например, +48.9% на GPQA, +67.3% на SWE-bench за год).

Глубокая интеграция в жизнь: ИИ активно используется в медицине (FDA одобрило 223 ИИ-устройства в 2023, против 6 в 2015) и транспорте (Waymo: 150,000+ поездок/неделю).

Бум инвестиций и использования в бизнесе: 78% организаций используют ИИ (рост с 55% за год). Частные инвестиции в США достигли $109.1 млрд (против $9.3 млрд в Китае). Глобальные инвестиции в генеративный ИИ - $33.9 млрд.

Геополитика ИИ: США лидируют, Китай догоняет: США создали 40 передовых моделей, Китай – 15, но быстро сокращает разрыв в качестве.

Ответственный ИИ (RAI) и регулирование ИИ: Развитие RAI неравномерно, но правительства активизируются. В США число федеральных ИИ-регуляторов удвоилось (59 в 2024). Глобальные упоминания ИИ в законодательстве выросли в 9 раз с 2016 года.

Доступность ИИ растет: Стоимость вычислений (inference) для модели уровня GPT-3.5 упала более чем в 280 раз за ~2 года. Стоимость оборудования снижается на 30% ежегодно. Открытые модели почти догнали закрытые по производительности на некоторых задачах (разрыв сократился с 8% до 1.7% за год).

Индустрия ИИ доминирует, конкуренция усиливается: Почти 90% передовых моделей созданы тех гигантами. Разрыв между топ-1 и топ-10 моделями сократился с 11.9% до 5.4% за год.

🟡Основные инсайты
🟡Полный отчет

#ai #AIIndexReport #stanford
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5222🔥17😐4
💡 Исследователи из ByteDance и Stanford предложили новый метод для генерации длинных видео — Mixture of Contexts.

🔑 В чём проблема:
Когда видео становится длинным, внимание модели сильно «раздувается»: растёт стоимость вычислений, модель теряет детали на генерациях, забывает персонажей и «дрейфует».

Чем интересен Mixture of Contexts:
- Видео разбивается на куски (кадры, шоты, подписи).
- Каждый запрос выбирает только нужные чанки, вместо того чтобы учитывать всю историю.
- Для этого используется простая оценка релевантности: сравнение признаков чанков с текущим запросом.
- Обязательно учитываются два «якоря»: полный текстовый промпт и локальный шот для деталей видео.
- Causal mask блокирует внимание к будущим кадрам, чтобы не было зацикливаний.
- Дальше применяется Flash Attention только к выбранным чанкам — вычисления растут не с длиной всего видео, а только с полезным контекстом.

📊 Результаты:
- В 7 раз меньше FLOPs
- В 2.2 раза быстрее работа
- На длинных сценах (180k токенов) отсекается 85% ненужного внимания

🎥 Итог:
- Короткие клипы сохраняют качество
- Длинные сцены становятся более плавными, а персонажи — стабильными
- Время генерации заметно сокращается

Главное: модель учится сама понимать, на что смотреть, получая «память» на минуты видео без изменения базовой архитектуры.

🟠 Подробнее

@ai_machinelearning_big_data

#AI #ML #ByteDance #Stanford #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
120🔥32👍23👏2🥱1💘1
🌟 OpenJarvis: фреймворк все-в-одном для ИИ-агентов

Stanford SAIL замерили, насколько эффективно локальные языковые модели конвертируют электроэнергию в полезные вычисления и назвали этот показатель "intelligence per watt".

Они прогнали больше миллиона реальных запросов через 20+ моделей на 8 разных ускорителях и выяснили: с 2023 по 2025 год эффективность локального инференса выросла в 5,3 раза, а современные небольшие модели уже справляются с 88,7% обычных чат- и ризонинг-запросов. Железо и алгоритмы готовы, но не хватало софта.

Так появился OpenJarvis: открытый фреймворк, который превращает эти выводы в инфраструктуру для персональных ИИ-агентов, работающих на устройстве пользователя.

Авторы проводят параллель с PyTorch: OpenJarvis должен стать для локального ИИ тем, чем PyTorch стал для глубокого обучения - стандартной инфраструктурой, на которой строится все остальное.


Фреймворк структурирован вокруг 5 примитивов:

🟢Intelligence - слой языковых моделей с единым каталогом, где не нужно самому отслеживать релизы и считать память.

🟢Engine - бэкенд инференса: Ollama, vLLM, SGLang, llama.cpp, Apple Foundation Models и другие. Openjarvis сам определяет железо и рекомендует конфигурацию.

🟢Agents - слой поведения: роли оркестратора и исполнителя рутинных сценариев, адаптированные под ограниченный контекст и память на устройстве.

🟢Tools & Memory - интеграции через MCP и Google A2A, семантическая индексация локальных документов, подключение к iMessage, Telegram и т.д.

🟢Learning - механизм адаптации: локальные трейсы превращаются в обучающие данные через SFT, LoRA и GRPO. Система сама упаковывает этот процесс в рабочий флоу.

Отдельная фишка - подход к эффективности. OpenJarvis профилирует энергопотребление на NVIDIA, AMD и Apple Silicon с интервалом 50 мс.

Использовать можно через CLI, браузерный дашборд или десктопное приложение для macOS, Linux и Windows.

⚠️ Для полного функционала (безопасность, инструменты, агенты) потребуется Rust.

Помимо самого проекта, команда запустила конкурс-лидерборд экономии денег, энегрии и компьюта, в котором принять участие может любой желающий. В качестве приза самому экономному обещают Mac Mini.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Документация
🟡Сообщество в Discord
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Framework #OpenJarvis #Stanford
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
159🤓42👍21🎉12👏6🔥5🤣4😍2🤨2🤷‍♂1💘1