Big Data AI
17K subscribers
939 photos
122 videos
19 files
933 links
@haarrp - админ

Вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейроннным сетям

@data_analysis_ml - анализ данных

@ai_machinelearning_big_data

@itchannels_telegram - важное для программиста

РКН: clck.ru/3Fmqxe
Download Telegram
MIRA: Multimodal Imagination for Reasoning Assessment

Представили новый бенчмарк для проверки «воображения» ИИ - умения рассуждать, рисуя и визуализируя мыслительный процесс, а не только отвечая текстом.

В наборе: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Модели должны думать через эскизы, схемы и визуальные шаги, а не просто словами.

Режимы тестирования:
• Direct — модель отвечает напрямую
• Text-CoT — текстовый chain-of-thought
• Visual-CoT — модель рассуждает через рисунки и визуальные шаги

Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике

Вывод прост и важен:
ИИ становится умнее, когда может воображать и рисовать, а не только писать текст.
Будущее reasoning-моделей - в визуальном мышлении.

PAPER: https://arxiv.org/abs/2511.02779
PROJECT: https://mira-benchmark.github.io
6🔥3👍1
🤖 Создание AI-агентов с нуля

Этот репозиторий предлагает практическое руководство по созданию AI-агентов без использования фреймворков. Вы изучите основы работы LLM, архитектуры агентов и их взаимодействие с инструментами, что поможет глубже понять, как работают современные AI-системы.

🚀 Основные моменты:
- Пошаговые примеры создания AI-агентов
- Изучение основ LLM и их архитектур
- Применение системных подсказок и инструментов
- Разработка агентов с памятью и стратегическим мышлением
- Практическое понимание работы без фреймворков

📌 GitHub: https://github.com/pguso/ai-agents-from-scratch
🔥53
Жиза
😁244👍3🥰1💯1
UNO-Bench — унифицированный бенчмарк для оценки omni-моделей.

Основное:
- 44 типа задач, 5 комбинаций модальностей
- 3.7K тщательно подобранных примеров
- оценка быстрее на 90 процентов при сохранении 98 процентов консистентности
- новый формат многошагового open-ended reasoning
- показывает композиционный закон между uni и omni производительностью

Ссылки:
huggingface.co/papers/2510.18915
huggingface.co/datasets/meituan-longcat/UNO-Bench
🚀 LongCat-Flash-Omni - новая открытыая560B omni-modal модель от Meituan

Новая SOTA-модель LongCat-Flash-Omni (560B параметров) - универсальная омнимодальная система, которая работает с видео, аудио, текстом и действиями в реальном времени.

Что в ней важно:

- Mixture-of-Experts архитектура - даёт высокую скорость и низкие задержки, несмотря на масштаб 560B.
- Полноценное мультимодальное понимание: видео + аудио + текст, обработка движений и сцен в потоке.
- Modality-decoupled parallelism — модель тренировали так, чтобы эффективно комбинировать разные типы данных, не тормозя обучение.
- Заявлен SOTA-уровень качества среди открытых омнимодальных моделей.

Технический отчёт: https://huggingface.co/papers/2511.00279
Модель: https://huggingface.co/meituan-longcat/LongCat-Flash-Omni
Проект: https://longcat.ai
4👍3
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.

Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.

Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com

✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.

Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.

Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.

Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com

✔️ xAI проведет 24-часовой хакатон.

xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.

Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai

✔️ Выбор новостных источников ChatGPT зависит от способа доступа.

Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.

Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.

Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io

✔️ Wikipedia хочет справедливого лицензирования своего контента.

Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.

В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.

Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32
🚀 Мощный движок для мультимодальных моделей

LMMs-Engine — это легкий и гибкий фреймворк для обучения мультимодальных моделей. Он поддерживает множество архитектур и оптимизирован для работы на больших масштабах, обеспечивая высокую эффективность и простоту использования.

🚀 Основные моменты:
- Поддержка 19+ архитектур, включая модели для обработки текста, изображений и видео.
- Оптимизации для распределенного обучения и снижения потребления памяти.
- Удобные примеры запуска для различных моделей.

📌 GitHub: https://github.com/EvolvingLMMs-Lab/lmms-engine🚀 Мощный движок для многомодальных моделей
2
📝🚀 Kimi Writing Agent: Автономный писатель для создания книг и рассказов

Kimi Writer использует модель kimi-k2-thinking для самостоятельного написания произведений. Он поддерживает различные форматы, включая романы и сборники рассказов, и предлагает функции реального времени, управления контекстом и восстановления работы.

🚀Основные моменты:
- 🤖 Автономное написание с планированием задач
- 📚 Поддержка создания книг и рассказов
- Реальное время отображения процесса написания
- 💾 Умное управление контекстом и восстановление
- 📊 Мониторинг токенов в реальном времени

📌 GitHub: https://github.com/Doriandarko/kimi-writer

#python
4🔥1
🚀 **VibeThinker-1.5B** - модель, которая ломает миф «больше параметров = умнее».

Основное:
- всего 1.5B параметров
- обучена по новому принципу Spectrum-to-Signal (SSP)
- обходит модели в 400 раз больше (например, 671B DeepSeek-R1) на сложных математических тестах AIME24/25 и HMMT25
- сравнима с 456B MiniMax-M1 и держится на уровне Mistral Magistral-Medium на LiveCodeBench v6
- стоимость пост-обучения — менее $8K (против $290K+ у других)

💡 SSP сначала заставляет модель исследовать разные пути решения, а затем с помощью RL сужает их до оптимальных стратегий. Умная схема обучения вместо слепой гонки за размером.

🌍 Модель полностью открыта, чтобы дать исследователям и небольшим командам доступ к продвинутым возможностям без огромных бюджетов.

🔗 Попробовать:
ModelScope: https://modelscope.cn/models/WeiboAI/VibeThinker-1.5B
arXiv: https://modelscope.cn/papers/2511.06221
👍2
# ⚠️ Расследователи сомневается в AI-сделках Oracle на $300 млрд — и это тревожный сигнал

Сейчас мы видим, как крупнейшие IT-компании (гиперскейлеры) заключают многолетние контракты на искусственный интеллект на сотни миллиардов долларов.

Но никто ещё не проверял, насколько всё это реально окупается. Это - эксперимент на деньгах, технологиях и времени.

💸 Если хотя бы часть этих сделок не сработает, задержится или не принесёт ожидаемой прибыли, удар почувствует вся AI-индустрия - от чипов до облаков.

🧱 Да, AI-бум реален. Но его финансовый фундамент пока как мокрый цемент — выглядит крепко, но легко может просесть.

🎯 Если у Oracle получится - они войдут в список самых влиятельных компаний мира.
Если нет — вся отрасль поймёт, насколько эта гонка на самом деле рискованна и нестабильна.

> 📊 Пузыри не лопаются, когда в них перестают верить.
> Они лопаются, когда кто-то наконец проверяет цифры.
5🔥4
🎮 Погружение в мир AI-социума

Microverse — это песочница, где AI-герои взаимодействуют в открытом мире, развивая свои социальные связи. Проект включает демо-версию игры, созданной на Godot 4, и предлагает уникальный опыт общения с многофункциональными AI-персонажами.

🚀 Основные моменты:
- Песочница с AI-экосистемой для социальных взаимодействий
- Поддержка многопользовательских AI-диалогов
- Долговременная память для персонажей
- Автономное управление задачами и взаимодействиями
- Интеграция с различными AI-сервисами

📌 GitHub: https://github.com/KsanaDock/Microverse

#gdscript
🤖 Claude Code Infrastructure Showcase

Этот репозиторий представляет собой библиотеку проверенной инфраструктуры для Claude Code, созданную на основе 6 месяцев реального использования в проекте с микросервисами на TypeScript. Он предлагает решения для автоматической активации навыков и масштабирования разработки на уровне предприятия.

🚀 Основные моменты:
- Автоматическая активация навыков через хуки
- Модульные паттерны навыков с прогрессивным раскрытием
- Специализированные агенты для сложных задач
- Документация для разработчиков, устойчивая к сбоям контекста
- Примеры использования на основе реального домена

📌 GitHub: https://github.com/diet103/claude-code-infrastructure-showcase

#typescript
1
🚨 Новая редкая работа от Терренса Тао: AlphaEvolve решает часть математических задач лучше людей

Google представила AlphaEvolve - систему, которая эволюционным поиском находит решения к сложным математическим задачам. Тао протестировал её на 67 задачах из разных областей: от неравенств до числовых констант.

📌 Что проверяли
- задача о «движущемся диване» в 2D и 3D
- Kissing problem в N-мерном пространстве
- упаковка окружностей
- задача IMO 2025 по тесселяции
- задача о стопках блоков

🧠 Как работает AlphaEvolve
Алгоритм запускает множество параллельных попыток, проверяет решения, а затем «скрещивает» лучшие идеи, отбирая наиболее успешные.

🔥 Интересные выводы
- сильнее модель - быстрее сходимость (хотя не всегда)
- параллельность ускоряет поиск, но сильно увеличивает стоимость
- reward hacking встречается часто
- результаты значительно лучше, если похожие задачи были в обучении и если процесс направляет эксперт (особенно когда эксперт - сам Тао)

💡 Важное предложение из статьи
Тао предлагает вводить класс задач «AlphaEvolve-hard» - те, где ИИ не может легко нарушить неравенство или найти конструкцию. Такие задачи требуют принципиально нового человеческого инсайта.

Эта работа пролетела почти незаметно, но я провёл над ней больше двух часов - и это одна из самых впечатляющих математических статей за последнее время.

https://www.alphaxiv.org/abs/2511.02864v1
👍5🔥1
TextOp - фреймворк для управления гуманоидными роботами с помощью текста в реальном времени.

🎯 Что умеет:
- Принимает инструкции на естественном языке и превращает их в плавные, целостные движения тела робота.
- Позволяет мгновенно корректировать команды — изменения принимаются «на лету».
- Обеспечивает высокую скорость и живость реакции: текст → движение почти мгновенно.

🌟 Почему стоит:
- Удобный интерфейс: управляйте роботом так, как разговариваете с человеком.
- Интерактивность: меняйте команду в процессе выполнения — робот подстраивается.
- Применимо для демонстраций, взаимодействий с людьми, сервисных задач, шоу-роботов и множества других сценариев.

Если ищете способ управлять движением робота без сложного программирования - TextOp даёт простой и мощный путь.

http://text-op.github.io
This media is not supported in your browser
VIEW IN TELEGRAM
LoRA-модель для Qwen-Image-Edit-2509, которая автоматически:
• выравнивает страницу скана
• убирает центральный сгиб
• правильно обрезает изображение
• делает скан похожим на ровную, отдельную страницу

Единственное, что нужно - подобрать подходящее соотношение сторон под формат вашей книги, тогда результат будет максимально чистым.

Модель здесь:
https://huggingface.co/tarn59/book_flatten_and_crop_qwen_image_edit_2509
2
🚀 Оптимизация нагрузки с LPLB для MoE моделей

LPLB — это параллельный балансировщик нагрузки, использующий линейное программирование для оптимизации распределения нагрузки в моделях Mixture-of-Experts. Он динамически перераспределяет экспертов на основе статистики нагрузки, решая задачи распределения токенов для достижения балансировки.

🚀 Основные моменты:
- Использует линейное программирование для перераспределения токенов.
- Поддерживает динамическое переупорядочение экспертов.
- Оптимизирован для работы с NVIDIA cuSolverDx и cuBLASDx.
- Подходит для больших распределенных систем с несколькими GPU.
- Находится на стадии ранних исследований.

📌 GitHub: https://github.com/deepseek-ai/LPLB

#python
⚡️ Китай поглощает электричество темпами, которых мир ещё не видел

Рост потребления электроэнергии в Китае за последние годы поражает:

- За 4 года Китай добавил столько потребления, сколько вся Индия.
- За 6 лет — как Евросоюз.
- За 11 лет — как США.

И вот главный вывод:

⚠️ Электроэнергия становится новым узким местом, даже более критичным, чем чипы.

ИИ-центры, дата-центры, роботизированные фабрики, электромобили — всё требует колоссальных объёмов энергии.
Тот, кто сможет производить больше всего дешёвой электроэнергии, будет доминировать в следующей техно-эпохе.

И Китай в этой гонке далеко впереди Европы и США:
масштабные инвестиции в генерацию, сеть, ВИЭ, атом и гидро дают ему огромное преимущество.

Энергия становится новой нефтью — и КНР уже накопила стратегический запас.
👍111