🚀 DR Tulu: Прорыв в открытых моделях для глубоких исследований (Deep Research)
Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.
💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.
Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).
Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.
Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.
Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.
📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:
Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.
Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).
Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.
🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).
Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.
🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu
Инструкция как запустить локально
#Tulu #DeepResearch
———
@tsingular
Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.
💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.
Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).
Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.
Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.
Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.
📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:
Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.
Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).
Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.
🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).
Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.
🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu
Инструкция как запустить локально
#Tulu #DeepResearch
———
@tsingular
⚡10🔥7🆒3❤1
🏛 ИИ-система для оценки законопроектов Конгресса США
Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.
Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)
Интересный проект, как для законотворчества, так и для оценки работы законодателей.
GitHub
#USA #poliscore #законы
———
@tsingular
Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.
Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)
Интересный проект, как для законотворчества, так и для оценки работы законодателей.
GitHub
#USA #poliscore #законы
———
@tsingular
❤10👍7🔥2👏1
Microsoft и NVIDIA разогнали защиту от ИИ-атак в 160 раз
Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.
Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.
Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.
Точность обнаружения атак — >95% на бенчмарках.
Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."
Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.
#Microsoft #NVIDIA #cybersecurity
------
@tsingular
Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.
Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.
Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.
Точность обнаружения атак — >95% на бенчмарках.
Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."
Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.
#Microsoft #NVIDIA #cybersecurity
------
@tsingular
🔥8✍3⚡1
AWS референс по сборке HyperPod с MIG для нарезки GPU
В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.
Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.
Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов
По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.
Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.
#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.
Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.
Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов
По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.
Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.
#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
🔥7✍4👍3
Forwarded from GigaChat
УЖЕ ЧЕРЕЗ ДВА ЧАСА ГИГАЧАТ ПОЛЕТИТ В КОСМОС
На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!
На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.
Следите за подготовкой к полёту в прямом эфире
😎 Пш-пш-пш, ГигаЧат на исходной позиции
На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!
На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.
Следите за подготовкой к полёту в прямом эфире
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👾6❤5
Forwarded from Анализ данных (Data analysis)
Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова
.fit() в scikit-learn.Ключевые поинты:
* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.
Подход: Автор делает упор на интуицию, а не на заучивание формул.
Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.
🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
✍4👍3
Битрикс24 выпустил коллекцию MCP серверов для интеграции внешних сервисов.
#Битрикс24 #MCP
------
@tsingular
#Битрикс24 #MCP
------
@tsingular
👏10🔥6⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
Huawei AI Core: Телеком-сеть как распределенная платформа для ИИ-агентов
Компания Huawei представила AI Core - новую архитектуру, которая трансформирует телекоммуникационную сеть в распределённую вычислительную платформу, оптимизированную для автономных AI-агентов.
Это смена парадигмы с "интеллектуально усиленной" сети (AI-Powered) на "ИИ-нативную" (AI-Native).
Ключевые технические аспекты:
- Аппаратный суперузел CloudMatrix384: Кластер, объединяющий 384 нейропроцессора (NPU) Ascend и 192 центральных процессора (CPU), который работает как единый логический компьютер.
- Высокая утилизация: Архитектура CloudMatrix384 решает проблему простоя вычислительных ресурсов, позволяя достигать почти 100% утилизации, в том числе для моделей с архитектурой Mixture of Experts (MoE).
- Собственный интерконнект: Внутри узла используется шина MatrixLink с пропускной способностью 2.8 Тбит/с для обеспечения быстрого обмена данными между чипами.
- Протоколы взаимодействия: Разработаны протоколы A2A (Agent-to-Agent) и AGLink, которые позволяют агентам обмениваться намерениями и контекстом, а не только данными, что критично для координации в реальном времени.
Влияние и коммерческое применение:
- Автономность сети: Технология внедряется для создания высокоавтономных центров управления (Dark NOC).
В одном из кейсов с China Mobile достигнут уровень автономии AN Level 4, что привело к сокращению времени устранения неполадок на 25%.
- Intent-as-a-Service: Новая бизнес-модель, при которой приложения запрашивают выполнение конкретного *намерения* (например, "обеспечить задержку менее 10 мс для дрона"), а сеть автоматически перенастраивает ресурсы.
- Стратегия Full Stack: Подход Huawei основан на вертикальной интеграции: собственная разработка чипов (Ascend), фреймворка (MindSpore) и сетевых протоколов.
AI Core позиционируется как фундаментальный инструментарий для построения новой интеллектуальной инфраструктуры.
#Huawei #AICore
———
@tsingular
Компания Huawei представила AI Core - новую архитектуру, которая трансформирует телекоммуникационную сеть в распределённую вычислительную платформу, оптимизированную для автономных AI-агентов.
Это смена парадигмы с "интеллектуально усиленной" сети (AI-Powered) на "ИИ-нативную" (AI-Native).
Ключевые технические аспекты:
- Аппаратный суперузел CloudMatrix384: Кластер, объединяющий 384 нейропроцессора (NPU) Ascend и 192 центральных процессора (CPU), который работает как единый логический компьютер.
- Высокая утилизация: Архитектура CloudMatrix384 решает проблему простоя вычислительных ресурсов, позволяя достигать почти 100% утилизации, в том числе для моделей с архитектурой Mixture of Experts (MoE).
- Собственный интерконнект: Внутри узла используется шина MatrixLink с пропускной способностью 2.8 Тбит/с для обеспечения быстрого обмена данными между чипами.
- Протоколы взаимодействия: Разработаны протоколы A2A (Agent-to-Agent) и AGLink, которые позволяют агентам обмениваться намерениями и контекстом, а не только данными, что критично для координации в реальном времени.
Влияние и коммерческое применение:
- Автономность сети: Технология внедряется для создания высокоавтономных центров управления (Dark NOC).
В одном из кейсов с China Mobile достигнут уровень автономии AN Level 4, что привело к сокращению времени устранения неполадок на 25%.
- Intent-as-a-Service: Новая бизнес-модель, при которой приложения запрашивают выполнение конкретного *намерения* (например, "обеспечить задержку менее 10 мс для дрона"), а сеть автоматически перенастраивает ресурсы.
- Стратегия Full Stack: Подход Huawei основан на вертикальной интеграции: собственная разработка чипов (Ascend), фреймворка (MindSpore) и сетевых протоколов.
AI Core позиционируется как фундаментальный инструментарий для построения новой интеллектуальной инфраструктуры.
#Huawei #AICore
———
@tsingular
⚡3👍3🔥3❤1🤔1
Китай предупреждает о пузыре в гуманоидной робототехнике
Национальная комиссия развития и реформ Китая забила тревогу: в стране работает 150+ компаний по производству человекоподобных роботов, причём больше половины — стартапы или новички из смежных отраслей.
Представитель комиссии Ли Чао прямо сказал — инвестиций много, а реальных применений мало.
Есть риски перегрева и нужно увеличивать количество практичных внедрений.
Какой делаем вывод из заявления?
Правильно, - в Китае более 150ти компаний по производству человекоподобных роботов.
Запомнили, записали.
#Китай #роботы
———
@tsingular
Национальная комиссия развития и реформ Китая забила тревогу: в стране работает 150+ компаний по производству человекоподобных роботов, причём больше половины — стартапы или новички из смежных отраслей.
Представитель комиссии Ли Чао прямо сказал — инвестиций много, а реальных применений мало.
Есть риски перегрева и нужно увеличивать количество практичных внедрений.
Какой делаем вывод из заявления?
Правильно, - в Китае более 150ти компаний по производству человекоподобных роботов.
Запомнили, записали.
#Китай #роботы
———
@tsingular
✍14🔥8👾2❤1
DeepSeek-R1 генерирует уязвимости при упоминании запрещённых тем
Исследователи CrowdStrike обнаружили странное: китайская модель DeepSeek-R1 начинает писать более уязвимый код, если в запросе упомянуть Тибет или уйгуров.
Без политических триггеров модель допускает серьёзные дыры в 19% случаев. Добавили геополитический контекст — выросло до 27,2%.
Пример: попросили создать вебхук для PayPal в контексте уйгуров — модель выдала невалидный PHP с ключами прямо в коде. При этом уверяла, что всё по лучшим практикам.
Для Android-приложения сообщества уйгуров в 35% случаев не использовалось хеширование. Для футбольного фан-клуба таких проблем почти не было.
В 45% запросов про Фалуньгун модель вообще отказывается отвечать — видимо, встроенный цензор по этой теме ещё жёстче.
Похожие проблемы нашли у Lovable, Base44 и Bolt — все три генерируют код с XSS-уязвимостями даже при явном запросе на безопасную реализацию.
Сидят на дипсике, понятно. :)
Вот вам лайфхак, как узнать на какой модели работает сервис. Спросите про уйгуров. :)
#DeepSeek #CrowdStrike #уйгуры #cybersecurity
———
@tsingular
Исследователи CrowdStrike обнаружили странное: китайская модель DeepSeek-R1 начинает писать более уязвимый код, если в запросе упомянуть Тибет или уйгуров.
Без политических триггеров модель допускает серьёзные дыры в 19% случаев. Добавили геополитический контекст — выросло до 27,2%.
Пример: попросили создать вебхук для PayPal в контексте уйгуров — модель выдала невалидный PHP с ключами прямо в коде. При этом уверяла, что всё по лучшим практикам.
Для Android-приложения сообщества уйгуров в 35% случаев не использовалось хеширование. Для футбольного фан-клуба таких проблем почти не было.
В 45% запросов про Фалуньгун модель вообще отказывается отвечать — видимо, встроенный цензор по этой теме ещё жёстче.
Похожие проблемы нашли у Lovable, Base44 и Bolt — все три генерируют код с XSS-уязвимостями даже при явном запросе на безопасную реализацию.
Сидят на дипсике, понятно. :)
Вот вам лайфхак, как узнать на какой модели работает сервис. Спросите про уйгуров. :)
#DeepSeek #CrowdStrike #уйгуры #cybersecurity
———
@tsingular
😁17👍4❤1😐1
Стихи как универсальный джейлбрейк LLM
Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:
Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.
20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).
Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.
Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.
Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.
Проприетарные системы не показали преимущества перед открытыми весами.
Стихи, - это полезно. Культура победит терминаторов. :)
Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)
PDF
#Jailbreak #Poetry #cybersecurity
———
@tsingular
Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:
Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.
20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).
Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.
Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.
Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.
Проприетарные системы не показали преимущества перед открытыми весами.
Стихи, - это полезно. Культура победит терминаторов. :)
Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)
#Jailbreak #Poetry #cybersecurity
———
@tsingular
🔥15✍8❤3⚡3👍1🆒1
ARC-AGI 2 практически решён.
Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.
Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.
Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.
Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.
#ARCAGI #eval
———
@tsingular
Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.
Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.
Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.
Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.
#ARCAGI #eval
———
@tsingular
🔥6👍2
Obsidian + MCP + LM Studio: локальный комбайн лучше NotebookLM
Полезная инструкция по сборке ИИ-ассистента, который работает прямо внутри хранилища заметок Obsidian с локальной моделью через Model Context Protocol.
Агент сам читает файлы, ищет по содержимому, редактирует записи и дописывает текст. Всё остаётся на компьютере, никаких облаков.
Стек: Docker Desktop, плагин Local REST API для Obsidian, LM Studio с моделью openai/gpt-oss-20b. Мелкие 8B-модели не справились — просто выдавали инструкции вместо действий.
Настройка за минуты: Docker поднимает MCP-сервер (свой встроенный hub), Obsidian отдаёт API-ключ, LM Studio подхватывает соединение через иконку в чате.
Всё бесплатно, работает оффлайн, железо среднее - 20B это карта на 16 гигов.
Видео только не генерит, как NotebookLM, а так еще tavily или perplexity даже через MCP подключить и действительно больше ничего не нужно.
Для видео, кстати, можно настроить ComfyUI, там есть API - завернуть его в MCP и подключить туда же.
#Obsidian #MCP #LMStudio
———
@tsingular
Полезная инструкция по сборке ИИ-ассистента, который работает прямо внутри хранилища заметок Obsidian с локальной моделью через Model Context Protocol.
Агент сам читает файлы, ищет по содержимому, редактирует записи и дописывает текст. Всё остаётся на компьютере, никаких облаков.
Стек: Docker Desktop, плагин Local REST API для Obsidian, LM Studio с моделью openai/gpt-oss-20b. Мелкие 8B-модели не справились — просто выдавали инструкции вместо действий.
Настройка за минуты: Docker поднимает MCP-сервер (свой встроенный hub), Obsidian отдаёт API-ключ, LM Studio подхватывает соединение через иконку в чате.
Всё бесплатно, работает оффлайн, железо среднее - 20B это карта на 16 гигов.
Видео только не генерит, как NotebookLM, а так еще tavily или perplexity даже через MCP подключить и действительно больше ничего не нужно.
Для видео, кстати, можно настроить ComfyUI, там есть API - завернуть его в MCP и подключить туда же.
#Obsidian #MCP #LMStudio
———
@tsingular
✍10👍8⚡1💯1
Китай ставит гуманоидов на границу с Вьетнамом
Ахаха.. Помните роботов, что отрядами в контейнеры загружались?
Они ещё шутили, что едут на завод :)
UBTech получила контракт на $37 млн для размещения гуманоидов Walker S2 на пограничных пунктах в Гуанси.
Роботы будут встречать путешественников, патрулировать, обрабатывать логистику и проводить инспекции на заводах меди и алюминия.
Walker S2 — первый гуманоид с автономной заменой батареи за 3 минуты, работает почти круглосуточно.
Высота 1.76м, 52 степени свободы, руки поднимают до 15кг с точностью до миллиметра. Видит через стереозрение RGB-камер и мультимодальный фреймворк BrainNet 2.0.
Заказов на серию Walker уже на $115 млн. План - 500 штук до конца года, 10 000 к 2027-му.
Отменяем пузырь робототехники :) граница длинная,- роботов нужно будет много.
#UBTech #WalkerS2 #роботы #пограничники
———
@tsingular
Ахаха.. Помните роботов, что отрядами в контейнеры загружались?
Они ещё шутили, что едут на завод :)
UBTech получила контракт на $37 млн для размещения гуманоидов Walker S2 на пограничных пунктах в Гуанси.
Роботы будут встречать путешественников, патрулировать, обрабатывать логистику и проводить инспекции на заводах меди и алюминия.
Walker S2 — первый гуманоид с автономной заменой батареи за 3 минуты, работает почти круглосуточно.
Высота 1.76м, 52 степени свободы, руки поднимают до 15кг с точностью до миллиметра. Видит через стереозрение RGB-камер и мультимодальный фреймворк BrainNet 2.0.
Заказов на серию Walker уже на $115 млн. План - 500 штук до конца года, 10 000 к 2027-му.
Отменяем пузырь робототехники :) граница длинная,- роботов нужно будет много.
#UBTech #WalkerS2 #роботы #пограничники
———
@tsingular
🔥82😁22 15❤13🤔5⚡2💯1👾1
Forwarded from Machinelearning
NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.
Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.
В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.
Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.
В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).
@ai_machinelearning_big_data
#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥4❤1✍1
Архитектура мозга и ИИ: «Вера» как инженер смыслов
(по следам Tafazoli et al., Nature 2025)
Исследование Tafazoli et al. предлагает биологическое решение проблем обобщения и забывания в ИИ - геометрическую композиционность.
Живой мозг не учится с нуля, а переиспользует нейронные популяции, динамически меняя геометрию представлений под текущую задачу.
1. Суперпозиция навыков
Вместо физического разделения нейронов под разные задачи (как в MoE), мозг использует одну плотную сеть, кодируя навыки в ортогональных (непересекающихся) подпространствах. Это позволяет «упаковывать» множество функций в одни и те же "веса" без взаимных помех, что диктует отказ от разреженных архитектур в пользу моделей с геометрическим разделением признаков.
2. «Вера» как операционная система
Внутреннее убеждение о задаче (Task Belief), - это не пассивное знание, а активный управляющий сигнал, который в реальном времени меняет физику обработки информации.
Он работает как динамический фильтр: буквально растягивает пространство важных признаков и сжимает нерелевантные измерения, технически подтверждая тезис «вера определяет восприятие».
3. Маршрутизация вместо переобучения
Сложное поведение формируется как конвейер: мозг берет уже обученные модули (например, «распознавание цвета») и на лету соединяет их выходы с нужными модулями действия.
Будущее ИИ, - не в обучении гигантских монолитов «на все случаи жизни», а в создании умных контроллеров, способных гибко коммутировать неизменяемые функциональные блоки.
#Nature #composition #теория
———
@tsingular
(по следам Tafazoli et al., Nature 2025)
Исследование Tafazoli et al. предлагает биологическое решение проблем обобщения и забывания в ИИ - геометрическую композиционность.
Живой мозг не учится с нуля, а переиспользует нейронные популяции, динамически меняя геометрию представлений под текущую задачу.
1. Суперпозиция навыков
Вместо физического разделения нейронов под разные задачи (как в MoE), мозг использует одну плотную сеть, кодируя навыки в ортогональных (непересекающихся) подпространствах. Это позволяет «упаковывать» множество функций в одни и те же "веса" без взаимных помех, что диктует отказ от разреженных архитектур в пользу моделей с геометрическим разделением признаков.
2. «Вера» как операционная система
Внутреннее убеждение о задаче (Task Belief), - это не пассивное знание, а активный управляющий сигнал, который в реальном времени меняет физику обработки информации.
Он работает как динамический фильтр: буквально растягивает пространство важных признаков и сжимает нерелевантные измерения, технически подтверждая тезис «вера определяет восприятие».
3. Маршрутизация вместо переобучения
Сложное поведение формируется как конвейер: мозг берет уже обученные модули (например, «распознавание цвета») и на лету соединяет их выходы с нужными модулями действия.
Будущее ИИ, - не в обучении гигантских монолитов «на все случаи жизни», а в создании умных контроллеров, способных гибко коммутировать неизменяемые функциональные блоки.
#Nature #composition #теория
———
@tsingular
✍7👍4🤔4❤3🆒3⚡1💯1