Технозаметки Малышева
8.48K subscribers
3.79K photos
1.42K videos
40 files
3.97K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
🚀 DR Tulu: Прорыв в открытых моделях для глубоких исследований (Deep Research)

Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.

💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.

Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).

Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.

Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.

Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.

📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:

Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.

Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).

Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.


🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).

Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.

🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu

Инструкция как запустить локально

#Tulu #DeepResearch
———
@tsingular
10🔥7🆒31
🏛 ИИ-система для оценки законопроектов Конгресса США

Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.

Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)

Интересный проект, как для законотворчества, так и для оценки работы законодателей.

GitHub

#USA #poliscore #законы
———
@tsingular
10👍7🔥2👏1
Microsoft и NVIDIA разогнали защиту от ИИ-атак в 160 раз

Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.

Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.

Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.

Точность обнаружения атак — >95% на бенчмарках.

Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."

Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.

#Microsoft #NVIDIA #cybersecurity
------
@tsingular
🔥831
AWS референс по сборке HyperPod с MIG для нарезки GPU

В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.

Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.

Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов

По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.

Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.

#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
🔥74👍3
Forwarded from GigaChat
УЖЕ ЧЕРЕЗ ДВА ЧАСА ГИГАЧАТ ПОЛЕТИТ В КОСМОС

На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!

На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.

Следите за подготовкой к полёту в прямом эфире

😎 Пш-пш-пш, ГигаЧат на исходной позиции
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👾65
⚡️ Математический roadmap для ML специалистов: от линала до теорвера

Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова .fit() в scikit-learn.

Ключевые поинты:

* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.

Подход: Автор делает упор на интуицию, а не на заучивание формул.

Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.

🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
Битрикс24 выпустил коллекцию MCP серверов для интеграции внешних сервисов.

#Битрикс24 #MCP
------
@tsingular
👏10🔥62
This media is not supported in your browser
VIEW IN TELEGRAM
Huawei AI Core: Телеком-сеть как распределенная платформа для ИИ-агентов

Компания Huawei представила AI Core - новую архитектуру, которая трансформирует телекоммуникационную сеть в распределённую вычислительную платформу, оптимизированную для автономных AI-агентов.

Это смена парадигмы с "интеллектуально усиленной" сети (AI-Powered) на "ИИ-нативную" (AI-Native).

Ключевые технические аспекты:
- Аппаратный суперузел CloudMatrix384: Кластер, объединяющий 384 нейропроцессора (NPU) Ascend и 192 центральных процессора (CPU), который работает как единый логический компьютер.
- Высокая утилизация: Архитектура CloudMatrix384 решает проблему простоя вычислительных ресурсов, позволяя достигать почти 100% утилизации, в том числе для моделей с архитектурой Mixture of Experts (MoE).
- Собственный интерконнект: Внутри узла используется шина MatrixLink с пропускной способностью 2.8 Тбит/с для обеспечения быстрого обмена данными между чипами.
- Протоколы взаимодействия: Разработаны протоколы A2A (Agent-to-Agent) и AGLink, которые позволяют агентам обмениваться намерениями и контекстом, а не только данными, что критично для координации в реальном времени.

Влияние и коммерческое применение:
- Автономность сети: Технология внедряется для создания высокоавтономных центров управления (Dark NOC).

В одном из кейсов с China Mobile достигнут уровень автономии AN Level 4, что привело к сокращению времени устранения неполадок на 25%.
- Intent-as-a-Service: Новая бизнес-модель, при которой приложения запрашивают выполнение конкретного *намерения* (например, "обеспечить задержку менее 10 мс для дрона"), а сеть автоматически перенастраивает ресурсы.
- Стратегия Full Stack: Подход Huawei основан на вертикальной интеграции: собственная разработка чипов (Ascend), фреймворка (MindSpore) и сетевых протоколов.

AI Core позиционируется как фундаментальный инструментарий для построения новой интеллектуальной инфраструктуры.

#Huawei #AICore
———
@tsingular
3👍3🔥31🤔1
Китай предупреждает о пузыре в гуманоидной робототехнике

Национальная комиссия развития и реформ Китая забила тревогу: в стране работает 150+ компаний по производству человекоподобных роботов, причём больше половины — стартапы или новички из смежных отраслей.

Представитель комиссии Ли Чао прямо сказал — инвестиций много, а реальных применений мало.
Есть риски перегрева и нужно увеличивать количество практичных внедрений.

Какой делаем вывод из заявления?
Правильно, - в Китае более 150ти компаний по производству человекоподобных роботов.
Запомнили, записали.

#Китай #роботы
———
@tsingular
14🔥8👾21
DeepSeek-R1 генерирует уязвимости при упоминании запрещённых тем

Исследователи CrowdStrike обнаружили странное: китайская модель DeepSeek-R1 начинает писать более уязвимый код, если в запросе упомянуть Тибет или уйгуров.

Без политических триггеров модель допускает серьёзные дыры в 19% случаев. Добавили геополитический контекст — выросло до 27,2%.

Пример: попросили создать вебхук для PayPal в контексте уйгуров — модель выдала невалидный PHP с ключами прямо в коде. При этом уверяла, что всё по лучшим практикам.

Для Android-приложения сообщества уйгуров в 35% случаев не использовалось хеширование. Для футбольного фан-клуба таких проблем почти не было.

В 45% запросов про Фалуньгун модель вообще отказывается отвечать — видимо, встроенный цензор по этой теме ещё жёстче.

Похожие проблемы нашли у Lovable, Base44 и Bolt — все три генерируют код с XSS-уязвимостями даже при явном запросе на безопасную реализацию.
Сидят на дипсике, понятно. :)

Вот вам лайфхак, как узнать на какой модели работает сервис. Спросите про уйгуров. :)

#DeepSeek #CrowdStrike #уйгуры #cybersecurity
———
@tsingular
😁17👍41😐1
Стихи как универсальный джейлбрейк LLM

Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:

Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.

20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).

Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.

Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.

Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.

Проприетарные системы не показали преимущества перед открытыми весами.

Стихи, - это полезно. Культура победит терминаторов. :)

Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)

PDF

#Jailbreak #Poetry #cybersecurity
———
@tsingular
🔥15833👍1🆒1
ARC-AGI 2 практически решён.

Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.

Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.

Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.

Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.

#ARCAGI #eval
———
@tsingular
🔥6👍2
Obsidian + MCP + LM Studio: локальный комбайн лучше NotebookLM

Полезная инструкция по сборке ИИ-ассистента, который работает прямо внутри хранилища заметок Obsidian с локальной моделью через Model Context Protocol.

Агент сам читает файлы, ищет по содержимому, редактирует записи и дописывает текст. Всё остаётся на компьютере, никаких облаков.

Стек: Docker Desktop, плагин Local REST API для Obsidian, LM Studio с моделью openai/gpt-oss-20b. Мелкие 8B-модели не справились — просто выдавали инструкции вместо действий.

Настройка за минуты: Docker поднимает MCP-сервер (свой встроенный hub), Obsidian отдаёт API-ключ, LM Studio подхватывает соединение через иконку в чате.

Всё бесплатно, работает оффлайн, железо среднее - 20B это карта на 16 гигов.

Видео только не генерит, как NotebookLM, а так еще tavily или perplexity даже через MCP подключить и действительно больше ничего не нужно.
Для видео, кстати, можно настроить ComfyUI, там есть API - завернуть его в MCP и подключить туда же.

#Obsidian #MCP #LMStudio
———
@tsingular
10👍81💯1
Китай ставит гуманоидов на границу с Вьетнамом

Ахаха.. Помните роботов, что отрядами в контейнеры загружались?
Они ещё шутили, что едут на завод :)

UBTech
получила контракт на $37 млн для размещения гуманоидов Walker S2 на пограничных пунктах в Гуанси.

Роботы будут встречать путешественников, патрулировать, обрабатывать логистику и проводить инспекции на заводах меди и алюминия.

Walker S2 — первый гуманоид с автономной заменой батареи за 3 минуты, работает почти круглосуточно.

Высота 1.76м, 52 степени свободы, руки поднимают до 15кг с точностью до миллиметра. Видит через стереозрение RGB-камер и мультимодальный фреймворк BrainNet 2.0.

Заказов на серию Walker уже на $115 млн. План - 500 штук до конца года, 10 000 к 2027-му.

Отменяем пузырь робототехники :) граница длинная,- роботов нужно будет много.

#UBTech #WalkerS2 #роботы #пограничники
———
@tsingular
🔥82😁221513🤔52💯1👾1
Forwarded from Machinelearning
🌟 ToolOrchestra: буст ИИ-потенциала за счет координации моделей и инструментов.

NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.

Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.

В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.

Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.

В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).


📌Лицензирование кода : Apache 2.0 License.

📌Лицензирование модели: NVIDIA License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥411
Архитектура мозга и ИИ: «Вера» как инженер смыслов
(по следам Tafazoli et al., Nature 2025)

Исследование Tafazoli et al. предлагает биологическое решение проблем обобщения и забывания в ИИ - геометрическую композиционность.

Живой мозг не учится с нуля, а переиспользует нейронные популяции, динамически меняя геометрию представлений под текущую задачу.

1. Суперпозиция навыков
Вместо физического разделения нейронов под разные задачи (как в MoE), мозг использует одну плотную сеть, кодируя навыки в ортогональных (непересекающихся) подпространствах. Это позволяет «упаковывать» множество функций в одни и те же "веса" без взаимных помех, что диктует отказ от разреженных архитектур в пользу моделей с геометрическим разделением признаков.

2. «Вера» как операционная система
Внутреннее убеждение о задаче (Task Belief), - это не пассивное знание, а активный управляющий сигнал, который в реальном времени меняет физику обработки информации.
Он работает как динамический фильтр: буквально растягивает пространство важных признаков и сжимает нерелевантные измерения, технически подтверждая тезис «вера определяет восприятие».

3. Маршрутизация вместо переобучения
Сложное поведение формируется как конвейер: мозг берет уже обученные модули (например, «распознавание цвета») и на лету соединяет их выходы с нужными модулями действия.
Будущее ИИ, - не в обучении гигантских монолитов «на все случаи жизни», а в создании умных контроллеров, способных гибко коммутировать неизменяемые функциональные блоки.

#Nature #composition #теория
———
@tsingular
7👍4🤔43🆒31💯1
This media is not supported in your browser
VIEW IN TELEGRAM
- Чем занимаешься?
- ДЖАПИТИ!

всегда теперь так буду отвечать :)

#юмор
———
@tsingular
😁13🤣82🔥1🤩1