Технозаметки Малышева
8.27K subscribers
3.67K photos
1.38K videos
40 files
3.87K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
NVIDIA выпустила Nemotron 3 — открытые модели для мультиагентных систем

NVIDIA представила семейство Nemotron 3 в трёх размерах: Nano (30B), Super (~100B) и Ultra (~500B).
Главная фишка, - гибридный мамба трансформер MoE, архитектурный микс из мамбы и трансформера, который позволяет не терять детали на большом контексте, которого тут аж на 1млн токенов.

Nemotron 3 Nano уже доступна и показывает 4× прирост пропускной способности относительно предшественника, плюс на 60% меньше reasoning-токенов. Контекст, - 1 млн токенов. Модель обучена с помощью 4-битного формата NVFP4 на архитектуре Blackwell.

Вместе с моделями выпустили 3 триллиона токенов тренировочных данных, библиотеки NeMo Gym и NeMo RL, плюс датасет по безопасности агентов.

Super и Ultra появятся в первой половине 2026 года.

Поддерживается в LM Studio, llama.cpp, SGLang и vLLM.
Уже есть готовые пайплайны для обучения в Unsloth.
Так же доступна на всех роутерах типа:
Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter и Together AI.

#Nemotron #NVIDIA #Blackwell
———
@tsingular
👍10211
Google открыл API для агента Deep Research

Google выкатил Gemini Deep Research через новый Interactions API - теперь разработчики могут встроить автономного исследователя в свои приложения.

Агент на базе Gemini 3 Pro итеративно планирует поиск: формулирует запросы, читает результаты, находит пробелы в знаниях и ищет снова. Залезает глубоко внутрь сайтов (!) за конкретными данными.

Результаты:
- 46.4% на Humanity's Last Exam
- 66.1% на новом бенчмарке DeepSearchQA (900 задач с "причинными цепочками")
- 59.2% на BrowseComp

Выпустили DeepSearchQA в открытый доступ - бенчмарк, который оценивает полноту исследования, а не только факты.

Про сайты это интересно. Т.е. он не просто читает первую ссылку, а находит релевантные внутри сайта и следует по ним, пока не нароет ответ.
Удобно.

#DeepResearch #Gemini #InteractionsAPI
———
@tsingular
🔥8👍211
Трамп набирает тысячу техспециалистов из BigTech в госаппарат

Администрация запускает US Tech Force — программу на два года для модернизации федеральных систем и внедрения ИИ.

Участвуют Amazon, Apple, Google, Meta, Microsoft, OpenAI, xAI, Nvidia и другие.

После работы специалисты смогут вернуться в компании-партнёры, - будет выстроена ротация между госсектором и корпорациями.

#USA #government #BigTech
———
@tsingular
👍7🤨742
сегодня ждём Gemini 3 Flash

#Gemini #Google
———
@tsingular
7🎉711
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Google Code Wiki.

Google запустила в публичное превью платформу Code Wiki. Инструмент сканирует репозиторий и генерирует живую базу знаний, которая перестраивается автоматически после каждого изменения в коде.

Под капотом - естественно Gemini. Разработчики могут общаться с контекстно-зависимым чат-ботом, который понимает структуру конкретного проекта «от и до».

Code Wiki умеет строить диаграммы архитектуры, объяснять логику работы модулей и мгновенно перенаправлять из вики к конкретным определениям функций.

Сейчас веб-версия работает с публичными репозиториями, но в планах - CLI-расширение для развертывания системы в закрытых корпоративных контурах.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥6🆒2👍1
Где в России применяется ИИ.

По результатам опроса Компьютерры.

#Компьютерра #Россия #аналитика
------
@tsingular
🤔81
Forwarded from Dendi Math&AI (Денис Димитров)
🥳 Мы докатили в text-to-video арену две наши последние модели генерации видео Kandinsky 5.0 Video Lite и Pro

⚡️Результаты следующие:
🔘Pro версия является ТОП-1 опенсорсом в мире (см. модели с лицензиями MIT, Apache 2.0 в лидерборде)
🔘Lite версия лучше первой версии Sora (не супердостижение, но у Lite всего 2B параметров)
🔘Лучше нас (Pro) только Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6) — объективно самые сильные модели генерации видео в мире на текущий момент; в паритете с нами Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘В целом стоит отметить, что для российских генеративных моделей выход на международную арену — довольно уникальное событие

🚀 Полезные ссылки:
🔘Посмотреть весь лидерборд можно вот тут: lmarena
🔘Твиттер организаторов арены: X lmarena.ai
🔘Почитать подробнее про Kandinsky 5.0: пост, техрепорт,
🔘Потестить Kandinsky 5.0: github и hf

@dendi_math_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2533🍾2
В 2022-м я сказал совету директоров, что нам нужна своя LLM. Своя. Суверенная. На триллион параметров.
Почему триллион? Потому что у GPT-4 — триллион. Я прочитал это в телеграм-канале. Канал назывался «ИИ на минималках». 50 000 подписчиков. Значит, правда.
Мне выделили бюджет. 2,3 миллиарда рублей. Я сказал «это инвестиция в технологический суверенитет». Никто не спросил, что это значит.
Я тоже не знал.

Купили 256 карточек V100. Не A100. V100. Потому что A100 под санкциями. V100 — нет. V100 вышли в 2017-м. Но я сказал «проверенное решение». Проверенное означает старое. Старое означает дешёвое. Дешёвое на вторичке в Дубае.

Наняли команду. 40 человек. ML-инженеры. Большинство не работали с LLM. Но у них были сертификаты ОТУСА. Сертификаты — это компетенции. Компетенции — это строчка в отчёте.

Тимлид спросил, почему триллион параметров на 256 V100. Сказал, что у Meta на LLaMA 70B было 2000 A100. Я сказал «у нас другой подход». Он спросил какой. Я сказал оптимизированный. Он спросил как именно оптимизированный. Я назначил ему встречу по пересмотру грейда. Он уволился. Я написал в отчёте «оптимизация штата».

Восемь месяцев обучения. Модель не сходилась. Лосс был плоский. Инженер сказал, что данных мало. У нас было 200 гигабайт текстов. Госзакупки, диссертации, Лента.ру. Он сказал, что у LLaMA — 2 триллиона токенов. Я сказал «качество важнее количества». Это не так. Но звучит мудро.
На девятый месяц модель заговорила.

Она говорила странное. На вопрос «столица Франции» отвечала «в соответствии с пунктом 3.2 технического задания». На вопрос «кто президент России» выдавала «Дмитрий Анатольевич Медведев». Датасет был старый. Я назвал это «историческая глубина модели». Инженеры называли это по-другому. Но их мнение не шло в презентации.

Запустили в прод. Назвали «НейроРусь-1Т». Лого — медведь с нейросетью в голове. Лого стоило 4 миллиона. Агентство сказало, что медведь символизирует «мощь российского ИИ». Я согласился. Медведи мощные.

Первый месяц. 3 000 запросов. 2 800 — от тестировщиков. 150 — от журналистов. 50 — случайные. NPS — минус 40. Я убрал NPS из дашборда. Метрика была «не релевантна стратегическим целям».

Купили статью в РБК. 1 миллион рублей. Заголовок: «Российская нейросеть НейроРусь составит конкуренцию ChatGPT». Журналист спросил, можно ли потестировать. Я сказал «после публикации». Он опубликовал.

В статье было написано «по словам разработчиков, модель превосходит западные аналоги в понимании российского контекста». Это я сказал. Я не разработчик. Но они не возражали.
РБК поставили статью в раздел «Технологии». 400 000 просмотров. Комментарии отключили превентивно. Негатив не соответствовал редакционной политике.

Четвёртый месяц. Поняли, что модель хуже ГигаГпт 6. ГигаГпт 6 хуже Claude Sonnet. Задача: создать бенчмарк, на котором мы победим. Назвали «РусКонтекст-1000». Тысяча вопросов о российской культуре. Кто написал «Войну и мир». Столица Бурятии. Как зовут кота Медведева.
Запустили бенчмарк. НейроРусь набрала 34%. GPT-4 набрал 67%. Наш бенчмарк. Мы проиграли на своём поле.


Шестой месяц. Стали покупать ГигаГпт 6 за 990 рублей за 1м токенов. Это как Claude Sonnet в API. Только ГигаГпт 6 хуже Sonnet в три раза. Я измерил. На вопрос «напиши код сортировки» ГигаГпт 6 выдал код с багами. Sonnet - рабочий кода. Но Sonnet - иностранный. Иностранный - плохо. Баги - отечественные. Отечественное - хорошо.

Купили 4 000 лицензий ГигаГпт 6 . 47 миллионов в год. За качество Claude по цене Claude, но в три раза хуже Claude. Зато в реестре отечественного ПО. Реестр важнее. Качество - субъективно. Реестр - объективен.

Старший разработчик спросил, почему не DeepSeek. DeepSeek - бесплатный. DeepSeek лучше ГигаГпт 6 . Я сказал «китайские бэкдоры». Он спросил какие именно. Я сказал «все». Он спросил, есть ли пруфы. Я сказал «есть, но засекречены». Он спросил кем. Я сказал «органами». Он не уточнил какими. Органы — это серьёзно.
😁52🤣28🔥11😢53🦄3🗿1
Huawei захватит половину китайского рынка ИИ-чипов к 2026 году

Bernstein Research прогнозирует: доля Huawei на китайском рынке ИИ-ускорителей вырастет до 50% к 2026 году.

Nvidia упадёт с 39% в 2025-м до 8%. AMD займёт 12%, Cambricon — третье место.

К 2028-му Китай будет производить больше чипов, чем потребляет внутри — соотношение спрос-предложение достигнет 104%. Продажи отечественных китайских ускорителей покажут рост 74% CAGR за три года.

Но есть нюанс: успех зависит от доступа к высокоскоростной памяти HBM.
SK Hynix и Samsung контролируют 90% мирового производства.
Китаю ещё нужно будет предложить что-то для рынка памяти.

#Huawei #Китай
------
@tsingular
10🔥51👍1
Компьютерра представила 2й печатный выпуск.

Сделали обзор состояния и ключевых вопросов/задач ИИ рынка РФ.

Компании-разработчики представили российские ИИ решения.

Все детали мероприятия на сайте

#Компьютерра
------
@tsingular
👍9👏31
OpenAI выпустили новый генератор картинок.

Забыли про Нанобанану.
Картинки теперь генерироваем тут:

chatgpt.com

#openai #юмор #нейрорендер
------
@tsingular
🔥632
в n8n наконец-то завезли человеческий чат нормальный.

запускается слева вверху.

обновляться принудительно лучше до n8n@2.1.0 там больше всего полезного зарелизили уже.

#n8n
———
@tsingular
🔥13👍4211🤣1🗿1
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
Kling: добавили генерацию видео с контролем голоса в модель Video 2.6.

Можно выбрать голос из списка с указанием тембра, или загрузить своё аудио до 30 сек, из которого будет вытащен голос и его можно будет применять в разных сценариях с автоматической адаптацией под контекст сцены.

Чтобы прицепить голос к определённому персонажу в сцене указываем в промте Персонаж@НазваниеГолоса. Работает на английском и китайском. Причём голос на английском сможет говорить на китайском и наоборот.

Генерация доступна только в профессиональном режиме. Кредиты за контроль голоса списываются помимо цены за видео по цене 2 кредита/секунда.

PS: ангельский голос на китайском это эпик. Прикинь ты попадаешь в рай, ходишь по облакам, а вокруг тебя ангелочки говорящие тебе что-то на китайском. И ты как Марти такой: "Наверное не тот Рай".

Сайт
Анонс
Гайд
👍10🔥41
Forwarded from эйай ньюз
Вышла Gemini 3 Flash

Выносит по бенчам 2.5 Pro в одни ворота, при этом будучи значительно дешевле. На паре бенчмарков обгоняет даже Gemini 3 Pro. Поддерживает тот же миллион токенов контекста что и большая модель. На вход принимает текст, аудио и картинки, но на выход идёт только текст (по крайней мере пока что). При этом Gemini 3 Flash это гибридный ризонер — можно отключить рассуждения, как и с 2.5 Flash.

Цену за токен по сравнению с 2.5 Flash повысили. Заявляют что вместе с этим повысили и эффективность использования токенов. Это в теории должно было компенсировать повышение цены, но тесты говорят об обратном, по крайней мере с включённым ризонингом.

Модель уже доступна в ai.studio, Antigravity, чате и API. AI режим Google тоже переводят Gemini 3 Flash уже сегодня (наконец-то там будете нормальная модель).

Блогпост

@ai_newz
🔥194🎉31
Еще немного деталей из анонса

Модель самая оптимальная в своем классе по соотношению стоимости на производительность. см график.

Производительность и бенчмарки:

В задачах на кодинг (SWE-bench Verified) набирает 78%, превосходя даже "старшую" Gemini 3 Pro.
При этом цена в 5 раз дешевле GPT 5.2.

В ПЯТЬ РАЗ!!!

Просто отменили OpenAI из Курсора и пр. кодовых агентов

Набрала 90.4% на тесте GPQA Diamond (уровень PhD).

В 3 раза быстрее, чем Gemini 2.5 Pro.

Использует на 30% меньше токенов для выполнения тех же задач.

Стоимость API: $0.50 за 1 млн входных токенов и $3 за 1 млн выходных.

Адаптивное мышление: Модель умеет «модулировать» процесс мышления — тратить больше времени на сложные задачи и моментально отвечать на простые.

Мультимодальность: Высокая скорость обработки видео и аудио (например, для анализа действий в играх или видео в реальном времени).

С сегодняшнего дня становится бесплатной моделью по умолчанию в приложении Gemini и в AI-режиме Google Поиска!!!

Наконец-то поиск в Гугле перестанет тупить в ИИ режиме :)
Ну и скорость и ценник просто огонь!
Осталось все это на практике подтвердить.

#Google #Gemini #Flash
———
@tsingular
🔥1544🏆3🤯1
OpenAI добавили на платформу публикацию MCP приложений

OpenAI открыла витрину приложений внутри ChatGPT.
Теперь приложение можно будет предзагрузить и оно появится как инструмент в интерфейсе чата.

Это превращает ChatGPT из чатбота в платформу.
Пользователь запускает сторонние сервисы не выходя из разговора — от бронирования билетов до анализа данных.

По сути это копия Skills от Anthropic.

Вся коммуникация между ИИ и приложением происходит по MCP протоколу, просто он тянется не куда-то далеко, а вызывает код вашего приложения сразу на платформе в iframe и так же обновляется.

Безопасники в восторге будут, думаю.
Там конечно обещают премодерацию и все такое, но :)

#OpenAI #ChatGPT #AppStore
------
@tsingular
12🤔22