Технозаметки Малышева
8.27K subscribers
3.67K photos
1.38K videos
40 files
3.87K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
В 2022-м я сказал совету директоров, что нам нужна своя LLM. Своя. Суверенная. На триллион параметров.
Почему триллион? Потому что у GPT-4 — триллион. Я прочитал это в телеграм-канале. Канал назывался «ИИ на минималках». 50 000 подписчиков. Значит, правда.
Мне выделили бюджет. 2,3 миллиарда рублей. Я сказал «это инвестиция в технологический суверенитет». Никто не спросил, что это значит.
Я тоже не знал.

Купили 256 карточек V100. Не A100. V100. Потому что A100 под санкциями. V100 — нет. V100 вышли в 2017-м. Но я сказал «проверенное решение». Проверенное означает старое. Старое означает дешёвое. Дешёвое на вторичке в Дубае.

Наняли команду. 40 человек. ML-инженеры. Большинство не работали с LLM. Но у них были сертификаты ОТУСА. Сертификаты — это компетенции. Компетенции — это строчка в отчёте.

Тимлид спросил, почему триллион параметров на 256 V100. Сказал, что у Meta на LLaMA 70B было 2000 A100. Я сказал «у нас другой подход». Он спросил какой. Я сказал оптимизированный. Он спросил как именно оптимизированный. Я назначил ему встречу по пересмотру грейда. Он уволился. Я написал в отчёте «оптимизация штата».

Восемь месяцев обучения. Модель не сходилась. Лосс был плоский. Инженер сказал, что данных мало. У нас было 200 гигабайт текстов. Госзакупки, диссертации, Лента.ру. Он сказал, что у LLaMA — 2 триллиона токенов. Я сказал «качество важнее количества». Это не так. Но звучит мудро.
На девятый месяц модель заговорила.

Она говорила странное. На вопрос «столица Франции» отвечала «в соответствии с пунктом 3.2 технического задания». На вопрос «кто президент России» выдавала «Дмитрий Анатольевич Медведев». Датасет был старый. Я назвал это «историческая глубина модели». Инженеры называли это по-другому. Но их мнение не шло в презентации.

Запустили в прод. Назвали «НейроРусь-1Т». Лого — медведь с нейросетью в голове. Лого стоило 4 миллиона. Агентство сказало, что медведь символизирует «мощь российского ИИ». Я согласился. Медведи мощные.

Первый месяц. 3 000 запросов. 2 800 — от тестировщиков. 150 — от журналистов. 50 — случайные. NPS — минус 40. Я убрал NPS из дашборда. Метрика была «не релевантна стратегическим целям».

Купили статью в РБК. 1 миллион рублей. Заголовок: «Российская нейросеть НейроРусь составит конкуренцию ChatGPT». Журналист спросил, можно ли потестировать. Я сказал «после публикации». Он опубликовал.

В статье было написано «по словам разработчиков, модель превосходит западные аналоги в понимании российского контекста». Это я сказал. Я не разработчик. Но они не возражали.
РБК поставили статью в раздел «Технологии». 400 000 просмотров. Комментарии отключили превентивно. Негатив не соответствовал редакционной политике.

Четвёртый месяц. Поняли, что модель хуже ГигаГпт 6. ГигаГпт 6 хуже Claude Sonnet. Задача: создать бенчмарк, на котором мы победим. Назвали «РусКонтекст-1000». Тысяча вопросов о российской культуре. Кто написал «Войну и мир». Столица Бурятии. Как зовут кота Медведева.
Запустили бенчмарк. НейроРусь набрала 34%. GPT-4 набрал 67%. Наш бенчмарк. Мы проиграли на своём поле.


Шестой месяц. Стали покупать ГигаГпт 6 за 990 рублей за 1м токенов. Это как Claude Sonnet в API. Только ГигаГпт 6 хуже Sonnet в три раза. Я измерил. На вопрос «напиши код сортировки» ГигаГпт 6 выдал код с багами. Sonnet - рабочий кода. Но Sonnet - иностранный. Иностранный - плохо. Баги - отечественные. Отечественное - хорошо.

Купили 4 000 лицензий ГигаГпт 6 . 47 миллионов в год. За качество Claude по цене Claude, но в три раза хуже Claude. Зато в реестре отечественного ПО. Реестр важнее. Качество - субъективно. Реестр - объективен.

Старший разработчик спросил, почему не DeepSeek. DeepSeek - бесплатный. DeepSeek лучше ГигаГпт 6 . Я сказал «китайские бэкдоры». Он спросил какие именно. Я сказал «все». Он спросил, есть ли пруфы. Я сказал «есть, но засекречены». Он спросил кем. Я сказал «органами». Он не уточнил какими. Органы — это серьёзно.
😁52🤣28🔥11😢53🦄3🗿1
Huawei захватит половину китайского рынка ИИ-чипов к 2026 году

Bernstein Research прогнозирует: доля Huawei на китайском рынке ИИ-ускорителей вырастет до 50% к 2026 году.

Nvidia упадёт с 39% в 2025-м до 8%. AMD займёт 12%, Cambricon — третье место.

К 2028-му Китай будет производить больше чипов, чем потребляет внутри — соотношение спрос-предложение достигнет 104%. Продажи отечественных китайских ускорителей покажут рост 74% CAGR за три года.

Но есть нюанс: успех зависит от доступа к высокоскоростной памяти HBM.
SK Hynix и Samsung контролируют 90% мирового производства.
Китаю ещё нужно будет предложить что-то для рынка памяти.

#Huawei #Китай
------
@tsingular
10🔥51👍1
Компьютерра представила 2й печатный выпуск.

Сделали обзор состояния и ключевых вопросов/задач ИИ рынка РФ.

Компании-разработчики представили российские ИИ решения.

Все детали мероприятия на сайте

#Компьютерра
------
@tsingular
👍9👏31
OpenAI выпустили новый генератор картинок.

Забыли про Нанобанану.
Картинки теперь генерироваем тут:

chatgpt.com

#openai #юмор #нейрорендер
------
@tsingular
🔥632
в n8n наконец-то завезли человеческий чат нормальный.

запускается слева вверху.

обновляться принудительно лучше до n8n@2.1.0 там больше всего полезного зарелизили уже.

#n8n
———
@tsingular
🔥13👍4211🤣1🗿1
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
Kling: добавили генерацию видео с контролем голоса в модель Video 2.6.

Можно выбрать голос из списка с указанием тембра, или загрузить своё аудио до 30 сек, из которого будет вытащен голос и его можно будет применять в разных сценариях с автоматической адаптацией под контекст сцены.

Чтобы прицепить голос к определённому персонажу в сцене указываем в промте Персонаж@НазваниеГолоса. Работает на английском и китайском. Причём голос на английском сможет говорить на китайском и наоборот.

Генерация доступна только в профессиональном режиме. Кредиты за контроль голоса списываются помимо цены за видео по цене 2 кредита/секунда.

PS: ангельский голос на китайском это эпик. Прикинь ты попадаешь в рай, ходишь по облакам, а вокруг тебя ангелочки говорящие тебе что-то на китайском. И ты как Марти такой: "Наверное не тот Рай".

Сайт
Анонс
Гайд
👍10🔥41
Forwarded from эйай ньюз
Вышла Gemini 3 Flash

Выносит по бенчам 2.5 Pro в одни ворота, при этом будучи значительно дешевле. На паре бенчмарков обгоняет даже Gemini 3 Pro. Поддерживает тот же миллион токенов контекста что и большая модель. На вход принимает текст, аудио и картинки, но на выход идёт только текст (по крайней мере пока что). При этом Gemini 3 Flash это гибридный ризонер — можно отключить рассуждения, как и с 2.5 Flash.

Цену за токен по сравнению с 2.5 Flash повысили. Заявляют что вместе с этим повысили и эффективность использования токенов. Это в теории должно было компенсировать повышение цены, но тесты говорят об обратном, по крайней мере с включённым ризонингом.

Модель уже доступна в ai.studio, Antigravity, чате и API. AI режим Google тоже переводят Gemini 3 Flash уже сегодня (наконец-то там будете нормальная модель).

Блогпост

@ai_newz
🔥194🎉31
Еще немного деталей из анонса

Модель самая оптимальная в своем классе по соотношению стоимости на производительность. см график.

Производительность и бенчмарки:

В задачах на кодинг (SWE-bench Verified) набирает 78%, превосходя даже "старшую" Gemini 3 Pro.
При этом цена в 5 раз дешевле GPT 5.2.

В ПЯТЬ РАЗ!!!

Просто отменили OpenAI из Курсора и пр. кодовых агентов

Набрала 90.4% на тесте GPQA Diamond (уровень PhD).

В 3 раза быстрее, чем Gemini 2.5 Pro.

Использует на 30% меньше токенов для выполнения тех же задач.

Стоимость API: $0.50 за 1 млн входных токенов и $3 за 1 млн выходных.

Адаптивное мышление: Модель умеет «модулировать» процесс мышления — тратить больше времени на сложные задачи и моментально отвечать на простые.

Мультимодальность: Высокая скорость обработки видео и аудио (например, для анализа действий в играх или видео в реальном времени).

С сегодняшнего дня становится бесплатной моделью по умолчанию в приложении Gemini и в AI-режиме Google Поиска!!!

Наконец-то поиск в Гугле перестанет тупить в ИИ режиме :)
Ну и скорость и ценник просто огонь!
Осталось все это на практике подтвердить.

#Google #Gemini #Flash
———
@tsingular
🔥1544🏆3🤯1
OpenAI добавили на платформу публикацию MCP приложений

OpenAI открыла витрину приложений внутри ChatGPT.
Теперь приложение можно будет предзагрузить и оно появится как инструмент в интерфейсе чата.

Это превращает ChatGPT из чатбота в платформу.
Пользователь запускает сторонние сервисы не выходя из разговора — от бронирования билетов до анализа данных.

По сути это копия Skills от Anthropic.

Вся коммуникация между ИИ и приложением происходит по MCP протоколу, просто он тянется не куда-то далеко, а вызывает код вашего приложения сразу на платформе в iframe и так же обновляется.

Безопасники в восторге будут, думаю.
Там конечно обещают премодерацию и все такое, но :)

#OpenAI #ChatGPT #AppStore
------
@tsingular
12🤔22
Китай тестирует прототип EUV-литографа

Китайский прототип установки для экстремальной ультрафиолетовой литографии проходит испытания.

Это критическая технология для производства чипов с нормами ниже 7 нм, которую сейчас монополизирует голландская ASML.

Если прототип докажет работоспособность, Китай обеспечит себе независимость в производстве полупроводникового оборудования.

Huawei, кстати, полную цепочку поставок создает местную под микроэлектронику.

Для ИИ-индустрии это означает потенциальное удешевление производства акселераторов и снятие узких мест в цепочках поставок.

Однако путь от прототипа до серийного производства может занимать годы - ASML потратила десятилетия на доводку своих машин до промышленных стандартов.

#EUV #Китай #semiconductors #Huawei
———
@tsingular
67🔥6313🏆5❤‍🔥1
🏰 DisneyGPT — корпоративный AI-ассистент Disney

Если вы сотрудник Дисней, - чатГПТ теперь есть у вас дома. :)

Disney внедряет собственные AI-инструменты после миллиардной сделки с OpenAI.

Что умеет DisneyGPT:
- IT-тикеты и запросы в поддержку
- Поиск по корпоративному справочнику сотрудников
- Анализ финансов проектов
- Работа с Excel и PowerPoint (добавили в декабре)

Интерфейс в фирменном стиле: "готовы к волшебному приключению?" Fiction Horizon + коллекция цитат Уолта Диснея по темам — воображение, настойчивость, лидерство.

Что дальше: В разработке агентный AI под кодовым именем Jarvis (да, как у Железного Человека). Будет выполнять задачи от имени сотрудников DNYUZ, но пока "не полностью готов".

Доступ ограничен — бета только для штатных сотрудников.
Почасовики, профсоюзы, Pixar, круизные команды и ряд международных парков пока без доступа.

Любопытно: Трое из восьми опрошенных сотрудников признались, что неодобренные инструменты вроде Claude от Anthropic эффективнее корпоративных DNYUZ.
/это они ещё Gemini 3 Flash не пробовали :)/

Некоторые используют личные аккаунты для работы. (общая тенденция)

Параллельно Disney отправил Google cease-and-desist за несанкционированное использование контента для обучения AI Slate.

Не угадали они, конечно с провайдером :)
Но вот что интересно на заметку, - они хостят у себя ИИ площадку для внештатных сотрудников и контрагентов.
Вот это сервис.

#Disney #DisneyGPT #EnterpriseAI #Jarvis
———
@tsingular
43🆒21
Гомеопатический ИИ, - когда ИИ в каждом проекте, даже если по чуть чуть. :)

#юмор
———
@tsingular
😁14👍3🎉32
This media is not supported in your browser
VIEW IN TELEGRAM
ResembleAI выкатили Chatterbox Turbo

Resemble выпустили Chatterbox Turbo,- речевую модель на 1.2B параметров, которая генерит аудио со скоростью 180 токенов/сек на одной H100.

Работает на диффузной архитектуре практически в реальном времени даже на средних серверах.

Поддерживает клонирование голоса, управление интонацией и эмоциями через текстовые промпты.

Поддержка языков:
Arabic (ar) • Danish (da) • German (de) • Greek (el) • English (en) • Spanish (es) • Finnish (fi) • French (fr) • Hebrew (he) • Hindi (hi) • Italian (it) • Japanese (ja) • Korean (ko) • Malay (ms) • Dutch (nl) • Norwegian (no) • Polish (pl) • Portuguese (pt) • Russian (ru) • Swedish (sv) • Swahili (sw) • Turkish (tr) • Chinese (zh)

Turbo только английский поддерживает, к сожалению. Для других языков там multilingual, который только по api (русский он ужасно генерирует)


Лицензия MIT — качай, крути на своём железе, интегрируй куда хочешь.

HuggingFace

GitHub

Отменяем подписку на ElevenLabs :)
Добавляем в коллекцию opensource.

#ResembleAI #TTS #Chatterbox
———
@tsingular
6🔥42
Forwarded from Machinelearning
🌟 TurboDiffusion: ускорение генерации видео в 100+ раз.

Суровая реальность нашего времени: вы хотите сгенерировать 5-секундное видео на большой SOTA-модели. Вы запускаете промпт, идете пить кофе, возвращаетесь, а процесс все еще идет. И зачастую генерация может занимать больше часа.

Главные виновники - чудовищная вычислительная сложность механизма внимания в трансформерах, необходимость сотен шагов денойзинга и огромный объем памяти для весов в полной точности.


Авторы проекта TurboDiffusion из Цинхуа и Беркли решили собрать все эффективные методы сжатия и ускорения в один пайплайн. Их идея заключалась в том, что разреженность и квантование — это техники, которые не мешают друг другу.

🟡Архитектура держится на 3-х китах оптимизации:

🟢Заменили стандартное внимание на гибрид из SageAttention2++ и Sparse-Linear Attention (SLA), который превратил квадратичную сложность в линейную. чтобы модель фокусировалась только на важных токенах.

🟢Дистиллировали сэмплинг через rCM - вместо стандартных 50–100 шагов модель приходит к результату всего за 3-4 шага без потери сути изображения.

🟢Перевели и веса и активации линейных слоев в INT8 используя блочное квантование, чтобы не потерять точность.

В довершении ко всему смогли объединить после файнтюнинга под SLA и дистилляции rCM веса в единую модель, избежав конфликтов.

🟡Результаты бенчмарков выглядят как опечатка, но это не она.

На RTX 5090 время генерации для тяжелой модели Wan2.2-I2V 14B упало с 69 минут до 35.4 секунд. А для более легкой Wan 2.1-1.3B - с почти 3-х минут до 1.8 секунды.

Это ускорение больше чем в 100 раз.

При этом, судя по примерам, визуальное качество осталось практически неотличимым от оригинала.


📌Лицензирование: Apache 2.0 License.


🟡Набор моделей
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #I2V #T2V #TurboDiffusion
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
17🤯7🔥62👀1
Mistral выпустил OCR-модель третьего поколения

Mistral выкатил третье поколение OCR. Главный фокус — универсальность: одна модель для всех типов документов вместо зоопарка специализированных решений.

Ключевые цифры:
- 74% win rate над предыдущей версией
- $2 за 1000 страниц ($1 через Batch API - в 10+ раз дешевле конкурентов)
- 95-98% точность по языкам (китайский, восточноазиатские, европейские)
- Модель: mistral-ocr-2512

Где рвёт конкурентов (см. графики):
- Формы: 95.9% vs Azure 86.2%
- Рукописный текст: 88.9% vs Textract 72.4%
- Сложные таблицы: 96.6% vs Google DocAI 75.9%
- Исторические сканы: 96.7% — лидер

AWS Textract, Azure, Google DocAI, DeepSeek OCR — все позади, причём с заметным отрывом.

Техническая начинка:
- Markdown на выходе с HTML-таблицами (colspan/rowspan сохраняются)
- Извлечение встроенных изображений
- Устойчивость к артефактам сжатия, перекосам, низкому DPI

Один минус, - не оупенсорс.
Доступно через API и Document AI Playground (drag-and-drop интерфейс в Mistral AI Studio).
Т.е. конфиденциалку не пораспознаешь.

#Mistral #OCR #документы
———
@tsingular
🔥721🤨11