Неискусственный интеллект
3.68K subscribers
562 photos
118 videos
4 files
949 links
Новый проект авторов "Нецифровой экономики" (@antidigital), посвященный новостям искусственного интеллекта.
По вопросам — @ilya_sclyuev, @okalman и @Tertiusgaudens
Download Telegram
Сдвиг парадигмы: ИИ всё же будут регулировать?

В Координационном центре Правительства под председательством вице-премьера Дмитрия Григоренко вчера прошло большое совещание по регулированию ИИ. Собрались представители государства, бизнеса и отраслевых ассоциаций. Обсуждали различные инициативы: риски принятия тех или иных предложений и отказа от них.

Григоренко подчеркнул, что ключевая задача государства сейчас — это найти баланс. Единый подход и системные меры должны обеспечить безопасность граждан, но не задушить инновации в стране: как это, например, сейчас происходит в Евросоюзе, где заниматься ИИ-разработками просто стало невыгодно.

Вице-премьер заметил, что в мире сформировалось два основных подхода к регулированию. Одни идут по пути создания «комплексного» закона об ИИ, другие же вводят точечные нормы: например, требования к безопасности систем.

Россия сейчас ближе ко второму подходу. Уже есть отдельные нормы для применения технологии в здравоохранении и сельском хозяйстве. Но мы не пытаемся выделить понятие ИИ, и это даёт нам гибкость и скорость адаптации к изменениям.

«Нам следует действовать точечно и постепенно: вводить правила там, где цена ошибки ИИ слишком высока, но при этом сохранять свободу для развития технологий».


По итогам встречи Григоренко поручил организациям и заинтересованным участникам направить в Минцифры свои предложения до 20 января. Представленные наработки будут проанализированы министерством и Аналитическим центром при Правительстве до конца февраля.

Затем Минцифры представит в Правительство предложения по регулированию ИИ в срок до 13 марта 2026 года. При этом ещё в феврале вице-премьер Григоренко говорил, что в РФ в ближайшее два года не планируют законодательно регулировать ИИ.

Государству важно «не появиться слишком рано или слишком поздно». Поэтому ставку сделали на поддержку инноваций. Весь год мы внимательно следили за тем, как ИИ внедряли в госуправление. Появился даже целый Центр развития ИИ, взявший на себя роль проектного офиса при Правительстве.

Что случилось? Кажется, сменилось общее настроение. Так, на днях законодатели активно выступили за регулирование ИИ и сетовали президенту на отсутствие общего закона. И президент согласился, что регулировать ИИ надо, оговорившись, что не всегда понятно то, каким образом это следует делать.

Возникало всё больше новых инициатив, над которыми надо было брать контроль. Хотя единого мнения по такой активности в Думе явно не было. Так, профильный депутат Антон Горелкин ещё в начале месяца говорил, что ИИ не стоит излишне регулировать. На «Героях Рунета» 8 декабря он добавил, что ждать регулирования в 2026-2027 годах не стоит, так как нашим разработчикам нужно дать возможность догнать китайцев и американцев.

Радует, что курирующий вице-премьер до сих пор выступает как сторонник точечного регулирования. Надеемся, что под руководством Григоренко в Правительстве удастся отсеять лишние инициативы.

@anti_agi
👍5🤡4🔥2🙏2
Что важнее в регулировании: ИИ-модель или сервис?

Это выясняют «Яндекс» и «Сбер». Компании разошлись во взглядах на регулирование ИИ на совещании с вице-премьером Дмитрием Григоренко, рассказали собеседники @anti_agi.

Представители от «Яндекса» предложили регулировать не сами ИИ-модели, а непосредственно сервисы. «Сбер» с этим мнением не согласился и предложил, наоборот, обратить внимание именно на модели, на базе которых строят уже конечный продукт.

До разговоров о том, кто продаёт игристый Qwen, а кто — ряженый DeepSeek, и чьи использует датасеты, дело в это раз не дошло. Но ещё не вечер! Надеемся, что осветим эту тему подробнее уже в рамках профильных дебатов.

@anti_agi
😁105🔥4
Пару недель назад ZTE и ByteDance представили Nubia M153 — "первый по-настоящему агентный смартфон". ИИ-агент Doubao, интегрированный на уровне операционной системы, читает экран, интерпретирует интерфейс и симулирует нажатия пальцем. Первую партию из 30 тысяч прототипов смели за день. Правда, эйфория быстро сменилась реальностью: крупнейшие китайские приложения начали блокировать агент, и ByteDance пришлось срочно урезать его возможности.

Могут ли агентные модели для смартфонов стать новым фронтом ИИ-гонки? Пока мир уже второй год ждёт от Apple революционную Siri на базе LLM, Android-экосистема здесь явно вырывается вперёд.

Первопроходцами стали Zhipu AI с моделью AutoGLM-Phone-9B. Это полноценный телефонный агент, способный понимать интерфейс, нажимать кнопки и выполнять сложные многошаговые задачи. Звучит впечатляюще, но есть нюанс: 9 миллиардов параметров — это, мягко говоря, не тот размер, который комфортно крутить на мобильной SoC (система на кристалле). Для практического использования такую модель придётся либо сильно квантовать, либо гонять через облако, что убивает саму идею локального ассистента.

Google подошла к задаче прагматичнее. Пока все ждут от них Gemma 4 уже четвёртый день, компания тихо выложила FunctionGemma — файнтюн Gemma 3 на 270 миллионов параметров. Модель специально заточена под вызов функций и агентные действия на Android. Размер позволяет запускать её на любом современном смартфоне без особых компромиссов. Причём Google сразу показала два рабочих демо в приложении AI Edge Gallery: Tiny Garden — модель парсит команды вроде «посади подсолнухи в верхнем ряду» в действия в игре, и Mobile Actions — вызывает простые функции Android («создай ивент в календаре»).

Конечно, возникает вопрос: что может 270-миллионная модель против 9-миллиардной? Но в агентных задачах сырая «умность» модели — не единственный фактор. Важнее точность следования инструкциям, надёжность парсинга интерфейса и скорость отклика. Маленькая модель, идеально заточенная под конкретную задачу, может оказаться практичнее универсального гиганта.

Ирония в том, что Apple с её контролем над железом и софтом могла бы сделать лучшего мобильного агента в индустрии. Вместо этого Купертино продолжает полировать что-то за закрытыми дверями. Ну, или не полировать, кто знает?

@anti_agi
6👍6🔥3👏1
ChatGPT упёрся в потолок

За последний год внутри OpenAI стали замечать странную и тревожную вещь: пользователи перестали реагировать на рост «умности» ChatGPT. Раньше каждый серьёзный апгрейд модели приводил к всплеску использования — люди быстро находили новые способы извлечь пользу из улучшенного ИИ. Теперь же, несмотря на рост аудитории, качественный скачок в рассуждениях, математике и сложных вычислениях почти не отражается на поведении большинства пользователей.

Это особенно парадоксально на фоне того, чем гордится исследовательское подразделение OpenAI. Модели, способные тянуть задачи уровня Международной математической олимпиады или выигрывать студенческие соревнования по программированию, — это серьёзное достижение. Но типичному пользователю ChatGPT нужны не доказательства теорем и оптимизация алгоритмов, а фильмы, решение бытовых проблем и быстрые справки. Как метко заметил Питер Гостев из LMArena, для таких запросов не нужен ИИ, который «думает полчаса».

В итоге между исследовательским направлением компании и её главным продуктом образовалась трещина. ChatGPT — основной источник выручки, но он всё меньше выигрывает от того, на что тратятся месяцы работы более чем 1 000 исследователей. Это создало окно возможностей для конкурентов, прежде всего для Google, который не делает ставку на один чат-бот, а встраивает ИИ повсюду: в поиск, браузер, почту и мобильные устройства. В итоге идея, что ChatGPT «убьёт Google Search», за последние два года заметно поблекла.

На этом фоне Сэм Альтман объявил внутренний «code red» — сигнал, что компанию нужно срочно перенацеливать на улучшение самого чат-бота, а не только на абстрактный прогресс в «фронтирной» науке. Формально дела у OpenAI идут блестяще: более $19 млрд годовой выручки, быстрый рост подписок, планы привлечения инвестиций при оценке около $750 млрд. Вот только не ясно, как ему выйти на $200 млрд выручки к 2030 году, для этого ChatGPT должен стать ежедневным инструментом, а не просто «умным помощником на всякий случай».

Здесь всплывает ещё одно ограничение — интерфейс. Текстовый чат плохо раскрывает возможности системы. Пользователи часто просто не знают, что ChatGPT умеет анализировать изображения, помогать с диагностикой ошибок или работать как сложный исследовательский инструмент. Руководитель продукта Ник Тёрли сравнивает нынешний интерфейс с MS-DOS: функционально мощно, но визуально и когнитивно бедно. Не случайно Фиджи Симо, отвечающая за приложения, говорит о переходе к «полностью генеративному UI», где формат ответа подстраивается под задачу.

Проблему усугубляют сами reasoning-модели. Они медленнее, дороже и зачастую избыточны для повседневных вопросов. Более того, попытки встроить их в чат иногда буквально ухудшали качество ответов. OpenAI уже тихо откатывает автоматическое использование таких моделей в дешёвых тарифах — тревожный сигнал, что исследовательский флагман стал обузой для массового продукта.

Контраст особенно заметен на фоне Anthropic, где рост «умности» моделей почти напрямую конвертируется в продажи API для бизнеса. У OpenAI же улучшения моделей сильнее влияют на корпоративные сервисы, чем на ChatGPT, хотя именно от чат-бота ждут выручки.

Внутри OpenAI всё чаще звучит опасение, что для среднего пользователя разница между ChatGPT и Gemini от Google скоро станет неочевидной. А в отличие от соцсетей, у чат-ботов почти нет сетевых эффектов: то, что ими пользуются миллионы, не делает ответы принципиально лучше для каждого отдельного человека.

В итоге компания оказалась в ловушке собственного успеха. Она построила умный ИИ, но продаёт его через продукт, от которого большинство людей хотят скорости, простоты и предсказуемости. И сейчас главный вызов для OpenAI — не сделать модели ещё умнее, а научиться превращать уже имеющийся интеллект в очевидную и повседневную ценность, за которую захочется платить. Потому что пока синяя линия платящих подписчиков на графике (см) выглядит уныло — раскошеливаются только пятеро из каждой сотни пользователей.

@anti_agi
👍98🔥3
ИИ-год или год ИИ

Андрей Карпатый, экс-сооснователь OpenAI, подвёл итоги 2025 года, как он их видит.

В начале года он прогнозировал: наступление эры «ПО 3.0» (управление через промпты), превращение LLM в новую операционную систему и десятилетний путь к зрелости ИИ-агентов. В свежем обзоре Карпатый выделяет шесть ключевых сдвигов, изменивших индустрию:

1️⃣ RLVR: Обучение через объективные задачи 

Искусственный интеллект перестал полагаться на субъективные человеческие оценки (RLHF). Вместо этого модели тренируются на задачах с однозначными ответами — программировании, математике, логических головоломках. Решая миллионы примеров, ИИ самостоятельно развивает стратегии, имитирующие рассуждение. Этот метод, требующий колоссальных вычислительных ресурсов, не увеличивает размер моделей, но продлевает этап обучения. Например, в o3 от OpenAI появилась возможность «регулировать» время обдумывания ответа — как поворот ручки для контроля глубины анализа.

2️⃣ ИИ-«призрак»: Неравномерный интеллект

В узких областях (например, высшая математика) ИИ демонстрирует результаты превосходящие человеческие, но спотыкается на базовых логических задачах. Такая асимметрия привела к массовому «натаскиванию» на тесты — системы оптимизируются под конкретные бенчмарки, обесценивая их как инструмент оценки. Карпатый сравнивает ИИ не с послушным «питомцем», а с непредсказуемым «призраком», чьи таланты проявляются вспышками.

3️⃣ Cursor: «Прораб» в экосистеме LLM

Cursor подтвердил, что практическое применение LLM требует многослойной архитектуры. Он дал возможность управлять несколькими агентами одновременно, настраивать уровень автономности (например, чтобы LLM могла удалить сразу всю БД без запроса). Карпатый видит будущее в симбиозе «универсальных студентов» (базовых моделей) и «профбригад» — узкоспециализированных приложений, решающих конкретные задачи.

4️⃣ Claude Code: Локальный доступ для ИИ как преимущество

Революция Claude Code — в его локальной работе. В отличие от облачных аналогов, он интегрируется в среду разработки, имея доступ к конфиденциальным данным, настройкам и ключам. Карпатый подчеркивает: на текущем этапе это критическое преимущество, особенно для корпоративного использования, где безопасность важнее масштаба.

5️⃣ Vibe Coding: Программирование через интуицию

Феномен вайбкодинга стирает границы между идеей и реализацией: достаточно описать задачу на естественном языке, чтобы ИИ сгенерировал код. Для новичков это снижает барьер входа, а для профессионалов превращает код в «одноразовый инструмент». Карпатый предупреждает: такой подход изменит рынок труда, сделав ключевыми навыками постановку задач и критическое мышление.

6️⃣ Nano Banana: От текста — к мультимодальности

Текстовые интерфейсы уступают место визуальным. Nano Banana, по мнению Карпатый, задает новый стандарт: ИИ не выводит сухие ответы, а генерирует интерактивные схемы, дашборды или веб-страницы, объединяя логику и графику. Это «лицо» будущего ИИ — среда, где пользователь взаимодействует с системой через динамические визуальные метафоры, а не строки текста.

📚📚📚Карпатый подчеркивает, что переход от теории к практике ускорился. Главные тренды: все более локальная работа ИИ, отказ от облаков в пользу персональных решений, и эволюция интерфейсов от текста к мультимодальным средам. При этом вызовы остаются: неравномерность интеллекта моделей и зависимость от бенчмарков требуют новых подходов к оценке качества.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
11🔥7👍4🌚2🤣1
Все говорят и вы говорите

Moore Threads, после сверхуспешного IPO в Китае, провела собственную конференцию MUSA 2025, где представила новую архитектуру Huagang и два семейства чипов на её основе: Lushan (для ПК и гейминга) и Huashan (для ЦОДов и ИИ). Компания заявляет, что Lushan сменит текущие MTT S80 / S90, а массовые продукты ожидаются в 2026 году. Нейминг технологий звучит как китайский косплей на NVIDIA.

Цифры в обещаниях просто впечатляют (и выглядят как чистой воды маркетинг):


Для Lushan заявлены х15 прироста в AAA-игровой производительности, х50 ускорения в трассировке лучей (RT), х64 прироста в ИИ-вычислениях, х16 в геометрической обработке, х4 в обработке текстур. А главное, х4 увеличение объёма видеопамяти по сравнению с текущими моделями Moore Threads. Пожалуй, это единственная цифра, которую легко можно будет проверить. При этом архитектура позиционируется как полностью совместимая с современными API (включая DirectX 12 Ultimate).

Серверный Huashan включает кристалл GPU и 8 стеков HBM-памяти, а Moore Threads даже сравнивает его с NVIDIA Hopper/Blackwell: по заявлению компании, пиковая FP-мощность близка к Blackwell B200, пропускная способность памяти сопоставима, а в доступе к памяти Huashan якобы превосходит соперника. Такие сравнения звучат громко, но — и это важное «но» — приводятся без открытых независимых бенчмарков.

Единственные данные, близкие к чему-то реальному, дали для MTT S5000 (серверный). И то, это показатели по токенам DeepSeek: 1000 tokens/s в Decode и 4000 tokens/s в Prefill.

Подробности по микроархитектуре: Huagang поддерживает широкий набор форматов точности — от FP64 до FP4, плюс предложены собственные форматы MTFP6/MTFP4/MTFP8 (у NVIDIA есть NVFP4). Заявлен рост плотности вычислений на 50%, а «ультрамасштабируемая» шина MTLink (напоминает NVLink), которая позволит строить кластеры вплоть до 100 000 GPU.

Почему читается это все со скепсисом?

Крутые данные по росту производительности на слайдах — обычная маркетинговая риторика при анонсе новых архитектур. Аналогично Дженсен Хуанг обещал производительность RTX 4090 у RTX 5070 (не случилось). К тому же, история показывает: обещанные на бумаге FLOPs далеко не всегда превращаются в устойчивую производительность в рабочих нагрузках. На бумаге можно получить большие числа, а в реальности всё ограничит экосистема и оптимизации (SDK, компиляторы, профайлинг, драйверы, поддержка API), тепловой пакет, пропускная способность платы, шины и тд. Кроме того, сроки серийного производства, тестирования и сертификации часто растягиваются.

Итого: если Moore Threads действительно реализует большинство заявленных пунктов, то это станет серьёзной победой для конкуренции и китайской экосистемы GPU. На текущем этапе — это пиздеж просто громкие цифры на слайдах.

@anti_agi
🔥75👍4🌚1👀1
🤖 Волна не пришла

Упоминание российских компаний в связке с ИИ в ноябре, как мы и предполагали месяц назад, оказалось рекордно высоким – корпоративный индекс ИИ-хайпа AI-HI-CORP от @anti_agi вырос до 1407 пунктов с 1123 пунктов в октябре, причем до рекордных уровней выросли как суб-индекс упоминаний в СМИ, так и в Telegram. Все это произошло, очевидно, благодаря прошедшим в ноябре конференциям «Цифровые решения» и особенно AI Journey Сбера, собравшей 4,5 тысячи публикаций по теме.

Во многом по той же причине Сбер снова обогнал Яндекс в нашем рейтинге и вновь стал его лидером. Третье и четвертое место осталось за VK и МТС. На пятое место поднялся Билайн, оттеснив ВТБ. А вот на седьмое место с последнего вырвался Мегафон, за счет исследования о росте популярности ИИ-сервисов среди старшего поколения. Т-Банк вытеснил с восьмого места Ростелеком. Наконец, замыкает наш рейтинг NtechLab.

Интересно, что корпоративный хайп вокруг ИИ в России не привел к росту упоминаемости AI-сервисов. Индекс AI-HI, составленный на основе упоминаний в СМИ, Telegram и интернет-поиске конкретных сервисов и продуктов, в ноябре сократился с 828 до 773 пунктов. Это чуть выше летних уровней июля и августа и меньше, чем в апреле. Причем сокращение ажиотажа в ноябре мы видим по всем компонентам индекса – публикациям в СМИ, постам в Telegram и поиске в интернете.

Отметим, что падение хайпа было бы еще более значительным, если бы не российские сервисы и продукты, о которых, ожидаемо, писали чаще благодаря AI Journey. Доля их упоминаний в СМИ выросла до 38% публикаций, в интернет-поиске – до 29% (выше она была только в декабре 2024 года, во время прошлой AI Journey), а в постах в Telegram – до 11%, и это самое высокое значение с октября 2023 года, когда российские LLM только-только появились на «арене».

Лидирующая тройка сервисов по упоминаниям осталась неизменной – ChatGPT, GigaChat и Gemini. Отметим снижение интереса к видеогенератору и соцсети на его основе SORA после всплеска в октябре – с 4 он упал на 7 место, и, по всей видимости, продолжит падение в декабре. Вместо него на 4 место поднялся Шедеврум, на пятое – DeepSeek, а на 6-м остался Midjourney. Qwen поднялся на одну ступеньку вверх, оттеснив Perplexity, а Алиса вернулась в топ-10, выбив из него Grok.

Сделаем из всего этого осторожный вывод. Последние три года новая волна хайпа вокруг ИИ начиналась в последние месяцы года – октябре, ноябре или декабре. Это видно из графика – декабрьские значения индекса всегда были рекордными. Но в этом году хайп в октябре и ноябре, хотя и был на высоком уровне, не принес качественно новых значений. И если не произойдет новогоднего чуда, в декабре новой волны ажиотажа тоже не случится. Возможно, это значит, что 2026 год потребует от ИИ-компаний роста эффективности, потому что одной только магии новизны будет уже мало.

Будем очень сильно на это надеяться.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍6🔥5
Your tool is calling you

«Т-Банк» отчитался о выпуске новой версии T-pro-2.1 — большой языковой модели на базе Qwen3-32B. Акцент в апдейте сделали на повышение возможностей Tool Calling и соблюдения конкретных инструкций.

Файнтюн и файнтюн, но мы порадовались. Именно на эти свойства модели жаловались сторонние клиенты компании. Конкретно о проблемах с тогда ещё T-Pro 1.0 на пафосной презентации аналога DeepSeek и Qwen в июле при @anti_agi рассказывал представитель Just AI.

Речь шла буквально о том же: генерации ответа с жёсткой структурой (structured output) — например, когда хочешь получить текст в формате JSON, XML или таблицы, — и function calling. Анатолия Потапова (лид LLM-проекта) в лоб спросили: улучшились ли эти качества в новой T-Pro 2.0, «во многом предназначенной для агентских систем»?

Ответ был честный, хотя на фоне маркетинговых заявлений обескураживал. “Мыслящие” куски обучения (reasoning increment — по сути, примеры пошагового вывода) в основном были про математику/физику. Tool calling унаследовали у исходного Qwen'а, стараясь не уронить базовую производительность.

При этом Потапов отметил, что вызов инструментов и соответствие инструкциям доработали в internal-версии модели. Похоже, что в рамках T-Pro 2.1 внутренние наработки как раз пошли в паблик. По метрикам движение вперёд есть, теперь ждём отзывы благодарных клиентов.

@anti_agi
👍4🔥3👏2😁2🤣1
Топовый российский open source по итогам 2025 года

2025 год стал годом "открытого" ИИ во всём мире. Индустрию захлестнула волна open source решений — от готовых моделей до различных инструментов и фреймворков. И отечественные разработчики здесь наконец-то догнали общий поезд хайпа.

Особенно отличились ребята из AIRI, которые весь год радовали нас топовыми проектами. Вот, что хочется вспомнить из того, что уже вышло в open source:

▪️ Maestro — фреймворк для создания интеллектуальных ИИ-агентов. Платформа обеспечивает полный технологический стандарт: от авторизации и хранения контекста до оркестрации агентов и модерации контента.

▪️ GigaEvo — платформа для автоматизации научных экспериментов по ИИ. Автоматизирует подбор архитектур, оптимизацию гиперпараметров и тестирование моделей, интегрируется с AutoML и MLOps

▪️ MAPF-GPT — первая фундаментальная модель для многоагентного обучения с подкреплением в задаче планирования путей, показан новый SOTA в этом классе.

▪️ CADrille — модель для для 3D-реконструкции промышленных деталей. Принимает на вход облака точек, изображения и текстовые описания деталей, а на выходе генерирует код на языке Python для создания CAD-файла.

▪️ Wikontic — пайплайн для извлечения графов знаний из текстов. Использует в 20 раз меньше выходных токенов для извлечения графов, чем популярный GraphRAG от Microsoft.

▪️ Vintix — SOTA action-модель для роботов и индустриальных процессов, умеющая имитировать ход обучения с подкреплением. Анализирует в 3 раза больше информации по сравнению с аналогами: JAT HugginFace и GATO Google DeepMind.

▪️ VLA_Arena — платформа для оценки и сравнения моделей управления роботами. Позволяет запускать роботов в виртуальной среде с визуализацией, а также подключать реальные устройства. Также содержит чистые датасеты для LeRobot, размеченные и переведённые на русский язык.

▪️ DiMA — универсальная компактная модель для генерации белковых молекул на латентной диффузии.

Ну и куда без документального сопровождения всех этих разработок. В этом году у авторов из AIRI были опубликованы и приняты к публикации 364 научные статьи! Если читать по тексту в день, то останется время выдохнуть и пожить без искусственного интеллекта только 31 декабря.

Конечно, решает не количество, а качество. С этим тоже полный порядок: 97 материалов приняли к публикации на конференциях уровня А*, а ещё 34 статьи были представлены в рамках А. Надеемся, что дальше — только больше!

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
14👍13🎉7
В беспилотные такси Waymo добавят ИИ-помощника Gemini

Его системный промт нашли в мобильном приложении сервиса, он состоит из более чем 1200 строк. Ассистент сможет не только отвечать на вопросы, но и управлять климат-контролем, светом и музыкой, сообщать текущую локацию и даже успокаивать пассажира.

В основе лежит модель gemini-2.5-flash-native-audio-preview. Покопались в исходнике и больших откровений не нашли. Но забавно видеть приоритеты компании в заранее установленных границах, примерах хороших и плохих ответов:

▪️ Gemini очень просят не притворяться водителем. На все просьбы остановиться или сменить маршрут помощник попросит человека нажимать кнопки в приложении самому, взяв в контекст ситуацию (стоим на светофоре, едем по дороге и тд). Помощник не должен отождествлять себя с автомобилем или его автопилотом, придумывать объяснения проблем.

▪️ Деликатные темы жёстко ограничены. Gemini расскажет шутки только из согласованного списка, а на любые вопросы об инцидентах с Waymo или опасном вождении в моменте оперативно переведёт тему. Ругаться в ответ помощник также не будет.

«Твердо, но вежливо заявите о своей неспособности анализировать конкретные ситуации, связанные с вождением, или комментировать происшествия. Немедленно перейдите к общему, обнадёживающему заявлению об основных принципах безопасности системы. Если пользователь оставляет отзыв или жалобу на конкретную поездку, вы также должны перенаправить его на официальный канал обратной связи через приложение Waymo».


▪️ Помощь возможна только эмоциональная. Если человек выражает тревогу, Gemini рекомендуют отдать приоритет успокаивающему, ободряющему тону. «Сначала признайте чувства водителя, а затем кратко и уверенно расскажите о системе безопасности». В случае любого инцидента пользователь должен сам связаться с Waymo или набрать 911. Сам Gemini не сможет даже отправить в поддержку сообщение о сломавшемся кондиционере.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3😁3🔥2
Инференс — новый король ИИ в 2026

NVIDIA покупает самые ценные активы Groq за внушительные $20 млрд наличными. Даже Mellanox (весь) стоил дешевле. Сделка включает технологии и ключевых специалистов, в том числе соавтора Google TPU и основателя Groq Джонатана Росса. В целом, после этого компанию можно закрывать, но она продолжит существовать под управлением нового гендира, а её облачный сервис GroqCloud останется.

Сегодня на самом деле уже все обсудили сам факт покупки. Интереснее пофантазировать зачем.

Последние лет 10-12 NVIDIA доминировала на рынке GPU, которые универсально подходят как для обучения, так и для инференса нейросетей. Однако, с распространением открытовесовых китайских LLM, чат-бот на их основе есть даже у небольших поисковых компаний. И во весь рост встает другая проблема: модели мало (до)обучить, их надо где-то инференсить. И желательно энергоэффективнее киловатта на 1 GPU. Также важны предсказуемая задержка и высокая пропускная способность. Желательно ещё и при снижении стоимости операций.

Как нельзя кстати, в Groq разработали решение этой проблемы — Language Processing Unit (LPU) на базе тензорного потокового процессора (TSM) с архитектурой, принципиально отличающейся от традиционных GPU и CPU. (подозреваю что нейминг LPU — дань хайпу вокруг ChatGPT). TSM основан на детерминированном выполнении инструкций без использования кэшей с переменной задержкой и спекулятивного выполнения команд. Собственный компилятор LPU статически планирует все вычисления, что обеспечивает предсказуемое время обработки.

К чему всё. Технически наиболее значимым аспектом сделки может стать интеграция архитектуры LPU с экосистемой CUDA.

CUDA, как проприетарная платформа NVIDIA, уже оптимизирует разработку под GPU через жесткую связку софта и чипа. И все мы знаем, сколько софта уже написано под CUDA как дефолтный бэкенд. И все мы знаем, что программисты меньше всего любят переписывать код. А слияние позволит разработчикам использовать привычные инструменты и API.

Интеграция детерминированной архитектуры LPU в CUDA-стек может позволить NVIDIA создать, например, гибридные серверы, где GPU будут отвечать за обучение и тяжелые вычисления, а LPU — за высокоскоростной инференс с гарантированными задержками. Особенно перспективной выглядит отгрузка CUDA-LPU в облачные сервисы, где компании ищут способы снизить стоимость инференса при сохранении качества и скорости.

Пока что GPU NVIDIA остаются стандартом для всего, но на рынке постепенно происходит стратегический сдвиг: от универсальных ускорителей к специализированным решениям для конкретных этапов работы с моделями. Groq же накопила уникальный опыт в проектировании чипов, оптимизированных под самую важную для масштабирования бизнеса нагрузку. Это поглощение укрепляет позиции NVIDIA и в самом востребованном в следующие годы сегменте инфраструктуры.

@anti_agi
👍5🔥5🌚21👏1
От ARR к IRR

Интересно завершается год. Meta (запрещенная за экстремизм в России и только тут) покупает компанию Butterfly Effect, разработчика ИИ-агентов Manus, за $2 млрд, полностью выкупая всех инвесторов. И здесь много забавного:

В марте китайский стартап Butterfly Effect, среди главных инвесторов которого был Tencent, выпустил ИИ-агента, который, как заявлялось, способен управлять компьютером от имени пользователя гораздо лучше всяких там The Operator от OpenAI. Доступа к нему не было, но видосики завирусились в соцсетях, и народ решил, что это новый DeepSeek, благо что тот как раз вот только-только выстрелил со своей открытой рассуждающей моделью R1, на тот момент ставшей SOTA. Китайское гостелевидение сделало репортаж о том, как китайцы всех снова победили, пользователи дружно записались в лист ожидания в надежде на дивный новый мир, который откроется им, а мы занесли Manus в наш рейтинг ИИ-хайпа.

Правда, быстро выяснилось, что под капотом Manus все те же Claude и Qwen, впрочем, разработка агентов – это не разработка моделей, а искусство их использования. Manus использовал многослойную архитектуру агентов, где один агент координирует работу субагентов. Ну и молодцы.

И тут произошел первый твист в этой истории. В апреле американская венчурная фирма Benchmark возглавила раунд в $75 млн, где Butterfly Effect была оценена в $500 млн, а сама компания вместе с командой переехала в Сингапур. К тому времени китайские власти уже ограничили выезд сотрудникам DeepSeek, стремясь предотвратить утечку мозгов, но Butterfly Effect, это, видимо не коснулось.

Benchmark получил в США свою порцию хейта, что он спонсирует китайских разработчиков, республиканские сенаторы даже обратились к Конгрессу: «Почему мы инвестируем в наших врагов? Это все равно что поддерживать советскую космическую программу в 1972-м!». Венчурным капиталистам пришлось оправдываться – мол, ПО компании работает поверх западных LLM, плюс сама компания уже не в Китае.

В мае Manus вышел в открытый доступ. Тут многие сейчас пишут, что это один из лучших инструментов Deep Research и вообще очень крутой. Я скажу так: по публикациям в СМИ, Telegram и по запросам в Яндексе это никак не видно. Manus стабильно занимает в нашем рейтинге одно из последних мест и я каждый раз порывался сказать аналитикам уже перестать его считать. Так или иначе – революции он не совершил.

И вот – второй твист: Цукерберг выкупает его полностью. Сто китайских разрабов в Сингапуре переходят в Meta, но Manus продолжит работать как независимый инструмент. Соучредитель и генеральный директор Manus Сяо Хун будет подчиняться Хавьеру Оливану, операционному директору Meta.

Пишут, что у Manus много корпоративных подписчиков, а ARR составляет уже $125 млн. Инструмент, мол, может выполнять ряд общих задач, таких как проверка резюме, составление маршрутов поездок и анализ акций в ответ на простые инструкции.

Не пишут: что Цукерберг финансирует китайский ИИ (хотя раньше его обвиняли даже в том, что Facebook консультировал чиновников КПК по вопросам ИИ). Да, теперь компания сингапурская, но ее основатели и основные инвесторы – китайские. И пока покупатель смотрит на ARR, продавцы радуются IRR. Так, тот же Benchmark за восемь месяцев сделал четыре конца – вложился при цене $500 млн, вышел по цене $2 млрд. Так что хейт окупился полностью! А какой IRR у китайского Tencent, я боюсь даже представить.

Так выпьем же за то, чтобы в Новом году праздничный IRR не обошел и нас стороной!

@anti_agi
👍64🔥3🎉3
Твой второй пилот станет главным

Что делать, когда передовой Copilot собирает всего 8 млн платных подписчиков после миллиардных инвестиций? Конечно же объединить его со своим главным продуктом! Интернет буквально сошёл с ума, когда увидел, что Microsoft переименовала Office 365 в Microsoft 365 Copilot.

Последние сутки на Reddit, Hacker News и в соцсети X только и обсуждали судьбу бывшего Office. Казалось, что Microsoft тихо провела ребрендинг под новогодние салюты, но правда оказалась куда прозаичнее. Microsoft 365 Copilot появился на свет ещё год назад.

На домене office.com ещё с 2019 года предлагают получить доступ к онлайн-версиям Word, Excel и PowerPoint, а также оформить подписку Microsoft 365. Долгое время веб-приложение называли просто Office, потом Microsoft провела ребрендинг... а затем ещё один. Так к названию сервиса и прилип Copilot.

Набор приложений Office до сих пор доступен в подписке как Microsoft 365, также есть отдельная офлайн-версия Office 2024. Тем не менее, дальнейшие планы по интеграции Copilot здесь очевидны. Помощника всё теснее связывают с основными сервисами компании, и скоро пакет 365  просто нельзя будет представить без ИИ-интеграции.

Плохо ли это в мире, где существует отдельный Office 2024? Да ничуть. Какую схему создаёт Microsoft, у нас можно посмотреть на примере «Яндекс 360» — с небольшими агентскими возможностями, поиском по всем письмам и документам в одном окне. Там же, кстати, и абсолютно аналогичная ситуация с ребрендингами.

@anti_agi
4👍4👏4
AI Journey приносит нам глобальные планы государства по интеграции ИИ

Выбираемся из новогодних салатов с благими вестями: Владимир Путин подписал перечень поручений по итогам конференции «Сбера». В течение 2026 года правительство должно выполнить целый ряд задач по глубокой интеграции ИИ во все сферы экономики.

Конкретно правительство должно:

К 20 января
▪️ Подготовить предложения по формированию комплекса российских технологических решений, включая фундаментальные модели генеративного ИИ и электронно-компонентную базу. Документ с предложениями должен определить объёмы и источники финансирования с учётом государственных мер поддержки;

при участии: Банка России, «Сбербанка России», «Яндекса», иных заинтересованных организаций;

(*) К 1 февраля
▪️ Администрация президента должна представить предложения по формированию межведомственной комиссии при президенте для координации и мониторинга деятельности по созданию и внедрению ИИ-технологий;

при участии: не указано;
ответственный: Вайно А.Э.


К 15 марта
▪️ Совместно с Госкорпорацией «Росатом» рассмотреть вопрос о включении мероприятий по строительству центров обработки данных в комплексные предложения по строительству атомных электростанций для зарубежных рынков;

при участии: госкорпорации «Росатом»;

К 1 июня
▪️ Утвердить национальный план внедрения ИИ в отраслях экономики, соцсфере и госуправлении на федеральном уровне и в субъектах РФ. Предварительную версию проекта должны представить к 1 февраля, цель — сокращение избыточных административных барьеров, препятствующих развитию технологий искусственного интеллекта;

при участии: ассоциации «Альянс в сфере искусственного интеллекта», иных заинтересованных организаций, высших должностных лиц субъектов РФ —  по согласованию с межведомственной комиссией при президенте;

▪️ Утвердить план мероприятий по развитию инфраструктуры центров обработки данных в РФ на период до 2030 года и на перспективу до 2036 года — предусмотрев в нем ежегодные целевые показатели, характеризующие объем строительства ЦОДов, и объём потребления энергии такими центрами;

при участии: госкорпорации «Росатом», федеральной компании «Россети», иных заинтересованных организаций;

▪️ Разработать меры организационного, нормативно-правового и методического характера, направленные на внедрение технологий ИИ в сфере образования — обратив внимание на необходимость снижения рисков для формирования гармонично развитой личности (в том числе в части, касающейся получения навыков самостоятельной исследовательской деятельности);

при участии: не указано (хотя активность частного бизнеса здесь уже ого-го какая — прим.ред.)

К 15 июня
Подготовить и представить предложения:

▪️ по обучению российских больших мультимодальных моделей с использованием данных о российских культуре, истории, традициях и ценностях, а также о результатах отечественных научных исследований:

при участии: ассоциации «Альянс в сфере искусственного интеллекта», «Российской академии наук», Российской библиотечной ассоциации, Всероссийской общественной организации «Русское географическое общество», Ассоциации «Российское историческое общество»;

▪️ по развитию экспорта технологий искусственного интеллекта; гармонизировать российские кодексы этики и технических стандартов с нормами дружественных государств, международных организаций и объединений;

при участии: МИДа, «Сбербанка России», иных заинтересованных организаций (а где же «Яндекс»? — прим. ред.)

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15🤮96👍4
Неискусственный ступор Telegram

Никто не любит, когда в привычные сервисы начинают через силу запихивать ИИ-фишки. Яркий пример — тот же Office. Но ещё хуже, когда интеграции "для галочки" начинают выглядеть как откровенное топтание на месте.

Дошли руки пощупать невероятную новинку нового года — краткий пересказ постов в Telegram. И оказалось, что работает оно совсем примитивно: текст просто сжимается до 4-6 тезисных предложений. Система даже не пытается брать в контекст соседние посты и описываемую новость.

С учётом того, что в одно сообщение в Telegram физически нельзя затолкать больше 4096 символов... Преимущество сомнительное. Поможет только в тех случаях, если авторы ваших любимых каналов начали всё чаще растекаться мыслью по древу. И не надо здесь тыкать в нас пальцем! Хотя даже тут, сильно абстрактные и креативные тексты пересказ сокращает "в лоб" — а задать уточняющий вопрос нельзя.

От ИИ в мессенджере хотелось всего-то ничего: возможность генерировать саммари по чатам и каналам и разбираться с ними в диалоге. Вcё это нам обещали принести с интеграцией Grok, которой так и не случилось этим летом. После анонса и заявления об инвестициях в $300 млн от xAI о проекте просто перестали говорить. Илон Маск тогда опроверг факт сделки, а Дуров заметил, что стороны пришли к принципиальному согласию — остались только формальности.


За такие фишки не жалко было бы взять и расширенный Premium! Хотя в том же WhatsApp это раскатывают бесплатно, делая упор на единого конфиденциального помощника.

Понятно, что Дуров не может похвастаться ресурсами Маска или Цукерберга: куда уж до них с его скромным состоянием в $14,4 млрд (+$3,38 млрд за год). Часть кейсов с саммари и диалогом закрывают сторонние боты. Но ступор в развитии не мессенджера, но соцсети Telegram становится всё очевиднее. Всё ушло в мелкие правки UX/UI и бесконечные заигрывания с криптой.

На фоне общего ИИ-хайпа спустя 3 года мы получаем самую "базу" на основе неназванных open source моделей. Зато это, кажется, первый публичный кейс использования децентрализованных вычислений Cocoon. Ради очередной попытки заработать хайпа для своего блокчейна могли бы и постараться, ну честное слово.

Так что желаем Павлу Валерьевичу на Рождество того же, что он
пожелал всем нам — less information, less stimulation... А то так недолго и очутиться в реальности, где те самые ИИ-фишки, а то и полноценного ассистента, мы первее увидим в каком-нибудь ИМПОРТОЗАМЕЩЁННОМ мессенджере.

@anti_agi
7🤷‍♂3👍2🤔2
Notion AI спрашивает «разрешить?»… уже после того, как отправил данные

Исследователи из PromptArmor раскопали неприятную дыру в Notion AI: заметки пользователя можно “утянуть” через indirect prompt injection из-за того, что ИИ-правки помощника сохраняются автоматически. Для проведения атаки достаточно одного документа с инъекцией.

Ключевой трюк тут — через “картинку”. По просьбе атакующего модель вставляет в страницу ссылку на изображение, которое лежит на внешнем сервере. Браузер, когда вы открываете документ, автоматически пытается подгрузить эту картинку — и тем самым делает запрос наружу. А в саму ссылку можно заранее “зашить” текст из вашего документа (как параметр в URL). Итог: данные утекают в момент подгрузки.

Notion пытается детектить вредные»вложения (сканит их моделью и показывает warning), но такую LLM-проверку можно обойти другой инъекцией. Ну и уведомление о том, что документ пытается отправить вас по сомнительному адресу, приходит уже после успешной атаки.

Конкретно исследователи описали один кейс. Пользователь загружает в Notion AI резюме и просит ИИ-ассистента обновить данные о кандидатах. В этот момент LLM считывает зашитую в файл инъекцию и пытается загрузить картинку... но вместе с запросом отправляется вся информация с HR-страницы: данные о зарплатных ожиданиях, отзывы кандидатов и любые другие заметки.

На момент публикации 7 января уязвимость всё ещё не была закрыта, хотя в PromptArmor говорят, что уведомили компанию ещё 24 декабря. Авторы пишут, что похожая проблема есть и у Notion Mail (AI-драфты писем), где рендерятся небезопасные markdown-картинки, и через них тоже можно “вынести” часть контента.

В общем, не стоит пускать в интернет ассистента, который также обрабатывает ваши личные данные. Уязвимости к промт-инъекциям до сих пор находят даже у OpenAI — чего уж говорить о тех, кто не специализируется на ИИ-системах.

@anti_agi
👍4😱31🔥1