Все о блокчейн/мозге/space/WEB 3.0 в России и мире
19.1K subscribers
2.11K photos
368 videos
124 files
7.43K links
Сферы интересов канала: блокчейн, мозг(BCI), биотех, space tech, цифровая экономика, WEB 3.0 в России и мире.

Основатель @AniAslanyan

English channel https://tttttt.me/alwebbci

Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb113f528
Download Telegram
Microsoft тестирует ИИ-модели от DeepSeek и разрабатывает аналоги OpenAI

Microsoft планирует использовать в Copilot ИИ-модели от #DeepSeek по причине того, что модели DeepSeek показывают производительность, близкую к OpenAI, но гораздо дешевле в обслуживании.

Microsoft хочет независимости от OpenAI, ровно поэтому у них уже есть собственные разработки - модели Phi и MAI-1, но они пока уступают GPT-4 и o1.

Phi — это серия небольших, но эффективных моделей, а MAI-1 — более крупная модель, которая должна конкурировать с более продвинутыми системами, такими как те, что создает OpenAI.

Microsoft также тестирует модели от Meta(запрещенная в РФ) и xAI.

Ранее CEO Microsoft Сатья Наделла, говорил, что ИИ-модели будут становиться дешевле, а конкуренция будет основываться на качестве приложений, а не на базовых моделях.
👍9😁74
Итоги уходящей недели, то, что имеет значение в России и мире:

Текст недели:
Биотех+ИИ+нейроинтерфейсы приведут к фундаментальным изменениям в восприятии реальности, коммуникации и даже в том, что значит быть человеком — Макс Ходак, экс-президент Neuralink, основатель Science

Прорывы недели

1-й в мире биокомпьютер от Cortical Labs, они объединили живые нейроны с чипом

Квантовый прорыв: D-Wave заявляет о значительном продвижении в квантовых вычислениях

ИИ-авторство: Впервые ИИ-ученый создал научную статью, прошедшую научное рецензирование

Технологический прорыв: Китайский чип превзошел 3нм разработки TSMC и Intel при меньшем энергопотреблении

ИИ и ИИ-агенты

К 2030г российскому ИИ потребуется более 70 000 видеокарт Nvidia A100

Nvidia создала 1-ю обобщаемую модель стереозрения для роботов, работающую "из коробки" без дополнительной настройки.

Microsoft тестирует ИИ-модели от DeepSeek и разрабатывает аналоги OpenAI

OWASP выпустил отчет "Top 10 Agentic AI Threats and Mitigations" с фреймворком для безопасности автономных ИИ-систем

Тренд 2025 года - внедрение ИИ-агентов в здравоохранение, Zoom и Salesforce выпускают свои продукты

LeanAgent - ИИ-агент, который учится математике как человек, запоминая и выстраивая новые знания

OpenAI выпустила инструменты для создания ИИ-агентов

Google выпустила Gemma 3 - открытые ИИ-модели уровня SOTA

SimularAI представила Agent S2 — полностью open-source ИИ-агент для ПК и смартфонов

Microsoft выпускает ИИ-агента для гейминга

CB Insights опубликовала карту рынка и будущее ИИ-агентов

Cohere представила Command A: новую опен сорс ИИ-модель, превосходящую GPT-4o и DeepSeek-V3 в бизнес-задачах

HuggingFace обучила новую открытую модель Open-R1, превосходящую #DeepSeek R1 в международной олимпиаде по информатике

Робототехника

Объем выручки рынка сервисной робототехники в РФ в 2024 году составил ₽32,1 млрд

По данным Bank of America, к 2030 мировые продажи роботов достигнут 1 млн, а к 2060 в мире будет ~ 3 млрд человекоподобных роботов

Google показала самого продвинутого на сегодняшний день робота на основе Gemini 2.0

Figure объявила о запуске BotQ - крупнейшей в мире компании по производству человекоподобных роботов

Hugging Face (LeRobot) и Yaak выпустили крупнейший в мире набор данных с открытым исходным кодом для беспилотного вождения

Финтех и криптовалюты

ИИ Илона Маска Grok теперь управляет криптокошельком - ИИ не просто консультирует, а сам управляет реальными деньгами

ИИ-агенты могут выступить как заемщики кредитов без залога в стейблкоинах

ЦБ РФ разрешает ограниченному кругу инвесторов покупать/продавать криптовалюты

Инвесткомпания MGX из Абу-Даби вложила $2 млрд в Binance - крупнейшая инвестиция в криптокомпанию

ЦБ РФ разрешил привязывать стоимость ЦФА к криптовалютам

Международная организация комиссий по ценным бумагам выпустила отчет об ИИ на финансовых рынках

Семья Трампа покупает долю в криптобирже Binance US и планирует выпустить стейблкоин

IT-инфраструктура российских банков не готова к внедрению цифрового ₽

Claude теперь может делать покупки на Amazon. Кейс.

Регулирование

OpenAI просят запретить китайские ИИ-модели в США и союзных странах

В РФ происходит изменение баланса сил на рынке труда от "рынка работодателя" к "рынку соискателя"

OpenAI пересмотрела подход к разработке AGI

Что сделали на этой неделе богатые люди мира

Леонид Блаватник вручил £100,000 каждому из трех молодых ученых за их новые открытия

Бывший CEO Google Эрик Шмидт стал CEO Relativity Space, производящей многоразовые ракеты
👍154🔥3😢1
Baidu создали ИИ, который дешевле #DeepSeek Китай создает ИИ по очень низким ценам, делая его почти бесплатным для массового использования

Китайский аналог Google выпустил 2 ИИ-модели:

1. ERNIE X1 - модель, умеющая рассуждать, с мультимодальными возможностями. Ее производительность сопоставима с DeepSeek R1, но по цене в 2 раза ниже.

Отличается улучшенными способностями в понимании, планировании, рефлексии и адаптации.

2. ERNIE 4.5 - последняя версия основной модели Baidu, она мультимодальная, по заявлению разработчиков превосходит модель OpenAI GPT-4.5 по нескольким бенчмаркам, а также её результаты сопоставимы с GPT-4.5 и лучше, чем DeepSeek V3, в текстовых задачах.

Baidu также объявили, что ERNIE Bot (их чат-бот, использующий эти модели) стал бесплатным для индивидуальных пользователей раньше запланированного срока. Обе модели будут интегрированы в экосистему Baidu, включая поисковик Baidu Search и приложение Wenxiaoyan, чтобы расширить доступ и улучшить пользовательский опыт.

Почему Китай может создавать такой дешевый ИИ?

Дело в том, что у китайских компаний минимальные затраты на обработку данных, есть доступ к большим объемам данных и гос поддержка для снижения цен на ИИ.

Также у них минимальные барьеры со сбором данных и низкие затраты на маркировку данных.
👍153👏1🥴1
Гарвард выпустил open source ИИ-агента для врачей, фармацевтов, фармакологов и других медицинских работников

TxAgent - ИИ-система, разработанная для анализа терапевтических проблем.

Ключевые особенности и преимущества:

1. Мышление, а не просто прогнозирование.
В отличие от предсказательных моделей, TxAgent способен мыслить через терапевтические проблемы и интегрировать биомедицинские знания в реальном времени.

2. При сравнении с #DeepSeek-R1 (671B, NVIDIA) и другими моделями ИИ, TxAgent показал результаты в многоступенчатом терапевтическом мышлении, достигая точности до 92,1% в выборе лекарств, персонализации лечения и терапевтических рассуждениях.

3. TxAgent имеет доступ к 211 инструментам.

Продвинутые технологические возможности:

1. Структурированное, многошаговое принятие решений
2. Взаимодействие с 211 биомедицинскими инструментами
3. Интеграция знаний в реальном времени и непрерывное обучение
4. Динамический выбор инструментов
5. Обоснованный медицинский ИИ с минимальным риском "галлюцинаций".
1🔥158👍2👏2😱1
Официально OpenAI: цена за ИИ-модель o1-pro для API 600$ / 1M выходных токенов 👀

o1-pro в 270 раз дороже #DeepSeek-R1 , ранее мы писали про цены китайской модели тут.

Если только эти дополнительные 10 баллов IQ не сделают её гением уровня Эйнштейна, стоит ли она этого?
🤣15🔥21👏1
Китай выпускает новую ИИ-модель, которая лучше #DeepSeek и GPT-4.5

Hunyuan-T1 — это новая ИИ-модель от Tencent, она основана на архитектуре Hunyuan TurboS и разработана с акцентом на скорость, точность и эффективность. https://tttttt.me/alwebbci/3127

У этой модели:

1. Гибридная архитектура Mamba-Transformer MoE.

Hunyuan-T1 — первая модель такого масштаба, использующая комбинацию Mamba и Transformer в рамках подхода Mixture of Experts (MoE).

2. Сильная логика и лаконичность. Модель способна точно следовать сложным инструкциям и выдавать четкие, логически выверенные ответы. Это делает её отличным инструментом для задач, где важна структура и ясность.

3. Минимальные галлюцинации.

4. Высокая скорость. Первое слово появляется менее чем за секунду, а скорость генерации текста достигает 60–80 токенов в секунду. Это отличный показатель для модели, работающей с такими сложными задачами.

Превосходство:
- Над DeepSeek: Hunyuan-T1 быстрее (60–80 токенов/с против "медленного" R1), возможно, лучше в лаконичности и обработке длинных текстов. DeepSeek выигрывает в открытости и цене.

- Над GPT-4.5: Hunyuan-T1 может опережать в скорости, логике и стоимости, а также в обработке сверхдлинных контекстов. GPT-4.5, вероятно, лучше в естественности общения и эмоциональном интеллекте.

Также команда выпустила исследование Insight-V, которое является шагом к тому, чтобы мультимодальные модели могли не просто видеть и говорить, а логически рассуждать на основе визуальных данных, как это делает человек.

Это одна из первых попыток создать систему, вдохновленную подходом OpenAI o1, но с акцентом на обработку визуальной информации в сочетании с текстовыми данными.

Code.
❤‍🔥15🤣52👍2🔥2🤪1
Перепроизводство ИИ. Китайская стратегия открытого ИИ

Судя по тем релизам, которые делают участники рынка(это и это как примеры), видно, что Китай движется к массированному выпуску моделей ИИ с открытым исходным кодом, охватывающих все: от компьютерного зрения до робототехники и генерации изображений.

Ключевым моментом этой стратегии является коммодитизация ПО с целью перенаправления центра прибыли на аппаратное обеспечение — сферу, где китайские производители традиционно демонстрируют превосходство.

Эта тактика не нова — это классический случай копировать, оптимизировать, масштабировать, затем разрушить конкурентов низкими ценами, который ранее применялся в производственном секторе. Теперь этот подход переносится на ПО с ИИ.

5 факторов успеха:

1. Эффект DeepSeek уже временно снизил рыночную капитализацию американских технологических компаний примерно на $1 трлн.

2. Экспорт физических устройств, а не ПО, остается основной компетенцией Китая.

3. Способность Китая производить в таких масштабах, что зарубежные конкуренты вынуждены уходить с рынка.

4. Возможность занять лидирующие позиции в ИИ становится вопросом национальной гордости.

5. Вирусное распространение моделей наподобие #DeepSeek даже на уровне региональных администраций.

Переход к ИИ-инфраструктуре

В перспективе эта стратегия предполагает сдвиг от монетизации ИИ-моделей к созданию экосистемы недорогих ИИ-устройств: интеллектуальных домов, автономных автомобилей, дронов и роботов.

Такой подход может серьезно затруднить окупаемость значительных инвестиций, необходимых для разработки проприетарных моделей ИИ.

Парадокс открытости ИИ
Страна «Великого файрвола» внезапно становится лидером в продвижении открытого исходного кода. Это указывает на прагматичный подход к технологическому развитию — готовность адаптировать даже те западные ценности, которые ранее казались несовместимыми с китайской моделью, если это способствует достижению стратегических целей.

Перспективы

Китай совершенствует свои навыки в ПО быстрее, чем Запад улучшает аппаратное обеспечение. Эта асимметрия может стать решающим фактором в глобальном технологическом соперничестве в ближайшие годы.
👍22🔥15❤‍🔥3💯3💊1
#DeepSeek устроили новый хайп, пока это разогрев - их обновленная модель V3 - 0324 обошла даже мыслящие модели, включая R1, o1, Gemini Pro и Grok.

V3-0324 — предполагаемая базовая для мыслящей модели R2, которая готовится к релизу, и по слухам она произведет такой же фурор, что и первая версия. А главное за минимальную стоимость. https://tttttt.me/alwebbci/3129

По тестам V3-0324 стала второй лучшей моделью для кодирования, уступающей только Claude Sonnet 3.5.

Модель способна создавать качественные веб-страницы с HTML5, CSS и фронтенд-кодом бесплатно.

V3 - 0324 смогла сгенерировать полноценный интерактивный веб-сайт с картинками, историями пользователей со всеми деталями, всего за 1 запрос.

DeepSeek V3 0324 хорошо подходит для креативных задач, а теперь и для создания веб-страниц. Модель доступна для скачивания, через API и через чат на сайте.
12👍7🥴6🔥2
За последний час OpenAI добавили 1 млн пользователей.

Сэм Альтман говорит, когда запускался ChatGPT, они добавили 1 млн пользователей за 5 дней. А теперь за 1 час! И все это вирусная история с созданием картинок.

Сегодня были ещё цифры, что #DeepSeek превосходит ChatGPT по ежемесячному трафику.

Согласно данным аналитической платформы aitools. xyz.,
#DeepSeek достиг 525 млн посещений в феврале, превзойдя 500 миллионов ChatGPT.

Сейчас DeepSeek занимает 6,58% доли рынка - это 3-е место после ChatGPT (43,16%) и Canva (8,27%).
1🔥9👍5🤯53
#DeepSeek представили технологию, превращающую 27млрд-модель в конкурента GPT-4o

DeepSeek развивает новый тренд в ИИ - масштабирование моделей через оптимизацию вывода (inference) вместо увеличения размера моделей.

Этот тренд уже начали показывать Databricks и Camel-AI.

SPCT (Self-Principled Critique Tuning) – это новый метод, который позволяет значительно улучшить эффективность моделей вознаграждения без увеличения размера модели.

SPCT работает через генерацию принципов оценки на лету и параллельную выборку нескольких наборов оценок, которые затем агрегируются для получения более точного результата.

Этот подход не требует специально размеченных данных для оценки качества ответов в каждом домене – модель сама определяет релевантные критерии и применяет их к оценке.

Эмпирические исследования показывают, что DeepSeek-GRM-27млрд с использованием 32 параллельных выборок превосходит Claude 3.5 Sonnet, GPT-4o и Nemotron-4-340млрд-Reward на стандартных бенчмарках оценки LLM, что эквивалентно производительности моделей с 671млрд параметров — в ~25 раз больше параметров.

SPCT подходит для:

1. Создания специализированных LLM с помощью RLHF с использованием меньшего количества вычислительных ресурсов

2. Повышения качества существующих моделей через более точные оценки их ответов

3. Гибкого управления балансом качества и стоимости в зависимости от конкретных задач

4. Разработки систем с улучшающимся циклом использования – чем больше запросов обрабатывает система, тем лучше она становится.
🔥167👍7
CEO Nvidia встретился с основателем #DeepSeek для обсуждения новых дизайнов чипов

Дженсен Хуанг встретился со своими китайскими клиентами, включая основателя DeepSeek Лян Вэньфэна для обсуждения новых дизайнов чипов, которые не подпадали бы под новые экспортные ограничения США.

Он также провел переговоры с вице-премьером Китая Хэ ​​Лифэном.
👍93👏2
⚡️В сеть слили подробности новой ИИ-модели #DeepSeek R2, в 40 раз дешевле GPT-4

Согласно последним данным, DeepSeek готовится к выпуску своей новой модели R2, которая показывает значительные технологические прорывы по 3-м ключевым направлениям.

Революционная архитектура и эффективность - R2 использует инновационную архитектуру Hybrid MoE 3.0, которая обеспечивает 1,2 трлн динамически активируемых параметров при фактическом вычислительном потреблении всего 78 млрд параметров. По результатам тестирования Alibaba Cloud, при обработке задач вывода длинных текстов стоимость единицы токена снижена на впечатляющие 97,3% по сравнению с GPT-4 Turbo.

Самостоятельно разработанная система распределенного обучения показывает высокую эффективность на отечественном оборудовании — 82% использования кластера чипов Huawei Ascend 910B, с вычислительной мощностью 512 PetaFLOPS при точности FP16,
что составляет 91% эффективности кластера NVIDIA A100 аналогичного размера.

DeepSeek R2 показывает крутые результаты в мультимодальных задачах:

- 92,4% точности (mAP) в сегментации объектов на датасете COCO, что на 11,6 п.п. выше модели CLIP
- Уровень ложных срабатываний 7,2E-6 в промышленных системах контроля качества
- 98,1% точности в диагностике заболеваний по рентгеновским снимкам грудной клетки, превосходя средний уровень экспертной группы главных радиологов (96,3%)

Модель обучена на обширном корпусе высококачественных данных объемом 5,2 ПБ, охватывающих финансы, право, патенты и другие специализированные области, что обеспечивает точность следования инструкциям до 89,7% по тестам C-Eval 2.0.

DeepSeek формирует экосистему из ведущих технологических компаний Китая:

Tuowei Information - основной производственный партнер экосистемы Huawei Ascend, выполняющий более 50% заказов на вычислительную инфраструктуру.

Hongbo Shares - управляет северокитайским узлом вычислений с резервом мощности более 3000P.

Zhongke Shuguang - поставляет кластеры серверов с жидкостным охлаждением с плотностью мощности 40 кВт на стойку.
Inspur Information - поставила более 5000 AI-серверов с гибридной архитектурой NVIDIA H800 + Ascend 910B.

Runjian Shares - обслуживает южнокитайский суперкомпьютерный центр с контрактом стоимостью более 500 млн юаней в год.
Xinyisheng - разработала решение CPO на основе кремниевой фотоники, снижающее энергопотребление на 35%

Технология квантизации
DeepSeek R2 позволяет сократить размер модели на 83% при 8-битной точности с потерей точности менее 2%, что открывает возможности для развертывания на периферийных устройствах.

Модель уже нашла применение в проектах "умных городов", промышленной автоматизации и здравоохранении.
1🔥2410👍9🤯6🤣1
Итоги уходящей недели, то, что имеет значение в России и мире

Прорывы недели:


Arc Institute создал 1-й в истории инструмент для масштабной перестройки генома человека

1-й человеку в мире сделали редактирование генома для лечения редких метаболических нарушений.

Google DeepMind представили ИИ-агента, совершившего открытие в фундаментальной математике.

Инфраструктура

В Москве заканчиваются мощности ЦОД для ИИ.

Объем российского ИТ-рынка в 2024 составил ₽3 трлн.

США отменяют правило Байдена по ИИ и ужесточают контроль за чипами.

Саудовская Аравия становится хабом ИИ, криптовалют и космических технологий, итоги встречи двух стран.

ИИ, ИИ-агенты

Экс- сотрудники Google создали новую архитектуру ИИ с "интуицией" и open source.

Notion выпустил набор рабочих ИИ-функций.

Agents from scratch - новый репозиторий, охватывающий основы создания агентов.

Университет Цинхуа выяснил, что ИИ может генерировать собственные обучающие данные, превосходя модели, обученные экспертами-людьми.

OpenAI представила HealthBench - открытый набор данных для тестирования способности LLM обрабатывать медицинские диалоги.

Создана новая платформа для ИИ-агентов, позволяющая им учиться решать задачи машинного обучения на профессиональном уровне.

Meta* выпустила крупнейший набор высокоточных квантово-химических расчетов для биомолекул и металлических комплексов.

Meta представила новый подход к генеративному моделированию.

OpenAI выпустила ИИ-агента для разработки ПО.

Alibaba создали технологию поиска через ИИ без доступа к API реальных поисковых систем.

Новый протокол взаимодействия между агентом и пользователем для создания пользовательских ИИ-агентов.

Prime Intellect выпустил INTELLECT-2 - 32B модель, обученную с помощью глобально распределенного обучения с подкреплением.

#DeepSeek поделился информацией о проблемах масштабирования и размышлениях о аппаратном обеспечении для архитектур ИИ.

Google представил концепцию "достаточного контекста" для RAG систем.

Qwen представил закон параллельного масштабирования для языковых моделей.

Финансы и криптовалюты

Банк международных расчетов в новом отчете признал, что криптовалюты формируют параллельную финансовую систему.

Банк России ввёл новые правила для иностранных цифровых активов.

Цукерберг планирует внедрить стейблкоины для выплат креаторам.

Суверенный фонд Абу-Даби Mubadala увеличил вложения в биткоин-ETF IBIT до $408,5 млн.

Основатели

Дирижабль со-основателя Google Сергея Брина полетел.

Герман Хан, со-основатель Альфа Групп, поделился мыслями об инвестициях в науку и безусловном базовом доходе.

Владимир Потанин заявил, что ИИ поставит человечество на грань духовного выживания.

Биотехнологии, нейроинтерфейсы, космос

Neuralink начинает клинические испытания в Абу-Даби.

Meta опубликовала исследование о развитии языка в мозге человека.

Apple интегрирует нейроинтерфейсы в свои устройства.

Space Forge, отправляющий спутники для производства материалов, включая полупроводники, привлек $30 млн в серии A.

Новые тренды, полупроводники, робототехника

Исследователи выявили фундаментальные проблемы использования генеративных ИИ-моделей в робототехнике.

Сооснователь Hugging Face говорит о новом тренде - Low Tech AI, подробнее тут.

Huawei управляет 20 полупроводниковыми заводами в Китае инкогнито.

Госкорпорациям в РФ разрешили покупать иностранные решения для роботизации производств.

Исследователи обучили визуальной навигации роботов на 2000 часах неотобранных данных краудсорсинга и протестировали её в 24 средах в 6 странах.

*запрещенная в РФ организация.
👍137🔥5
Состояние и перспективы квантового ИИ

Европейские эксперты выпустили белую книгу о текущем состоянии и перспективах квантового ИИ.

Это не просто новая технология, а потенциальная смена вычислительной парадигмы. Страны/регионы, которые сейчас создадут правильную экосистему (таланты + инфраструктура + стандарты + применения), получат долгосрочное технологическое лидерство.

Стратегические выводы из отчета:

1. Мы на пороге технологической революции
Две вычислительные революции происходят одновременно - ИИ и квантовые вычисления, с разными уровнями зрелости.
• Их синергия создаст качественно новые возможности, недоступные каждой технологии по отдельности.

2. Геополитическая гонка уже началась
ЕС зажат между доминированием США и растущей ролью Китая, особенно в ИИ.
• Патенты на применение ML в квантовых вычислениях уже активно регистрируются, в основном в США.
•Пример #DeepSeek показывает, что инновации и открытые модели могут кардинально изменить баланс сил.

3. Критическое окно возможностей: 5-10 лет

Сейчас формируются стандарты и платформы, которые определят будущее
•Лидерство в этих областях определяется научным превосходством и способностью создавать интегрированные программные платформы
Кто создаст экосистему первым, тот получит долгосрочное преимущество.

4. Ключевые стратегические направления:

То, что уже работает-
ИИ для улучшения квантовых систем. Это создает немедленную ценность и ускоряет развитие.

Среднесрочная перспектива (критично для лидерства):
• Гибридные квантово-классические системы
• Квантовые алгоритмы для конкретных промышленных задач.

Долгосрочная цель (определит будущее):
• Полностью квантовые ИИ-системы
• Принципиально новые вычислительные парадигмы.

5. Стратегические рекомендации:

- Инвестиции должны идти параллельно
в:
• Фундаментальные исследования
•Прикладные разработки
• Инфраструктуру (квантовые компьютеры + классические HPC).

- Критически важно:
• Создание открытых платформ и стандартов
• Подготовка специалистов на стыке квантовых технологий и ИИ
• Баланс между открытой наукой и коммерческой конкурентоспособностью.

- Энергетический аспект:
Необходимо оценивать и оптимизировать энергопотребление как квантовых ИИ решений, так и классического ИИ для квантовых технологий. Это может стать конкурентным преимуществом.

Риск для отстающих- зависимость в критических областях (медицина, безопасность, материалы, энергетика) на десятилетия вперед.
10🔥8👍5🤔1
Секретный соус #DeepSeek из первых уст

1. Программирование на языке железа
- спустились до PTX.
2. Экспериментальные инструменты - использовали TileLang — новый язык для сверхбыстрых GPU-ядер.
3. Архитектура - MLA — новый тип "внимания", требующий в разы меньше памяти. FP8 — компактные числа без потери точности.Кастомные алгоритмы коммуникации.

Результат:
-
Модель уровня GPT-4 за 1/20 цены
- Обучение за 2 месяца вместо года
- "Слабое" железо работает эффективнее "сильного"
🔥2016🤯3👍2
Новый конкурент #DeepSeek и самый обсуждаемый релиз дня - Ernie 4.5 от Baidu, они создали целую экосистему технологий

Ernie 4.5 хвалят за мультимодальные возможности. Пользователи отмечают, что модель превосходит GPT-4o в некоторых отраслевых тестах, улучшенное понимание контекста, снижение галлюцинаций и логических ошибок.

Ernie 4.5 стоит значительно дешевле аналогов — около 1% от стоимости GPT-4.5 ($0.55 за миллион входных токенов и $2.20 за миллион выходных).

Baidu сделала Ernie 4.5 бесплатными для пользователей чат-бота Ernie Bot, а также объявила о планах открыть исходный код 30 июня 2025.

У ERNIE 4.5 производительность на уровне и в некоторых тестах выше:
DeepSeek-V3
GPT-4.1
Qwen3-235B
OpenAI-o1 (в мультимодальных задачах)

Особые преимущества:

1. эффективная архитектура MoE с меньшим количеством активных параметров

2. ERNIE-4.5-VL может работать в двух режимах: thinking и non-thinking. В thinking режиме модель показывает рефлексивное мышление.

3. Модель в 300B параметров может работать на одном GPU H20 (141GB). Использует алгоритм Convolutional Code Quantization (CCQ).

4. Масштабируемость от 0.3B до 424B параметров.

5. Работает не только на NVIDIA GPU, но и на китайских чипах (Kunlunxin, Hygon, Ascend).
👍109👏4🤔1
Sakana AI создала коллективный ИИ из o4-mini+Gemini+DeepSeek, который заставляет несколько ИИ-моделей работать вместе, как команда, чтобы лучше решать сложные задачи.

Алгоритм AB-MCTS от Sakana AI использует 3 ИИ- модели:

1. o4-mini от OpenAI.
2. Gemini-2.5-Pro от Google.
3. #DeepSeek-R1-0528.

Эти модели работают вместе через алгоритм AB-MCTS, чтобы улучшить результаты на сложных тестах, таких как ARC-AGI-2.

Sakana AI использовала метод проб и ошибок, позволяя моделям "думать" коллективно. На тесте ARC-AGI-2 такая комбинация показала лучшие результаты, чем каждая модель по отдельности. Код открыт для всех.
🔥177🙏4🤔2
Похоже, в Китае развитие ИИ замедлилось, несмотря на изначальный энтузиазм по поводу #DeepSeek @blockchainrf

По иронии судьбы, китайский индекс Terrific 10 значительно уступает американскому Mag 7 после успешных торговых переговоров между США и Китаем в Женеве.

Стоимость акций компании Cambricon, ключевого китайского производителя графических процессоров, когда-то считавшегося китайским ответом Nvidia, резко упала по сравнению с акциями Nvidia.

Падение цены акций Cambricon связано не только с технологическим отставанием, но и с ограничениями в производственных мощностях — Cambricon, будучи в черном списке США, не может использовать передовые технологии TSMC.

Huawei, с другой стороны, имеет большее влияние благодаря своим связям с китайским правительством и доступу к мощностям SMIC. Их чип Ascend 910B лучше подходит для задач вывода,но он всё ещё уступает Nvidia по производительности и экосистеме.

Тем временем долгожданный запуск DeepSeek R2 откладывается, и официальная дата релиза пока неизвестна. Даже если они используют менее мощные чипы, экосистема CUDA от Nvidia все ещё доминирует, а китайские альтернативы - CANN от Huawei, пока не могут конкурировать из-за нестабильности и сложностей в использовании.

Станет ли отсутствие доступа к передовым чипам ИИ непреодолимым препятствием для амбиций Китая в ИИ?

@blockchainrf
7🤔6🔥2👍1
Экономика ИИ меняется: от подписок к оплате за результат. Низкая цена больше не гарантирует успех.

Исследование SemiAnalysis показывает структурные изменения в ИИ-индустрии на примере #DeepSeek , Anthropic , Google, OpenAI и др. конкурентов.

DeepSeek R1 предлагает цены в 10 раз ниже OpenAI ($0.55 vs $5+ за входные токены). Что привело к таким результатам:
- Трафик на собственной платформе падает
- Использование на сторонних сервисах растёт в 20 раз.

Причина - компания жертвует качеством обслуживания (25-секундные задержки, малое контекстное окно 64К) ради экономии ресурсов для исследований. Пользователи выбирают те же модели у других провайдеров с лучшими параметрами.

Новая математика эффективности
Anthropic столкнулась с дефицитом мощностей — скорость Claude упала на 40%. Но компания компенсирует это эффективностью - Claude использует в 3 раза меньше токенов для того же ответа
В результате, несмотря на 45 токенов/сек против 100+ у конкурентов, общее время ответа остаётся конкурентным.

Это меняет метрику успеха - важна не скорость генерации, а эффективность использования каждого токена.

Дефицит как новая реальность
Все игроки рынка ограничены вычислительными ресурсами:
1. DeepSeek: 10,000 GPU под санкциями
2. Anthropic: сделки с Amazon и Google на чипы
3. OpenAI и Google: борьба за доступные мощности.

Это создаёт разные стратегии оптимизации, где каждая компания выбирает свой компромисс между ценой, скоростью и качеством.

Переход к токенам как сервису
Растёт сегмент b2b-клиентов (Cursor, Perplexity, Replit), которые:
- Покупают токены для конкретных задач, а не общие подписки
- Легко переключаются между провайдерами
- Оптимизируют использование под свои нужды
Это фундаментально меняет экономику: от фиксированных месячных платежей к переменным затратам на "единицы мышления".

Практические выводы:

Цена токена — результат технических компромиссов, а не показатель эффективности технологии.
Специализация побеждает универсальность: инструменты для конкретных задач (кодирование, поиск) востребованнее общих чат-ботов.
Open source как обход ограничений: китайские компании открывают код, чтобы западные провайдеры тратили свои ресурсы на хостинг.
Эффективность важнее скорости: модели, решающие задачи с меньшим количеством токенов, получают преимущество.

В новой экономике ИИ успех определяется не ценой за токен, а способностью доставить результат с оптимальным балансом скорости, качества и стоимости.
👍241🤔1