NVIDIA выпустила Nemotron 3 — открытые модели для мультиагентных систем
NVIDIA представила семейство Nemotron 3 в трёх размерах: Nano (30B), Super (~100B) и Ultra (~500B).
Главная фишка, - гибридный мамба трансформер MoE, архитектурный микс из мамбы и трансформера, который позволяет не терять детали на большом контексте, которого тут аж на 1млн токенов.
Nemotron 3 Nano уже доступна и показывает 4× прирост пропускной способности относительно предшественника, плюс на 60% меньше reasoning-токенов. Контекст, - 1 млн токенов. Модель обучена с помощью 4-битного формата NVFP4 на архитектуре Blackwell.
Вместе с моделями выпустили 3 триллиона токенов тренировочных данных, библиотеки NeMo Gym и NeMo RL, плюс датасет по безопасности агентов.
Super и Ultra появятся в первой половине 2026 года.
Поддерживается в LM Studio, llama.cpp, SGLang и vLLM.
Уже есть готовые пайплайны для обучения в Unsloth.
Так же доступна на всех роутерах типа:
Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter и Together AI.
#Nemotron #NVIDIA #Blackwell
———
@tsingular
NVIDIA представила семейство Nemotron 3 в трёх размерах: Nano (30B), Super (~100B) и Ultra (~500B).
Главная фишка, - гибридный мамба трансформер MoE, архитектурный микс из мамбы и трансформера, который позволяет не терять детали на большом контексте, которого тут аж на 1млн токенов.
Nemotron 3 Nano уже доступна и показывает 4× прирост пропускной способности относительно предшественника, плюс на 60% меньше reasoning-токенов. Контекст, - 1 млн токенов. Модель обучена с помощью 4-битного формата NVFP4 на архитектуре Blackwell.
Вместе с моделями выпустили 3 триллиона токенов тренировочных данных, библиотеки NeMo Gym и NeMo RL, плюс датасет по безопасности агентов.
Super и Ultra появятся в первой половине 2026 года.
Поддерживается в LM Studio, llama.cpp, SGLang и vLLM.
Уже есть готовые пайплайны для обучения в Unsloth.
Так же доступна на всех роутерах типа:
Baseten, DeepInfra, Fireworks, FriendliAI, OpenRouter и Together AI.
#Nemotron #NVIDIA #Blackwell
———
@tsingular
👍10✍2❤1⚡1
Google открыл API для агента Deep Research
Google выкатил Gemini Deep Research через новый Interactions API - теперь разработчики могут встроить автономного исследователя в свои приложения.
Агент на базе Gemini 3 Pro итеративно планирует поиск: формулирует запросы, читает результаты, находит пробелы в знаниях и ищет снова. Залезает глубоко внутрь сайтов (!) за конкретными данными.
Результаты:
- 46.4% на Humanity's Last Exam
- 66.1% на новом бенчмарке DeepSearchQA (900 задач с "причинными цепочками")
- 59.2% на BrowseComp
Выпустили DeepSearchQA в открытый доступ - бенчмарк, который оценивает полноту исследования, а не только факты.
Про сайты это интересно. Т.е. он не просто читает первую ссылку, а находит релевантные внутри сайта и следует по ним, пока не нароет ответ.
Удобно.
#DeepResearch #Gemini #InteractionsAPI
———
@tsingular
Google выкатил Gemini Deep Research через новый Interactions API - теперь разработчики могут встроить автономного исследователя в свои приложения.
Агент на базе Gemini 3 Pro итеративно планирует поиск: формулирует запросы, читает результаты, находит пробелы в знаниях и ищет снова. Залезает глубоко внутрь сайтов (!) за конкретными данными.
Результаты:
- 46.4% на Humanity's Last Exam
- 66.1% на новом бенчмарке DeepSearchQA (900 задач с "причинными цепочками")
- 59.2% на BrowseComp
Выпустили DeepSearchQA в открытый доступ - бенчмарк, который оценивает полноту исследования, а не только факты.
Про сайты это интересно. Т.е. он не просто читает первую ссылку, а находит релевантные внутри сайта и следует по ним, пока не нароет ответ.
Удобно.
#DeepResearch #Gemini #InteractionsAPI
———
@tsingular
🔥8👍2❤1⚡1
Трамп набирает тысячу техспециалистов из BigTech в госаппарат
Администрация запускает US Tech Force — программу на два года для модернизации федеральных систем и внедрения ИИ.
Участвуют Amazon, Apple, Google, Meta, Microsoft, OpenAI, xAI, Nvidia и другие.
После работы специалисты смогут вернуться в компании-партнёры, - будет выстроена ротация между госсектором и корпорациями.
#USA #government #BigTech
———
@tsingular
Администрация запускает US Tech Force — программу на два года для модернизации федеральных систем и внедрения ИИ.
Участвуют Amazon, Apple, Google, Meta, Microsoft, OpenAI, xAI, Nvidia и другие.
После работы специалисты смогут вернуться в компании-партнёры, - будет выстроена ротация между госсектором и корпорациями.
#USA #government #BigTech
———
@tsingular
👍7🤨7✍4❤2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Google запустила в публичное превью платформу Code Wiki. Инструмент сканирует репозиторий и генерирует живую базу знаний, которая перестраивается автоматически после каждого изменения в коде.
Под капотом -
Code Wiki умеет строить диаграммы архитектуры, объяснять логику работы модулей и мгновенно перенаправлять из вики к конкретным определениям функций.
Сейчас веб-версия работает с публичными репозиториями, но в планах - CLI-расширение для развертывания системы в закрытых корпоративных контурах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
✍6🔥6🆒2👍1
Где в России применяется ИИ.
По результатам опроса Компьютерры.
#Компьютерра #Россия #аналитика
------
@tsingular
По результатам опроса Компьютерры.
#Компьютерра #Россия #аналитика
------
@tsingular
🤔8❤1
Forwarded from Dendi Math&AI (Денис Димитров)
🥳 Мы докатили в text-to-video арену две наши последние модели генерации видео Kandinsky 5.0 Video Lite и Pro
⚡️Результаты следующие:
🔘 Pro версия является ТОП-1 опенсорсом в мире (см. модели с лицензиями MIT, Apache 2.0 в лидерборде)
🔘 Lite версия лучше первой версии Sora (не супердостижение, но у Lite всего 2B параметров)
🔘 Лучше нас (Pro) только Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6) — объективно самые сильные модели генерации видео в мире на текущий момент; в паритете с нами Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 В целом стоит отметить, что для российских генеративных моделей выход на международную арену — довольно уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд можно вот тут: lmarena
🔘 Твиттер организаторов арены: X lmarena.ai
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт,
🔘 Потестить Kandinsky 5.0: github и hf
@dendi_math_ai
⚡️Результаты следующие:
🚀 Полезные ссылки:
@dendi_math_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25❤3⚡3🍾2
Forwarded from Love. Death. Transformers.
В 2022-м я сказал совету директоров, что нам нужна своя LLM. Своя. Суверенная. На триллион параметров.
Почему триллион? Потому что у GPT-4 — триллион. Я прочитал это в телеграм-канале. Канал назывался «ИИ на минималках». 50 000 подписчиков. Значит, правда.
Мне выделили бюджет. 2,3 миллиарда рублей. Я сказал «это инвестиция в технологический суверенитет». Никто не спросил, что это значит.
Я тоже не знал.
Купили 256 карточек V100. Не A100. V100. Потому что A100 под санкциями. V100 — нет. V100 вышли в 2017-м. Но я сказал «проверенное решение». Проверенное означает старое. Старое означает дешёвое. Дешёвое на вторичке в Дубае.
Наняли команду. 40 человек. ML-инженеры. Большинство не работали с LLM. Но у них были сертификаты ОТУСА. Сертификаты — это компетенции. Компетенции — это строчка в отчёте.
Тимлид спросил, почему триллион параметров на 256 V100. Сказал, что у Meta на LLaMA 70B было 2000 A100. Я сказал «у нас другой подход». Он спросил какой. Я сказал оптимизированный. Он спросил как именно оптимизированный. Я назначил ему встречу по пересмотру грейда. Он уволился. Я написал в отчёте «оптимизация штата».
Восемь месяцев обучения. Модель не сходилась. Лосс был плоский. Инженер сказал, что данных мало. У нас было 200 гигабайт текстов. Госзакупки, диссертации, Лента.ру. Он сказал, что у LLaMA — 2 триллиона токенов. Я сказал «качество важнее количества». Это не так. Но звучит мудро.
На девятый месяц модель заговорила.
Она говорила странное. На вопрос «столица Франции» отвечала «в соответствии с пунктом 3.2 технического задания». На вопрос «кто президент России» выдавала «Дмитрий Анатольевич Медведев». Датасет был старый. Я назвал это «историческая глубина модели». Инженеры называли это по-другому. Но их мнение не шло в презентации.
Запустили в прод. Назвали «НейроРусь-1Т». Лого — медведь с нейросетью в голове. Лого стоило 4 миллиона. Агентство сказало, что медведь символизирует «мощь российского ИИ». Я согласился. Медведи мощные.
Первый месяц. 3 000 запросов. 2 800 — от тестировщиков. 150 — от журналистов. 50 — случайные. NPS — минус 40. Я убрал NPS из дашборда. Метрика была «не релевантна стратегическим целям».
Купили статью в РБК. 1 миллион рублей. Заголовок: «Российская нейросеть НейроРусь составит конкуренцию ChatGPT». Журналист спросил, можно ли потестировать. Я сказал «после публикации». Он опубликовал.
В статье было написано «по словам разработчиков, модель превосходит западные аналоги в понимании российского контекста». Это я сказал. Я не разработчик. Но они не возражали.
РБК поставили статью в раздел «Технологии». 400 000 просмотров. Комментарии отключили превентивно. Негатив не соответствовал редакционной политике.
Четвёртый месяц. Поняли, что модель хуже ГигаГпт 6. ГигаГпт 6 хуже Claude Sonnet. Задача: создать бенчмарк, на котором мы победим. Назвали «РусКонтекст-1000». Тысяча вопросов о российской культуре. Кто написал «Войну и мир». Столица Бурятии. Как зовут кота Медведева.
Запустили бенчмарк. НейроРусь набрала 34%. GPT-4 набрал 67%. Наш бенчмарк. Мы проиграли на своём поле.
Шестой месяц. Стали покупать ГигаГпт 6 за 990 рублей за 1м токенов. Это как Claude Sonnet в API. Только ГигаГпт 6 хуже Sonnet в три раза. Я измерил. На вопрос «напиши код сортировки» ГигаГпт 6 выдал код с багами. Sonnet - рабочий кода. Но Sonnet - иностранный. Иностранный - плохо. Баги - отечественные. Отечественное - хорошо.
Купили 4 000 лицензий ГигаГпт 6 . 47 миллионов в год. За качество Claude по цене Claude, но в три раза хуже Claude. Зато в реестре отечественного ПО. Реестр важнее. Качество - субъективно. Реестр - объективен.
Старший разработчик спросил, почему не DeepSeek. DeepSeek - бесплатный. DeepSeek лучше ГигаГпт 6 . Я сказал «китайские бэкдоры». Он спросил какие именно. Я сказал «все». Он спросил, есть ли пруфы. Я сказал «есть, но засекречены». Он спросил кем. Я сказал «органами». Он не уточнил какими. Органы — это серьёзно.
Почему триллион? Потому что у GPT-4 — триллион. Я прочитал это в телеграм-канале. Канал назывался «ИИ на минималках». 50 000 подписчиков. Значит, правда.
Мне выделили бюджет. 2,3 миллиарда рублей. Я сказал «это инвестиция в технологический суверенитет». Никто не спросил, что это значит.
Я тоже не знал.
Купили 256 карточек V100. Не A100. V100. Потому что A100 под санкциями. V100 — нет. V100 вышли в 2017-м. Но я сказал «проверенное решение». Проверенное означает старое. Старое означает дешёвое. Дешёвое на вторичке в Дубае.
Наняли команду. 40 человек. ML-инженеры. Большинство не работали с LLM. Но у них были сертификаты ОТУСА. Сертификаты — это компетенции. Компетенции — это строчка в отчёте.
Тимлид спросил, почему триллион параметров на 256 V100. Сказал, что у Meta на LLaMA 70B было 2000 A100. Я сказал «у нас другой подход». Он спросил какой. Я сказал оптимизированный. Он спросил как именно оптимизированный. Я назначил ему встречу по пересмотру грейда. Он уволился. Я написал в отчёте «оптимизация штата».
Восемь месяцев обучения. Модель не сходилась. Лосс был плоский. Инженер сказал, что данных мало. У нас было 200 гигабайт текстов. Госзакупки, диссертации, Лента.ру. Он сказал, что у LLaMA — 2 триллиона токенов. Я сказал «качество важнее количества». Это не так. Но звучит мудро.
На девятый месяц модель заговорила.
Она говорила странное. На вопрос «столица Франции» отвечала «в соответствии с пунктом 3.2 технического задания». На вопрос «кто президент России» выдавала «Дмитрий Анатольевич Медведев». Датасет был старый. Я назвал это «историческая глубина модели». Инженеры называли это по-другому. Но их мнение не шло в презентации.
Запустили в прод. Назвали «НейроРусь-1Т». Лого — медведь с нейросетью в голове. Лого стоило 4 миллиона. Агентство сказало, что медведь символизирует «мощь российского ИИ». Я согласился. Медведи мощные.
Первый месяц. 3 000 запросов. 2 800 — от тестировщиков. 150 — от журналистов. 50 — случайные. NPS — минус 40. Я убрал NPS из дашборда. Метрика была «не релевантна стратегическим целям».
Купили статью в РБК. 1 миллион рублей. Заголовок: «Российская нейросеть НейроРусь составит конкуренцию ChatGPT». Журналист спросил, можно ли потестировать. Я сказал «после публикации». Он опубликовал.
В статье было написано «по словам разработчиков, модель превосходит западные аналоги в понимании российского контекста». Это я сказал. Я не разработчик. Но они не возражали.
РБК поставили статью в раздел «Технологии». 400 000 просмотров. Комментарии отключили превентивно. Негатив не соответствовал редакционной политике.
Четвёртый месяц. Поняли, что модель хуже ГигаГпт 6. ГигаГпт 6 хуже Claude Sonnet. Задача: создать бенчмарк, на котором мы победим. Назвали «РусКонтекст-1000». Тысяча вопросов о российской культуре. Кто написал «Войну и мир». Столица Бурятии. Как зовут кота Медведева.
Запустили бенчмарк. НейроРусь набрала 34%. GPT-4 набрал 67%. Наш бенчмарк. Мы проиграли на своём поле.
Шестой месяц. Стали покупать ГигаГпт 6 за 990 рублей за 1м токенов. Это как Claude Sonnet в API. Только ГигаГпт 6 хуже Sonnet в три раза. Я измерил. На вопрос «напиши код сортировки» ГигаГпт 6 выдал код с багами. Sonnet - рабочий кода. Но Sonnet - иностранный. Иностранный - плохо. Баги - отечественные. Отечественное - хорошо.
Купили 4 000 лицензий ГигаГпт 6 . 47 миллионов в год. За качество Claude по цене Claude, но в три раза хуже Claude. Зато в реестре отечественного ПО. Реестр важнее. Качество - субъективно. Реестр - объективен.
Старший разработчик спросил, почему не DeepSeek. DeepSeek - бесплатный. DeepSeek лучше ГигаГпт 6 . Я сказал «китайские бэкдоры». Он спросил какие именно. Я сказал «все». Он спросил, есть ли пруфы. Я сказал «есть, но засекречены». Он спросил кем. Я сказал «органами». Он не уточнил какими. Органы — это серьёзно.
😁52🤣28🔥11😢5❤3🦄3🗿1
Huawei захватит половину китайского рынка ИИ-чипов к 2026 году
Bernstein Research прогнозирует: доля Huawei на китайском рынке ИИ-ускорителей вырастет до 50% к 2026 году.
Nvidia упадёт с 39% в 2025-м до 8%. AMD займёт 12%, Cambricon — третье место.
К 2028-му Китай будет производить больше чипов, чем потребляет внутри — соотношение спрос-предложение достигнет 104%. Продажи отечественных китайских ускорителей покажут рост 74% CAGR за три года.
Но есть нюанс: успех зависит от доступа к высокоскоростной памяти HBM.
SK Hynix и Samsung контролируют 90% мирового производства.
Китаю ещё нужно будет предложить что-то для рынка памяти.
#Huawei #Китай
------
@tsingular
Bernstein Research прогнозирует: доля Huawei на китайском рынке ИИ-ускорителей вырастет до 50% к 2026 году.
Nvidia упадёт с 39% в 2025-м до 8%. AMD займёт 12%, Cambricon — третье место.
К 2028-му Китай будет производить больше чипов, чем потребляет внутри — соотношение спрос-предложение достигнет 104%. Продажи отечественных китайских ускорителей покажут рост 74% CAGR за три года.
Но есть нюанс: успех зависит от доступа к высокоскоростной памяти HBM.
SK Hynix и Samsung контролируют 90% мирового производства.
Китаю ещё нужно будет предложить что-то для рынка памяти.
#Huawei #Китай
------
@tsingular
✍10🔥5⚡1👍1
Компьютерра представила 2й печатный выпуск.
Сделали обзор состояния и ключевых вопросов/задач ИИ рынка РФ.
Компании-разработчики представили российские ИИ решения.
Все детали мероприятия на сайте
#Компьютерра
------
@tsingular
Сделали обзор состояния и ключевых вопросов/задач ИИ рынка РФ.
Компании-разработчики представили российские ИИ решения.
Все детали мероприятия на сайте
#Компьютерра
------
@tsingular
👍9👏3⚡1
OpenAI выпустили новый генератор картинок.
Забыли про Нанобанану.
Картинки теперь генерироваем тут:
chatgpt.com
#openai #юмор #нейрорендер
------
@tsingular
Забыли про Нанобанану.
Картинки теперь генерироваем тут:
chatgpt.com
#openai #юмор #нейрорендер
------
@tsingular
🔥6⚡3 2
в n8n наконец-то завезли человеческий чат нормальный.
запускается слева вверху.
обновляться принудительно лучше до n8n@2.1.0 там больше всего полезного зарелизили уже.
#n8n
———
@tsingular
запускается слева вверху.
обновляться принудительно лучше до n8n@2.1.0 там больше всего полезного зарелизили уже.
#n8n
———
@tsingular
🔥13👍4 2⚡1❤1🤣1🗿1
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
Kling: добавили генерацию видео с контролем голоса в модель Video 2.6.
Можно выбрать голос из списка с указанием тембра, или загрузить своё аудио до 30 сек, из которого будет вытащен голос и его можно будет применять в разных сценариях с автоматической адаптацией под контекст сцены.
Чтобы прицепить голос к определённому персонажу в сцене указываем в промте
Генерация доступна только в профессиональном режиме. Кредиты за контроль голоса списываются помимо цены за видео по цене 2 кредита/секунда.
PS: ангельский голос на китайском это эпик. Прикинь ты попадаешь в рай, ходишь по облакам, а вокруг тебя ангелочки говорящие тебе что-то на китайском. И ты как Марти такой: "Наверное не тот Рай".
Сайт
Анонс
Гайд
Можно выбрать голос из списка с указанием тембра, или загрузить своё аудио до 30 сек, из которого будет вытащен голос и его можно будет применять в разных сценариях с автоматической адаптацией под контекст сцены.
Чтобы прицепить голос к определённому персонажу в сцене указываем в промте
Персонаж@НазваниеГолоса. Работает на английском и китайском. Причём голос на английском сможет говорить на китайском и наоборот. Генерация доступна только в профессиональном режиме. Кредиты за контроль голоса списываются помимо цены за видео по цене 2 кредита/секунда.
PS: ангельский голос на китайском это эпик. Прикинь ты попадаешь в рай, ходишь по облакам, а вокруг тебя ангелочки говорящие тебе что-то на китайском. И ты как Марти такой: "Наверное не тот Рай".
Сайт
Анонс
Гайд
👍10🔥4⚡1
Forwarded from эйай ньюз
Вышла Gemini 3 Flash
Выносит по бенчам 2.5 Pro в одни ворота, при этом будучи значительно дешевле. На паре бенчмарков обгоняет даже Gemini 3 Pro. Поддерживает тот же миллион токенов контекста что и большая модель. На вход принимает текст, аудио и картинки, но на выход идёт только текст (по крайней мере пока что). При этом Gemini 3 Flash это гибридный ризонер — можно отключить рассуждения, как и с 2.5 Flash.
Цену за токен по сравнению с 2.5 Flash повысили. Заявляют что вместе с этим повысили и эффективность использования токенов. Это в теории должно было компенсировать повышение цены, но тесты говорят об обратном, по крайней мере с включённым ризонингом.
Модель уже доступна в ai.studio, Antigravity, чате и API. AI режим Google тоже переводят Gemini 3 Flash уже сегодня (наконец-то там будете нормальная модель).
Блогпост
@ai_newz
Выносит по бенчам 2.5 Pro в одни ворота, при этом будучи значительно дешевле. На паре бенчмарков обгоняет даже Gemini 3 Pro. Поддерживает тот же миллион токенов контекста что и большая модель. На вход принимает текст, аудио и картинки, но на выход идёт только текст (по крайней мере пока что). При этом Gemini 3 Flash это гибридный ризонер — можно отключить рассуждения, как и с 2.5 Flash.
Цену за токен по сравнению с 2.5 Flash повысили. Заявляют что вместе с этим повысили и эффективность использования токенов. Это в теории должно было компенсировать повышение цены, но тесты говорят об обратном, по крайней мере с включённым ризонингом.
Модель уже доступна в ai.studio, Antigravity, чате и API. AI режим Google тоже переводят Gemini 3 Flash уже сегодня (наконец-то там будете нормальная модель).
Блогпост
@ai_newz
🔥19⚡4🎉3❤1
Еще немного деталей из анонса
Модель самая оптимальная в своем классе по соотношению стоимости на производительность. см график.
Производительность и бенчмарки:
В задачах на кодинг (SWE-bench Verified) набирает 78%, превосходя даже "старшую" Gemini 3 Pro.
При этом цена в 5 раз дешевле GPT 5.2.
В ПЯТЬ РАЗ!!!
Просто отменили OpenAI из Курсора и пр. кодовых агентов
Набрала 90.4% на тесте GPQA Diamond (уровень PhD).
В 3 раза быстрее, чем Gemini 2.5 Pro.
Использует на 30% меньше токенов для выполнения тех же задач.
Стоимость API: $0.50 за 1 млн входных токенов и $3 за 1 млн выходных.
Адаптивное мышление: Модель умеет «модулировать» процесс мышления — тратить больше времени на сложные задачи и моментально отвечать на простые.
Мультимодальность: Высокая скорость обработки видео и аудио (например, для анализа действий в играх или видео в реальном времени).
С сегодняшнего дня становится бесплатной моделью по умолчанию в приложении Gemini и в AI-режиме Google Поиска!!!
Наконец-то поиск в Гугле перестанет тупить в ИИ режиме :)
Ну и скорость и ценник просто огонь!
Осталось все это на практике подтвердить.
#Google #Gemini #Flash
———
@tsingular
Модель самая оптимальная в своем классе по соотношению стоимости на производительность. см график.
Производительность и бенчмарки:
В задачах на кодинг (SWE-bench Verified) набирает 78%, превосходя даже "старшую" Gemini 3 Pro.
При этом цена в 5 раз дешевле GPT 5.2.
В ПЯТЬ РАЗ!!!
Просто отменили OpenAI из Курсора и пр. кодовых агентов
Набрала 90.4% на тесте GPQA Diamond (уровень PhD).
В 3 раза быстрее, чем Gemini 2.5 Pro.
Использует на 30% меньше токенов для выполнения тех же задач.
Стоимость API: $0.50 за 1 млн входных токенов и $3 за 1 млн выходных.
Адаптивное мышление: Модель умеет «модулировать» процесс мышления — тратить больше времени на сложные задачи и моментально отвечать на простые.
Мультимодальность: Высокая скорость обработки видео и аудио (например, для анализа действий в играх или видео в реальном времени).
С сегодняшнего дня становится бесплатной моделью по умолчанию в приложении Gemini и в AI-режиме Google Поиска!!!
Наконец-то поиск в Гугле перестанет тупить в ИИ режиме :)
Ну и скорость и ценник просто огонь!
Осталось все это на практике подтвердить.
#Google #Gemini #Flash
———
@tsingular
🔥15❤4⚡4🏆3🤯1
OpenAI добавили на платформу публикацию MCP приложений
OpenAI открыла витрину приложений внутри ChatGPT.
Теперь приложение можно будет предзагрузить и оно появится как инструмент в интерфейсе чата.
Это превращает ChatGPT из чатбота в платформу.
Пользователь запускает сторонние сервисы не выходя из разговора — от бронирования билетов до анализа данных.
По сути это копия Skills от Anthropic.
Вся коммуникация между ИИ и приложением происходит по MCP протоколу, просто он тянется не куда-то далеко, а вызывает код вашего приложения сразу на платформе в iframe и так же обновляется.
Безопасники в восторге будут, думаю.
Там конечно обещают премодерацию и все такое, но :)
#OpenAI #ChatGPT #AppStore
------
@tsingular
OpenAI открыла витрину приложений внутри ChatGPT.
Теперь приложение можно будет предзагрузить и оно появится как инструмент в интерфейсе чата.
Это превращает ChatGPT из чатбота в платформу.
Пользователь запускает сторонние сервисы не выходя из разговора — от бронирования билетов до анализа данных.
По сути это копия Skills от Anthropic.
Вся коммуникация между ИИ и приложением происходит по MCP протоколу, просто он тянется не куда-то далеко, а вызывает код вашего приложения сразу на платформе в iframe и так же обновляется.
Безопасники в восторге будут, думаю.
Там конечно обещают премодерацию и все такое, но :)
#OpenAI #ChatGPT #AppStore
------
@tsingular
✍12🤔2 2