Только что заметили, что пост с PDF конспекта почему-то вышел с закрытыми комментариями 🤷♂️
Поэтому это – специальный пост с открытыми комментариями для вашей обратной связи. Мы всегда ей рады!
Поэтому это – специальный пост с открытыми комментариями для вашей обратной связи. Мы всегда ей рады!
Please open Telegram to view this post
VIEW IN TELEGRAM
4😁141❤66👍26😎12
This media is not supported in your browser
VIEW IN TELEGRAM
Робототехники Tesla показали новое демо с танцующим Optimus
На этот раз робот (вроде как) не управляется человеком, и, более того – утверждается, что инженерам удалось сделать sim2real в zero-shot, то есть с нулевым дообучением.
Объясняем, что это значит. Optimus, как и почти все современные роботы, обучается в симуляции, то есть в среде, которая моделирует физику нашего мира. В таких симуляциях сотни часов обучающих данных можно сжимать в часы, и тем самым ускорять обучение в тысячи раз.
Но есть нюанс. При переходе из симуляции в реальность роботы обычно теряют часть способностей, потому что реальная физика все-таки отличается от смоделированной. Это обычно приводит к тому, что роботов все равно прихоходится дополнительно дообучать под реальный мир. Это и называется sim2real.
Так вот в Tesla утверждают, что им удалось сделать sim2real без дообучения, сразу перекинув все обученные RL политики из симуляции в реальность (и в итоге это выглядит, как на видео). А еще говорят, что и на новые навыки их подход мастабируется легко. Если все так – это просто прорыв для Tesla.
Технические детали не раскрывают, но они не первые, кому удался такой трюк. Некоторое время назад такой zero-shot впервые сделали в стартапе FigureAI (наш пост разбор). У них это было за счет больших затрат на мега-высокоточную симуляцию и чувствительность двигателей реального робота. Здесь, предположительно, что-то похожее.
x.com/Tesla_Optimus/status/1922456791549427867
На этот раз робот (вроде как) не управляется человеком, и, более того – утверждается, что инженерам удалось сделать sim2real в zero-shot, то есть с нулевым дообучением.
Объясняем, что это значит. Optimus, как и почти все современные роботы, обучается в симуляции, то есть в среде, которая моделирует физику нашего мира. В таких симуляциях сотни часов обучающих данных можно сжимать в часы, и тем самым ускорять обучение в тысячи раз.
Но есть нюанс. При переходе из симуляции в реальность роботы обычно теряют часть способностей, потому что реальная физика все-таки отличается от смоделированной. Это обычно приводит к тому, что роботов все равно прихоходится дополнительно дообучать под реальный мир. Это и называется sim2real.
Так вот в Tesla утверждают, что им удалось сделать sim2real без дообучения, сразу перекинув все обученные RL политики из симуляции в реальность (и в итоге это выглядит, как на видео). А еще говорят, что и на новые навыки их подход мастабируется легко. Если все так – это просто прорыв для Tesla.
Технические детали не раскрывают, но они не первые, кому удался такой трюк. Некоторое время назад такой zero-shot впервые сделали в стартапе FigureAI (наш пост разбор). У них это было за счет больших затрат на мега-высокоточную симуляцию и чувствительность двигателей реального робота. Здесь, предположительно, что-то похожее.
x.com/Tesla_Optimus/status/1922456791549427867
🔥93👍43❤22😁2🗿2
В Meta разработали оптимизационный фреймворк CATransformers, который позволяет минимизировать углеродный след от обучения и инференса
Индустрия постепенно вспоминает про экологию. Сегодня есть уже много подходов, которые оптимизируют энергопотребление железа, и вот сегодня Meta выпустили первый в своем роде конструктор, который помимо этого минимизирует еще и выбросы углерода.
Работает так -> Вы запускаете CATransformers перед обучением, и он подбирает вам оптимальные или квази-оптимальные параметры железа и модели относительно четырех параметров: точность, скорость, энергопотребление и углеродный след.
Под капотом это похоже на гридсерч. Алгоритм перебирает параметры и для каждого набора быстренько обучает на эмулированном железе proxy-модель. На таких моделях замеряются необходимые метрики, а итоговые гиперпараметры выбираются с помощью байесовской оптимизации.
Приятная работа
arxiv.org/abs/2505.01386
Индустрия постепенно вспоминает про экологию. Сегодня есть уже много подходов, которые оптимизируют энергопотребление железа, и вот сегодня Meta выпустили первый в своем роде конструктор, который помимо этого минимизирует еще и выбросы углерода.
Работает так -> Вы запускаете CATransformers перед обучением, и он подбирает вам оптимальные или квази-оптимальные параметры железа и модели относительно четырех параметров: точность, скорость, энергопотребление и углеродный след.
Под капотом это похоже на гридсерч. Алгоритм перебирает параметры и для каждого набора быстренько обучает на эмулированном железе proxy-модель. На таких моделях замеряются необходимые метрики, а итоговые гиперпараметры выбираются с помощью байесовской оптимизации.
Приятная работа
arxiv.org/abs/2505.01386
🔥63👍22❤15😁10🫡4🤨3🤔2
Радостные новости: Anthropic все-таки выпустит новый Claude Opus
В прошлых релизах приставка Opus означала самую большую модель, а Sonnet – среднюю. Но начиная с версии 3.5 Opus не выходил – был только Sonnet и Haiku, а из ризонинг моделей вообще один Sonnet.
Но The Information только что написали, что линейка Opus может возродиться, и новые ризонинг модели Opus и Sonnet выйдут уже в ближайшие недели.
Более того, это будут какие-то необычные ризонинг-модели: в них будет режим «экстремальных рассуждений». Модель будет работать в цикле: думать -> обращаться к инструментам (интерпретатор или браузер) -> снова думать, анализируя результаты -> снова обращаться к инструментам и тд. В общем, что-то ближе к агентам.
www.theinformation.com/articles/anthropics-upcoming-models-will-think-think
В прошлых релизах приставка Opus означала самую большую модель, а Sonnet – среднюю. Но начиная с версии 3.5 Opus не выходил – был только Sonnet и Haiku, а из ризонинг моделей вообще один Sonnet.
Но The Information только что написали, что линейка Opus может возродиться, и новые ризонинг модели Opus и Sonnet выйдут уже в ближайшие недели.
Более того, это будут какие-то необычные ризонинг-модели: в них будет режим «экстремальных рассуждений». Модель будет работать в цикле: думать -> обращаться к инструментам (интерпретатор или браузер) -> снова думать, анализируя результаты -> снова обращаться к инструментам и тд. В общем, что-то ближе к агентам.
www.theinformation.com/articles/anthropics-upcoming-models-will-think-think
❤87🔥43👍28⚡2👏2🤯2
GPT-4.1 добавили в ChatGPT
Напоминаем, что это лучшая не-ризонинг модель стартапа для программирования, она обгоняет даже o1-high. Плюс контекст 1 миллион токенов.
Ранее модель была доступна только в API и через сторонних вендоров типа Cursor. Но, видимо, спрос был настолько велик, что ее добавили и в чат.
🍯 Модель уже раскатали на Plus, Pro и Team, а мини-версия – GPT-4.1 mini – скоро заменит GPT-4o mini для всех, включая бесплатных юзеров.
Напоминаем, что это лучшая не-ризонинг модель стартапа для программирования, она обгоняет даже o1-high. Плюс контекст 1 миллион токенов.
Ранее модель была доступна только в API и через сторонних вендоров типа Cursor. Но, видимо, спрос был настолько велик, что ее добавили и в чат.
🍯 Модель уже раскатали на Plus, Pro и Team, а мини-версия – GPT-4.1 mini – скоро заменит GPT-4o mini для всех, включая бесплатных юзеров.
👍119🔥37❤31
Google анонсировали кодинг-агента AlphaEvolve, предназначенного специально для разработки сложных алгоритмов
Инженеры утверждают, что на тестах этой системе удалось:
– Идентифицировать несколько абсолютно новых алгоритмов для эффективного умножения матриц. Один из них даже оказался эффективнее известного алгоритма Штрассена (1969, кстати).
– В 75% найти лучшие известные на данный момент решения открытых мировых задач по математике, и в 20% улучшить ранее известные решения (то есть открыть новые подходы).
И это не все. Внутри экосистемы Google AlphaEvolve работает уже год. За это время с его помощью они успели оптимизировать несколько датацентров, обучение и инференс моделей и даже использовали ассистента для проектирования железа.
Под капотом цикл: обработка контекста -> генерация идей и решений -> оценка и скоринг этих решений -> добавление лучших решений в контекст для дальнейшего улучшения -> и с начала.
Потрогать пока, конечно, не дают, поэтому будем ждать
deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/
Инженеры утверждают, что на тестах этой системе удалось:
– Идентифицировать несколько абсолютно новых алгоритмов для эффективного умножения матриц. Один из них даже оказался эффективнее известного алгоритма Штрассена (1969, кстати).
– В 75% найти лучшие известные на данный момент решения открытых мировых задач по математике, и в 20% улучшить ранее известные решения (то есть открыть новые подходы).
И это не все. Внутри экосистемы Google AlphaEvolve работает уже год. За это время с его помощью они успели оптимизировать несколько датацентров, обучение и инференс моделей и даже использовали ассистента для проектирования железа.
Под капотом цикл: обработка контекста -> генерация идей и решений -> оценка и скоринг этих решений -> добавление лучших решений в контекст для дальнейшего улучшения -> и с начала.
Потрогать пока, конечно, не дают, поэтому будем ждать
deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/
❤92🔥66👍29🤯11🤔3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Случился коллаб года: Kaggle объединились с HuggingFace и теперь все модели, доступные на HF, можно моментально напрямую запускать в Kaggle Notebooks
Этим можно пользоваться и на одной платформе, и на другой. Например, если вы перешли в карточку модели на HF, то теперь там можно ткнуть на “Use this model” -> “Kaggle”, и сразу откроется ноутбук с подгруженной моделью.
То же самое можно сделать с вкладки HuggingFace на Kaggle по кнопке "Code". Также там будут видны все открытые относящиеся к этой модели ноутбуки других пользователей.
Обещают, что скоро будут и другие интересные фичи
Этим можно пользоваться и на одной платформе, и на другой. Например, если вы перешли в карточку модели на HF, то теперь там можно ткнуть на “Use this model” -> “Kaggle”, и сразу откроется ноутбук с подгруженной моделью.
То же самое можно сделать с вкладки HuggingFace на Kaggle по кнопке "Code". Также там будут видны все открытые относящиеся к этой модели ноутбуки других пользователей.
Обещают, что скоро будут и другие интересные фичи
🔥336❤35⚡25👍21😁3🐳3🤔2🕊2
DeepSeek выпустили новую статью, в которой поделились большим списком инженерных хаков по обучению и инференсу моделей
Все, что не убивает, делает сильнее. DeepSeek в условиях санкций на оборудование уже собрали целый список того, что помогает им даже при большом дефиците железа содержать свои системы и обучать модели. Ну и, как истинные любители открытости, всеми этими фичами они решили поделиться просто так.
Топ-3:
1. Multi-head Latent Attention. Это метод сжатия KV-кеша, позволяющий радикально сократить объём памяти, необходимый для хранения ключей и значений из всех attention-голов. Идея в том, чтобы вместо хранения всех сырых K/V векторов для каждого хэдa проектировать их в компактный обучающийся латентный вектор небольшой размерности. В итоге вместо квадратичного роста хранимых данных получается линейный.
2. FP8 Mixed-Precision Training и Inference. Инженерная стратегия, которая позволяет при обучении модели одновременно использовать и более легкие числа в формате FP8, и более точные в FP16 / FP22/FP32. Так мы балансируем между производительностью и стабильностью, а затраты и энергопотребление падают почти в два раза.
3. Multi-Token Prediction. Это значит, что вместо генерации по одному токену модель пытается предсказать сразу несколько (например 2–4) следующих токена. Токены-кандидаты генерирует отдельный легковесный слой, а основная модель их просто сверяет с истинным декодингом. Если совпадают – принимаются без дорасчёта. Это дает ускорение инференса до 1.8х без потерь в качестве.
В статье – еще несколько интересных советов (некоторые мы даже уже разбирали во время опенсорса DeepSeek), так что трушным инженерам советуем почитать полностью.
Мир им: строгие запреты на ввоз железа
Они всему миру: детальные открытые советы по оптимизации этого железа
Респект же
Все, что не убивает, делает сильнее. DeepSeek в условиях санкций на оборудование уже собрали целый список того, что помогает им даже при большом дефиците железа содержать свои системы и обучать модели. Ну и, как истинные любители открытости, всеми этими фичами они решили поделиться просто так.
Топ-3:
1. Multi-head Latent Attention. Это метод сжатия KV-кеша, позволяющий радикально сократить объём памяти, необходимый для хранения ключей и значений из всех attention-голов. Идея в том, чтобы вместо хранения всех сырых K/V векторов для каждого хэдa проектировать их в компактный обучающийся латентный вектор небольшой размерности. В итоге вместо квадратичного роста хранимых данных получается линейный.
2. FP8 Mixed-Precision Training и Inference. Инженерная стратегия, которая позволяет при обучении модели одновременно использовать и более легкие числа в формате FP8, и более точные в FP16 / FP22/FP32. Так мы балансируем между производительностью и стабильностью, а затраты и энергопотребление падают почти в два раза.
3. Multi-Token Prediction. Это значит, что вместо генерации по одному токену модель пытается предсказать сразу несколько (например 2–4) следующих токена. Токены-кандидаты генерирует отдельный легковесный слой, а основная модель их просто сверяет с истинным декодингом. Если совпадают – принимаются без дорасчёта. Это дает ускорение инференса до 1.8х без потерь в качестве.
В статье – еще несколько интересных советов (некоторые мы даже уже разбирали во время опенсорса DeepSeek), так что трушным инженерам советуем почитать полностью.
Мир им: строгие запреты на ввоз железа
Они всему миру: детальные открытые советы по оптимизации этого железа
Респект же
❤264🔥106👍63🫡3🤔1
Nvidia построит огромный датацентр вместе с ИИ-стартапом Humain из Саудовской Аравии
Компания поставит для этого более 18 тысяч чипов, и не каких-нибудь, а GB300 Blackwell.
Самое интересное, что Humain принадлежит суверенному фонду Саудовской Аравии, то есть по сути – государству. Сегодня совокупные активы фонда оцениваются в 430 миллиардов долларов.
Nvidia видимо решили действовать по-крупному, пока и туда поставки не запретили
Компания поставит для этого более 18 тысяч чипов, и не каких-нибудь, а GB300 Blackwell.
Самое интересное, что Humain принадлежит суверенному фонду Саудовской Аравии, то есть по сути – государству. Сегодня совокупные активы фонда оцениваются в 430 миллиардов долларов.
Nvidia видимо решили действовать по-крупному, пока и туда поставки не запретили
👍78😁32🔥12❤7🤔1🐳1
Сегодня в 18:00 стрим OpenAI для «разработчиков и тех, кто хочет ими стать»
Напоминаем, что уже во вторник пройдет Google I/O, так что, следуя добрым традициям конкуренции, сегодня OpenAI должны показать что-то заслуживающее внимания.
Может что-то связанное с недавней покупкой Windsurf?
Напоминаем, что уже во вторник пройдет Google I/O, так что, следуя добрым традициям конкуренции, сегодня OpenAI должны показать что-то заслуживающее внимания.
Может что-то связанное с недавней покупкой Windsurf?
😁67👍26🔥16
О, Kaggle объединились с OpenAI и запускают конкурс по нахождению ранее неизвестных человечеству археологических объектов
Это, кстати, первое в истории Kaggle ключевое соревнование, то есть оно будет специально выделено как главное на платформе. Призовой фонд – 400 тысяч долларов, за первое место заплатят $250,000 (правда наличными только половину, остальное кредитами OpenAI).
Задача – взять открытые данные со спутниковых снимков и карт + любую модель от OpenAI и предложить пайплайн, который сможет выявлять наличие археологических объектов. Если среди найденных объектов окажутся те, которых нет в существующих базах данных, то можете рассчитывать на приз.
Для трушных Индиан Джонсов
www.kaggle.com/competitions/openai-to-z-challenge/
Это, кстати, первое в истории Kaggle ключевое соревнование, то есть оно будет специально выделено как главное на платформе. Призовой фонд – 400 тысяч долларов, за первое место заплатят $250,000 (правда наличными только половину, остальное кредитами OpenAI).
Задача – взять открытые данные со спутниковых снимков и карт + любую модель от OpenAI и предложить пайплайн, который сможет выявлять наличие археологических объектов. Если среди найденных объектов окажутся те, которых нет в существующих базах данных, то можете рассчитывать на приз.
Для трушных Индиан Джонсов
www.kaggle.com/competitions/openai-to-z-challenge/
❤135🔥59👍33🤔3
Юрист Anthropic использовал Claude для оформления юридических ссылок. В итоге компании пришлось извиняться.
Прошло почти два года с момента громкой истории о том, как в Америке адвокат чуть не лишился лицензии из-за того, что использовал ChatGPT для генерации аргументов. И... ничего не поменялось😐
Вот только на этот раз на удочку попался не какой-нибудь случайный юрист, а представитель Anthropic. Сейчас компания судится с Universal Music Group по поводу авторских прав на музыку. И для выступления на суде одна из представителей стартапа, Оливия Чен, решила использовать Claude.
Она попросила бота процитировать для ее показаний соответсвующую статью из законодательства, и он, естественно, все выдумал. В итоге Anthropic пришлось извиняться и за своего юриста, и за галлюцинации своей модели. В официальном письме судье они написали, что "это хотя бы была честная ошибка цитирования, а не попытка подделки авторитета".
Прошло почти два года с момента громкой истории о том, как в Америке адвокат чуть не лишился лицензии из-за того, что использовал ChatGPT для генерации аргументов. И... ничего не поменялось
Вот только на этот раз на удочку попался не какой-нибудь случайный юрист, а представитель Anthropic. Сейчас компания судится с Universal Music Group по поводу авторских прав на музыку. И для выступления на суде одна из представителей стартапа, Оливия Чен, решила использовать Claude.
Она попросила бота процитировать для ее показаний соответсвующую статью из законодательства, и он, естественно, все выдумал. В итоге Anthropic пришлось извиняться и за своего юриста, и за галлюцинации своей модели. В официальном письме судье они написали, что "это хотя бы была честная ошибка цитирования, а не попытка подделки авторитета".
Please open Telegram to view this post
VIEW IN TELEGRAM
😁190👍29😎20🤯8❤4🗿3🤓2🐳1
Стрим OpenAI через 10 минут. Официально подтверждено: покажут превью агента-программиста Codex (скорее всего доступно будет только в Pro, но все-таки интересно)
https://www.youtube.com/watch?v=hhdpnbfH6NU
https://www.youtube.com/watch?v=hhdpnbfH6NU
YouTube
A research preview of Codex in ChatGPT
Greg Brockman, Jerry Tworek, Joshua Ma, Hanson Wang, Thibault Sottiaux, Katy Shi, and Andrey Mishchenko introduce and demo Codex in ChatGPT.
⚡21🔥18❤10👍9🗿1
OpenAI представили агента-программиста Codex
Это облачный агент, способный выполнять множество задач параллельно. Из возможностей:
➖ Может писать новые функции, отвечать на вопросы по коду, исправлять ошибки и предлагать pull request для ревью.
➖ Каждая задача выполняется в отдельной облачной песочнице, предварительно загруженной вашим репозиторием.
➖ Есть возможность настраивать поведение агента через файлы AGENTS. md.
Работает это все на модели Codex-1, основанной на o3. Пока раскатали только для Pro-аккаунтов, для Plus обещают скоро.
Пробуем тут: https://chatgpt.com/codex
Это облачный агент, способный выполнять множество задач параллельно. Из возможностей:
Работает это все на модели Codex-1, основанной на o3. Пока раскатали только для Pro-аккаунтов, для Plus обещают скоро.
Пробуем тут: https://chatgpt.com/codex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥79👍39❤12🤯9
У Meta черная полоса
Ранее компания потерпела провал с релизом Llama-4, а сейчас стало известно, что откладывается выпуск модели Behemoth. Ее обещали как самую крупную из серии Llama 4 и должны были выпустить в этом месяце, но теперь неясно, увидим ли мы ее вообще.
Во-первых, руководство Meta осталось очень недовольно работой команды Llama, и теперь планирует «изменения в составе». К слову, уже на данных момент по собственному желанию из команды ушли 11 из 14 ключевых ученых, которые работали над ранними версиями Llama.
Во-вторых, Behemoth не соответствует заявленным метрикам. Цукерберг обещал, что когда модель выйдет, то на нескольких тестах побьет передовые LM от OpenAI, Google и Anthropic. Но теперь что-то пошло не так и из-за проблем с обучением Behemoth уже показывает себя не так обнадеживающе.
И это все после того, как Meta фактически обманули пользователей, выпустив на LMSYS не юзер-версию модели, а внутреннюю, затюненную специально под арену (подробнее об этой истории мы писали тут).
Ну в общем, F😬
Ранее компания потерпела провал с релизом Llama-4, а сейчас стало известно, что откладывается выпуск модели Behemoth. Ее обещали как самую крупную из серии Llama 4 и должны были выпустить в этом месяце, но теперь неясно, увидим ли мы ее вообще.
Во-первых, руководство Meta осталось очень недовольно работой команды Llama, и теперь планирует «изменения в составе». К слову, уже на данных момент по собственному желанию из команды ушли 11 из 14 ключевых ученых, которые работали над ранними версиями Llama.
Во-вторых, Behemoth не соответствует заявленным метрикам. Цукерберг обещал, что когда модель выйдет, то на нескольких тестах побьет передовые LM от OpenAI, Google и Anthropic. Но теперь что-то пошло не так и из-за проблем с обучением Behemoth уже показывает себя не так обнадеживающе.
И это все после того, как Meta фактически обманули пользователей, выпустив на LMSYS не юзер-версию модели, а внутреннюю, затюненную специально под арену (подробнее об этой истории мы писали тут).
Ну в общем, F
Please open Telegram to view this post
VIEW IN TELEGRAM
😁143🫡77🕊24❤8🤯5👌5👀5🔥2🏆2🤓2👨💻2
Розыгрыш Machine Learning футболок
В честь выпуска нашего большого конспекта по LLM мы решили запустить розыгрыш 10 футболок для истинных любителей глубокого обучения.
Это лимитированная авторская линейка от Data Secrets. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена. Итак, что делать:
➖ Отдать бусты нашему каналу (чем больше голосов, тем выше шанс победить)
➖ Нажать на кнопку "Участвовать"
➖ Ждать итогов 28 мая
P.S. Для всех, у кого нет Telegram Premium, мы скоро обязательно проведем еще один розыгрыш футболок.
🎉 UPD: Розыгрыш завершен!
🏆 Победители:
1. @artyomjk
2. @ddmtrx
3. @toiletsandpaper
4. @KovalSD
5. @yadvichuk
6. @samorukov
7. @Okulov
8. @ILonelyLockleyI
9. @ViacheslavDobrynin
10. Manger
🔍 Проверить результаты
В честь выпуска нашего большого конспекта по LLM мы решили запустить розыгрыш 10 футболок для истинных любителей глубокого обучения.
Это лимитированная авторская линейка от Data Secrets. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена. Итак, что делать:
P.S. Для всех, у кого нет Telegram Premium, мы скоро обязательно проведем еще один розыгрыш футболок.
🎉 UPD: Розыгрыш завершен!
🏆 Победители:
1. @artyomjk
2. @ddmtrx
3. @toiletsandpaper
4. @KovalSD
5. @yadvichuk
6. @samorukov
7. @Okulov
8. @ILonelyLockleyI
9. @ViacheslavDobrynin
10. Manger
🔍 Проверить результаты
Please open Telegram to view this post
VIEW IN TELEGRAM
❤74🗿49🔥24👍21🤨12🤓11🤯3🫡3🦄3😁2🤝1
Понедельник! Сейчас в ИИ-гонке затишье, но неделя обещает быть насыщенной. Чего ждем:
1. Gemini Ultra и проект Astra с ИИ-очками от Google. На этой неделе у них крупнейшая анонс-конференция в году, Google I/O. В прошлом году именно на этом мероприятии показали Gemini 1.5 Pro с контекстом в 1млн токенов и Gemini 1.5 Flash.
2. o3-pro или GPT-5. Почти наверняка OpenAI что-то припасли чтобы перетянуть на себя внимание от Google. Вчера некоторые пользователи даже заметили, что Альтман твитнул строку «4+1», но сейчас твит удален.
3. Grok-3.5, который Илон Маск обещает уже вторую неделю.
1. Gemini Ultra и проект Astra с ИИ-очками от Google. На этой неделе у них крупнейшая анонс-конференция в году, Google I/O. В прошлом году именно на этом мероприятии показали Gemini 1.5 Pro с контекстом в 1млн токенов и Gemini 1.5 Flash.
2. o3-pro или GPT-5. Почти наверняка OpenAI что-то припасли чтобы перетянуть на себя внимание от Google. Вчера некоторые пользователи даже заметили, что Альтман твитнул строку «4+1», но сейчас твит удален.
3. Grok-3.5, который Илон Маск обещает уже вторую неделю.