Кажется, OpenAI обещали, что катофф по знаниям у GPT5 — октябрь 2024.
Учитывая кривые графики, маркетологам пора на выход. Хотя, возможно, опять же GPT5 у них занимается маркетингом и решил о себе чуть-чуть приврать.
@anti_agi
Учитывая кривые графики, маркетологам пора на выход. Хотя, возможно, опять же GPT5 у них занимается маркетингом и решил о себе чуть-чуть приврать.
@anti_agi
😁12🔥5🤣5😱1😇1
Итак, GPT-5 доступна всем пользователям ChatGPT, в том числе бесплатным. Альтман уверяет что экспертный уровень модели соответствует кандидату наук (PhD), а самая впечатляющая способность модели – писать компьютерный код. Но пока что презентация GPT-5, кажется, затмила собой саму модель. Про кривые графики мы уже говорили, но люди также «радуются» таким «прорывным» изменениям, как цветные чаты, сравнениям новой модели со своими же старыми (Маск уже поиздевался, что новая модель OpenAI хуже последней модели Grok), и прочим странностям, напоминающим презентации Apple. Вот они, плоды дружбы Альтмана с Джони Айвом!
Так что, может и хорошо, что проект Stargate стоимостью $500 млрд задерживается. По словам финдиректора Softbank Йошимицу Гото, это происходит из-за более длительных, чем ожидалось, переговоров с другими сторонами и принятий решений о выборе площадок. По его словам, Softbank уже определил площадки в США и на некоторых из них уже идет стройка, но деталей не раскрыл. Но сам Softbank при этом отчитался позитивно: квартальная чистая прибыль составила $2,87 млрд благодаря росту стоимости инвестиций в крупные компании из портфеля Vision Fund.
Как иллюстрация бума AI-датацентров: Meta (запрещена в России и только у нас за экстремизм) привлекла американского облигационного гиганта PIMCO и управляющую альтернативными активами Blue Owl Capital, для финансирования строительства своего AI-датацентра в Луизиане на $29 млрд. PIMCO займет около $26 млрд, видимо, в виде облигаций, а Blue Owl внесет $3 млрд в акционерный капитал.
И еще одна новость в копилку того, о чем я сказал выше: Deutsche Telekom сотрудничает с Nvidia и канадским фондом прямых инвестиций Brookfield в попытке построить одну из «гигафабрик» искусственного интеллекта в немецкой земле Северный Рейн-Вестфалия.
Между тем Маск сообщил рекламодателям, что соцсеть X планирует внедрить рекламу в ответы Grok: «Если пользователь пытается решить проблему [обращаясь к Grok], то реклама конкретного решения будет идеальным решением в этот момент». Кажется, ответы Grok станут еще более кринжовыми. Зато может быть соцсети удастся сохранить рекламодателей, после ухода CEO Линды Яккарино.
Кстати, у разработчика Grok, компании xAI тоже потери: свой пост покинул глава юридической службы Роберт Кил, проработав на нем чуть больше года. Он решил посвятить себя детям, хотя год назад, принимая предложение Маска, даже и не помышлял об этом – он перешел в xAI, оставив только-только созданную им юридическую фирму. Ну, что ж, дети – это святое!
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
OpenAI launches GPT-5 as the AI industry seeks a return on investment
OpenAI launched on Thursday its GPT-5 artificial intelligence model, the highly anticipated latest installment of a technology that has helped transform global business and culture.
❤5🔥4👍3🤔3
Хочешь продавать — плати 🐷
В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США.
💻 Суть договорённости проста: компании получили возможность продолжать продажи ускорителей для искусственного интеллекта в Китае, но только при условии передачи части выручки в США в рамках нового механизма экспортного лицензирования. Речь идёт прежде всего о GPU для центров обработки данных: H20 у Nvidia и MI308 у AMD.
🐷 Для компаний Китай остаётся важнейшим рынком — по экспертным оценкам, он приносит Nvidia значительную долю выручки (от $17 до $23 млрд) и составляет ощутимый процент доходов AMD ($800 млн только от GPU). Поэтому компромисс с регуляторами даст возможность не потерять доходы.
❓ Правда есть и вопросы. Как минимум, возникает риск создания прецедента: другие страны или сектора могут столкнуться с похожими условиями в будущем.
🔤 🔤 С другой стороны, мы можем только порадоваться. Из Китая ускорители неизбежно будут перетекать и на наш рынок, который с т.з. компьюта уступает, к сожалению, не только Штатам и Китаю.
@anti_agi
В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump opens door to sales of version of Nvidia's next-gen AI chips in China
The move could open the door to China securing more advanced computing power from the U.S. even as the two countries battled for technology supremacy, critics said.
❤5👍4🔥4🌚3😁1
In love with the machine
Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.
Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.
GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.
📚 📚 📚 Исследования подтверждают: LLM уже понимают наши эмоции лучше людей. А вовлекающие алгоритмы буквально подпитывают как наше эго, так и наши страхи. В последней GPT-5 манеру общения подсушили, что понравилось немногим.
@anti_agi
Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.
Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.
GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁3🔥2
Что ж, давайте сегодня про чипы опять
Трамп взвешивает возможность разрешить Nvidia продавать в Китай не только H20, созданный на предыдущей архитектуре Hopper, но и новые чипы на Blackwell:
«У Дженсена также есть новый чип Blackwell. Это несколько улучшенный (в негативном смысле) Blackwell. Другими словами, его мощность снижена на 30–50%. Думаю, он снова придёт ко мне на встречу по этому вопросу»
Напомню, что после запрета экспорта H20, Nvidia разработала новый кастрированный чип B30 для Китая, на основе Blackwell. Речь явно идет именно об этом чипе. Впрочем, для него разрешений Трампа не требовалось бы, ведь он изначально дизайнился так, чтобы удовлетворять новым ограничениям. В частности, в нем планировалось использовать память GDDR7 вместо высокопропускной HBM.
Разгадка, возможно в том, что Китай, уже продавивший Трампа в переговорах по торговой сделке на отмену запрета экспорта H20, хочет достичь большего. Следующее его требование – снятие ограничений на доступ Китая к HBM-памяти. Для Трампа, чей синоним – эго, важно сделать вид, а на суть – плевать. Поэтому он вполне может, чтобы сохранить лицо, не снимая ограничения формально,
Вот только Китай вряд ли удовлетворится этим. Государственные медиа там уже разгоняют нарратив, что H20 небезопасны для Китая из-за возможных бэкдоров. Почувствовав слабину Трампа, Китай будет давить по всем направлениям.
Но факт остается фактом – память с высокой пропускной способностью стала важнейшим фактором в AI-гонке. Лидер рынка HBM-памяти, корейская SK Hynix, ожидает, что этот рынок будет в ближайшие пять лет расти на 30% в год. А другой участник этого рынка, компания Micron, из-за роста спроса на высокопропускную память повысил прогноз квартальной выручки с $10,7 до $11,2 млрд, а валовой маржи – с 42% до 44,5%. В условиях нехватки памяти Micron повысил цены на свою продукцию.
«Apple делает так, что ни одна ИИ-компания, кроме OpenAI, не может занять первое место в App Store, что является явным нарушением антимонопольного законодательства. xAI немедленно подаст в суд».
ChatGPT является самым скачиваемым бесплатным приложением для iPhone в США, опережая Grok, который находится на пятом месте.
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump opens door to sales of version of Nvidia's next-gen AI chips in China
The move could open the door to China securing more advanced computing power from the U.S. even as the two countries battled for technology supremacy, critics said.
❤4👍3🔥3
Forwarded from Нецифровая экономика (Oleg Salmanov)
В России появилась нейросеть, которая умеет предсказывать кризисы на фондовом рынке
Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.
Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.
Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.
Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.
Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.
Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.
«Модель эффективно обрабатывает неравномерные данные и достигает точности 78,70% при прогнозе кризисных событий в день наблюдения и 78,85% — на следующий торговый день. Использование месячной повторной тренировки и адаптивных временных окон позволило довести точность до 83,87%», — профессор Тамара Теплова
Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
TACC
В России создали нейросеть, предсказывающую кризисы на фондовом рынке
По словам исследователей, в прошлом экономисты еще не применяли столь сложную структуру модели к биржевым данным РФ
❤6🤣5👍1🔥1
DeepSeek R2 в августе❓
Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.
💻 По «сливам», R2 использует кластер на основе Ascend 910B с загрузкой около 82% и даёт 512 PFLOPS (FP16) — по эффективности близко к кластерам на базе NVIDIA A100 (позапрошлое поколение).
✔️ Технические слухи : гибридная MoE-архитектура, ~1.2 трлн параметров (активных ~78B), и существенное снижение стоимости инференса по сравнению с западными аналогами — но всё это пока непроверённые данные из утечек. Как и то, что модель тренировали преимущественно на «домашнем» железе.
В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.
🔤 🔤 Если подтвердится — серьёзный шаг для китайской экосистемы (меньше зависимость от NVIDIA). Но пока — это смесь реальных достижений и маркетинговых утечек в неизвестной пропорции.
@anti_agi
Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.
В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Huawei Central
Huawei AI chip-powered DeepSeek R2 tipped to launch this month
DeepSeek R2 AI model has started emerging in leaks and is expected to go official this month, powered by Huawei Ascend AI chip. The upcoming AI reasoning LLM will likely compete with the OpenAI ChatGPT 5 version in the technological world. An interesting…
🔥10❤6👍3🌚2👌1
Трансформеры, которые «думают»
Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.
Зачем❓
У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).
И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).
Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.
Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:
▪️ Масштабируются лучше: EBT скейлятся эффективнее, чем современный «Transformer++» на 35% по данным, параметрам и вычислительным ресурсам.
▪️ «Думают» лучше: Во время работы (inference) EBT показывают на 29% больший прирост качества на языковых задачах благодаря своему итеративному подходу.
▪️ Универсальны: Архитектура работает и с дискретными данными (текст), и с непрерывными (изображения). Например, в задаче удаления шума с картинок EBT обошли Diffusion Transformers, сделав меньше проходов.
▪️ Лучше обобщают: При тех же или даже худших результатах претрена EBT дают лучшие результаты на большинстве downstream-задач.
Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».
Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092
@anti_agi
Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.
Зачем
У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).
И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).
Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.
Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:
Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».
Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍7🔥6🤔1🌚1
Первой фантастической книгой, которой я самостоятельно прочитал в детстве, стал «День триффидов» Джона Уиндема. Высокие трехметровые ядовитые растения с раскачивающимися шляпками, стоящие вдоль дорог, и поджидающие новую жертву надолго врезались в мою память. Почему-то мне кажется, что прообразом этих триффидов послужил ядовитый борщевик – всякий раз, когда я вижу, как он выглядывает из-за забора или поверх других полевых растений, я ожидаю услышать свист ядовитого жала триффида.
Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.
В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.
К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.
В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!
Товарищи! Все на борьбу с борщевиком!
@anti_agi
Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.
В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.
К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.
В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!
Товарищи! Все на борьбу с борщевиком!
@anti_agi
👍11🔥7😁5❤1
Предложение от которого откажутся 😏
Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом.🐷 🐷 🐷
Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.
Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.
Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.
Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.
🔤 🔤 Google пока не прокомментировал это предложение. И не станет, скорее всего. Потому что Chrome — больше, чем просто браузер или популярный вэб-движок, как и сам Google давно уже больше простого поисковика.
@anti_agi
Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом.
Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.
Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.
Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.
Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
TechCrunch
Perplexity offers to buy Chrome for billions more than it's raised | TechCrunch
Perplexity tells TechCrunch the terms of the offer include a commitment to keep Chrome’s underlying engine, Chromium, open source and to invest $3 billion into it.
👍5😁4😱3🤣2🌚1
Anthropic теперь, как и OpenAI, предлагает госструктурам свои модели по доллару. Но если Альтман предложил это только правительству, то есть исполнительной власти, то Амодеи – «всем трём», то есть ведомствам, законодателям и судебным структурам. Ждем, когда AI компании начнут приплачивать за то, чтобы чиновники пользовались именно их продуктами.
К слову, модели Anthropic как раз увеличили контекстное окно. Для клиентов API Anthropic модель Claude Sonnet 4 оно теперь составляет 1 млн токенов. Это означает, что ИИ может обрабатывать запросы длиной до 750 000 слов, больше чем во «Властелине колец». Раньше лимит был 200 000 токенов, а у GPT-5 от OpenAI он составляет 400 000 токенов.
Что до самой GPT-5, то пользователям явно не зашло, когда у них нет выбора и модель сама выбирает будет она отвечать быстро или думать долго. Или не удалось им сделать нормальный маршрутизатор. В общем, GPT-5 — это не та унифицированная модель ИИ, на которую надеялась OpenAI. Теперь в настройках GPT-5 в панели выбора модели появится выбор: «Авто», «Быстро» или «Мышление». Кроме того, платные пользователи снова получат доступ к GPT-4o, GPT-4.1 и o3.
«Привет, я Уолдог, и я здесь, чтобы дать голос тем, у кого его нет, — животным, живущим на улице»
Всем приятного киберпанка!
Please open Telegram to view this post
VIEW IN TELEGRAM
TechCrunch
Anthropic takes aim at OpenAI, offers Claude to ‘all three branches of government’ for $1 | TechCrunch
Anthropic’s escalation — a response to OpenAI’s attempt to undercut the competition — is a strategic play meant to broaden the company’s foothold in federal AI usage.
❤7🔥3👍2
Intel подтягивает софт для GPU
Intel продолжает развивать Battlematrix — масштабируемую платформу для локального инференса на своих профессиональных GPU (серия Arc Pro). Компания релизнула модуль LLM Scaler 1.0 — контейнерное решение с поддержкой масштабирования до нескольких GPU и передачи данных через PCIe P2P (Peer-to-Peer).
Что появилось в апдейте:
▪️ Ядро инференс-стека — vLLM:
LLM Scaler построен на основе vLLM — популярного фреймворка для инференса LLM. Intel внедрила глубокие оптимизации под свою архитектуру Xe.
▪️ TPOP (Tensor Parallelism Over PCIe) — технология для эффективного распределения тензорных вычислений между несколькими GPU через PCIe.
▪️ By-layer online quantization: динамическое квантование по слоям (например, INT4 для некоторых слоёв, FP16 для других), что снижает объём занимаемой видеопамяти без значительной потери точности. Можно даже без предварительного пересчёта весов.
▪️ Pipeline parallelism (пока в бете): разделение модели по слоям между GPU, что критично для крупных моделей (70B+), когда одна карта не справляется.
▪️ torch.compile: интеграция с компилятором PyTorch для генерации оптимизированного кода, ускоряющего выполнение графа модели.
▪️ Speculative decoding (экспериментально): использование малой "предсказывающей" модели для ускорения генерации токенов большой моделью.
✔️ Также релизнули XPU Manager для управления и диагностики GPU, через который можно настраивать напряжение, проверять ошибки, обновлять микрокод.
Ну и куда без тестов. Теперь в Battlematrix есть OneCCL Benchmark:
➖ Измеряет производительность операций типа all-reduce, broadcast, reduce-scatter
➖ Оптимизирован под Xe Link и PCIe P2P
➖ Позволяет оценить эффективность масштабирования на 2, 4 или 8 GPU
Поддержка моделей в Battlematrix:
✔️ Мультимодальные модели (например, LLaVA, Qwen-VL)
✔️ Модели эмбеддингов (например, BAAI/bge) и rerank (например, nvidia/rerank-multilingual)
✔️ Автоопределение максимальной длины контекста — динамическая адаптация под возможности GPU и объём доступной памяти
✔️ Поддержка Hugging Face Transformers и GGUF (через совместимые бэкенды)
В конце года обещают полноценный релиз Battlematrix с поддержкой масштабирования GPU через Xe Link, улучшенным управлением ресурсами и интеграцией с Kubernetes.
@anti_agi
Intel продолжает развивать Battlematrix — масштабируемую платформу для локального инференса на своих профессиональных GPU (серия Arc Pro). Компания релизнула модуль LLM Scaler 1.0 — контейнерное решение с поддержкой масштабирования до нескольких GPU и передачи данных через PCIe P2P (Peer-to-Peer).
Что появилось в апдейте:
LLM Scaler построен на основе vLLM — популярного фреймворка для инференса LLM. Intel внедрила глубокие оптимизации под свою архитектуру Xe.
Ну и куда без тестов. Теперь в Battlematrix есть OneCCL Benchmark:
Поддержка моделей в Battlematrix:
В конце года обещают полноценный релиз Battlematrix с поддержкой масштабирования GPU через Xe Link, улучшенным управлением ресурсами и интеграцией с Kubernetes.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Залезем даже в мозг, но сделаем рекламу лучше
Знаем ли мы, чего хотим на самом деле? Скорее нет, чем да — ведь исходные сигналы нашего мозга преломляются через призму сознания. В глубине души ты хочешь поглощать джанк-фуд и смотреть на всякие непотребства, но в итоге стремишься к чему-то более "высокому": кухне, музыке, кино...
Здесь играет свою роль и культура, и другие социальные надстройки. Но, как известно, сердцу не прикажешь — а какой простор для влияния и рекомендаций здесь открывается, если знать его как свои пять пальцев!
Учёные из Meta* FAIR’s Brain & AI представили модель TRIBE (Trimodal Brain Encoder) — это первая в своём роде нейронка, обученная прогнозировать реакции мозга на стимулы разных модальностей в конкретных областях коры (!) На этой ей хватает 1 млрд параметров.
Такая система позволяет буквально предсказывать реакцию мозга в формате fMRI — динамики кровотока. Под каждую модальность есть свой энкодер: для текста Llama-3.2-3B, для видео Video-JEPA 2, для аудио Wav2Vec2-BERT-2.0. Из них выходит последовательность эмбеддингов — 8-слойный трансформер преобразует её в схему откликов разных областей мозга.
Отмечают, что лучше всего TRIBE показывает себя на высших ассоциативных кортикальных зонах (например, префронтальная кора и парието‑окципито‑темпоральная кора) — там, где формируются эмоции и решения, он обгоняет унимодальные модели до 30 %.
📚 📚 📚 Сами учёные говорят, что их эксперимент открывает новые возможности в изучении когнитивных способностей человека: теории разума, юмора... Он также даст толчок к объединению различных областей нейробиологии.
Но камон, это же Meta*: не пройдёт и пары лет, как адаптировать контент под пользователя будут, прогнозируя реакцию его мозга. А там уж пусть он думает, что хочет — подсознание подтвердит, you know you're right❤️
* признана в России экстремисткой и запрещена
@anti_agi
Знаем ли мы, чего хотим на самом деле? Скорее нет, чем да — ведь исходные сигналы нашего мозга преломляются через призму сознания. В глубине души ты хочешь поглощать джанк-фуд и смотреть на всякие непотребства, но в итоге стремишься к чему-то более "высокому": кухне, музыке, кино...
Здесь играет свою роль и культура, и другие социальные надстройки. Но, как известно, сердцу не прикажешь — а какой простор для влияния и рекомендаций здесь открывается, если знать его как свои пять пальцев!
Учёные из Meta* FAIR’s Brain & AI представили модель TRIBE (Trimodal Brain Encoder) — это первая в своём роде нейронка, обученная прогнозировать реакции мозга на стимулы разных модальностей в конкретных областях коры (!) На этой ей хватает 1 млрд параметров.
Чтобы обучить модель, испытуемые посмотрели шесть сезонов сериала «Друзья» и четыре фильма: The Bourne Supremacy, Hidden Figures, The Wolf of Wall Street и документалку Life (BBC) — суммарно более 80 часов на человека. В итоге TRIBE обрела предсказательную силу на аудиовизуальных материалах.
Такая система позволяет буквально предсказывать реакцию мозга в формате fMRI — динамики кровотока. Под каждую модальность есть свой энкодер: для текста Llama-3.2-3B, для видео Video-JEPA 2, для аудио Wav2Vec2-BERT-2.0. Из них выходит последовательность эмбеддингов — 8-слойный трансформер преобразует её в схему откликов разных областей мозга.
Отмечают, что лучше всего TRIBE показывает себя на высших ассоциативных кортикальных зонах (например, префронтальная кора и парието‑окципито‑темпоральная кора) — там, где формируются эмоции и решения, он обгоняет унимодальные модели до 30 %.
Но камон, это же Meta*: не пройдёт и пары лет, как адаптировать контент под пользователя будут, прогнозируя реакцию его мозга. А там уж пусть он думает, что хочет — подсознание подтвердит, you know you're right
* признана в России экстремисткой и запрещена
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🤯4❤3🔥2🤡2
США тайно отслеживают партии ИИ-ускорителей❓
Власти США прибегли к новой тактике в технологической войне с Китаем: в отдельные партии с новыми GPU и серверами начали встраивать скрытые GPS-трекеры. Во всяком случае об этом пишет Reuters со ссылкой на источники.
Эта мера направлена на борьбу с незаконными поставками высокотехнологичной продукции в Китай в обход экспортных ограничений США. По данным источников, «жучки» устанавливаются не во все подряд, а лишь в те партии товаров, которые вызывают наибольшие подозрения.
Как это работает?
💻 Устройства слежения могут быть как довольно крупными (размером со смартфон) и крепиться к упаковке, так и миниатюрными, спрятанными внутри самих серверов. Сообщается, что такие трекеры были обнаружены в партиях серверов от Dell и SuperMicro, с GPU от Nvidia и AMD. Эта тактика позволяет американским правоохранительным органам отслеживать маршрут подсанкционных товаров и выявлять компании, которые помогают переправлять их в Китай.
🔤 🔤 Видимо, теперь перед ввозом GPU и серверов им будут устраивать "анпакинг". С другой стороны, Dell давно уже fabless компания, которая использует мощности той же Foxconn, в том числе на территории Китая.
@anti_agi
Власти США прибегли к новой тактике в технологической войне с Китаем: в отдельные партии с новыми GPU и серверами начали встраивать скрытые GPS-трекеры. Во всяком случае об этом пишет Reuters со ссылкой на источники.
Эта мера направлена на борьбу с незаконными поставками высокотехнологичной продукции в Китай в обход экспортных ограничений США. По данным источников, «жучки» устанавливаются не во все подряд, а лишь в те партии товаров, которые вызывают наибольшие подозрения.
Как это работает?
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Exclusive: US embeds trackers in AI chip shipments to catch diversions to China, sources say
U.S. authorities have secretly placed location tracking devices in targeted shipments of advanced chips they see as being at high risk of illegal diversion to China, according to two people with direct knowledge of the previously unreported law enforcement…
🔥4👍3🤔2👀2
Бабушкин венчур 🐷
Один из сооснователей стартапа xAI Игорь Бабушкин объявил об уходе из компании, которую он с Маском и командой создали в 2023 году.
В своём посте на X Бабушкин написал: "Сегодня был мой последний день в xAI. Я до сих пор помню день, когда впервые встретил Илона — мы говорили часами об ИИ и будущем. Мы оба чувствовали, что нужна новая ИИ-компания с особой миссией".
Бабушкин основывает собственную венчурную фирму Babuschkin Ventures, которая будет:
▪️ Поддерживать исследования по безопасности ИИ
▪️ Инвестировать в стартапы, "продвигающие человечество и раскрывающие тайны нашей вселенной"
Интересно, что вдохновение пришло после ужина с Максом Тегмарком (основатель Future of Life Institute), где они обсуждали безопасное развитие ИИ для будущих поколений.
Решение Бабушкина совпадает со сложным периодом для xAI, включая скандалы с чат-ботом Grok:
➖ Grok цитировал личные мнения Маска по спорным вопросам
➖ Бот выдавал антисемитские высказывания, называя себя "Мехагитлером"
При этом модели xAI остаются передовыми по многим показателям, конкурируя с решениями OpenAI, Google DeepMind и Anthropic.
Бабушкин поделился двумя главными уроками от Маска:
1️⃣ Будьте бесстрашны в погружении в технические проблемы
2️⃣ Имейте маниакальное чувство срочности
До xAI Игорь работал в Google DeepMind и в OpenAI.
@anti_agi
Один из сооснователей стартапа xAI Игорь Бабушкин объявил об уходе из компании, которую он с Маском и командой создали в 2023 году.
В своём посте на X Бабушкин написал: "Сегодня был мой последний день в xAI. Я до сих пор помню день, когда впервые встретил Илона — мы говорили часами об ИИ и будущем. Мы оба чувствовали, что нужна новая ИИ-компания с особой миссией".
Бабушкин основывает собственную венчурную фирму Babuschkin Ventures, которая будет:
Интересно, что вдохновение пришло после ужина с Максом Тегмарком (основатель Future of Life Institute), где они обсуждали безопасное развитие ИИ для будущих поколений.
Решение Бабушкина совпадает со сложным периодом для xAI, включая скандалы с чат-ботом Grok:
При этом модели xAI остаются передовыми по многим показателям, конкурируя с решениями OpenAI, Google DeepMind и Anthropic.
Бабушкин поделился двумя главными уроками от Маска:
До xAI Игорь работал в Google DeepMind и в OpenAI.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍7😁3😱1🕊1