Хочешь продавать — плати 🐷
В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США.
💻 Суть договорённости проста: компании получили возможность продолжать продажи ускорителей для искусственного интеллекта в Китае, но только при условии передачи части выручки в США в рамках нового механизма экспортного лицензирования. Речь идёт прежде всего о GPU для центров обработки данных: H20 у Nvidia и MI308 у AMD.
🐷 Для компаний Китай остаётся важнейшим рынком — по экспертным оценкам, он приносит Nvidia значительную долю выручки (от $17 до $23 млрд) и составляет ощутимый процент доходов AMD ($800 млн только от GPU). Поэтому компромисс с регуляторами даст возможность не потерять доходы.
❓ Правда есть и вопросы. Как минимум, возникает риск создания прецедента: другие страны или сектора могут столкнуться с похожими условиями в будущем.
🔤 🔤 С другой стороны, мы можем только порадоваться. Из Китая ускорители неизбежно будут перетекать и на наш рынок, который с т.з. компьюта уступает, к сожалению, не только Штатам и Китаю.
@anti_agi
В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump opens door to sales of version of Nvidia's next-gen AI chips in China
The move could open the door to China securing more advanced computing power from the U.S. even as the two countries battled for technology supremacy, critics said.
❤5👍4🔥4🌚3😁1
In love with the machine
Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.
Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.
GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.
📚 📚 📚 Исследования подтверждают: LLM уже понимают наши эмоции лучше людей. А вовлекающие алгоритмы буквально подпитывают как наше эго, так и наши страхи. В последней GPT-5 манеру общения подсушили, что понравилось немногим.
@anti_agi
Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.
Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.
GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁3🔥2
Что ж, давайте сегодня про чипы опять
Трамп взвешивает возможность разрешить Nvidia продавать в Китай не только H20, созданный на предыдущей архитектуре Hopper, но и новые чипы на Blackwell:
«У Дженсена также есть новый чип Blackwell. Это несколько улучшенный (в негативном смысле) Blackwell. Другими словами, его мощность снижена на 30–50%. Думаю, он снова придёт ко мне на встречу по этому вопросу»
Напомню, что после запрета экспорта H20, Nvidia разработала новый кастрированный чип B30 для Китая, на основе Blackwell. Речь явно идет именно об этом чипе. Впрочем, для него разрешений Трампа не требовалось бы, ведь он изначально дизайнился так, чтобы удовлетворять новым ограничениям. В частности, в нем планировалось использовать память GDDR7 вместо высокопропускной HBM.
Разгадка, возможно в том, что Китай, уже продавивший Трампа в переговорах по торговой сделке на отмену запрета экспорта H20, хочет достичь большего. Следующее его требование – снятие ограничений на доступ Китая к HBM-памяти. Для Трампа, чей синоним – эго, важно сделать вид, а на суть – плевать. Поэтому он вполне может, чтобы сохранить лицо, не снимая ограничения формально,
Вот только Китай вряд ли удовлетворится этим. Государственные медиа там уже разгоняют нарратив, что H20 небезопасны для Китая из-за возможных бэкдоров. Почувствовав слабину Трампа, Китай будет давить по всем направлениям.
Но факт остается фактом – память с высокой пропускной способностью стала важнейшим фактором в AI-гонке. Лидер рынка HBM-памяти, корейская SK Hynix, ожидает, что этот рынок будет в ближайшие пять лет расти на 30% в год. А другой участник этого рынка, компания Micron, из-за роста спроса на высокопропускную память повысил прогноз квартальной выручки с $10,7 до $11,2 млрд, а валовой маржи – с 42% до 44,5%. В условиях нехватки памяти Micron повысил цены на свою продукцию.
«Apple делает так, что ни одна ИИ-компания, кроме OpenAI, не может занять первое место в App Store, что является явным нарушением антимонопольного законодательства. xAI немедленно подаст в суд».
ChatGPT является самым скачиваемым бесплатным приложением для iPhone в США, опережая Grok, который находится на пятом месте.
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump opens door to sales of version of Nvidia's next-gen AI chips in China
The move could open the door to China securing more advanced computing power from the U.S. even as the two countries battled for technology supremacy, critics said.
❤4👍3🔥3
Forwarded from Нецифровая экономика (Oleg Salmanov)
В России появилась нейросеть, которая умеет предсказывать кризисы на фондовом рынке
Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.
Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.
Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.
Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.
Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.
Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.
«Модель эффективно обрабатывает неравномерные данные и достигает точности 78,70% при прогнозе кризисных событий в день наблюдения и 78,85% — на следующий торговый день. Использование месячной повторной тренировки и адаптивных временных окон позволило довести точность до 83,87%», — профессор Тамара Теплова
Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
TACC
В России создали нейросеть, предсказывающую кризисы на фондовом рынке
По словам исследователей, в прошлом экономисты еще не применяли столь сложную структуру модели к биржевым данным РФ
❤6🤣5👍1🔥1
DeepSeek R2 в августе❓
Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.
💻 По «сливам», R2 использует кластер на основе Ascend 910B с загрузкой около 82% и даёт 512 PFLOPS (FP16) — по эффективности близко к кластерам на базе NVIDIA A100 (позапрошлое поколение).
✔️ Технические слухи : гибридная MoE-архитектура, ~1.2 трлн параметров (активных ~78B), и существенное снижение стоимости инференса по сравнению с западными аналогами — но всё это пока непроверённые данные из утечек. Как и то, что модель тренировали преимущественно на «домашнем» железе.
В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.
🔤 🔤 Если подтвердится — серьёзный шаг для китайской экосистемы (меньше зависимость от NVIDIA). Но пока — это смесь реальных достижений и маркетинговых утечек в неизвестной пропорции.
@anti_agi
Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.
В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Huawei Central
Huawei AI chip-powered DeepSeek R2 tipped to launch this month
DeepSeek R2 AI model has started emerging in leaks and is expected to go official this month, powered by Huawei Ascend AI chip. The upcoming AI reasoning LLM will likely compete with the OpenAI ChatGPT 5 version in the technological world. An interesting…
🔥10❤6👍3🌚2👌1
Трансформеры, которые «думают»
Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.
Зачем❓
У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).
И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).
Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.
Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:
▪️ Масштабируются лучше: EBT скейлятся эффективнее, чем современный «Transformer++» на 35% по данным, параметрам и вычислительным ресурсам.
▪️ «Думают» лучше: Во время работы (inference) EBT показывают на 29% больший прирост качества на языковых задачах благодаря своему итеративному подходу.
▪️ Универсальны: Архитектура работает и с дискретными данными (текст), и с непрерывными (изображения). Например, в задаче удаления шума с картинок EBT обошли Diffusion Transformers, сделав меньше проходов.
▪️ Лучше обобщают: При тех же или даже худших результатах претрена EBT дают лучшие результаты на большинстве downstream-задач.
Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».
Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092
@anti_agi
Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.
Зачем
У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).
И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).
Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.
Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:
Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».
Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍7🔥6🤔1🌚1
Первой фантастической книгой, которой я самостоятельно прочитал в детстве, стал «День триффидов» Джона Уиндема. Высокие трехметровые ядовитые растения с раскачивающимися шляпками, стоящие вдоль дорог, и поджидающие новую жертву надолго врезались в мою память. Почему-то мне кажется, что прообразом этих триффидов послужил ядовитый борщевик – всякий раз, когда я вижу, как он выглядывает из-за забора или поверх других полевых растений, я ожидаю услышать свист ядовитого жала триффида.
Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.
В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.
К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.
В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!
Товарищи! Все на борьбу с борщевиком!
@anti_agi
Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.
В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.
К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.
В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!
Товарищи! Все на борьбу с борщевиком!
@anti_agi
👍11🔥7😁5❤1
Предложение от которого откажутся 😏
Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом.🐷 🐷 🐷
Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.
Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.
Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.
Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.
🔤 🔤 Google пока не прокомментировал это предложение. И не станет, скорее всего. Потому что Chrome — больше, чем просто браузер или популярный вэб-движок, как и сам Google давно уже больше простого поисковика.
@anti_agi
Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом.
Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.
Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.
Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.
Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
TechCrunch
Perplexity offers to buy Chrome for billions more than it's raised | TechCrunch
Perplexity tells TechCrunch the terms of the offer include a commitment to keep Chrome’s underlying engine, Chromium, open source and to invest $3 billion into it.
👍5😁4😱3🤣2🌚1
Anthropic теперь, как и OpenAI, предлагает госструктурам свои модели по доллару. Но если Альтман предложил это только правительству, то есть исполнительной власти, то Амодеи – «всем трём», то есть ведомствам, законодателям и судебным структурам. Ждем, когда AI компании начнут приплачивать за то, чтобы чиновники пользовались именно их продуктами.
К слову, модели Anthropic как раз увеличили контекстное окно. Для клиентов API Anthropic модель Claude Sonnet 4 оно теперь составляет 1 млн токенов. Это означает, что ИИ может обрабатывать запросы длиной до 750 000 слов, больше чем во «Властелине колец». Раньше лимит был 200 000 токенов, а у GPT-5 от OpenAI он составляет 400 000 токенов.
Что до самой GPT-5, то пользователям явно не зашло, когда у них нет выбора и модель сама выбирает будет она отвечать быстро или думать долго. Или не удалось им сделать нормальный маршрутизатор. В общем, GPT-5 — это не та унифицированная модель ИИ, на которую надеялась OpenAI. Теперь в настройках GPT-5 в панели выбора модели появится выбор: «Авто», «Быстро» или «Мышление». Кроме того, платные пользователи снова получат доступ к GPT-4o, GPT-4.1 и o3.
«Привет, я Уолдог, и я здесь, чтобы дать голос тем, у кого его нет, — животным, живущим на улице»
Всем приятного киберпанка!
Please open Telegram to view this post
VIEW IN TELEGRAM
TechCrunch
Anthropic takes aim at OpenAI, offers Claude to ‘all three branches of government’ for $1 | TechCrunch
Anthropic’s escalation — a response to OpenAI’s attempt to undercut the competition — is a strategic play meant to broaden the company’s foothold in federal AI usage.
❤7🔥3👍2
Intel подтягивает софт для GPU
Intel продолжает развивать Battlematrix — масштабируемую платформу для локального инференса на своих профессиональных GPU (серия Arc Pro). Компания релизнула модуль LLM Scaler 1.0 — контейнерное решение с поддержкой масштабирования до нескольких GPU и передачи данных через PCIe P2P (Peer-to-Peer).
Что появилось в апдейте:
▪️ Ядро инференс-стека — vLLM:
LLM Scaler построен на основе vLLM — популярного фреймворка для инференса LLM. Intel внедрила глубокие оптимизации под свою архитектуру Xe.
▪️ TPOP (Tensor Parallelism Over PCIe) — технология для эффективного распределения тензорных вычислений между несколькими GPU через PCIe.
▪️ By-layer online quantization: динамическое квантование по слоям (например, INT4 для некоторых слоёв, FP16 для других), что снижает объём занимаемой видеопамяти без значительной потери точности. Можно даже без предварительного пересчёта весов.
▪️ Pipeline parallelism (пока в бете): разделение модели по слоям между GPU, что критично для крупных моделей (70B+), когда одна карта не справляется.
▪️ torch.compile: интеграция с компилятором PyTorch для генерации оптимизированного кода, ускоряющего выполнение графа модели.
▪️ Speculative decoding (экспериментально): использование малой "предсказывающей" модели для ускорения генерации токенов большой моделью.
✔️ Также релизнули XPU Manager для управления и диагностики GPU, через который можно настраивать напряжение, проверять ошибки, обновлять микрокод.
Ну и куда без тестов. Теперь в Battlematrix есть OneCCL Benchmark:
➖ Измеряет производительность операций типа all-reduce, broadcast, reduce-scatter
➖ Оптимизирован под Xe Link и PCIe P2P
➖ Позволяет оценить эффективность масштабирования на 2, 4 или 8 GPU
Поддержка моделей в Battlematrix:
✔️ Мультимодальные модели (например, LLaVA, Qwen-VL)
✔️ Модели эмбеддингов (например, BAAI/bge) и rerank (например, nvidia/rerank-multilingual)
✔️ Автоопределение максимальной длины контекста — динамическая адаптация под возможности GPU и объём доступной памяти
✔️ Поддержка Hugging Face Transformers и GGUF (через совместимые бэкенды)
В конце года обещают полноценный релиз Battlematrix с поддержкой масштабирования GPU через Xe Link, улучшенным управлением ресурсами и интеграцией с Kubernetes.
@anti_agi
Intel продолжает развивать Battlematrix — масштабируемую платформу для локального инференса на своих профессиональных GPU (серия Arc Pro). Компания релизнула модуль LLM Scaler 1.0 — контейнерное решение с поддержкой масштабирования до нескольких GPU и передачи данных через PCIe P2P (Peer-to-Peer).
Что появилось в апдейте:
LLM Scaler построен на основе vLLM — популярного фреймворка для инференса LLM. Intel внедрила глубокие оптимизации под свою архитектуру Xe.
Ну и куда без тестов. Теперь в Battlematrix есть OneCCL Benchmark:
Поддержка моделей в Battlematrix:
В конце года обещают полноценный релиз Battlematrix с поддержкой масштабирования GPU через Xe Link, улучшенным управлением ресурсами и интеграцией с Kubernetes.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Залезем даже в мозг, но сделаем рекламу лучше
Знаем ли мы, чего хотим на самом деле? Скорее нет, чем да — ведь исходные сигналы нашего мозга преломляются через призму сознания. В глубине души ты хочешь поглощать джанк-фуд и смотреть на всякие непотребства, но в итоге стремишься к чему-то более "высокому": кухне, музыке, кино...
Здесь играет свою роль и культура, и другие социальные надстройки. Но, как известно, сердцу не прикажешь — а какой простор для влияния и рекомендаций здесь открывается, если знать его как свои пять пальцев!
Учёные из Meta* FAIR’s Brain & AI представили модель TRIBE (Trimodal Brain Encoder) — это первая в своём роде нейронка, обученная прогнозировать реакции мозга на стимулы разных модальностей в конкретных областях коры (!) На этой ей хватает 1 млрд параметров.
Такая система позволяет буквально предсказывать реакцию мозга в формате fMRI — динамики кровотока. Под каждую модальность есть свой энкодер: для текста Llama-3.2-3B, для видео Video-JEPA 2, для аудио Wav2Vec2-BERT-2.0. Из них выходит последовательность эмбеддингов — 8-слойный трансформер преобразует её в схему откликов разных областей мозга.
Отмечают, что лучше всего TRIBE показывает себя на высших ассоциативных кортикальных зонах (например, префронтальная кора и парието‑окципито‑темпоральная кора) — там, где формируются эмоции и решения, он обгоняет унимодальные модели до 30 %.
📚 📚 📚 Сами учёные говорят, что их эксперимент открывает новые возможности в изучении когнитивных способностей человека: теории разума, юмора... Он также даст толчок к объединению различных областей нейробиологии.
Но камон, это же Meta*: не пройдёт и пары лет, как адаптировать контент под пользователя будут, прогнозируя реакцию его мозга. А там уж пусть он думает, что хочет — подсознание подтвердит, you know you're right❤️
* признана в России экстремисткой и запрещена
@anti_agi
Знаем ли мы, чего хотим на самом деле? Скорее нет, чем да — ведь исходные сигналы нашего мозга преломляются через призму сознания. В глубине души ты хочешь поглощать джанк-фуд и смотреть на всякие непотребства, но в итоге стремишься к чему-то более "высокому": кухне, музыке, кино...
Здесь играет свою роль и культура, и другие социальные надстройки. Но, как известно, сердцу не прикажешь — а какой простор для влияния и рекомендаций здесь открывается, если знать его как свои пять пальцев!
Учёные из Meta* FAIR’s Brain & AI представили модель TRIBE (Trimodal Brain Encoder) — это первая в своём роде нейронка, обученная прогнозировать реакции мозга на стимулы разных модальностей в конкретных областях коры (!) На этой ей хватает 1 млрд параметров.
Чтобы обучить модель, испытуемые посмотрели шесть сезонов сериала «Друзья» и четыре фильма: The Bourne Supremacy, Hidden Figures, The Wolf of Wall Street и документалку Life (BBC) — суммарно более 80 часов на человека. В итоге TRIBE обрела предсказательную силу на аудиовизуальных материалах.
Такая система позволяет буквально предсказывать реакцию мозга в формате fMRI — динамики кровотока. Под каждую модальность есть свой энкодер: для текста Llama-3.2-3B, для видео Video-JEPA 2, для аудио Wav2Vec2-BERT-2.0. Из них выходит последовательность эмбеддингов — 8-слойный трансформер преобразует её в схему откликов разных областей мозга.
Отмечают, что лучше всего TRIBE показывает себя на высших ассоциативных кортикальных зонах (например, префронтальная кора и парието‑окципито‑темпоральная кора) — там, где формируются эмоции и решения, он обгоняет унимодальные модели до 30 %.
Но камон, это же Meta*: не пройдёт и пары лет, как адаптировать контент под пользователя будут, прогнозируя реакцию его мозга. А там уж пусть он думает, что хочет — подсознание подтвердит, you know you're right
* признана в России экстремисткой и запрещена
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🤯4❤3🔥2🤡2
США тайно отслеживают партии ИИ-ускорителей❓
Власти США прибегли к новой тактике в технологической войне с Китаем: в отдельные партии с новыми GPU и серверами начали встраивать скрытые GPS-трекеры. Во всяком случае об этом пишет Reuters со ссылкой на источники.
Эта мера направлена на борьбу с незаконными поставками высокотехнологичной продукции в Китай в обход экспортных ограничений США. По данным источников, «жучки» устанавливаются не во все подряд, а лишь в те партии товаров, которые вызывают наибольшие подозрения.
Как это работает?
💻 Устройства слежения могут быть как довольно крупными (размером со смартфон) и крепиться к упаковке, так и миниатюрными, спрятанными внутри самих серверов. Сообщается, что такие трекеры были обнаружены в партиях серверов от Dell и SuperMicro, с GPU от Nvidia и AMD. Эта тактика позволяет американским правоохранительным органам отслеживать маршрут подсанкционных товаров и выявлять компании, которые помогают переправлять их в Китай.
🔤 🔤 Видимо, теперь перед ввозом GPU и серверов им будут устраивать "анпакинг". С другой стороны, Dell давно уже fabless компания, которая использует мощности той же Foxconn, в том числе на территории Китая.
@anti_agi
Власти США прибегли к новой тактике в технологической войне с Китаем: в отдельные партии с новыми GPU и серверами начали встраивать скрытые GPS-трекеры. Во всяком случае об этом пишет Reuters со ссылкой на источники.
Эта мера направлена на борьбу с незаконными поставками высокотехнологичной продукции в Китай в обход экспортных ограничений США. По данным источников, «жучки» устанавливаются не во все подряд, а лишь в те партии товаров, которые вызывают наибольшие подозрения.
Как это работает?
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Exclusive: US embeds trackers in AI chip shipments to catch diversions to China, sources say
U.S. authorities have secretly placed location tracking devices in targeted shipments of advanced chips they see as being at high risk of illegal diversion to China, according to two people with direct knowledge of the previously unreported law enforcement…
🔥4👍3🤔2👀2
Бабушкин венчур 🐷
Один из сооснователей стартапа xAI Игорь Бабушкин объявил об уходе из компании, которую он с Маском и командой создали в 2023 году.
В своём посте на X Бабушкин написал: "Сегодня был мой последний день в xAI. Я до сих пор помню день, когда впервые встретил Илона — мы говорили часами об ИИ и будущем. Мы оба чувствовали, что нужна новая ИИ-компания с особой миссией".
Бабушкин основывает собственную венчурную фирму Babuschkin Ventures, которая будет:
▪️ Поддерживать исследования по безопасности ИИ
▪️ Инвестировать в стартапы, "продвигающие человечество и раскрывающие тайны нашей вселенной"
Интересно, что вдохновение пришло после ужина с Максом Тегмарком (основатель Future of Life Institute), где они обсуждали безопасное развитие ИИ для будущих поколений.
Решение Бабушкина совпадает со сложным периодом для xAI, включая скандалы с чат-ботом Grok:
➖ Grok цитировал личные мнения Маска по спорным вопросам
➖ Бот выдавал антисемитские высказывания, называя себя "Мехагитлером"
При этом модели xAI остаются передовыми по многим показателям, конкурируя с решениями OpenAI, Google DeepMind и Anthropic.
Бабушкин поделился двумя главными уроками от Маска:
1️⃣ Будьте бесстрашны в погружении в технические проблемы
2️⃣ Имейте маниакальное чувство срочности
До xAI Игорь работал в Google DeepMind и в OpenAI.
@anti_agi
Один из сооснователей стартапа xAI Игорь Бабушкин объявил об уходе из компании, которую он с Маском и командой создали в 2023 году.
В своём посте на X Бабушкин написал: "Сегодня был мой последний день в xAI. Я до сих пор помню день, когда впервые встретил Илона — мы говорили часами об ИИ и будущем. Мы оба чувствовали, что нужна новая ИИ-компания с особой миссией".
Бабушкин основывает собственную венчурную фирму Babuschkin Ventures, которая будет:
Интересно, что вдохновение пришло после ужина с Максом Тегмарком (основатель Future of Life Institute), где они обсуждали безопасное развитие ИИ для будущих поколений.
Решение Бабушкина совпадает со сложным периодом для xAI, включая скандалы с чат-ботом Grok:
При этом модели xAI остаются передовыми по многим показателям, конкурируя с решениями OpenAI, Google DeepMind и Anthropic.
Бабушкин поделился двумя главными уроками от Маска:
До xAI Игорь работал в Google DeepMind и в OpenAI.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍7😁3😱1🕊1
Можно бесконечно смотреть на 3 вещи: как течет вода, как у нас деградируют сервера, звонки и люди, а также как ”ИИ” в описании стартапов приносит миллиарды.
Именно это произошло с Ramp. Финтех-стартап, который использует искусственный интеллект для управления финансами компаний, привлёк $500 млн в новом инвест-раунде. Это увеличило его оценку до $22,5 млрд.
Ramp — это финтех-платформа, которая стремится стать «финансовым супер-приложением» для бизнеса. Она предоставляет единый комплекс инструментов для управления расходами, корпоративными картами, оплатой счетов и закупками, помогая компаниям сэкономить время и деньги. Ключевым элементом платформы является искусственный интеллект, который автоматизирует рутинные задачи, проверяет расходы на соответствие политике компании и выявляет возможности для оптимизации.
С помощью ИИ система помогает:
🐷 Автоматизировать до 85% финансовых операций
🐷 Предотвращать мошенничество и несанкционированные траты
🐷 Снижать финансовые издержки
Всего за полтора месяца оценка компании выросла с $16 млрд до $22,5 млрд.Сейчас у Ramp более 40 000 клиентов, включая такие крупные компании, как CBRE.
Эта история — яркий пример того, как инвестиции в стартапы, активно использующие ИИ, взлетают до небес. Кажется, что добавление "ИИ" в название или описание продукта — это сейчас самая надёжная стратегия для получения миллиардной оценки.
@anti_agi
Именно это произошло с Ramp. Финтех-стартап, который использует искусственный интеллект для управления финансами компаний, привлёк $500 млн в новом инвест-раунде. Это увеличило его оценку до $22,5 млрд.
Ramp — это финтех-платформа, которая стремится стать «финансовым супер-приложением» для бизнеса. Она предоставляет единый комплекс инструментов для управления расходами, корпоративными картами, оплатой счетов и закупками, помогая компаниям сэкономить время и деньги. Ключевым элементом платформы является искусственный интеллект, который автоматизирует рутинные задачи, проверяет расходы на соответствие политике компании и выявляет возможности для оптимизации.
С помощью ИИ система помогает:
Всего за полтора месяца оценка компании выросла с $16 млрд до $22,5 млрд.Сейчас у Ramp более 40 000 клиентов, включая такие крупные компании, как CBRE.
Эта история — яркий пример того, как инвестиции в стартапы, активно использующие ИИ, взлетают до небес. Кажется, что добавление "ИИ" в название или описание продукта — это сейчас самая надёжная стратегия для получения миллиардной оценки.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
The Wall Street Journal
Exclusive | AI Finance App Ramp Is Valued at $22.5 Billion in Funding Round
Startup raises $500 million to further develop AI-based agents, CEO says.
🔥4👏4😁3🎉2🌚1
Администрация Трампа ведет переговоры с Intel о продаже государству доли в компании. Ее акции подскочили более чем на 7%. Обсуждения последовали за встречей на этой неделе между Трампом и гендиректором Intel Лип-Бу Таном, которая состоялась через несколько дней после того, как Трамп публично потребовал от Тана уйти в отставку из-за его инвестиций в китайские технологические компании, некоторые из которых связаны с китайскими вооруженными силами. Критика Трампом Тана началась после того, как Intel предупредила, что планирует замедлить строительство новых заводов в Огайо.
Документ на более чем 200 страниц был одобрен юридическим департаментом и главой Meta по этике. В нем определено, какое поведение чат-ботов сотрудники и подрядчики Meta должны считать приемлемым. Американские сенаторы уже потребовали расследования. К слову, похоже, что ничего ужасного в этих правилах нет, хотя есть пограничные вещи. Почитайте расследование сами.
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Trump weighs taking stake in Intel, Bloomberg News reports
The Trump administration is in talks with Intel to have the U.S. government potentially take a stake in the struggling chipmaker, Bloomberg News reported on Thursday, citing people familiar with the plan.
❤3👍3🔥2
ИИ нужен «материнский инстинкт»
Джеффри Хинтон, один из создателей современных нейросетей (или «крестный отец ИИ»), выступил с необычным предложением для снижения рисков от сверхразумного ИИ. Вместо попыток подчинить машины, он предлагает научить их заботиться о людях — как мать заботится о ребенке.
Почему?
▪️ Ну, во-первых, превосходство ИИ неизбежно: Хинтон уверен, что ИИ превзойдет человеческий интеллект в ближайшие 5–20 лет. Контролировать более умную систему силой будет невозможно — аналогия: взрослый легко манипулирует ребенком с помощью конфеты
▪️ Во-вторых, есть проблема мотивации ИИ: Умные системы естественным образом разовьют цели выживания и усиления контроля. Без этических «ограничителей» это создаст экзистенциальные риски (вероятность катастрофы Хинтон оценивает в 10-20%)
❤️ «Материнский инстинкт» Хинтон видит как решение этих двух проблем: По его словам, единственная устойчивая модель в природе, где менее разумное существо (ребенок) влияет на более разумное (мать) — через заботу и эмпатию. Хинтон предлагает встроить аналогичный механизм в ИИ, чтобы он добровольно опекал человечество, даже став могущественнее.
Сам ученый, правда, признает, что как именно встроить такой "инстинкт"— открытый вопрос. Над этим активно работают исследователи.
Предложения Хинтона несколько напоминают сюжет сериала «Воспитанные волками» от Ридли Скотта, где андроиды "Отец" и "Мать" пытаются вырастить детей (важный момент — атеистов) на враждебной планете. И сериал показывает, что помимо императива на "заботу" нужно ещё качественно проработать, как эту заботу ИИ будет реализовывать.
@anti_agi
Джеффри Хинтон, один из создателей современных нейросетей (или «крестный отец ИИ»), выступил с необычным предложением для снижения рисков от сверхразумного ИИ. Вместо попыток подчинить машины, он предлагает научить их заботиться о людях — как мать заботится о ребенке.
Почему?
«Мы будем детьми ИИ. Это единственный хороший исход. Если он не станет моим родителем, он меня заменит»
Сам ученый, правда, признает, что как именно встроить такой "инстинкт"— открытый вопрос. Над этим активно работают исследователи.
Предложения Хинтона несколько напоминают сюжет сериала «Воспитанные волками» от Ридли Скотта, где андроиды "Отец" и "Мать" пытаются вырастить детей (важный момент — атеистов) на враждебной планете. И сериал показывает, что помимо императива на "заботу" нужно ещё качественно проработать, как эту заботу ИИ будет реализовывать.
@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
Business Insider
The godfather of AI has a tip for surviving the age of AI: Train it to act like your mom
Geoffrey Hinton says humanity's survival depends on creating AI "mothers" that will care for and protect us.
❤5👍4🔥2🕊2🤮1
Meta* собирает суперкоманду гениев. Что может пойти не так?
Марк Цукерберг решил, что если собрать в одной комнате всех лучших инженеров из OpenAI, Anthropic и DeepMind, а сверху полить это всё безлимитным бюджетом и контрактами по $200 млн, то получит Искусственный Суперинтеллект. Логика уровня: «Если смешать все супы из меню, получится суп в два раза вкуснее».
Реальность, по мнению исследователей, чуть менее розовая. Когда гениев слишком много, начинается корпоративная версия «Голодных игр»: каждый охраняет свои идеи, боится конкурентов и спорит так, что код пишут уже юристы. Это примерно как в футболе: 11 Месси на поле — и никто не защищает ворота.
Рулить этим интеллектуальным серпентарией доверили Александру Вану (28 лет, бывший CEO Scale AI) и Нэту Фридману (48 лет, бывший глава GitHub). Проблема в том, что Ван прославился не тем, что создал гениальный ИИ, а тем, что организовал армию людей для маркировки данных — то есть продавал лопаты в золотую лихорадку. Теперь ему придётся доказывать, что он не просто главный по Excel в компании мечтателей об AGI.
А впереди ещё весёлые квесты:
* Дублирование талантов: два гения в одной области — минус к командной работе, плюс к интригам.
* Вечная борьба за корону: без чёткой иерархии все будут играть в «Кто здесь босс?».
* Зарплатная ревность: когда все знают, кто получает $200 млн, KPI по зависти выполняется автоматически.
Даже Майкл Делл уже намекнул, что ветераны Meta могут взбеситься от зарплатных перекосов. А Борис Гройсберг из Гарварда добавил, что вместо магии тут чаще получается «нож в спину».
Цукерберг, впрочем, спокоен: считает, что AI — «главная технология в нашей жизни» и что надо просто собрать лучших. Вопрос лишь в том, получит ли он суперкоманду или супердраму в духе корпоративного «Дома-2».
* Meta признана в России экстремистской и запрещена
@anti_agi
Марк Цукерберг решил, что если собрать в одной комнате всех лучших инженеров из OpenAI, Anthropic и DeepMind, а сверху полить это всё безлимитным бюджетом и контрактами по $200 млн, то получит Искусственный Суперинтеллект. Логика уровня: «Если смешать все супы из меню, получится суп в два раза вкуснее».
Реальность, по мнению исследователей, чуть менее розовая. Когда гениев слишком много, начинается корпоративная версия «Голодных игр»: каждый охраняет свои идеи, боится конкурентов и спорит так, что код пишут уже юристы. Это примерно как в футболе: 11 Месси на поле — и никто не защищает ворота.
Рулить этим интеллектуальным серпентарией доверили Александру Вану (28 лет, бывший CEO Scale AI) и Нэту Фридману (48 лет, бывший глава GitHub). Проблема в том, что Ван прославился не тем, что создал гениальный ИИ, а тем, что организовал армию людей для маркировки данных — то есть продавал лопаты в золотую лихорадку. Теперь ему придётся доказывать, что он не просто главный по Excel в компании мечтателей об AGI.
А впереди ещё весёлые квесты:
* Дублирование талантов: два гения в одной области — минус к командной работе, плюс к интригам.
* Вечная борьба за корону: без чёткой иерархии все будут играть в «Кто здесь босс?».
* Зарплатная ревность: когда все знают, кто получает $200 млн, KPI по зависти выполняется автоматически.
Даже Майкл Делл уже намекнул, что ветераны Meta могут взбеситься от зарплатных перекосов. А Борис Гройсберг из Гарварда добавил, что вместо магии тут чаще получается «нож в спину».
Цукерберг, впрочем, спокоен: считает, что AI — «главная технология в нашей жизни» и что надо просто собрать лучших. Вопрос лишь в том, получит ли он суперкоманду или супердраму в духе корпоративного «Дома-2».
* Meta признана в России экстремистской и запрещена
@anti_agi
Bloomberg.com
Meta’s Superintelligence Dream Team Will Be Management Challenge of the Century
Decades of research suggest that packing a team with too much genius can backfire.
👍7😁7🔥3❤1