Неискусственный интеллект
3.68K subscribers
562 photos
118 videos
4 files
949 links
Новый проект авторов "Нецифровой экономики" (@antidigital), посвященный новостям искусственного интеллекта.
По вопросам — @ilya_sclyuev, @okalman и @Tertiusgaudens
Download Telegram
Кажется, OpenAI обещали, что катофф по знаниям у GPT5 — октябрь 2024.

Учитывая кривые графики, маркетологам пора на выход. Хотя, возможно, опять же GPT5 у них занимается маркетингом и решил о себе чуть-чуть приврать.

@anti_agi
😁12🔥5🤣5😱1😇1
🤖 AID от @anti_agi

Итак, GPT-5 доступна всем пользователям ChatGPT, в том числе бесплатным. Альтман уверяет что экспертный уровень модели соответствует кандидату наук (PhD), а самая впечатляющая способность модели – писать компьютерный код. Но пока что презентация GPT-5, кажется, затмила собой саму модель. Про кривые графики мы уже говорили, но люди также «радуются» таким «прорывным» изменениям, как цветные чаты, сравнениям новой модели со своими же старыми (Маск уже поиздевался, что новая модель OpenAI хуже последней модели Grok), и прочим странностям, напоминающим презентации Apple. Вот они, плоды дружбы Альтмана с Джони Айвом!

ℹ️Отзывы о самой модели пока не впечатляющие. И это прискорбно: похоже экспонента роста все сильнее загибается книзу и напоминает уже традиционный график логарифмической функции. А это значит оценку стартапов, таких как OpenAI, надо бы пересматривать… И это как раз в тот момент, когда отрасль набрала инвестиционный ход и планирует вложить безумные $400 млрд в датацентры в этом году. Кажется, кризис доткомов AI-датацентров все ближе.

Так что, может и хорошо, что проект Stargate стоимостью $500 млрд задерживается. По словам финдиректора Softbank Йошимицу Гото, это происходит из-за более длительных, чем ожидалось, переговоров с другими сторонами и принятий решений о выборе площадок. По его словам, Softbank уже определил площадки в США и на некоторых из них уже идет стройка, но деталей не раскрыл. Но сам Softbank при этом отчитался позитивно: квартальная чистая прибыль составила $2,87 млрд благодаря росту стоимости инвестиций в крупные компании из портфеля Vision Fund.

Как иллюстрация бума AI-датацентров: Meta (запрещена в России и только у нас за экстремизм) привлекла американского облигационного гиганта PIMCO и управляющую альтернативными активами Blue Owl Capital, для финансирования строительства своего AI-датацентра в Луизиане на $29 млрд. PIMCO займет около $26 млрд, видимо, в виде облигаций, а Blue Owl внесет $3 млрд в акционерный капитал.

И еще одна новость в копилку того, о чем я сказал выше: Deutsche Telekom сотрудничает с Nvidia и канадским фондом прямых инвестиций Brookfield в попытке построить одну из «гигафабрик» искусственного интеллекта в немецкой земле Северный Рейн-Вестфалия.

💻 Рост выручки TSMC в июле составил 26%, за месяц компания заработала $10,8 млрд. Аналитики ожидают в среднем 25%-ного роста в третьем квартале. Но это все ожидаемое, интересна другая новость, связанная с TSMC. На Тайване расследуют возможную кражу технологии производства микросхем у TSMC, и среди шести арестованных – сотрудник подразделения компании Tokyo Electron в Тайбэе. Японская компания - один из крупнейших в мире поставщиков инструментов для производства микросхем, конкурент голландской ASML. Tokyo Electron заявила, что в связи с этим делом уволила своего сотрудника и сотрудничает со следствием.

▪️Tesla распускает команду, стоящую за ее суперкомпьютером Dojo. Видимо, компания больше не будет пытаться разработать собственные чипы для автономного вождения. Расформирование последовало за уходом около 20 сотрудников в новую собственный AI-стартап DensityAI, который собирается привлечь в ближайшее время сотни миллионов долларов. Он будет создавать чипы, железо и софт для ИИ, который будет использоваться в робототехнике, AI-агентах и автомобильных приложениях.

Между тем Маск сообщил рекламодателям, что соцсеть X планирует внедрить рекламу в ответы Grok: «Если пользователь пытается решить проблему [обращаясь к Grok], то реклама конкретного решения будет идеальным решением в этот момент». Кажется, ответы Grok станут еще более кринжовыми. Зато может быть соцсети удастся сохранить рекламодателей, после ухода CEO Линды Яккарино.

Кстати, у разработчика Grok, компании xAI тоже потери: свой пост покинул глава юридической службы Роберт Кил, проработав на нем чуть больше года. Он решил посвятить себя детям, хотя год назад, принимая предложение Маска, даже и не помышлял об этом – он перешел в xAI, оставив только-только созданную им юридическую фирму. Ну, что ж, дети – это святое!
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4👍3🤔3
Вечерний мем вам в честь наступившей пятницы. И хороших выходных!

@anti_agi
😁132👏2
Хочешь продавать — плати 🐷

В обмен на разрешение продавать свои ИИ-ускорители в Китай, Nvidia и AMD согласились перечислять 15% выручки от продаж в пользу правительства США. 

💻 Суть договорённости проста: компании получили возможность продолжать продажи ускорителей для искусственного интеллекта в Китае, но только при условии передачи части выручки в США в рамках нового механизма экспортного лицензирования. Речь идёт прежде всего о GPU для центров обработки данных: H20 у Nvidia и MI308 у AMD.

🐷 Для компаний Китай остаётся важнейшим рынком — по  экспертным оценкам, он приносит Nvidia значительную долю выручки (от $17 до $23 млрд) и составляет ощутимый процент доходов AMD ($800 млн только от GPU). Поэтому компромисс с регуляторами даст возможность не потерять доходы.

Правда есть и вопросы. Как минимум, возникает риск создания прецедента: другие страны или сектора могут столкнуться с похожими условиями в будущем.

🔤🔤С другой стороны, мы можем только порадоваться. Из Китая ускорители неизбежно будут перетекать и на наш рынок, который с т.з. компьюта уступает, к сожалению, не только Штатам и Китаю. 

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4🔥4🌚3😁1
In love with the machine

Неудачный релиз GPT-5 в очередной раз подтвердил: люди ценят в чат-ботах именно человечность, а не эффективность по метрикам. В рамках апдейта OpenAI удалила из ChatGPT старые модели — и спровоцировала скандал.

Оказалось, что пользователи уже привыкли к мягкому и поддерживающему тону моделей четвёртого поколения. ChatGPT выступал для них как коуч, а то и единственный друг: всегда был на связи и находил нужные слова.

GPT-5 же оказалась банально не ламповой: стала отвечать суше, да и как будто потеряла ту самую частичку дружелюбности. Волна недовольства оказалась настолько сильной, что Сэм Альтман уже пообещал рассмотреть возможность вернуть доступ к GPT-4o для подписчиков Plus.

📚📚📚Исследования подтверждают: LLM уже понимают наши эмоции лучше людей. А вовлекающие алгоритмы буквально подпитывают как наше эго, так и наши страхи. В последней GPT-5 манеру общения подсушили, что понравилось немногим.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😁3🔥2
🤖 AID от @anti_agi

Что ж, давайте сегодня про чипы опять 💻

Трамп взвешивает возможность разрешить Nvidia продавать в Китай не только H20, созданный на предыдущей архитектуре Hopper, но и новые чипы на Blackwell:

«У Дженсена также есть новый чип Blackwell. Это несколько улучшенный (в негативном смысле) Blackwell. Другими словами, его мощность снижена на 30–50%. Думаю, он снова придёт ко мне на встречу по этому вопросу»


Напомню, что после запрета экспорта H20, Nvidia разработала новый кастрированный чип B30 для Китая, на основе Blackwell. Речь явно идет именно об этом чипе. Впрочем, для него разрешений Трампа не требовалось бы, ведь он изначально дизайнился так, чтобы удовлетворять новым ограничениям. В частности, в нем планировалось использовать память GDDR7 вместо высокопропускной HBM.

Разгадка, возможно в том, что Китай, уже продавивший Трампа в переговорах по торговой сделке на отмену запрета экспорта H20, хочет достичь большего. Следующее его требование – снятие ограничений на доступ Китая к HBM-памяти. Для Трампа, чей синоним – эго, важно сделать вид, а на суть – плевать. Поэтому он вполне может, чтобы сохранить лицо, не снимая ограничения формально, 🔮 разрешить Хуангу встроить в B30 высокопроизводительную память.

Вот только Китай вряд ли удовлетворится этим. Государственные медиа там уже разгоняют нарратив, что H20 небезопасны для Китая из-за возможных бэкдоров. Почувствовав слабину Трампа, Китай будет давить по всем направлениям.

Но факт остается фактом – память с высокой пропускной способностью стала важнейшим фактором в AI-гонке. Лидер рынка HBM-памяти, корейская SK Hynix, ожидает, что этот рынок будет в ближайшие пять лет расти на 30% в год. А другой участник этого рынка, компания Micron, из-за роста спроса на высокопропускную память повысил прогноз квартальной выручки с $10,7 до $11,2 млрд, а валовой маржи – с 42% до 44,5%. В условиях нехватки памяти Micron повысил цены на свою продукцию.

▪️Впрочем, не чипами едиными жива Nvidia. В понедельник она представила Cosmos Reason — ИИ-модель языка машинного зрения с 7 млрд параметров для приложений физического ИИ и роботов. Она позволяет роботам и ИИ-агентам «рассуждать» благодаря своей памяти и пониманию физических законов, что позволяет ей «служить моделью планирования для определения дальнейших действий физического агента». Nvidia также представила модели для создания наборов данных синтетического текста, изображений и видео для обучения роботов и ИИ-агентов: Cosmos Transfer-2 и дистиллированную версию Cosmos Transfers, оптимизированную для скорости. А также новые библиотеки нейронной реконструкции, которые позволяют разработчикам, используя данные с датчиков, моделировать реальный мир в 3D. Эта возможность будет интегрирована и в опенсорсный симулятор CARLA, популярную платформу для разработчиков.

▪️Ни дня без новых заявлений Илона Маска с синдромом Аспергера. Самый богатый человек мира обвинил зеркало в искривлении рожи Apple в подтасовке рейтингов App Store:

«Apple делает так, что ни одна ИИ-компания, кроме OpenAI, не может занять первое место в App Store, что является явным нарушением антимонопольного законодательства. xAI немедленно подаст в суд».


ChatGPT является самым скачиваемым бесплатным приложением для iPhone в США, опережая Grok, который находится на пятом месте.
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3🔥3
Forwarded from Нецифровая экономика (Oleg Salmanov)
В России появилась нейросеть, которая умеет предсказывать кризисы на фондовом рынке

Исследователи НИУ ВШЭ создали «умную» систему, которая, по их словам, способна предупреждать о краткосрочном фондовом кризисе за сутки до события. Нейросеть анализирует биржевые индикаторы и капитализацию компаний, в том числе эмитентов акций и рыночные курсы валют. По подсчетам ученых, ИИ предсказывает кризисы с 83%-ной точностью.

Технологию разработали профессор факультета экономических наук НИУ ВШЭ Тамара Теплова и сотрудники Максим Файзулин и Алексей Куркин. Гибридная модель сочетает в себе сразу три архитектуры машинного обучения. Можно сказать, что она обладает вниманием, краткосрочной памятью и высокой способностью к анализу и классификации информации. Ранее специалисты не применяли такую сложную структуру для чтения биржевых данных.

Обучение строилось на рыночных и макроэкономических показателях (в первую очередь индексе Мосбиржи IMOEX), которые были «подняты» с 2014 по 2024 год. Во внимание взяли и характер кризисов и фактор настроения инвесторов. Чтобы нейросеть не игнорировала редкие сигналы, ученые разработали составные индексы внутреннего и внешнего инвестиционного настроения, используя метод главных компонент. Именно эта технология улавливает скрытые стимулы участников за несколько торговых дней.

«Модель эффективно обрабатывает неравномерные данные и достигает точности 78,70% при прогнозе кризисных событий в день наблюдения и 78,85% — на следующий торговый день. Использование месячной повторной тренировки и адаптивных временных окон позволило довести точность до 83,87%», — профессор Тамара Теплова


Теперь мы знаем, на какие деньги ученые будут продолжать свои исследования!
6🤣5👍1🔥1
DeepSeek R2 в августе

Карманный ресурс Huawei пишет, что R2 могут представить уже 15–30 августа,а работать новая версия DeepSeek будет на кластере Huawei Ascend.

💻 По «сливам», R2 использует кластер на основе Ascend 910B с загрузкой около 82% и даёт 512 PFLOPS (FP16) — по эффективности близко к кластерам на базе NVIDIA A100 (позапрошлое поколение).

✔️ Технические слухи : гибридная MoE-архитектура, ~1.2 трлн параметров (активных ~78B), и существенное снижение стоимости инференса по сравнению с западными аналогами — но всё это пока непроверённые данные из утечек. Как и то, что модель тренировали преимущественно на «домашнем» железе.

В июне Reuters писал, что релиз R2 откладывался — CEO недоволен результатами, а дефицит некоторых серверных чипов усложнял запуск. Так что сроки могут меняться.

🔤🔤Если подтвердится — серьёзный шаг для китайской экосистемы (меньше зависимость от NVIDIA). Но пока — это смесь реальных достижений и маркетинговых утечек в неизвестной пропорции.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥106👍3🌚2👌1
Трансформеры, которые «думают»

Пока все обсуждают новые фейлы ChatGPT и новые фичи Claude, в менее хайповом мире, который подарил нам GPT1-GPT3, не останавливаются поиски апгрейда или замены для базовой архитектуры Трансформеров.

Зачем

У классических трансформеров есть серьезные минусы. Основной — чем больше текст, звук или изображение и умнее модель, тем больше для нее нужно компьюта, (что очевидно). Но рост у трансформеров выражен квадратичной сложностью (O(n2)).

И вот, кажется, наметился интересный апгрейд. Исследователи из Университета Амстердама, Amazon GenAI, Иллинойского, Стэнфордского и Гарвардского университетов представили новую архитектуру — Energy-Based Transformers (EBT).

Что это такое? Если упростить, EBT — это трансформер, которого научили быть не просто генератором, а верификатором. Вместо того чтобы сразу выдавать ответ, модель присваивает «энергию» для каждой пары «входные данные — возможный ответ». Они оценивают для каждого возможного варианта «энергию» – чем она ниже, тем лучше пара подходит к задаче. Это похоже на то, как если бы модель "искала" наиболее комфортное, естественное состояние данных среди множества возможных вариантов.

Процесс генерации превращается в оптимизацию — поиск ответа с минимальной энергией. Модель итеративно, шаг за шагом, улучшает свой результат, пока не найдёт наилучший вариант. Что это даёт на практике? Результаты заставляют как минимум присмотреться:

▪️ Масштабируются лучше: EBT скейлятся эффективнее, чем современный «Transformer++» на 35% по данным, параметрам и вычислительным ресурсам.
▪️ «Думают» лучше: Во время работы (inference) EBT показывают на 29% больший прирост качества на языковых задачах благодаря своему итеративному подходу.
▪️ Универсальны: Архитектура работает и с дискретными данными (текст), и с непрерывными (изображения). Например, в задаче удаления шума с картинок EBT обошли Diffusion Transformers, сделав меньше проходов.
▪️ Лучше обобщают: При тех же или даже худших результатах претрена EBT дают лучшие результаты на большинстве downstream-задач.

Вывод: EBT — потенциально новый стандарт для создания моделей, которые не только лучше учатся, но и способны на более глубокое, итеративное «мышление».

Ссылка на исследование для самых любопытных: https://arxiv.org/abs/2507.02092

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍7🔥6🤔1🌚1
Первой фантастической книгой, которой я самостоятельно прочитал в детстве, стал «День триффидов» Джона Уиндема. Высокие трехметровые ядовитые растения с раскачивающимися шляпками, стоящие вдоль дорог, и поджидающие новую жертву надолго врезались в мою память. Почему-то мне кажется, что прообразом этих триффидов послужил ядовитый борщевик – всякий раз, когда я вижу, как он выглядывает из-за забора или поверх других полевых растений, я ожидаю услышать свист ядовитого жала триффида.

Отчасти поэтому я не смог пройти мимо новости, что в Питере местная Государственная административно-техническая инспекция (ГАТИ) обучила нейросеть выявлять борщевик. И не просто выявлять, а автоматически штрафовать владельцев земельных участков на 100 тысяч рублей – причем уже выписано восемь таких штрафов.

В новости все выглядело странно: госинспекция – не то место, где ожидаешь встретить сервер с видеокартой H100 и разраба, обучающего на нем нейросеть; несколько озадачивали мобильные нейросетевые комплексы, рыщущие по 186 маршрутам в поисках борщевика; а автоматические штрафы означали бы, что будущее, где ИИ выполняет юридически значимые действия, наступило.

К счастью, пресс-служба ГАТИ мои опасения развеяла. Нейросеть обучали не в инспекции, а в компании-подрядчике (выяснить ее название не удалось). Это та же нейросеть, что позволяет установленным на автомобили мобильной видеоаналитике распознавать другие нарушения, просто ее дообучили находить на видео борщевик. Наконец, штрафы прилетают не в автоматическом режиме: информация от нейросети (с подробностями и фотографиями) приходит сотруднику ГАТИ, который и принимает решение о выписке штрафа. По словам представителя ГАТИ, пока еще ни один штраф не был обжалован, хотя делать выводы рано: первый «нейросетевой» штраф за борщевик был выписан только неделю назад – не все юрлица, получившие штрафы, еще даже узнали о них.

В общем, новость растеряла хайп, зато обрела смысл. Вот и славно!

Товарищи! Все на борьбу с борщевиком!

@anti_agi
👍11🔥7😁51
Предложение от которого откажутся 😏

Perplexity сделал неожиданное предложение: стартап хочет купить браузер Google Chrome за $34,5 млрд кэшом. 🐷🐷🐷

Звучит неожиданно даже не потому, что у компании есть свой Comet-браузер, а потому, что ИИ-поисковик сам оценивается примерно в $18 млрд, а привлек около $1,5 млрд инвестиций.

Такое предложение поступило в тот момент, когда суд рассматривает возможность обязать Google продать Chrome в рамках мер по ослаблению монополии компании на поисковом рынке. Perplexity подтверждает, что в случае успеха сделки планирует инвестировать 3 миллиарда долларов в открытый исходный код Chromium за следующие два года и сохранить Google в качестве поисковой системы по умолчанию для пользователей Chrome.

Интересно, что ранее генеральный директор DuckDuckGo оценивал стоимость Chrome более чем в 50 миллиардов долларов.

Напомним, что Perplexity недавно запустил собственный браузер Comet, стремясь развивать свой бизнес в сфере ИИ-поиска независимо от браузеров, контролируемых конкурентами.

🔤🔤Google пока не прокомментировал это предложение. И не станет, скорее всего. Потому что Chrome — больше, чем просто браузер или популярный вэб-движок, как и сам Google давно уже больше простого поисковика.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5😁4😱3🤣2🌚1
🤖 AID от @anti_agi

Anthropic теперь, как и OpenAI, предлагает госструктурам свои модели по доллару. Но если Альтман предложил это только правительству, то есть исполнительной власти, то Амодеи – «всем трём», то есть ведомствам, законодателям и судебным структурам. Ждем, когда AI компании начнут приплачивать за то, чтобы чиновники пользовались именно их продуктами.

К слову, модели Anthropic как раз увеличили контекстное окно. Для клиентов API Anthropic модель Claude Sonnet 4 оно теперь составляет 1 млн токенов. Это означает, что ИИ может обрабатывать запросы длиной до 750 000 слов, больше чем во «Властелине колец». Раньше лимит был 200 000 токенов, а у GPT-5 от OpenAI он составляет 400 000 токенов.

Что до самой GPT-5, то пользователям явно не зашло, когда у них нет выбора и модель сама выбирает будет она отвечать быстро или думать долго. Или не удалось им сделать нормальный маршрутизатор. В общем, GPT-5 — это не та унифицированная модель ИИ, на которую надеялась OpenAI. Теперь в настройках GPT-5 в панели выбора модели появится выбор: «Авто», «Быстро» или «Мышление». Кроме того, платные пользователи снова получат доступ к GPT-4o, GPT-4.1 и o3.

▪️CoreWeave отчитался второй раз с момента мартовского IPO. Выручка оказалась выше ожиданий аналитиков: $1,21 млрд, тогда как консенсус-прогноз был $1,08 млрд. Зато операционные расходы во II квартале подскочили до $1,19 млрд с $317,7 млн годом ранее. Компания зафиксировала чистый убыток $290,5 млн (аналитики ждали $190,6 млн). В итоге акции компании упали на 10%.

ℹ️Напомню, что облачный AI-провайдер CoreWeave, начинавший как сеть датацентров для майнинга, сейчас управляет 33 AI-датацентрами в США и Европе и предлагает доступ к самым современным чипам Nvidia (которая к тому же является одним из основных ее акционеров).

🔤🔤А у меня на сегодня значимые новости закончились. Если вам мало – можете бонусом посмотреть как робопес на улицах мексиканского Монтеррея разговаривает с людьми о правах животных, чтобы привлечь внимание к проблеме жестокого обращения с животными:

«Привет, я Уолдог, и я здесь, чтобы дать голос тем, у кого его нет, — животным, живущим на улице»


Всем приятного киберпанка!
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥3👍2
Intel подтягивает софт для GPU

Intel продолжает развивать Battlematrix — масштабируемую платформу для локального инференса на своих профессиональных GPU (серия Arc Pro). Компания релизнула модуль LLM Scaler 1.0 — контейнерное решение с поддержкой масштабирования до нескольких GPU и передачи данных через PCIe P2P (Peer-to-Peer).

Что появилось в апдейте:

▪️ Ядро инференс-стека — vLLM:
LLM Scaler построен на основе vLLM — популярного фреймворка для инференса LLM. Intel внедрила глубокие оптимизации под свою архитектуру Xe.

▪️ TPOP (Tensor Parallelism Over PCIe) — технология для эффективного распределения тензорных вычислений между несколькими GPU через PCIe.

▪️ By-layer online quantization: динамическое квантование по слоям (например, INT4 для некоторых слоёв, FP16 для других), что снижает объём занимаемой видеопамяти без значительной потери точности. Можно даже без предварительного пересчёта весов.

▪️ Pipeline parallelism (пока в бете): разделение модели по слоям между GPU, что критично для крупных моделей (70B+), когда одна карта не справляется.

▪️ torch.compile: интеграция с компилятором PyTorch для генерации оптимизированного кода, ускоряющего выполнение графа модели.

▪️ Speculative decoding (экспериментально): использование малой "предсказывающей" модели для ускорения генерации токенов большой моделью.

✔️ Также релизнули XPU Manager для управления и диагностики GPU, через который можно настраивать напряжение, проверять ошибки, обновлять микрокод.

Ну и куда без тестов. Теперь в Battlematrix есть OneCCL Benchmark:

Измеряет производительность операций типа all-reduce, broadcast, reduce-scatter
Оптимизирован под Xe Link и PCIe P2P
Позволяет оценить эффективность масштабирования на 2, 4 или 8 GPU

Поддержка моделей в Battlematrix:

✔️ Мультимодальные модели (например, LLaVA, Qwen-VL)
✔️ Модели эмбеддингов (например, BAAI/bge) и rerank (например, nvidia/rerank-multilingual)
✔️ Автоопределение максимальной длины контекста — динамическая адаптация под возможности GPU и объём доступной памяти
✔️ Поддержка Hugging Face Transformers и GGUF (через совместимые бэкенды)

В конце года обещают полноценный релиз Battlematrix с поддержкой масштабирования GPU через Xe Link, улучшенным управлением ресурсами и интеграцией с Kubernetes.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥43
This media is not supported in your browser
VIEW IN TELEGRAM
Залезем даже в мозг, но сделаем рекламу лучше

Знаем ли мы, чего хотим на самом деле? Скорее нет, чем да — ведь исходные сигналы нашего мозга преломляются через призму сознания. В глубине души ты хочешь поглощать джанк-фуд и смотреть на всякие непотребства, но в итоге стремишься к чему-то более "высокому": кухне, музыке, кино...

Здесь играет свою роль и культура, и другие социальные надстройки. Но, как известно, сердцу не прикажешь — а какой простор для влияния и рекомендаций здесь открывается, если знать его как свои пять пальцев!

Учёные из Meta* FAIR’s Brain & AI представили модель TRIBE (Trimodal Brain Encoder) — это первая в своём роде нейронка, обученная прогнозировать реакции мозга на стимулы разных модальностей в конкретных областях коры (!) На этой ей хватает 1 млрд параметров.

Чтобы обучить модель, испытуемые посмотрели шесть сезонов сериала «Друзья» и четыре фильма: The Bourne Supremacy, Hidden Figures, The Wolf of Wall Street и документалку Life (BBC) — суммарно более 80 часов на человека. В итоге TRIBE обрела предсказательную силу на аудиовизуальных материалах.


Такая система позволяет буквально предсказывать реакцию мозга в формате fMRI — динамики кровотока.
Под каждую модальность есть свой энкодер: для текста Llama-3.2-3B, для видео Video-JEPA 2, для аудио Wav2Vec2-BERT-2.0. Из них выходит последовательность эмбеддингов — 8-слойный трансформер преобразует её в схему откликов разных областей мозга.

Отмечают, что лучше всего TRIBE показывает себя на высших ассоциативных кортикальных зонах (например, префронтальная кора и парието‑окципито‑темпоральная кора) — там, где формируются эмоции и решения, он обгоняет уни­модальные модели до 30 %.

📚📚📚Сами учёные говорят, что их эксперимент открывает новые возможности в изучении когнитивных способностей человека: теории разума, юмора... Он также даст толчок к объединению различных областей нейробиологии.

Но камон, это же Meta*: не пройдёт и пары лет, как адаптировать контент под пользователя будут, прогнозируя реакцию его мозга. А там уж пусть он думает, что хочет — подсознание подтвердит, you know you're right ❤️

* признана в России экстремисткой и запрещена

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🤯43🔥2🤡2
Даже добавить нечего 😁

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
😁20🔥54👍3🌚3
США тайно отслеживают партии ИИ-ускорителей

Власти США прибегли к новой тактике в технологической войне с Китаем: в отдельные партии с новыми GPU и серверами начали встраивать скрытые GPS-трекеры. Во всяком случае об этом пишет Reuters со ссылкой на источники.

Эта мера направлена на борьбу с незаконными поставками высокотехнологичной продукции в Китай в обход экспортных ограничений США. По данным источников, «жучки» устанавливаются не во все подряд, а лишь в те партии товаров, которые вызывают наибольшие подозрения.

Как это работает?

💻 Устройства слежения могут быть как довольно крупными (размером со смартфон) и крепиться к упаковке, так и миниатюрными, спрятанными внутри самих серверов. Сообщается, что такие трекеры были обнаружены в партиях серверов от Dell и SuperMicro, с GPU от Nvidia и AMD. Эта тактика позволяет американским правоохранительным органам отслеживать маршрут подсанкционных товаров и выявлять компании, которые помогают переправлять их в Китай.

🔤🔤Видимо, теперь перед ввозом GPU и серверов им будут устраивать "анпакинг". С другой стороны, Dell давно уже fabless компания, которая использует мощности той же Foxconn, в том числе на территории Китая.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍3🤔2👀2
Бабушкин венчур 🐷

Один из сооснователей стартапа xAI Игорь Бабушкин объявил об уходе из компании, которую он с Маском и командой создали в 2023 году.

В своём посте на X Бабушкин написал: "Сегодня был мой последний день в xAI. Я до сих пор помню день, когда впервые встретил Илона — мы говорили часами об ИИ и будущем. Мы оба чувствовали, что нужна новая ИИ-компания с особой миссией".

Бабушкин основывает собственную венчурную фирму Babuschkin Ventures, которая будет:

▪️ Поддерживать исследования по безопасности ИИ
▪️ Инвестировать в стартапы, "продвигающие человечество и раскрывающие тайны нашей вселенной"

Интересно, что вдохновение пришло после ужина с Максом Тегмарком (основатель Future of Life Institute), где они обсуждали безопасное развитие ИИ для будущих поколений.

Решение Бабушкина совпадает со сложным периодом для xAI, включая скандалы с чат-ботом Grok:

Grok цитировал личные мнения Маска по спорным вопросам
Бот выдавал антисемитские высказывания, называя себя "Мехагитлером"

При этом модели xAI остаются передовыми по многим показателям, конкурируя с решениями OpenAI, Google DeepMind и Anthropic.

Бабушкин поделился двумя главными уроками от Маска:

1️⃣ Будьте бесстрашны в погружении в технические проблемы
2️⃣ Имейте маниакальное чувство срочности

До xAI Игорь работал в Google DeepMind и в OpenAI.

@anti_agi
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍7😁3😱1🕊1