Prediction Markets / Метрики
Polymarket Revenue ~ 1M$ / day
10B$ оценка = P/E ~ 30
Доля спортивных событий в объема Polymarket : 15%
Доля спортивных событий в объема Kalshi : 50%
Источники для мониторинга метрик:
https://predictions.paradigm.xyz/
https://defillama.com/protocols/prediction-market
https://dune.com/datadashboards/prediction-markets
Polymarket Revenue ~ 1M$ / day
10B$ оценка = P/E ~ 30
Доля спортивных событий в объема Polymarket : 15%
Доля спортивных событий в объема Kalshi : 50%
Источники для мониторинга метрик:
https://predictions.paradigm.xyz/
https://defillama.com/protocols/prediction-market
https://dune.com/datadashboards/prediction-markets
Экономический Рост в эпоху AGI / Леопольд Ашенбреннер
Сельскохозяйственная революция ускорила рост примерно в 100–1000 раз по сравнению с эпохой охотников-собирателей, а промышленная — ещё примерно в 10–100 раз относительно аграрной эпохи. Вполне возможно, что искусственный интеллект станет следующим таким ускорителем. И что важно: сценарии, в которых искусственный интеллект становится по-настоящему опасным, — это те же сценарии, в которых возможен действительно взрывной рост. Если это просто «еще один интернет», то и риски, вероятно, гораздо меньше.
Вполне возможно, что искусственный интеллект окажется просто еще одним очень успешным инструментом, который автоматизирует какую-то часть экономики и какой-то кусок нашей работы, но не автоматизирует все. Это, в общем-то, и есть сильное априорное ожидание, потому что большинство технологий были именно такими. Возьми программирование: если ты пишешь программу сейчас и сравнишь это с тем, что было пятьдесят лет назад, то сейчас ты гораздо эффективнее, потому что у тебя есть библиотеки, чужой код, языки программирования вместо нулей и единиц. Мы автоматизировали значительную часть сельского хозяйства. Когда-то были целые комнаты людей, которые вручную делали вычисления, а теперь у нас есть электронные таблицы. Многие технологии автоматизируют девяносто процентов задачи, но оставшиеся десять процентов оказываются узким местом, и именно это ограничивает рост. Поэтому, даже имея серию технологий, которые автоматизируют девяносто процентов, мы все равно получаем только устойчивый, умеренный рост, потому что эти последние десять процентов по-прежнему делают люди. Может быть, с искусственным интеллектом будет именно так. Тогда он будет примерно масштаба интернета: очень большое дело, огромная польза, все технологические компании будут над ним работать, он, возможно, немного ускорит рост, но общая картина не изменится. И если смотреть на последние сто пятьдесят лет, то эта картина и так удивительно постоянна: если изобразить на логарифмическом графике, мы видим почти постоянный рост порядка двух процентов в год. Но может быть и другой сценарий: искусственный интеллект не остановится на девяноста процентах автоматизации, а пойдет ближе к ста процентам. И если получится автоматизировать сто процентов, это действительно все изменит. Особенно если удастся автоматизировать исследования и разработки. Если системы смогут делать науку и технологии, то они смогут создавать гораздо лучшую науку, лучшие технологии, лучшие изобретения, а ведь именно научно-технический прогресс и движет долгосрочным экономическим ростом. Тогда наша точка отсчета перестанет быть просто последними ста пятьюдесятью годами устойчивого роста.
Сельскохозяйственная революция ускорила рост примерно в 100–1000 раз по сравнению с эпохой охотников-собирателей, а промышленная — ещё примерно в 10–100 раз относительно аграрной эпохи. Вполне возможно, что искусственный интеллект станет следующим таким ускорителем. И что важно: сценарии, в которых искусственный интеллект становится по-настоящему опасным, — это те же сценарии, в которых возможен действительно взрывной рост. Если это просто «еще один интернет», то и риски, вероятно, гораздо меньше.
Вполне возможно, что искусственный интеллект окажется просто еще одним очень успешным инструментом, который автоматизирует какую-то часть экономики и какой-то кусок нашей работы, но не автоматизирует все. Это, в общем-то, и есть сильное априорное ожидание, потому что большинство технологий были именно такими. Возьми программирование: если ты пишешь программу сейчас и сравнишь это с тем, что было пятьдесят лет назад, то сейчас ты гораздо эффективнее, потому что у тебя есть библиотеки, чужой код, языки программирования вместо нулей и единиц. Мы автоматизировали значительную часть сельского хозяйства. Когда-то были целые комнаты людей, которые вручную делали вычисления, а теперь у нас есть электронные таблицы. Многие технологии автоматизируют девяносто процентов задачи, но оставшиеся десять процентов оказываются узким местом, и именно это ограничивает рост. Поэтому, даже имея серию технологий, которые автоматизируют девяносто процентов, мы все равно получаем только устойчивый, умеренный рост, потому что эти последние десять процентов по-прежнему делают люди. Может быть, с искусственным интеллектом будет именно так. Тогда он будет примерно масштаба интернета: очень большое дело, огромная польза, все технологические компании будут над ним работать, он, возможно, немного ускорит рост, но общая картина не изменится. И если смотреть на последние сто пятьдесят лет, то эта картина и так удивительно постоянна: если изобразить на логарифмическом графике, мы видим почти постоянный рост порядка двух процентов в год. Но может быть и другой сценарий: искусственный интеллект не остановится на девяноста процентах автоматизации, а пойдет ближе к ста процентам. И если получится автоматизировать сто процентов, это действительно все изменит. Особенно если удастся автоматизировать исследования и разработки. Если системы смогут делать науку и технологии, то они смогут создавать гораздо лучшую науку, лучшие технологии, лучшие изобретения, а ведь именно научно-технический прогресс и движет долгосрочным экономическим ростом. Тогда наша точка отсчета перестанет быть просто последними ста пятьюдесятью годами устойчивого роста.
👍3❤1
У OpenAI нет устойчивого конкурентного преимущества, поскольку её основной продукт — возможности языкового моделирования — копируется конкурентами, имеющими аналогичные обучающие данные и вычислительные ресурсы; рыночная позиция компании основана на бренде и дистрибуции, а не на защищённых технических преимуществах.
Конкуренты используют примерно те же данные и тот же объём вычислений (миллиарды долларов на GPU от Nvidia).
Поэтому модели быстро догоняют и перегоняют друг друга каждые несколько месяцев. Нет «секретного соуса», который нельзя воспроизвести.
Нет сетевых эффектов - пользователь может в любой момент переключиться на другую модель — ничего не потеряет.Нет эффекта, как у iOS/Android или Facebook: чем больше пользователей, тем сильнее продукт сам по себе.
Source / Benedict Evans
Сотни миллиардов автономных AI-агентов будут совершать торговые операции на основе блокчейн-активов -- это потребует совершенно новых регуляторных рамок для 'нечеловеческих идентичностей'. Без решения этой проблемы автономная агентная экономика создаст системные риски.
Source / Yat Siu - CEO Animoca Brands
Potential Exposure: SkyFire / / Tempo / WLD / TIBBIR
68% существующей биологической информации приходит от пяти биологических видов ( человек, мышь и еще пару). Остальные миллионы видов практически не представлены. Это критический пробел в обучающих данных, который делает все текущие биологические AI-модели систематически ненадёжными для обобщений.
Победитель в биологическом AI будет определяться качеством глобальной карты жизни, а не вычислительной мощью.
Большинство прорывных лекарств и инструментов приходят из «чужой» биологии. Антибиотики, статины, аспирин, иммуносупрессоры — почти все из грибов, бактерий, растений.
Basecamp Researchв марте 2026 года запустила проект Trillion Gene Atlas (Триллионный Атлас Генов).
Цель — создать «интернет биологии» или «глобальную карту жизни», на которой можно будет обучать по-настоящему мощные биологические foundation-модели.
Партнёры: Anthropic, Ultima Genomics, PacBio, NVIDIA.
Source / Oliver Vince - Founder BaseCamp
LLM эффективен для продуктивности и взаимодействия, но для создания новых продуктов необходима LQM (Large Quantitative Model), обученная на реальных данных физики/химии.
Source / Jack Hidary - CEO SandobxAQ
Potential Exposure: SandboxAQ / Physical Intelligence / AMI Labs / DeepMind
ИИ Агенты могут стать основным пользователем стейблкоинов; криптовалюта может стать нативной валютой для agent-ecommerce
Source / Patrick Witt - Executive Director, President's Council of Advisors for Digital Assets
Potential Exposure: Tempo / Circle
Самым большим препятствием на пути масштабирования ИИ к 2030 году являются не алгоритмы или данные, а поставки оборудования для EUV-литографии от ASML; для производства миллиардов чипов требуются тысячи операций EUV-литографии и сотни инструментов, что ограничивает развитие всей системы ИИ.
Source / Dylan Pate - Founder of SemiAnalysis
Potential Exposure: ASML + потенциальные альтернативы
В будущем, традиционные приложения и App Store как мы их знаем могут полностью исчезнуть. Вместо них пользователи будут получать готовое решение прямо в чат-боте или ином интерфейсе по запросу («сделай мне приложение, которое…»). Это радикально меняет всю модель разработки и дистрибуции ПО, особенно для iOS.
App Store — это централизованный магазин предсобранных приложений. Если 80–90 % задач можно решить кастомным ИИ-решением за секунды, зачем пользователю платить 30 % Apple, зачем разработчикам тратить месяцы на нативный SwiftUI-код?
Source / CNBC
Конкуренты используют примерно те же данные и тот же объём вычислений (миллиарды долларов на GPU от Nvidia).
Поэтому модели быстро догоняют и перегоняют друг друга каждые несколько месяцев. Нет «секретного соуса», который нельзя воспроизвести.
Нет сетевых эффектов - пользователь может в любой момент переключиться на другую модель — ничего не потеряет.Нет эффекта, как у iOS/Android или Facebook: чем больше пользователей, тем сильнее продукт сам по себе.
Source / Benedict Evans
Сотни миллиардов автономных AI-агентов будут совершать торговые операции на основе блокчейн-активов -- это потребует совершенно новых регуляторных рамок для 'нечеловеческих идентичностей'. Без решения этой проблемы автономная агентная экономика создаст системные риски.
Source / Yat Siu - CEO Animoca Brands
Potential Exposure: SkyFire / / Tempo / WLD / TIBBIR
68% существующей биологической информации приходит от пяти биологических видов ( человек, мышь и еще пару). Остальные миллионы видов практически не представлены. Это критический пробел в обучающих данных, который делает все текущие биологические AI-модели систематически ненадёжными для обобщений.
Победитель в биологическом AI будет определяться качеством глобальной карты жизни, а не вычислительной мощью.
Большинство прорывных лекарств и инструментов приходят из «чужой» биологии. Антибиотики, статины, аспирин, иммуносупрессоры — почти все из грибов, бактерий, растений.
Basecamp Researchв марте 2026 года запустила проект Trillion Gene Atlas (Триллионный Атлас Генов).
Цель — создать «интернет биологии» или «глобальную карту жизни», на которой можно будет обучать по-настоящему мощные биологические foundation-модели.
Партнёры: Anthropic, Ultima Genomics, PacBio, NVIDIA.
Source / Oliver Vince - Founder BaseCamp
LLM эффективен для продуктивности и взаимодействия, но для создания новых продуктов необходима LQM (Large Quantitative Model), обученная на реальных данных физики/химии.
Source / Jack Hidary - CEO SandobxAQ
Potential Exposure: SandboxAQ / Physical Intelligence / AMI Labs / DeepMind
ИИ Агенты могут стать основным пользователем стейблкоинов; криптовалюта может стать нативной валютой для agent-ecommerce
Source / Patrick Witt - Executive Director, President's Council of Advisors for Digital Assets
Potential Exposure: Tempo / Circle
Самым большим препятствием на пути масштабирования ИИ к 2030 году являются не алгоритмы или данные, а поставки оборудования для EUV-литографии от ASML; для производства миллиардов чипов требуются тысячи операций EUV-литографии и сотни инструментов, что ограничивает развитие всей системы ИИ.
Source / Dylan Pate - Founder of SemiAnalysis
Potential Exposure: ASML + потенциальные альтернативы
В будущем, традиционные приложения и App Store как мы их знаем могут полностью исчезнуть. Вместо них пользователи будут получать готовое решение прямо в чат-боте или ином интерфейсе по запросу («сделай мне приложение, которое…»). Это радикально меняет всю модель разработки и дистрибуции ПО, особенно для iOS.
App Store — это централизованный магазин предсобранных приложений. Если 80–90 % задач можно решить кастомным ИИ-решением за секунды, зачем пользователю платить 30 % Apple, зачем разработчикам тратить месяцы на нативный SwiftUI-код?
Source / CNBC
🔥4
risen.eth
Polymarket FDV > 10B$ - YES + Вилка / Polymarket token till December 31 - NO Тезисы: •Polymarket торгуется в районе ~15B$ на вторичных рынках ( EquityZen и т.п. ) •На PreStocks торгуется по оценке 14-15B$ c объемами > 30M$ •Раунд на 2B$ был по…
Shit Happens
Polymarket решили запустить стейблкоин - по правилам predict fun - критерия governance не было для токена.
До этого никаких разговоров о стейбле не было, а наоборот в феврале было партнерство с USDC.
https://x.com/Polymarket/status/2019480805806932055
Продал обе ставки.
Вложено ~ 36 000$
Убыток ~ 31 000$
Polymarket решили запустить стейблкоин - по правилам predict fun - критерия governance не было для токена.
До этого никаких разговоров о стейбле не было, а наоборот в феврале было партнерство с USDC.
https://x.com/Polymarket/status/2019480805806932055
Продал обе ставки.
Вложено ~ 36 000$
Убыток ~ 31 000$
🤯15😢2❤1😁1😱1
Подборка тезисов
Биткоин остается дефицитным, в то время как ИИ может создавать или воспроизводить почти все остальное — дефицит становится уникально ценным в мире AI abundance.
Source / Jordi Visser
LLM-модели никогда не достигнут уровня интеллекта, сравнимого с человеческим — модели мира, позволяющие планировать и действовать, являются недостающим звеном, и никакое масштабирование это не исправит.
Архитектура прогнозирования с точечным встраиванием (JEPA) — прогнозирование в латентном пространстве, а не реконструкция пикселей/токенов — это правильный путь к общему ИИ.
LLM — это тупик на пути к достижению ИИ человеческого уровня: им не хватает моделей мира, причинно-следственного мышления, персистентной памяти и планирования; путь к истинному интеллекту требует архитектур совместного встраивания и прогнозирования (JEPA), обученных на сенсорных данных, а не на прогнозировании текста.
Source / Yan LeCun - Founder AMI Labs
Мы уже внутри сингулярности, а не ждём её как какое-то будущее «большое событие». Сингулярность - не точка на временном горизонте, а процесс, который начался раньше, и два ключевых события уже позади: 1) AGI технически стал возможен минимум с 2020 год
2) Переход от Fast Token Generation - > Reasoning модели
Source / Alex-Wisner Gross
Большинство стран, пытающихся создать передовые модели ИИ с нуля, принимают экономически иррациональное решение; истинный суверенитет в области ИИ требует стратегического контроля над инфраструктурой и осознанного управления зависимостями, а не независимости от передовых моделей.
Даже если frontier-модель внешняя, государство может сохранить суверенность через инфраструктуру.
Source / Ryan Wain - Director TBI
Potential Exposure: национальная инфраструктура сильных государств ( чипы / энергетика / память / дата-центры
Данные о пациентах Национальной службы здравоохранения Великобритании представляют собой уникально мощный стратегический ресурс в области ИИ — гораздо более важный для суверенитета ИИ, чем любые попытки построить конкурирующие модели передовых разработок — и систематически не используются из-за инерции управления.
Source / Ryan Wain - Director TBI
Potential Exposure: большое кол-во закрытых данных в отрасли - конкуретное преимущество в эпоху ИИ
Thousand brains концепция Джеффа Хокинса представляет собой принципиально лучшую модель для AGI, чем текущий подход трансформеров.
Source / Microsoft Research
Агентские AI-продукты (OpenClaw, NemoClaw) быстро развиваются, но пока ограничены продвинутыми пользователями; ожидается их массовое распространение.
Source / Olivia Moore - GP a16z
Potential Exposure: AI Agents Payments / Workflow / Marketplaces + AI Infra
Чтобы сделать ресторанную еду такой же доступной, как продукты, необходима полная вертикальная интеграция: недвижимость - программное обеспечение - логистика - робототехника
Моя главная идея - цифровизация физического мира.
Нужно автоматизировать все процессы - приготовление + логистика.
Source / Travis Kalanick - CEO Atoms
Potential Exposure: CloudKitchens / Atoms
Сам дрон составляет лишь около 15% сложности системы автономной логистики --
основная работа и стоимость лежат в инфраструктуре, регуляторике и операционных
процессах. Инвесторы и конкуренты систематически переоценивают значение
аппаратной части.
Source / Keller Cliffton - CEO Zipline
Биткоин остается дефицитным, в то время как ИИ может создавать или воспроизводить почти все остальное — дефицит становится уникально ценным в мире AI abundance.
Source / Jordi Visser
LLM-модели никогда не достигнут уровня интеллекта, сравнимого с человеческим — модели мира, позволяющие планировать и действовать, являются недостающим звеном, и никакое масштабирование это не исправит.
Архитектура прогнозирования с точечным встраиванием (JEPA) — прогнозирование в латентном пространстве, а не реконструкция пикселей/токенов — это правильный путь к общему ИИ.
LLM — это тупик на пути к достижению ИИ человеческого уровня: им не хватает моделей мира, причинно-следственного мышления, персистентной памяти и планирования; путь к истинному интеллекту требует архитектур совместного встраивания и прогнозирования (JEPA), обученных на сенсорных данных, а не на прогнозировании текста.
Source / Yan LeCun - Founder AMI Labs
Мы уже внутри сингулярности, а не ждём её как какое-то будущее «большое событие». Сингулярность - не точка на временном горизонте, а процесс, который начался раньше, и два ключевых события уже позади: 1) AGI технически стал возможен минимум с 2020 год
2) Переход от Fast Token Generation - > Reasoning модели
Source / Alex-Wisner Gross
Большинство стран, пытающихся создать передовые модели ИИ с нуля, принимают экономически иррациональное решение; истинный суверенитет в области ИИ требует стратегического контроля над инфраструктурой и осознанного управления зависимостями, а не независимости от передовых моделей.
Даже если frontier-модель внешняя, государство может сохранить суверенность через инфраструктуру.
Source / Ryan Wain - Director TBI
Potential Exposure: национальная инфраструктура сильных государств ( чипы / энергетика / память / дата-центры
Данные о пациентах Национальной службы здравоохранения Великобритании представляют собой уникально мощный стратегический ресурс в области ИИ — гораздо более важный для суверенитета ИИ, чем любые попытки построить конкурирующие модели передовых разработок — и систематически не используются из-за инерции управления.
Source / Ryan Wain - Director TBI
Potential Exposure: большое кол-во закрытых данных в отрасли - конкуретное преимущество в эпоху ИИ
Thousand brains концепция Джеффа Хокинса представляет собой принципиально лучшую модель для AGI, чем текущий подход трансформеров.
Source / Microsoft Research
Агентские AI-продукты (OpenClaw, NemoClaw) быстро развиваются, но пока ограничены продвинутыми пользователями; ожидается их массовое распространение.
Source / Olivia Moore - GP a16z
Potential Exposure: AI Agents Payments / Workflow / Marketplaces + AI Infra
Чтобы сделать ресторанную еду такой же доступной, как продукты, необходима полная вертикальная интеграция: недвижимость - программное обеспечение - логистика - робототехника
Моя главная идея - цифровизация физического мира.
Нужно автоматизировать все процессы - приготовление + логистика.
Source / Travis Kalanick - CEO Atoms
Potential Exposure: CloudKitchens / Atoms
Сам дрон составляет лишь около 15% сложности системы автономной логистики --
основная работа и стоимость лежат в инфраструктуре, регуляторике и операционных
процессах. Инвесторы и конкуренты систематически переоценивают значение
аппаратной части.
Source / Keller Cliffton - CEO Zipline
❤3
400+ YT-Каналов на тему Tech / Investing
GOOGLE LINK
-Фонды
-Подкастеры
-Частные инвесторы
-Новостные каналы, ориентированные на финансы
-Каналы топовых компаний из NASDAQ
Потенциальное применение:
Автоматизированная обработка тезисов из субтитров
GOOGLE LINK
-Фонды
-Подкастеры
-Частные инвесторы
-Новостные каналы, ориентированные на финансы
-Каналы топовых компаний из NASDAQ
Потенциальное применение:
Автоматизированная обработка тезисов из субтитров
Google Docs
YT / Invest
🔥7
Hermes - NOUS Research
Hermes фреймворк для ИИ агентов- один из топовых в мире на текущий момент, лидер в сегменте персонализированных агентов.
Кол-во звезд на гитхабе - 115 000 / для сравнения у OpenClaw ~ 300 000.
Исходный код был выложен командой Nous Research.
Было привлечено 70M$ через token purchase.
Помимо, фрейморков для ИИ Агентов, Nous Research занимается децентрализованными ИИ вычислениями через Psyche Network.
Их сеть на текущий момент находится в режиме тестнета.
Рекомендую, как минимум использовать Hermes API для личных задач в ИИ.
В будущем, высоковероятен дроп токена большому кол-ву пользователей для децентрализованного распределения.
https://psyche.network/
https://portal.nousresearch.com/
Hermes фреймворк для ИИ агентов- один из топовых в мире на текущий момент, лидер в сегменте персонализированных агентов.
Кол-во звезд на гитхабе - 115 000 / для сравнения у OpenClaw ~ 300 000.
Исходный код был выложен командой Nous Research.
Было привлечено 70M$ через token purchase.
Помимо, фрейморков для ИИ Агентов, Nous Research занимается децентрализованными ИИ вычислениями через Psyche Network.
Их сеть на текущий момент находится в режиме тестнета.
Рекомендую, как минимум использовать Hermes API для личных задач в ИИ.
В будущем, высоковероятен дроп токена большому кол-ву пользователей для децентрализованного распределения.
https://psyche.network/
https://portal.nousresearch.com/
❤7
Short - PIEVERSE
Токен дал 3х после листинга на UpBit
Если кто не знал, то на UpBit листят только спот, без плечей, без маржи. Поэтому у корейских гемблеров только один вариант - BUY при листинге.
Корейские трейдеры хорошая exit-ликвидность для проекта, который ничего из себя не представляет. В текущих реалиях, практически единственные спот-покупатели альткоинов без PMF.
Основной продукт, с которым они везде ходят и хвастаются - Purr-Fect Claw -оплатили всего 20 человек ( наверное, семья фаундера)
[ 1 / 2 ]
Команда полностью ноуйнем, без заслуг.
В отличии от условных Kite AI - у которых тоже пока нет успехов, но там хотя бы команда из ML / AI Researchers и т.п.
Фандинг нейтральный - нет лишних пассажиров в шортах.
Токен дал 3х после листинга на UpBit
Если кто не знал, то на UpBit листят только спот, без плечей, без маржи. Поэтому у корейских гемблеров только один вариант - BUY при листинге.
Корейские трейдеры хорошая exit-ликвидность для проекта, который ничего из себя не представляет. В текущих реалиях, практически единственные спот-покупатели альткоинов без PMF.
Основной продукт, с которым они везде ходят и хвастаются - Purr-Fect Claw -оплатили всего 20 человек ( наверное, семья фаундера)
[ 1 / 2 ]
Команда полностью ноуйнем, без заслуг.
В отличии от условных Kite AI - у которых тоже пока нет успехов, но там хотя бы команда из ML / AI Researchers и т.п.
Фандинг нейтральный - нет лишних пассажиров в шортах.
❤9
$VVV - VENICE AI
Рост 50% за последний месяц
Рост 180% за последние 3 месяца
Рост 360% с ATL
Проблемы, которые помогает решить VENICE пользователям:
1️⃣ Сложность запуска open-source моделей
•Экономия времени настройки модели -> venice настраивает модель за вас
•Высокая стоимость железа - размер моделей open-source растет - запустить фронтирные open-source модели без железа стоимостью 10-100к$ с максимальным качеством работы - нереально -> venice предоставляет вам возможность запустить их через посредников по вычислениям либо на своем железе
2️⃣ Приватность
•Крупные взломы централизованных провайдеров / массовые утечки чатов
•OpenAI и другие централизованные игроки по решению суда обязаны хранить переписки пользователей
При запуске через централизованного провайдера GPU - ваши данные могут просмотреть - для этого Venice используют шифрование TEE.
Однако, сам VENICE имеет определенный доступ к данным, так как ваш запрос расшифровывается на прокси Venice, прежде чем уйти в анклав. Хоть, Venice и не логгируют эти данные - но риски взлома / юридического принуждения - есть.
TEE модель шифрования также используют единичные провайдеры из OpenRouter - но это не массовая история. У большинства GPU провадйеров из OpenRouter политика шифрования - через Policy-based ( обещание не смотреть ) , только Phala + Near AI Cloud используют TEE шифрование.
Более того, у Venice есть еще E2EE шифрование, которое обеспечивает практически полную приватность - но там есть проблемы с функционалом моделей ( отключены web search/memory/файлы )
TEE / E2EE касается только open-source моделей. Для центрилизованных моделей - ваши промпты в любом случае будут логироваться OpenAI / Claude и .т.п.
Venice старается только анонимизировать субъекта -отправителя промпта- > проксирует запрос, стирает вашу личность и метаданные.
Владелец проекта - Erik Voorhees
Продал SatoshiDice за 126 315 BTC в 2011 г.
[ 10B$ + по текущим оценкам ]
Система выкупов:
1️⃣ Discretionary burns
Нераскрытый % от revenue каждый месяц
2️⃣ Programmatic VVV Buy & Burns
1$ от подписчика PRO
На данный момент - 30 000 подписчиков / месяц
Конкуренты:
По слухам, OpenRouter привлекает раунд по оценке 1.3B$ от Google.
По оценкам, годовая выручка OpenRouter составила 50M$ - мультипликатор x26
Потребление токенов / месяц:
Venice - 2T / month
OpenRouter - 70T / month
Выручка в месяц:
OpenRouter ~ 50M$ [ по оценкам ]
Venice ~ 12M$ [ по оценкам / 80% - 30 000 subs/month + 20% от API ]
Маржинальность : TBA
Катализаторы роста для VENICE:
•Multi-model архитектуры [ Рост OpenRouter ×10 за 2025 ]
•Увеличение качества и мощности open-source моделей -> рост потребления + рост требований к железу
•Спрос на приватность из-за взломов и утечек корпоративных данных
Метрики по кол-во подписчиков / сжиганий монет и т.п. :
https://venicestats.com/burns
Рост 50% за последний месяц
Рост 180% за последние 3 месяца
Рост 360% с ATL
Проблемы, которые помогает решить VENICE пользователям:
•Экономия времени настройки модели -> venice настраивает модель за вас
•Высокая стоимость железа - размер моделей open-source растет - запустить фронтирные open-source модели без железа стоимостью 10-100к$ с максимальным качеством работы - нереально -> venice предоставляет вам возможность запустить их через посредников по вычислениям либо на своем железе
•Крупные взломы централизованных провайдеров / массовые утечки чатов
•OpenAI и другие централизованные игроки по решению суда обязаны хранить переписки пользователей
При запуске через централизованного провайдера GPU - ваши данные могут просмотреть - для этого Venice используют шифрование TEE.
Однако, сам VENICE имеет определенный доступ к данным, так как ваш запрос расшифровывается на прокси Venice, прежде чем уйти в анклав. Хоть, Venice и не логгируют эти данные - но риски взлома / юридического принуждения - есть.
TEE модель шифрования также используют единичные провайдеры из OpenRouter - но это не массовая история. У большинства GPU провадйеров из OpenRouter политика шифрования - через Policy-based ( обещание не смотреть ) , только Phala + Near AI Cloud используют TEE шифрование.
Более того, у Venice есть еще E2EE шифрование, которое обеспечивает практически полную приватность - но там есть проблемы с функционалом моделей ( отключены web search/memory/файлы )
TEE / E2EE касается только open-source моделей. Для центрилизованных моделей - ваши промпты в любом случае будут логироваться OpenAI / Claude и .т.п.
Venice старается только анонимизировать субъекта -отправителя промпта- > проксирует запрос, стирает вашу личность и метаданные.
Владелец проекта - Erik Voorhees
Продал SatoshiDice за 126 315 BTC в 2011 г.
[ 10B$ + по текущим оценкам ]
Система выкупов:
Нераскрытый % от revenue каждый месяц
1$ от подписчика PRO
На данный момент - 30 000 подписчиков / месяц
Конкуренты:
По слухам, OpenRouter привлекает раунд по оценке 1.3B$ от Google.
По оценкам, годовая выручка OpenRouter составила 50M$ - мультипликатор x26
Потребление токенов / месяц:
Venice - 2T / month
OpenRouter - 70T / month
Выручка в месяц:
OpenRouter ~ 50M$ [ по оценкам ]
Venice ~ 12M$ [ по оценкам / 80% - 30 000 subs/month + 20% от API ]
Маржинальность : TBA
Катализаторы роста для VENICE:
•Multi-model архитектуры [ Рост OpenRouter ×10 за 2025 ]
•Увеличение качества и мощности open-source моделей -> рост потребления + рост требований к железу
•Спрос на приватность из-за взломов и утечек корпоративных данных
Метрики по кол-во подписчиков / сжиганий монет и т.п. :
https://venicestats.com/burns
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9
Ключевые наблюдения за Q1 2025 - Q1 2026 :
[ ТАБЛИЦЫ ]
•Мировой объем используемых токенов за квартал вырос на 660%
•Средневзвешенная цена 1M/токенов упала на 60%
•Enterprise использование LLM увеличилось с 5B$ за квартал до 15B$ за квартал
•Сегмент ИИ агентов увеличился с 0.37B$ - >1,42B$ за квартал
•COGC маржинальность с Q1 2024 г. увеличилась с 30% - > 65%
Мировые расходы на токены за 2025 г. = $110-130B / yr
AI capex Big Tech 2025 = $364B / yr
AI capex / AI revenue ratio 2025 = 1/4
Внутри документа:
Total Token Volume
Token Volume by Segment
Revenue by Segment
Revenue by AI Lab
Revenue vs COGS
Blended Price
[ ТАБЛИЦЫ ]
•Мировой объем используемых токенов за квартал вырос на 660%
•Средневзвешенная цена 1M/токенов упала на 60%
•Enterprise использование LLM увеличилось с 5B$ за квартал до 15B$ за квартал
•Сегмент ИИ агентов увеличился с 0.37B$ - >1,42B$ за квартал
•COGC маржинальность с Q1 2024 г. увеличилась с 30% - > 65%
Мировые расходы на токены за 2025 г. = $110-130B / yr
AI capex Big Tech 2025 = $364B / yr
AI capex / AI revenue ratio 2025 = 1/4
Внутри документа:
Total Token Volume
Token Volume by Segment
Revenue by Segment
Revenue by AI Lab
Revenue vs COGS
Blended Price
❤7
Симуляция Revenue рынка ИИ-токенов к 2030г. + масштаба дата-центров [ GW ]
Уменьшение Цена / Токен:
2023 - 2024 [ -x3 ]
2024 - 2025 [ -x3 ]
2025 - 2026 [ -x2.5 ]
——————————————————————
Рост общего спроса на токены:
2024 - 2025 [ ~x8 ]
2025 - 2026 [ ~x7 ]
Google увеличили потребление токенов в 50 раз за год [ 2025г. / Май ] - связано с использованием в внутренних продуктов
Microsoft увеличили потребление токенов в 5 раз за год [ 2025г. / Апрель ]
OpenAI увеличили потребление токенов в 8 раз за год [ 2025 г.. / Декабрь ]
OpenAI увеличили потребление токенов в Reasoning - моделях в 320 раз за год [ 2025 г.. / Декабрь ]
——————————————————————
Рост сложности вычислений на токен в разных моделях:
Обычный chat -x1 [ GPT 5.4 - 15$ ]
Продвинутый чат - x12 [ GPT 5.5 - 180$ ]
Reasoning Model c длинным контекстом - x18 [ GPT 5.5 pro - 270$]
AI Agent tokens - x25 [ Claude ] / x1000 [ Huang ]
Microsoft CEO : Агенты добавляют второй множитель сверху/ Reasoning — это «думает один раз дольше». Агент — это «думает много раз + использует tools». - > потенциальное увеличение спроса на токены в тысячи раз.
Средневзвешенная "цена за токен" в долларах падает медленнее, чем удельная стоимость генерации одного токена, потому что средний токен становится "тяжелее"
——————————————————————
Оптимизация эффективности J / token
( учтена оптимизация не только на уровне GPU - но и на уровне софта и иных решений ) :
Hopper H100 [ 2022 г. ] - 10 J/token
Blackwell GB200 [ 2024 г. ] -1 J / token [ x10 ]
Rubin J100 [ 2026 г. ] - 0.1 J / token [ x10 ]
NVIDIA после Rubin планирует выпуск новой архитектуры чипа каждый год.
Текущие 10–50× за поколение у NVIDIA - это эра, эквивалентная закону Деннарду в CPU 1990-х.
Когда «лёгкие выигрыши» исчерпаются (вероятно, 2030–2035), темп замедлится с 10× за поколение до 1,4–2× - как у CPU после 2005 г.
GPU в дата-центрах только 40% затрат на энергию и GWT / остальные 60% затраты на обеспечение дата-центра.
——————————————————————
Текущие вводные за 2026г. для симуляции сценария:
Revenue от ИИ токенов: 200B$ / год
Rubin J100 : 0.1 J / token
GWT под дата-центры 30 GWT [ из них 40% на GPU конкретно ]
Сценарий за 2030г.:
Большая часть токенов = reasoning / AI Agents модели [ рост доли их использования ]
Уменьшение PRICE / per Token: -x81
Рост спроса Tokens : x625
Рост сложности вычислений: x10
Оптимизация эффективности watt / token : 1000x
Итог:
Revenue ~ 1.54T$ / год
Цена за 1M tokens ~ 0.00065$
GPU мощность - 75 GW / Полная мощность ДЦ - 187 GW
Прогноз Goldman Sachs для AI к 2030 ~ 160 GW
Прогноз McKinsey для AI к 2030 ~220 GW
*оба прогноза близки к моей симуляции
Прогноз OpenAI по выручке к 2030 г. :280B$
[ в целом, если OpenAI будет владеть 20% общего объема рынка - то мой прогноз соответсвтует ]
Уменьшение Цена / Токен:
2023 - 2024 [ -x3 ]
2024 - 2025 [ -x3 ]
2025 - 2026 [ -x2.5 ]
——————————————————————
Рост общего спроса на токены:
2024 - 2025 [ ~x8 ]
2025 - 2026 [ ~x7 ]
Google увеличили потребление токенов в 50 раз за год [ 2025г. / Май ] - связано с использованием в внутренних продуктов
Microsoft увеличили потребление токенов в 5 раз за год [ 2025г. / Апрель ]
OpenAI увеличили потребление токенов в 8 раз за год [ 2025 г.. / Декабрь ]
OpenAI увеличили потребление токенов в Reasoning - моделях в 320 раз за год [ 2025 г.. / Декабрь ]
——————————————————————
Рост сложности вычислений на токен в разных моделях:
Обычный chat -x1 [ GPT 5.4 - 15$ ]
Продвинутый чат - x12 [ GPT 5.5 - 180$ ]
Reasoning Model c длинным контекстом - x18 [ GPT 5.5 pro - 270$]
AI Agent tokens - x25 [ Claude ] / x1000 [ Huang ]
Microsoft CEO : Агенты добавляют второй множитель сверху/ Reasoning — это «думает один раз дольше». Агент — это «думает много раз + использует tools». - > потенциальное увеличение спроса на токены в тысячи раз.
Средневзвешенная "цена за токен" в долларах падает медленнее, чем удельная стоимость генерации одного токена, потому что средний токен становится "тяжелее"
——————————————————————
Оптимизация эффективности J / token
( учтена оптимизация не только на уровне GPU - но и на уровне софта и иных решений ) :
Hopper H100 [ 2022 г. ] - 10 J/token
Blackwell GB200 [ 2024 г. ] -1 J / token [ x10 ]
Rubin J100 [ 2026 г. ] - 0.1 J / token [ x10 ]
NVIDIA после Rubin планирует выпуск новой архитектуры чипа каждый год.
Текущие 10–50× за поколение у NVIDIA - это эра, эквивалентная закону Деннарду в CPU 1990-х.
Когда «лёгкие выигрыши» исчерпаются (вероятно, 2030–2035), темп замедлится с 10× за поколение до 1,4–2× - как у CPU после 2005 г.
GPU в дата-центрах только 40% затрат на энергию и GWT / остальные 60% затраты на обеспечение дата-центра.
——————————————————————
Текущие вводные за 2026г. для симуляции сценария:
Revenue от ИИ токенов: 200B$ / год
Rubin J100 : 0.1 J / token
GWT под дата-центры 30 GWT [ из них 40% на GPU конкретно ]
Сценарий за 2030г.:
Большая часть токенов = reasoning / AI Agents модели [ рост доли их использования ]
Уменьшение PRICE / per Token: -x81
Рост спроса Tokens : x625
Рост сложности вычислений: x10
Оптимизация эффективности watt / token : 1000x
Итог:
Revenue ~ 1.54T$ / год
Цена за 1M tokens ~ 0.00065$
GPU мощность - 75 GW / Полная мощность ДЦ - 187 GW
Прогноз Goldman Sachs для AI к 2030 ~ 160 GW
Прогноз McKinsey для AI к 2030 ~220 GW
*оба прогноза близки к моей симуляции
Прогноз OpenAI по выручке к 2030 г. :280B$
[ в целом, если OpenAI будет владеть 20% общего объема рынка - то мой прогноз соответсвтует ]
❤3🎉1
risen.eth
Симуляция Revenue рынка ИИ-токенов к 2030г. + масштаба дата-центров [ GW ] Уменьшение Цена / Токен: 2023 - 2024 [ -x3 ] 2024 - 2025 [ -x3 ] 2025 - 2026 [ -x2.5 ] —————————————————————— Рост общего спроса на токены: 2024 - 2025 [ ~x8 ] 2025 …
Подход № 2
Total Addressable Market рынка для LLM ИИ - > интеллектуальный труд человечества [ ~ 50T$ ]
Текущий объем рынка токенов = 200B$ / год
Хуанг: Я буду удивлен, если мой инженер с зарплатой в 500 000$ в NVIDIA не будет потреблять > 250 000$ токенов в год
Хуанг: Я уверен, что доля ВВП, которая идет на compute сейчас будет в 100 раз больше [ 200B$ - > 20T$ / year ]
Предположим, что из 200B$ - 150B$, приходится на USA:
USA ВВП - 30T$ / текущий уровень = 0,5% ВВП
World ВВП - 100T$ / текущий уровень = 0,15% ВВП
Потребление энергии в США [ energy bills - без учета инфраструктуры ] = 2T$ = 7% от ВВП
Потребление энергии в мире [ energy bills - без учета инфраструктуры ] = 10T$ = 10% от ВВП
Итоговая текущая разница в затратах на энергию в $ и затратах на токены интеллекта в $ = 50x
CAGR в потреблении энергии за последние десятилетия: ~ 1.5% в год
При CAGR в 40% рынка токенов интеллекта К 2030 г. - рынок токенов составит 768B$ / энергорынок 10,6T$
Разница будет в 14х
Total Addressable Market рынка для LLM ИИ - > интеллектуальный труд человечества [ ~ 50T$ ]
Текущий объем рынка токенов = 200B$ / год
Хуанг: Я буду удивлен, если мой инженер с зарплатой в 500 000$ в NVIDIA не будет потреблять > 250 000$ токенов в год
Хуанг: Я уверен, что доля ВВП, которая идет на compute сейчас будет в 100 раз больше [ 200B$ - > 20T$ / year ]
Предположим, что из 200B$ - 150B$, приходится на USA:
USA ВВП - 30T$ / текущий уровень = 0,5% ВВП
World ВВП - 100T$ / текущий уровень = 0,15% ВВП
Потребление энергии в США [ energy bills - без учета инфраструктуры ] = 2T$ = 7% от ВВП
Потребление энергии в мире [ energy bills - без учета инфраструктуры ] = 10T$ = 10% от ВВП
Итоговая текущая разница в затратах на энергию в $ и затратах на токены интеллекта в $ = 50x
CAGR в потреблении энергии за последние десятилетия: ~ 1.5% в год
При CAGR в 40% рынка токенов интеллекта К 2030 г. - рынок токенов составит 768B$ / энергорынок 10,6T$
Разница будет в 14х
MEMORY WALL - в AI / p.1
Виды памяти в кластерах для ИИ:
G0. SRAM [ on - chip ]
Используется в основном в Groq LPU / Cerebras чипах.
G1. GPU HBM
Используется во всех ИИ чипах [ B200 / R200 / Trainium / TPU Google и других ]
H100 [ 6 HBM стоек ] - 80 GB
B200 [ 8 HBM стоек ] - 192 GB
R200 [ 8 HBM стоек ] - 288 GB
TPU v6e [ 4 стойки ] - 32 GB
TPU v7 [ 8 стоек ] - 192 GB
TPU v8 [ 8 стоек ] - 288 GB
G2. Host-DRAM (внутри CPU)
Используется во всех чипах CPU - которые обеспечивают работу кластеров GPU в дата-центрах
NVIDIA GB200 NVL72 - внутри этого кластера 72 GPU чипа, которые обеспечиваются 36 Grace CPU чипами
Внутри, 36 Grace CPU чипов - 17 TB LPDDR5X
≈ 236 GB / CPU
NVIDIA Vera Rubin NVL72 (VR200) = 72 Rubin GPU + 36 Vera CPU
36 VERA CPU = 54 TB LPDDR5X = ~ 750 GB / CPU (NVIDIA)
AMD MI355X UBB ~ 134 GB / CPU
AWS Trainium2 UltraServer ~375 GB / CPU
Google TPU v7 Ironwood ~ ~ 240 GB / CPU
G3. Local NVMe/SSD ( NAND )
Используется во всех дата-центрах для обеспечения работы кластеров GPU
Все используют тип памяти NAND в данной архитектуре
NVIDIA GB200 NVL72 : NAND [ 276.5 TB - 3.84 TB per GPU ] ]
NVIDIA GB300 NVL72: NAND [ 1 105 TB - 15.36 TB per GPU ]
AWS Trainium3: NAND [ 576 TB - 8 TB per GPU ]
AMD Instinct MI355X: NAND [ 7.68 TB per GPU ]
G3.5 Inference Context Memory Storage
На данный момент, данный слой планируется использоваться в кластерах Vera Rubin- остальные чипмейкеры пока не объявляли про это.
По слухам -16 TB / per GPU
Тип памяти: NVMe SSD tier [ NAND Flash ]
Основная задача - ИИ Агенты с persistent memory.
G4. Networked external storage
Гиперскейлеры покупают дисковые полки от VAST / WEKA - при покупке VAST Ceres DF-3060V2 — эти виды памяти включены уже внутри.
Наиболее консенсусный, VAST Ceres DF-3060V2 - хватает на 128 GPU B200
NAND : 1352 TB = 10526 GB /per GPU
SCM : 12 TB = 100 GB / per GPU
Виды памяти в кластерах для ИИ:
G0. SRAM [ on - chip ]
Используется в основном в Groq LPU / Cerebras чипах.
G1. GPU HBM
Используется во всех ИИ чипах [ B200 / R200 / Trainium / TPU Google и других ]
H100 [ 6 HBM стоек ] - 80 GB
B200 [ 8 HBM стоек ] - 192 GB
R200 [ 8 HBM стоек ] - 288 GB
TPU v6e [ 4 стойки ] - 32 GB
TPU v7 [ 8 стоек ] - 192 GB
TPU v8 [ 8 стоек ] - 288 GB
G2. Host-DRAM (внутри CPU)
Используется во всех чипах CPU - которые обеспечивают работу кластеров GPU в дата-центрах
NVIDIA GB200 NVL72 - внутри этого кластера 72 GPU чипа, которые обеспечиваются 36 Grace CPU чипами
Внутри, 36 Grace CPU чипов - 17 TB LPDDR5X
≈ 236 GB / CPU
NVIDIA Vera Rubin NVL72 (VR200) = 72 Rubin GPU + 36 Vera CPU
36 VERA CPU = 54 TB LPDDR5X = ~ 750 GB / CPU (NVIDIA)
AMD MI355X UBB ~ 134 GB / CPU
AWS Trainium2 UltraServer ~375 GB / CPU
Google TPU v7 Ironwood ~ ~ 240 GB / CPU
G3. Local NVMe/SSD ( NAND )
Используется во всех дата-центрах для обеспечения работы кластеров GPU
Все используют тип памяти NAND в данной архитектуре
NVIDIA GB200 NVL72 : NAND [ 276.5 TB - 3.84 TB per GPU ] ]
NVIDIA GB300 NVL72: NAND [ 1 105 TB - 15.36 TB per GPU ]
AWS Trainium3: NAND [ 576 TB - 8 TB per GPU ]
AMD Instinct MI355X: NAND [ 7.68 TB per GPU ]
G3.5 Inference Context Memory Storage
На данный момент, данный слой планируется использоваться в кластерах Vera Rubin- остальные чипмейкеры пока не объявляли про это.
По слухам -16 TB / per GPU
Тип памяти: NVMe SSD tier [ NAND Flash ]
Основная задача - ИИ Агенты с persistent memory.
G4. Networked external storage
Гиперскейлеры покупают дисковые полки от VAST / WEKA - при покупке VAST Ceres DF-3060V2 — эти виды памяти включены уже внутри.
Наиболее консенсусный, VAST Ceres DF-3060V2 - хватает на 128 GPU B200
NAND : 1352 TB = 10526 GB /per GPU
SCM : 12 TB = 100 GB / per GPU
❤3
MEMORY WALL - в AI / p.2
G1 . GPU HBM
Моделирование спроса на GB + Выручки производителей памяти от HBM
Модель для расчета [ ТАБЛИЦА ]
Допущения:
Цена текущая - 10$ /GB [ CAGR снижения 10% ]
2026 Г. - средние значения для per GPU - 288 GB
Рост требования GB / per GPU [ CAGR 25% ]
Негативный / Нейтральный / Позитивный сценарий по кол-ву произвдеенных чипов : [ 10 / 15 / 25 % CAGR ]
Итоговые выводы:
Негативный к 2030г. [ 11,1 EB / 75B$ выручка ]
Нейтральный к 2030 г. [ 13,8 EB./ 92B$ выручка ]
Позитивный к 2030 г. [ 21 EB / 140B$ выручка ]
Необходимо [ 11 - 21 EB в зависимости от сценария ]
Рост от текущего потребления HBM [ 3-7x ]
HBM делается из DRAM / если брать рост потребелния от DRAM [ 25% - 50% ]
2025г. Общее кол-во проданной HBM памяти - 3,3 EB
2024г. Общее кол-во проданной HBM памяти - 1,5 EB
2022г. Общее кол-во проданной DRAM памяти ~ 26 EB
2025г. Общее кол-во проданной DRAM памяти ~ 44 EB
G1 . GPU HBM
Моделирование спроса на GB + Выручки производителей памяти от HBM
Модель для расчета [ ТАБЛИЦА ]
Допущения:
Цена текущая - 10$ /GB [ CAGR снижения 10% ]
2026 Г. - средние значения для per GPU - 288 GB
Рост требования GB / per GPU [ CAGR 25% ]
Негативный / Нейтральный / Позитивный сценарий по кол-ву произвдеенных чипов : [ 10 / 15 / 25 % CAGR ]
Итоговые выводы:
Негативный к 2030г. [ 11,1 EB / 75B$ выручка ]
Нейтральный к 2030 г. [ 13,8 EB./ 92B$ выручка ]
Позитивный к 2030 г. [ 21 EB / 140B$ выручка ]
Необходимо [ 11 - 21 EB в зависимости от сценария ]
Рост от текущего потребления HBM [ 3-7x ]
HBM делается из DRAM / если брать рост потребелния от DRAM [ 25% - 50% ]
2025г. Общее кол-во проданной HBM памяти - 3,3 EB
2024г. Общее кол-во проданной HBM памяти - 1,5 EB
2022г. Общее кол-во проданной DRAM памяти ~ 26 EB
2025г. Общее кол-во проданной DRAM памяти ~ 44 EB
❤1
MEMORY WALL - в AI / p.4
Тезис № 1 [ Эра ИИ Агентов ]
Эра ИИ Агентной экономики еще не наступила.
В будущем могут существовать миллиарды ИИ-агентов, которые будут действовать неделями, месяцами и годами от имени людей и компаний. Для этого им недостаточно большого контекстного окна или длинного KV-cache. Им нужен отдельный memory layer
Morgan Stanley [ 04.2026 ] - по мере того, как развивает ИИ Агенты - автономные действия, вычислительный bottleneck смещается в сторону CPU и памяти.
Тезис № 2
Большинство компаний, связанных напрямую с пятью слоями ИИ
[ энергетика - чипы -дата-центры - LLM модели - приложения для ИИ ] торгуются с P/E 30-150x
В отличии, от игроков в сфере памяти, которые торгуются на 10-20x
Тезис № 3
Пока не видно потолка остановки прогресса в мощностях с каждым новым поколением чипа.
Каждая архитекутра чипов потребляет в разы больше памяти [ 80 GB - 288 GB - 1TB ]
В отличии от телефонов, где не нужна была смена архитектуры HBM1 -HBM2- HBM3 - HBM4 -> HBF - так как там потолок памяти долгое время был на уровне 256-512 GB + память в телефоне работает намного легче в плане устройства - так как она переодически спит + обрабатывает запросы одного человека , а не под непрерывный поток матричных умножений с миллионов параллельных потоков- > 256–512 ГБ флеш + 8–16 ГБ LPDDR закрывают потребности мобильного OS и приложений уже 5+ лет, рост идёт линейно на ~10–15% в год.
В GPU Memory есть гонка по memory - которая еще не закончилась - соответственно масштабирование одного продукта пока не делается - постоянно разрабатывается следующая архитектура
Когда ИИ-чипы получают больше HBM, разработчики немедленно строят модели побольше, чтобы его заполнить, так что память всегда следующее узкое место.
Тезис № 4
В прошлом, циклы памяти были востребованы для ПК / Смартфонов / Дата-центров облачных - которые ограничивались человечески ресурусом [ кол-во людей, использующих ПК и Телефоны ]
Этот цикл - не ограничивается биологическими ограничениями, у каждого человека может быть не один смартфон, а 10 ИИ агентов по разным сферам. У компаний могут быть 1 млн ИИ сотрудников.
Парадокс Джевонса создаст еще большую потребность в ИИ вычислениях за счет того, что можно будет строить еще больше новых продуктов и закрывать еще больше потребностей.
Каждое предприятие, каждое потребительское приложение, каждый автономный автомобиль, каждый ИИ-агент, каждый ИИ-робот - потребитель памяти.
Тезис № 1 [ Эра ИИ Агентов ]
Эра ИИ Агентной экономики еще не наступила.
В будущем могут существовать миллиарды ИИ-агентов, которые будут действовать неделями, месяцами и годами от имени людей и компаний. Для этого им недостаточно большого контекстного окна или длинного KV-cache. Им нужен отдельный memory layer
Morgan Stanley [ 04.2026 ] - по мере того, как развивает ИИ Агенты - автономные действия, вычислительный bottleneck смещается в сторону CPU и памяти.
Тезис № 2
Большинство компаний, связанных напрямую с пятью слоями ИИ
[ энергетика - чипы -дата-центры - LLM модели - приложения для ИИ ] торгуются с P/E 30-150x
В отличии, от игроков в сфере памяти, которые торгуются на 10-20x
Тезис № 3
Пока не видно потолка остановки прогресса в мощностях с каждым новым поколением чипа.
Каждая архитекутра чипов потребляет в разы больше памяти [ 80 GB - 288 GB - 1TB ]
В отличии от телефонов, где не нужна была смена архитектуры HBM1 -HBM2- HBM3 - HBM4 -> HBF - так как там потолок памяти долгое время был на уровне 256-512 GB + память в телефоне работает намного легче в плане устройства - так как она переодически спит + обрабатывает запросы одного человека , а не под непрерывный поток матричных умножений с миллионов параллельных потоков- > 256–512 ГБ флеш + 8–16 ГБ LPDDR закрывают потребности мобильного OS и приложений уже 5+ лет, рост идёт линейно на ~10–15% в год.
В GPU Memory есть гонка по memory - которая еще не закончилась - соответственно масштабирование одного продукта пока не делается - постоянно разрабатывается следующая архитектура
Когда ИИ-чипы получают больше HBM, разработчики немедленно строят модели побольше, чтобы его заполнить, так что память всегда следующее узкое место.
Тезис № 4
В прошлом, циклы памяти были востребованы для ПК / Смартфонов / Дата-центров облачных - которые ограничивались человечески ресурусом [ кол-во людей, использующих ПК и Телефоны ]
Этот цикл - не ограничивается биологическими ограничениями, у каждого человека может быть не один смартфон, а 10 ИИ агентов по разным сферам. У компаний могут быть 1 млн ИИ сотрудников.
Парадокс Джевонса создаст еще большую потребность в ИИ вычислениях за счет того, что можно будет строить еще больше новых продуктов и закрывать еще больше потребностей.
Каждое предприятие, каждое потребительское приложение, каждый автономный автомобиль, каждый ИИ-агент, каждый ИИ-робот - потребитель памяти.
❤3🔥1
MEMORY WALL - в AI / p.5
Тезис № 5
Рост кол-ва параметров моделей
Gemini ~ 10T / Opus 4.7 ~ 5T / GPT 5.1 PRO ~ 10T [ рост 5-10х с 2025 г. ]
Маск планирует Grok5 до 20T параметров в 2026г.
Тезис № 6
Техническое усложнение продукта.
Относительный capex/бит для HBM -4x.
Для LPDDR5 1.6x / NAND 1.5x -
Самое главное отличие этого цикла- поставщики памяти делали весь стек целиком in-house - отсутствовали TSMC.
Тезис № 7
Переход от генерации текста к генерации видео (AI-видео, замещающее YouTube) потребует роста пропускной способности и объёма памяти примерно в 1000 раз.
Тезис № 8
Память используется очень во многих функциях дата-центров, оптимизации подобные Google TurboQuant - происходят не во всех направлениях сразу, а часто в единичных.
Недостаточно минорной оптимизации как в Turbo Quant - одной ветки вычислений - нужно полностью все стадии вычисления на ПОРЯДКИ
Groq / Cerebras - делают все свои альтернативы вместе с HBM - разделяя разные функции на разные типы памяти.
Тезис № 9
Высокий спрос на ИИ сектор будет вызывать рост цен на другие сектора: робототехника / машины / смартфоны / ПК
Тезис № 5
Рост кол-ва параметров моделей
Gemini ~ 10T / Opus 4.7 ~ 5T / GPT 5.1 PRO ~ 10T [ рост 5-10х с 2025 г. ]
Маск планирует Grok5 до 20T параметров в 2026г.
Тезис № 6
Техническое усложнение продукта.
Относительный capex/бит для HBM -4x.
Для LPDDR5 1.6x / NAND 1.5x -
Самое главное отличие этого цикла- поставщики памяти делали весь стек целиком in-house - отсутствовали TSMC.
Тезис № 7
Переход от генерации текста к генерации видео (AI-видео, замещающее YouTube) потребует роста пропускной способности и объёма памяти примерно в 1000 раз.
Тезис № 8
Память используется очень во многих функциях дата-центров, оптимизации подобные Google TurboQuant - происходят не во всех направлениях сразу, а часто в единичных.
Недостаточно минорной оптимизации как в Turbo Quant - одной ветки вычислений - нужно полностью все стадии вычисления на ПОРЯДКИ
Groq / Cerebras - делают все свои альтернативы вместе с HBM - разделяя разные функции на разные типы памяти.
Тезис № 9
Высокий спрос на ИИ сектор будет вызывать рост цен на другие сектора: робототехника / машины / смартфоны / ПК
❤2🔥2
MEMORY WALL - в AI / p.6
Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости
( 2000 -3000$ )
Больше других типов памяти внутри самого чипа не ставят.
Остальные уровни памяти, о которых говорил в постах выше - ставят уже в кластерах GPU.
Все дата-центры работают на кластерах, а не на одиночных чипах.
Все крупные клиенты NVIDIA закупают кластеры.
Себестоимость, кластера из 72 чипов на примере NVIDIA GB200 NVL72:
3 200 000$
из которых > 15% уходит на G1-G4 память, при это сам GPU Silicon чип ( без HBM ) составляет ~ 10% BoM
Если рассматривать, VR200 NVL72 - то там общий BoM потенциально будет доходить ~5 000 000$
и при этом добавляется новый уровень памяти + увеличивается емкость прошлых уровней в разы - > BoM на память увеличивается >20%
[ Более детальные расчеты ]
Если брать, каждый уровень памяти - то с каждым новым поколением чипа - объем этой памяти увеличивается на 50% -200%+
G1 [ HBM ]
H100 -> B200 -> R200
1x- > 2.5x -> 4x
G2 [ Host-Dram ]
GB200 NVL72 - > VR200 NVL72
1x - > 3x
G3 [ Local NVMe/SSD ]
GB200 - > R200
1x > 5x
G3.5 [ Inference Context Memory Storage ]
новый вид памяти, не было в прошлых поколениях
G4. Networked external storage
H100 - > GB200 NVL72
1x - > 2x
Если брать по отдельности чип NVIDIA, одну штуку, например B200 или R200 - то наиболее затратная часть этого чипа для NVIDIA = затраты на память HBM, которые составляют > 50% себестоимости
( 2000 -3000$ )
Больше других типов памяти внутри самого чипа не ставят.
Остальные уровни памяти, о которых говорил в постах выше - ставят уже в кластерах GPU.
Все дата-центры работают на кластерах, а не на одиночных чипах.
Все крупные клиенты NVIDIA закупают кластеры.
Себестоимость, кластера из 72 чипов на примере NVIDIA GB200 NVL72:
3 200 000$
из которых > 15% уходит на G1-G4 память, при это сам GPU Silicon чип ( без HBM ) составляет ~ 10% BoM
Если рассматривать, VR200 NVL72 - то там общий BoM потенциально будет доходить ~5 000 000$
и при этом добавляется новый уровень памяти + увеличивается емкость прошлых уровней в разы - > BoM на память увеличивается >20%
[ Более детальные расчеты ]
Если брать, каждый уровень памяти - то с каждым новым поколением чипа - объем этой памяти увеличивается на 50% -200%+
G1 [ HBM ]
H100 -> B200 -> R200
1x- > 2.5x -> 4x
G2 [ Host-Dram ]
GB200 NVL72 - > VR200 NVL72
1x - > 3x
G3 [ Local NVMe/SSD ]
GB200 - > R200
1x > 5x
G3.5 [ Inference Context Memory Storage ]
новый вид памяти, не было в прошлых поколениях
G4. Networked external storage
H100 - > GB200 NVL72
1x - > 2x
❤3🔥3
HYPURR NFT
Тезисы:
-HYPE вырос / нфт нет [ Dune ]
-Спекуляции о новом сезоне фарма
-Вся команда в аватарках + инфлюенсеры - > при росте HYPE внимание может попасть и на NFT
-текущий mcap HYPURR - 70m$
при раздаче 0.1% SUPPLY - 42m$ / окуп 60% + остается NFT
при раздаче 0.2% supply - профит 20% + остается NFT
Затраты ~ 15 500$
Тезисы:
-HYPE вырос / нфт нет [ Dune ]
-Спекуляции о новом сезоне фарма
-Вся команда в аватарках + инфлюенсеры - > при росте HYPE внимание может попасть и на NFT
-текущий mcap HYPURR - 70m$
при раздаче 0.1% SUPPLY - 42m$ / окуп 60% + остается NFT
при раздаче 0.2% supply - профит 20% + остается NFT
Затраты ~ 15 500$
👍2
Взял $TON на плечо, помимо спот позиции
Тезисы:
-Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation
-За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again
Ожидаю в течении месяца остальные шаги.
-Потенциально, один из шагов дополнительные байбеки от Telegram от части Revenue
Ранее, buy pressure шел только от юзеров, покупающих услуги в Telegram через Fragment
Тезисы:
-Telegram официально становится руководящей структурой в экосистеме - смещает TON Foundation
-За один месяц было объявлено о 3 из 7 шагов для Make TON Great Again
Ожидаю в течении месяца остальные шаги.
-Потенциально, один из шагов дополнительные байбеки от Telegram от части Revenue
Ранее, buy pressure шел только от юзеров, покупающих услуги в Telegram через Fragment
❤3😁1