Технозаметки Малышева
GPU-кредиты: как видеокарты превратились в ипотечные бумаги Nvidia обвиняют в схематозе: её чипы теперь не просто товар, а залог для кредитов на миллиарды. Nvidia вложила деньги в 70+ компаний сферы ИИ, включая необлака вроде CoreWeave. Те берут кредиты…
Еще одна иллюстрация по ситуации
"причина, по которой оперативная память подорожала в четыре раза, заключается в том, что огромное количество ещё не произведённой оперативной памяти было куплено на несуществующие деньги для установки в GPU, которые тоже ещё не произведены, чтобы разместить их в дата-центрах, которые ещё не построены, питаемых инфраструктурой, которая, возможно, никогда не появится, чтобы удовлетворить спрос, которого вообще не существует, и получить прибыль, которая математически невозможна"
source
#GPU #цены
———
@tsingular
"причина, по которой оперативная память подорожала в четыре раза, заключается в том, что огромное количество ещё не произведённой оперативной памяти было куплено на несуществующие деньги для установки в GPU, которые тоже ещё не произведены, чтобы разместить их в дата-центрах, которые ещё не построены, питаемых инфраструктурой, которая, возможно, никогда не появится, чтобы удовлетворить спрос, которого вообще не существует, и получить прибыль, которая математически невозможна"
source
#GPU #цены
———
@tsingular
6🔥35💯10😁9❤3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎄🎄 Qwen-Image: обновление как раз к Новому году
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
Свежая версия Qwen-Image получила заметный апгрейд качества.
Модель стала генерировать намного реалистичнее и аккуратнее, особенно в сложных сценах.
Что изменилось:
• более естественные генерации людей, меньше «искусственного» эффекта
• детальнее лица и мимика
• улучшены натуральные текстуры: вода, шерсть, материалы, пейзажи
• намного аккуратнее текст на картинках: лучше верстка и точность в композиции
Модель прошла более 10 000 слепых сравнений на AI Arena и показала результат уровня топов среди open-source, оставаясь конкурентной даже рядом с закрытыми решениями.
▪Qwen Chat: https://chat.qwen.ai/?inputFeature=t2i
▪Hugging Face: https://huggingface.co/Qwen/Qwen-Image-2512
▪ModelScope: https://modelscope.ai/models/Qwen/Qwen-Image-2512
▪GitHub: https://github.com/QwenLM/Qwen-Image
▪Блог: https://qwen.ai/blog?id=qwen-image-2512
▪Демо HF: https://huggingface.co/spaces/Qwen/Qwen-Image-2512
▪Демо ModelScope: https://modelscope.cn/aigc/imageGeneration
▪API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=group-qwen-image-max
@ai_machinelearning_big_data
#qwen #qwenimage #openaimodels #imagemodels
🎉14⚡3🔥2🏆1
Создатель ClaudeCode, Борис Чёрный, пишет:
За последние 30 дней 100% кода, который я разработал, был создан с помощью ClaudeCode
Таким образом, предсказание Дарио Амодеи, гендира Антропика сбылось для некоторой части разрабов в мире.
100% кода они пишут с ИИ.
Пусть даже внутри Антропика.
Будущее наступило, просто оно неравномерно распределено.
#ClaudeCode #dev
------
@tsingular
За последние 30 дней 100% кода, который я разработал, был создан с помощью ClaudeCode
Таким образом, предсказание Дарио Амодеи, гендира Антропика сбылось для некоторой части разрабов в мире.
100% кода они пишут с ИИ.
Пусть даже внутри Антропика.
Будущее наступило, просто оно неравномерно распределено.
#ClaudeCode #dev
------
@tsingular
✍20❤4😢4🗿3🤣2
This media is not supported in your browser
VIEW IN TELEGRAM
С Новым Годом, друзья!
Кратко вспомним, что взлетело в мире ИИ прикольного.
DeeepResearch - исследования с ИИ стали новым стандартом.
Вайбкодинг - практически в каждом проекте уже ведется разработка с ИИ. Некоторые разработчики уже принципиально сами не пишут код, а создают контекст, чтобы ИИ кодили надёжнее.
AI-агенты:
Manus AI — универсальный автономный агент. запущен 6 марта 2025, куплен под новый год за $2+ млрд
OpenAI Operator - запустил целую волну агентов, управляющих приложениями и браузерами
Perplexity Comet — первый AI-нативный браузер
Кодовые-ассистенты:
Claude Code, - законодатель моды. Вслед за ним подтянулись - OpenAI Codex, Gemini CLI, Qwen CLI, OpenCode и многие другие
Cursor,- AI-dev IDE, оценка взлетела до $29 млрд, вслед за ним - Windsurf, Trae, RooCode, Antigravity и многие другие сформировали целое направление.
No-code:
Lovable — full-stack приложения через чат, оценка $6.6 млрд
Bolt.new — браузерный AI-билдер, 1M+ сайтов создано
v0 by Vercel — генерация React-компонентов из текста
Base44 — создан в январе, продан Wix за $80M через 6 месяцев
n8n - взрывной рост популярности. интеграция с крупными вендорам, например с SAP.
langflow - куплен IBM - корпоративная стандартизация
LLM модели:
DeepSeek-R1 — open-source модель уровня GPT-4 за $6M (шок для индустрии), новые версии - 3.2 на уровне проприетарных
GPT-5, Opus 4.5, Gemini 3 Pro, Grok 4 - все уже превосходят людей в большинстве задач.
Qwen 3 - 70% рынка локальных моделей
рекордная производительность Minimax, GLM 4.7 и других китайских моделей.
Взрывной рост оупенсорса.
Графика:
Nanobanana, OpenAI Image 1.5, Grok Imagine - практически идеальное качество с невероятной детализацией текста.
Veo3, Sora 2 в этом году установили новые планки по качеству.
Роботы производятся уже миллионами.
Качество движений у роботов уже позволяет им выступать на сцене на равне с танцевальными коллективами.
Работать на фабриках месяцами и патрулировать границы.
С новым годом!
2026й будет очень интересным.
Если что забыл - пишите в комментариях.
#recap
———
@tsingular
Кратко вспомним, что взлетело в мире ИИ прикольного.
DeeepResearch - исследования с ИИ стали новым стандартом.
Вайбкодинг - практически в каждом проекте уже ведется разработка с ИИ. Некоторые разработчики уже принципиально сами не пишут код, а создают контекст, чтобы ИИ кодили надёжнее.
AI-агенты:
Manus AI — универсальный автономный агент. запущен 6 марта 2025, куплен под новый год за $2+ млрд
OpenAI Operator - запустил целую волну агентов, управляющих приложениями и браузерами
Perplexity Comet — первый AI-нативный браузер
Кодовые-ассистенты:
Claude Code, - законодатель моды. Вслед за ним подтянулись - OpenAI Codex, Gemini CLI, Qwen CLI, OpenCode и многие другие
Cursor,- AI-dev IDE, оценка взлетела до $29 млрд, вслед за ним - Windsurf, Trae, RooCode, Antigravity и многие другие сформировали целое направление.
No-code:
Lovable — full-stack приложения через чат, оценка $6.6 млрд
Bolt.new — браузерный AI-билдер, 1M+ сайтов создано
v0 by Vercel — генерация React-компонентов из текста
Base44 — создан в январе, продан Wix за $80M через 6 месяцев
n8n - взрывной рост популярности. интеграция с крупными вендорам, например с SAP.
langflow - куплен IBM - корпоративная стандартизация
LLM модели:
DeepSeek-R1 — open-source модель уровня GPT-4 за $6M (шок для индустрии), новые версии - 3.2 на уровне проприетарных
GPT-5, Opus 4.5, Gemini 3 Pro, Grok 4 - все уже превосходят людей в большинстве задач.
Qwen 3 - 70% рынка локальных моделей
рекордная производительность Minimax, GLM 4.7 и других китайских моделей.
Взрывной рост оупенсорса.
Графика:
Nanobanana, OpenAI Image 1.5, Grok Imagine - практически идеальное качество с невероятной детализацией текста.
Veo3, Sora 2 в этом году установили новые планки по качеству.
Роботы производятся уже миллионами.
Качество движений у роботов уже позволяет им выступать на сцене на равне с танцевальными коллективами.
Работать на фабриках месяцами и патрулировать границы.
С новым годом!
2026й будет очень интересным.
Если что забыл - пишите в комментариях.
#recap
———
@tsingular
🔥39🎄17👍7⚡5❤2🙏1🦄1
🔥20😁11✍5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
UBTECH WalkerS2 научили играть в теннис.
Полностью автономный робот-тренер.
Предсказывает траекторию мяча, подбегает по правильной траектории отбивает, используя различные техники.
С учётом стоимости тренеро-часа, - думаю очень быстро окупится.
#теннис #Walker
———
@tsingular
Полностью автономный робот-тренер.
Предсказывает траекторию мяча, подбегает по правильной траектории отбивает, используя различные техники.
С учётом стоимости тренеро-часа, - думаю очень быстро окупится.
#теннис #Walker
———
@tsingular
⚡9🔥5👍3👾3❤1
🕹 Z80-μLM: языковая модель на процессоре 1976 года
Есть тут олды, что помнят ZX Spectrum? :)
Энтузиаст запустил нейросеть на 8-битном Z80 процессоре с частотой 4 МГц. Модель с 2-битными весами упакована в 40 КБ .COM-файл под CP/M.
Как это вообще работает:
2-битная квантизация весов: {-2, -1, 0, +1}, 4 веса на байт
Триграммное хеширование входа в 128 бакетов (работает даже с опечатками!)
16-битная целочисленная арифметика, никаких float
~100K операций на каждый сгенерированный символ
Что умеет:
Чатбот с "зачатками характера" — отвечает HI, MAYBE, WHY?, AM I?
Игра "20 вопросов" — угадывает слона за 5 ходов
Проект уровня Proof of concept: показывает насколько маленькой может быть "нейросетевая личность"
Образовательный проект по QAT и низкоуровневой оптимизации
Такой вариант ретро-ностальгии с современным лицом
Осталось версию для МК-60 наколдовать :)
#Z80 #Spectrum #Retrocomputing
———
@tsingular
Есть тут олды, что помнят ZX Spectrum? :)
Энтузиаст запустил нейросеть на 8-битном Z80 процессоре с частотой 4 МГц. Модель с 2-битными весами упакована в 40 КБ .COM-файл под CP/M.
Как это вообще работает:
2-битная квантизация весов: {-2, -1, 0, +1}, 4 веса на байт
Триграммное хеширование входа в 128 бакетов (работает даже с опечатками!)
16-битная целочисленная арифметика, никаких float
~100K операций на каждый сгенерированный символ
Что умеет:
Чатбот с "зачатками характера" — отвечает HI, MAYBE, WHY?, AM I?
Игра "20 вопросов" — угадывает слона за 5 ходов
Проект уровня Proof of concept: показывает насколько маленькой может быть "нейросетевая личность"
Образовательный проект по QAT и низкоуровневой оптимизации
Такой вариант ретро-ностальгии с современным лицом
Осталось версию для МК-60 наколдовать :)
#Z80 #Spectrum #Retrocomputing
———
@tsingular
🔥35👍17❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Копируем миллиардный SAAS за 30 минут
Тут чел решил проверить, на что способен Claude Opus 4.5: решил клонировать полностью функциональный SaaS-продукт стоимостью в миллиард долларов и сделать его как минимум в 100 раз дешевле.
Первым продуктом, который пришел на ум, стал TypeForm, потому что он очень популярен, очень дорог и, теоретически, очень прост.
В результате получился OpenForm: отполированный, функциональный и открытый клон Typeform, который стоит примерно в 100 раз дешевле и может быть настроен и развернут примерно за 15 минут. Процесс сборки занял около 35 минут.
OpenForm
Мы все чаще будем встречать гиперперсонализацию в разработке.
Зачем платить за дорогое облачное решение, когда можно за пол-часа собрать для себя минимально-достаточное на порядки дешевле.
#opensource #claudecode
———
@tsingular
Тут чел решил проверить, на что способен Claude Opus 4.5: решил клонировать полностью функциональный SaaS-продукт стоимостью в миллиард долларов и сделать его как минимум в 100 раз дешевле.
Первым продуктом, который пришел на ум, стал TypeForm, потому что он очень популярен, очень дорог и, теоретически, очень прост.
В результате получился OpenForm: отполированный, функциональный и открытый клон Typeform, который стоит примерно в 100 раз дешевле и может быть настроен и развернут примерно за 15 минут. Процесс сборки занял около 35 минут.
OpenForm
Мы все чаще будем встречать гиперперсонализацию в разработке.
Зачем платить за дорогое облачное решение, когда можно за пол-часа собрать для себя минимально-достаточное на порядки дешевле.
#opensource #claudecode
———
@tsingular
🔥33❤5😐5👍3🗿2
MCP Server Chart: 25+ графиков для ИИ-ассистентов
Немного полезного в коллекцию.
MCP сервер с графиками.
Позволяет Claude, Cursor, VSCode и другим клиентам генерировать 25+ типов графиков — от классики вроде line/bar до специфики типа fishbone-диаграмм и treemap.
Наверное такое и самому навайбкодить не сложно, но тут уже готовое.
Берём, пользуемся :)
#MCP #графики
———
@tsingular
Немного полезного в коллекцию.
MCP сервер с графиками.
Позволяет Claude, Cursor, VSCode и другим клиентам генерировать 25+ типов графиков — от классики вроде line/bar до специфики типа fishbone-диаграмм и treemap.
Наверное такое и самому навайбкодить не сложно, но тут уже готовое.
Берём, пользуемся :)
#MCP #графики
———
@tsingular
✍7⚡2👍1
Semantica для GraphRAG
Интересный фреймворк для GraphRAG-систем.
Превращает неструктурированные данные в графы знаний для агентов и мультиагентных систем.
Основные фишки:
- Гибридный поиск: векторы + граф траверсал
- Автогенерация OWL онтологий через 6-этапный LLM пайплайн с валидацией HermiT/Pellet
- Поддержка разнообразных форматов: PDF, DOCX, HTML, JSON, CSV, базы, стримы
- Постоянная память для агентов с ContextGraph и ContextRetriever
- Поддержка 100+ LLM через LiteLLM, Groq, OpenAI, HuggingFace
- Дедупликация сущностей через Jaro-Winkler, детект конфликтов
#Semantica #GraphRAG
———
@tsingular
Интересный фреймворк для GraphRAG-систем.
Превращает неструктурированные данные в графы знаний для агентов и мультиагентных систем.
Основные фишки:
- Гибридный поиск: векторы + граф траверсал
- Автогенерация OWL онтологий через 6-этапный LLM пайплайн с валидацией HermiT/Pellet
- Поддержка разнообразных форматов: PDF, DOCX, HTML, JSON, CSV, базы, стримы
- Постоянная память для агентов с ContextGraph и ContextRetriever
- Поддержка 100+ LLM через LiteLLM, Groq, OpenAI, HuggingFace
- Дедупликация сущностей через Jaro-Winkler, детект конфликтов
#Semantica #GraphRAG
———
@tsingular
1✍10⚡2
Saving Country Music объявил войну синтетической музыке
Интересный прецендент.
Музыкальный блог Saving Country Music предлагает ужесточить политику оценки и публикации музыки в 2026 году: любой трек с ИИ-звуками (даже 1%) не получит рецензию.
Для текстов допускается до 49% ИИ-помощи, но звук должен быть полностью человеческим.
Все сабмиты теперь требуют раскрытия использования ИИ, как с маркировкой explicit lyrics (слова с матом).
Авторы призывают Billboard, Spotify и RIAA внедрить аналогичные метки и отделить ИИ чарты от человеческих.
Проблема: детекторы вроде DistroKid показывают 97-98% точности в лабораторных тестах, но не справляются после мастеринга или питч-шифтов.
Исследование Deezer подтвердило - после простой обработки (шум, сжатие, изменение тональности) системы распознавания перестают определять ИИ генерацию практически в 100%.
В том же Suno уже 98% из 560 треков монетизируются после лёгкой правки в DAW.
Оптяь же точного способа измерить "1% ИИ-звука в композиции" не существует - модели классифицируют песню целиком, а не посекундно. При этом если композиция собрана из нескольких треков, часть из которых генерация, а часть натуральная - это детектор вообще не поймает.
В общем есть еще о чём поспорить.
#SavingCountryMusic #Suno #музыка #регулирование
———
@tsingular
Интересный прецендент.
Музыкальный блог Saving Country Music предлагает ужесточить политику оценки и публикации музыки в 2026 году: любой трек с ИИ-звуками (даже 1%) не получит рецензию.
Для текстов допускается до 49% ИИ-помощи, но звук должен быть полностью человеческим.
Все сабмиты теперь требуют раскрытия использования ИИ, как с маркировкой explicit lyrics (слова с матом).
Авторы призывают Billboard, Spotify и RIAA внедрить аналогичные метки и отделить ИИ чарты от человеческих.
Проблема: детекторы вроде DistroKid показывают 97-98% точности в лабораторных тестах, но не справляются после мастеринга или питч-шифтов.
Исследование Deezer подтвердило - после простой обработки (шум, сжатие, изменение тональности) системы распознавания перестают определять ИИ генерацию практически в 100%.
В том же Suno уже 98% из 560 треков монетизируются после лёгкой правки в DAW.
Оптяь же точного способа измерить "1% ИИ-звука в композиции" не существует - модели классифицируют песню целиком, а не посекундно. При этом если композиция собрана из нескольких треков, часть из которых генерация, а часть натуральная - это детектор вообще не поймает.
В общем есть еще о чём поспорить.
#SavingCountryMusic #Suno #музыка #регулирование
———
@tsingular
🤔15✍3❤2🤣2🤨2
Борис Чёрный - разработчик Claude Code, поделился собственным опытом использования CC в команде
Основные тезисы:
- Запускает 5 параллельных экземпляров Claude в терминале: нумерует вкладки 1–5, использует уведомления iTerm2 для ввода (docs: https://code.claude.com/docs/en/terminal-config#iterm-2-system-notifications). Пока один агент работает - ставит задачу следующему
- Дополнительно 5–10 сессий на https://claude.ai/code: передаёт локальные в веб (через &), запускает в Chrome, переключает --teleport; стартует сессии с iOS-приложения Claude утром/днём, проверяет позже.
- использует модель Opus 4.5 с thinking mode для всего: лучше пишет код, на круг получается эффективнее чем Sonnet за счёт меньшего количества корректировок и лучшего использования инструментов.
- Общий CLAUDE.md в Git для команды Claude Code: обновления несколько раз в неделю, добавление ошибок Claude для избежания повторений; другие команды держат свои (docs: https://code.claude.com/docs/, https://t.co/pp5TJkWmFE).
- В code review тегает @.claude в PR для добавления в CLAUDE.md; GitHub action (/install-github-action) — версия "Compounding Engineering" от @danshipper.
- Все сессии начинаются в Plan mode (shift+tab x2 раза): итеративно обсуждает план для PR, затем auto-accept edits для реализации в один проход; хорошее планирование, - ключ к успеху.
- Slash-команды для inner loop workflow: экономят промпты, используются Claude; в .claude/commands/ в Git; пример /commit-push-pr с inline bash для git status.
- Subagents: code-simplifier для упрощения кода, verify-app для E2E-тестирования Claude Code; автоматизируют workflow для PR, как slash-команды.
- PostToolUse hook: форматирует код Claude для последних 10%, избегает ошибок в CI.
- Вместо --dangerously-skip-permissions использует /permissions для безопасных bash-команд; разрешения в .claude/settings.json, поделены с командой.
- Claude использует инструменты: поиск/посты в Slack (MCP в .mcp.json), BigQuery (bq CLI), логи из Sentry; конфиги поделены.
- Для длительных задач:
(a) верификация background agent;
(b) agent Stop hook;
(c) плагин ralph-wiggum (@GeoffreyHuntley);
--permission-mode=dontAsk или --dangerously-skip-permissions в sandbox.
Ключевой совет: дать Claude задачу по верификации работы (повышает качество в 2–3 раза); для claude.ai/code — тестирование в браузере с Claude Chrome extension; варьируется: bash, тесты, браузер, симулятор; рекомендует повышать надёжность.
#claudecode #черный
———
@tsingular
Основные тезисы:
- Запускает 5 параллельных экземпляров Claude в терминале: нумерует вкладки 1–5, использует уведомления iTerm2 для ввода (docs: https://code.claude.com/docs/en/terminal-config#iterm-2-system-notifications). Пока один агент работает - ставит задачу следующему
- Дополнительно 5–10 сессий на https://claude.ai/code: передаёт локальные в веб (через &), запускает в Chrome, переключает --teleport; стартует сессии с iOS-приложения Claude утром/днём, проверяет позже.
- использует модель Opus 4.5 с thinking mode для всего: лучше пишет код, на круг получается эффективнее чем Sonnet за счёт меньшего количества корректировок и лучшего использования инструментов.
- Общий CLAUDE.md в Git для команды Claude Code: обновления несколько раз в неделю, добавление ошибок Claude для избежания повторений; другие команды держат свои (docs: https://code.claude.com/docs/, https://t.co/pp5TJkWmFE).
- В code review тегает @.claude в PR для добавления в CLAUDE.md; GitHub action (/install-github-action) — версия "Compounding Engineering" от @danshipper.
- Все сессии начинаются в Plan mode (shift+tab x2 раза): итеративно обсуждает план для PR, затем auto-accept edits для реализации в один проход; хорошее планирование, - ключ к успеху.
- Slash-команды для inner loop workflow: экономят промпты, используются Claude; в .claude/commands/ в Git; пример /commit-push-pr с inline bash для git status.
- Subagents: code-simplifier для упрощения кода, verify-app для E2E-тестирования Claude Code; автоматизируют workflow для PR, как slash-команды.
- PostToolUse hook: форматирует код Claude для последних 10%, избегает ошибок в CI.
- Вместо --dangerously-skip-permissions использует /permissions для безопасных bash-команд; разрешения в .claude/settings.json, поделены с командой.
- Claude использует инструменты: поиск/посты в Slack (MCP в .mcp.json), BigQuery (bq CLI), логи из Sentry; конфиги поделены.
- Для длительных задач:
(a) верификация background agent;
(b) agent Stop hook;
(c) плагин ralph-wiggum (@GeoffreyHuntley);
--permission-mode=dontAsk или --dangerously-skip-permissions в sandbox.
Ключевой совет: дать Claude задачу по верификации работы (повышает качество в 2–3 раза); для claude.ai/code — тестирование в браузере с Claude Chrome extension; варьируется: bash, тесты, браузер, симулятор; рекомендует повышать надёжность.
#claudecode #черный
———
@tsingular
✍11👍4🔥3⚡1
На Epoch.ai теперь появился раздел с датацентрами.
Можно посмотреть общую статистику (на скриншоте пример с логарифмической шкалой), включая прогнозы по стройке, детали по каждому датацентру и локацию на карте мира.
На сегодня, как ни странно, самый мощный, - Антропик. 1092 MW, 690К H100. Стоимость в ценах прошлого года - $35B
Что интересно, - прогнозы стройки этого года все крутятся вокруг 1млн аналога H100 по мощности. Таких центров будет уже больше 10ти, а вот уже в 2027м появятся датацентры с мощностью 5млн видеокарт, если измерять в H100 эквиваленте. Видимо развернут B300 уже.
И если верить графику,- то это будет Майкрософт (читай - OpenAI).
Самые мощные модели сегодняшнего дня были обучены в датацентрах с 600К карт в пределе.
т.е. в 27м х10 по компьюту даст нам в 28м модели в 10 раз (грубо) умнее нынешних. (х10 за 2 года, да.)
Вот это будет интересно посмотреть.
#Epoch #forecast #датацентры
———
@tsingular
Можно посмотреть общую статистику (на скриншоте пример с логарифмической шкалой), включая прогнозы по стройке, детали по каждому датацентру и локацию на карте мира.
На сегодня, как ни странно, самый мощный, - Антропик. 1092 MW, 690К H100. Стоимость в ценах прошлого года - $35B
Что интересно, - прогнозы стройки этого года все крутятся вокруг 1млн аналога H100 по мощности. Таких центров будет уже больше 10ти, а вот уже в 2027м появятся датацентры с мощностью 5млн видеокарт, если измерять в H100 эквиваленте. Видимо развернут B300 уже.
И если верить графику,- то это будет Майкрософт (читай - OpenAI).
Самые мощные модели сегодняшнего дня были обучены в датацентрах с 600К карт в пределе.
т.е. в 27м х10 по компьюту даст нам в 28м модели в 10 раз (грубо) умнее нынешних. (х10 за 2 года, да.)
Вот это будет интересно посмотреть.
#Epoch #forecast #датацентры
———
@tsingular
1✍6⚡3❤3🔥3
Google TPUv7: реальная угроза Nvidia
Вышел интересный детальный разбор от Semianalysis по ситуации с TPUv7 от Google и его конкурентноспособности с NVidia.
Anthropic заказал миллион TPUv7 Ironwood у Google - 400 тысяч купит напрямую у Broadcom за $10 млрд, ещё 600 тысяч арендует через GCP за $42 млрд.
OpenAI тоже подсуетились - выбили у Nvidia скидку 30% на весь объем просто угрозой перехода на TPUv7.
Технически TPUv7 почти догнал GB200 по FLOPs (4.6 петафлопс vs 5), но TCO на 44% ниже.
Техническая начинка TPU v7:
- 4.7 PFLOPS (FP8), 192GB HBM3E
- ICI сеть: до 9,216 TPU в едином кластере через 3D-тор
- Реконфигурируемая топология через оптические коммутаторы (OCS)
- Жидкостное охлаждение с активным контролем потока
Кстати, Gemini 3 и Claude 4.5 Opus обучены полностью на TPU.
Основной затык был с софтом, но Google активно дорабатывает библиотеки,- Pytorch, поддержку в vLLM и т.д.
Больше компьюта на киловатт, - всегда полезно.
Ещё интересно что Китай выкатит по железу в этом году.
Так, глядишь, всем миром и отменят монополию Nvidia, а там и квантовые процессоры подтянутся.
#TPU #Anthropic #Nvidia
———
@tsingular
Вышел интересный детальный разбор от Semianalysis по ситуации с TPUv7 от Google и его конкурентноспособности с NVidia.
Anthropic заказал миллион TPUv7 Ironwood у Google - 400 тысяч купит напрямую у Broadcom за $10 млрд, ещё 600 тысяч арендует через GCP за $42 млрд.
OpenAI тоже подсуетились - выбили у Nvidia скидку 30% на весь объем просто угрозой перехода на TPUv7.
Технически TPUv7 почти догнал GB200 по FLOPs (4.6 петафлопс vs 5), но TCO на 44% ниже.
Техническая начинка TPU v7:
- 4.7 PFLOPS (FP8), 192GB HBM3E
- ICI сеть: до 9,216 TPU в едином кластере через 3D-тор
- Реконфигурируемая топология через оптические коммутаторы (OCS)
- Жидкостное охлаждение с активным контролем потока
Кстати, Gemini 3 и Claude 4.5 Opus обучены полностью на TPU.
Основной затык был с софтом, но Google активно дорабатывает библиотеки,- Pytorch, поддержку в vLLM и т.д.
Больше компьюта на киловатт, - всегда полезно.
Ещё интересно что Китай выкатит по железу в этом году.
Так, глядишь, всем миром и отменят монополию Nvidia, а там и квантовые процессоры подтянутся.
#TPU #Anthropic #Nvidia
———
@tsingular
✍11⚡5👍5❤1🏆1
Forwarded from Пост Лукацкого
Наткнулся тут на исследование "Frontier AI Trends Report" от AI Security Institute (AISI), где проанализированы реальные результаты тестирования передовых моделей ИИ за последние ~2 года. Он охватывает несколько сфер, в том числе и кибербезопасность. Главный вывод: современные модели ИИ существенно улучшили свои способности в задачах, связанных с ИБ 🙂
Если в начале 2024 г. такие системы могли справляться только с простыми "ученическими"👶 задачами в сфере ИБ где-то в 10% случаев, то к концу 2025 года они выполняют такие задачи примерно в 50% случаев без помощи человека. Более того, впервые в 2025-м тестируемая модель смогла выполнить задачу экспертного уровня, то есть ту, которая традиционно требует десятилетнего опыта специалиста-человека 👨🏼
Речь пока не идет о полностью автоматическом взломе сложной сети, но о конкретных измеряемых аспектах разных киберзадач, например:
➡️ распознавание уязвимостей в коде,
➡️ обход некоторых элементарных проверок,
➡️ выполнение этапов, которые раньше считались прерогативой опытного профессионала 🤖
AISI замеряет, как ИИ способен выполнять "тяжелые" задачи без помощи человека, оценивая их в эквиваленте времени, которое бы на них потратил человек-специалист🕙 По наблюдениям института безопасности ИИ за ~8 месяцев ИИ-возможности примерно удваиваются, то есть модели все чаще и успешнее справляются с более сложными кибер-задачами. А развитие возможностей – это не только польза, но и риск, потому что такие ИИ-системы потенциально могут облегчить работу атакующих, снизив барьер входа в сложные техники 😔
Также отчет отмечает, что:
➡️ при попытках "обойти защиту" (jailbreak) современные модели стали намного труднее взламывать, чем раньше – среднее время нахождения универсальной лазейки выросло от минут до часов, то есть примерно в 40 раз.
➡️ тем не менее в каждом тестируемом случае исследователи находили уязвимости – ни одна система пока не идеальна.
Это говорит о том, что разработчики активно работают над все новыми и новыми барьерами безопасности, но одновременно с ростом возможностей моделей растет и сложность защиты🤖
Не могу сказать, что отчет как-то по-новому открыл глаза на применение ИИ в ИБ; он интересен анализом текущего уровня возможностей ИИ в ИБ. И, что интересно с практической точки зрения, оценкой удваивания возможностей ИИ каждые 8 месяцев🤔
#ии #тенденции
Если в начале 2024 г. такие системы могли справляться только с простыми "ученическими"
Речь пока не идет о полностью автоматическом взломе сложной сети, но о конкретных измеряемых аспектах разных киберзадач, например:
AISI замеряет, как ИИ способен выполнять "тяжелые" задачи без помощи человека, оценивая их в эквиваленте времени, которое бы на них потратил человек-специалист
Также отчет отмечает, что:
Это говорит о том, что разработчики активно работают над все новыми и новыми барьерами безопасности, но одновременно с ростом возможностей моделей растет и сложность защиты
Не могу сказать, что отчет как-то по-новому открыл глаза на применение ИИ в ИБ; он интересен анализом текущего уровня возможностей ИИ в ИБ. И, что интересно с практической точки зрения, оценкой удваивания возможностей ИИ каждые 8 месяцев
#ии #тенденции
Please open Telegram to view this post
VIEW IN TELEGRAM
✍5👍4❤3⚡2
Media is too big
VIEW IN TELEGRAM
Unitree H2 уже сделал кунг-фу зарядку.
А ты? :)
Терминатор, кстати, такое не умел.
#unitree #роботы
———
@tsingular
А ты? :)
Терминатор, кстати, такое не умел.
#unitree #роботы
———
@tsingular
🤯9🆒5👾2❤🔥1💯1