Создатель ClaudeCode, Борис Чёрный, пишет:
За последние 30 дней 100% кода, который я разработал, был создан с помощью ClaudeCode
Таким образом, предсказание Дарио Амодеи, гендира Антропика сбылось для некоторой части разрабов в мире.
100% кода они пишут с ИИ.
Пусть даже внутри Антропика.
Будущее наступило, просто оно неравномерно распределено.
#ClaudeCode #dev
------
@tsingular
За последние 30 дней 100% кода, который я разработал, был создан с помощью ClaudeCode
Таким образом, предсказание Дарио Амодеи, гендира Антропика сбылось для некоторой части разрабов в мире.
100% кода они пишут с ИИ.
Пусть даже внутри Антропика.
Будущее наступило, просто оно неравномерно распределено.
#ClaudeCode #dev
------
@tsingular
✍20❤4😢4🗿3🤣2
This media is not supported in your browser
VIEW IN TELEGRAM
С Новым Годом, друзья!
Кратко вспомним, что взлетело в мире ИИ прикольного.
DeeepResearch - исследования с ИИ стали новым стандартом.
Вайбкодинг - практически в каждом проекте уже ведется разработка с ИИ. Некоторые разработчики уже принципиально сами не пишут код, а создают контекст, чтобы ИИ кодили надёжнее.
AI-агенты:
Manus AI — универсальный автономный агент. запущен 6 марта 2025, куплен под новый год за $2+ млрд
OpenAI Operator - запустил целую волну агентов, управляющих приложениями и браузерами
Perplexity Comet — первый AI-нативный браузер
Кодовые-ассистенты:
Claude Code, - законодатель моды. Вслед за ним подтянулись - OpenAI Codex, Gemini CLI, Qwen CLI, OpenCode и многие другие
Cursor,- AI-dev IDE, оценка взлетела до $29 млрд, вслед за ним - Windsurf, Trae, RooCode, Antigravity и многие другие сформировали целое направление.
No-code:
Lovable — full-stack приложения через чат, оценка $6.6 млрд
Bolt.new — браузерный AI-билдер, 1M+ сайтов создано
v0 by Vercel — генерация React-компонентов из текста
Base44 — создан в январе, продан Wix за $80M через 6 месяцев
n8n - взрывной рост популярности. интеграция с крупными вендорам, например с SAP.
langflow - куплен IBM - корпоративная стандартизация
LLM модели:
DeepSeek-R1 — open-source модель уровня GPT-4 за $6M (шок для индустрии), новые версии - 3.2 на уровне проприетарных
GPT-5, Opus 4.5, Gemini 3 Pro, Grok 4 - все уже превосходят людей в большинстве задач.
Qwen 3 - 70% рынка локальных моделей
рекордная производительность Minimax, GLM 4.7 и других китайских моделей.
Взрывной рост оупенсорса.
Графика:
Nanobanana, OpenAI Image 1.5, Grok Imagine - практически идеальное качество с невероятной детализацией текста.
Veo3, Sora 2 в этом году установили новые планки по качеству.
Роботы производятся уже миллионами.
Качество движений у роботов уже позволяет им выступать на сцене на равне с танцевальными коллективами.
Работать на фабриках месяцами и патрулировать границы.
С новым годом!
2026й будет очень интересным.
Если что забыл - пишите в комментариях.
#recap
———
@tsingular
Кратко вспомним, что взлетело в мире ИИ прикольного.
DeeepResearch - исследования с ИИ стали новым стандартом.
Вайбкодинг - практически в каждом проекте уже ведется разработка с ИИ. Некоторые разработчики уже принципиально сами не пишут код, а создают контекст, чтобы ИИ кодили надёжнее.
AI-агенты:
Manus AI — универсальный автономный агент. запущен 6 марта 2025, куплен под новый год за $2+ млрд
OpenAI Operator - запустил целую волну агентов, управляющих приложениями и браузерами
Perplexity Comet — первый AI-нативный браузер
Кодовые-ассистенты:
Claude Code, - законодатель моды. Вслед за ним подтянулись - OpenAI Codex, Gemini CLI, Qwen CLI, OpenCode и многие другие
Cursor,- AI-dev IDE, оценка взлетела до $29 млрд, вслед за ним - Windsurf, Trae, RooCode, Antigravity и многие другие сформировали целое направление.
No-code:
Lovable — full-stack приложения через чат, оценка $6.6 млрд
Bolt.new — браузерный AI-билдер, 1M+ сайтов создано
v0 by Vercel — генерация React-компонентов из текста
Base44 — создан в январе, продан Wix за $80M через 6 месяцев
n8n - взрывной рост популярности. интеграция с крупными вендорам, например с SAP.
langflow - куплен IBM - корпоративная стандартизация
LLM модели:
DeepSeek-R1 — open-source модель уровня GPT-4 за $6M (шок для индустрии), новые версии - 3.2 на уровне проприетарных
GPT-5, Opus 4.5, Gemini 3 Pro, Grok 4 - все уже превосходят людей в большинстве задач.
Qwen 3 - 70% рынка локальных моделей
рекордная производительность Minimax, GLM 4.7 и других китайских моделей.
Взрывной рост оупенсорса.
Графика:
Nanobanana, OpenAI Image 1.5, Grok Imagine - практически идеальное качество с невероятной детализацией текста.
Veo3, Sora 2 в этом году установили новые планки по качеству.
Роботы производятся уже миллионами.
Качество движений у роботов уже позволяет им выступать на сцене на равне с танцевальными коллективами.
Работать на фабриках месяцами и патрулировать границы.
С новым годом!
2026й будет очень интересным.
Если что забыл - пишите в комментариях.
#recap
———
@tsingular
🔥39🎄17👍7⚡5❤2🙏1🦄1
🔥20😁11✍5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
UBTECH WalkerS2 научили играть в теннис.
Полностью автономный робот-тренер.
Предсказывает траекторию мяча, подбегает по правильной траектории отбивает, используя различные техники.
С учётом стоимости тренеро-часа, - думаю очень быстро окупится.
#теннис #Walker
———
@tsingular
Полностью автономный робот-тренер.
Предсказывает траекторию мяча, подбегает по правильной траектории отбивает, используя различные техники.
С учётом стоимости тренеро-часа, - думаю очень быстро окупится.
#теннис #Walker
———
@tsingular
⚡9🔥5👍3👾3❤1
🕹 Z80-μLM: языковая модель на процессоре 1976 года
Есть тут олды, что помнят ZX Spectrum? :)
Энтузиаст запустил нейросеть на 8-битном Z80 процессоре с частотой 4 МГц. Модель с 2-битными весами упакована в 40 КБ .COM-файл под CP/M.
Как это вообще работает:
2-битная квантизация весов: {-2, -1, 0, +1}, 4 веса на байт
Триграммное хеширование входа в 128 бакетов (работает даже с опечатками!)
16-битная целочисленная арифметика, никаких float
~100K операций на каждый сгенерированный символ
Что умеет:
Чатбот с "зачатками характера" — отвечает HI, MAYBE, WHY?, AM I?
Игра "20 вопросов" — угадывает слона за 5 ходов
Проект уровня Proof of concept: показывает насколько маленькой может быть "нейросетевая личность"
Образовательный проект по QAT и низкоуровневой оптимизации
Такой вариант ретро-ностальгии с современным лицом
Осталось версию для МК-60 наколдовать :)
#Z80 #Spectrum #Retrocomputing
———
@tsingular
Есть тут олды, что помнят ZX Spectrum? :)
Энтузиаст запустил нейросеть на 8-битном Z80 процессоре с частотой 4 МГц. Модель с 2-битными весами упакована в 40 КБ .COM-файл под CP/M.
Как это вообще работает:
2-битная квантизация весов: {-2, -1, 0, +1}, 4 веса на байт
Триграммное хеширование входа в 128 бакетов (работает даже с опечатками!)
16-битная целочисленная арифметика, никаких float
~100K операций на каждый сгенерированный символ
Что умеет:
Чатбот с "зачатками характера" — отвечает HI, MAYBE, WHY?, AM I?
Игра "20 вопросов" — угадывает слона за 5 ходов
Проект уровня Proof of concept: показывает насколько маленькой может быть "нейросетевая личность"
Образовательный проект по QAT и низкоуровневой оптимизации
Такой вариант ретро-ностальгии с современным лицом
Осталось версию для МК-60 наколдовать :)
#Z80 #Spectrum #Retrocomputing
———
@tsingular
🔥35👍17❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Копируем миллиардный SAAS за 30 минут
Тут чел решил проверить, на что способен Claude Opus 4.5: решил клонировать полностью функциональный SaaS-продукт стоимостью в миллиард долларов и сделать его как минимум в 100 раз дешевле.
Первым продуктом, который пришел на ум, стал TypeForm, потому что он очень популярен, очень дорог и, теоретически, очень прост.
В результате получился OpenForm: отполированный, функциональный и открытый клон Typeform, который стоит примерно в 100 раз дешевле и может быть настроен и развернут примерно за 15 минут. Процесс сборки занял около 35 минут.
OpenForm
Мы все чаще будем встречать гиперперсонализацию в разработке.
Зачем платить за дорогое облачное решение, когда можно за пол-часа собрать для себя минимально-достаточное на порядки дешевле.
#opensource #claudecode
———
@tsingular
Тут чел решил проверить, на что способен Claude Opus 4.5: решил клонировать полностью функциональный SaaS-продукт стоимостью в миллиард долларов и сделать его как минимум в 100 раз дешевле.
Первым продуктом, который пришел на ум, стал TypeForm, потому что он очень популярен, очень дорог и, теоретически, очень прост.
В результате получился OpenForm: отполированный, функциональный и открытый клон Typeform, который стоит примерно в 100 раз дешевле и может быть настроен и развернут примерно за 15 минут. Процесс сборки занял около 35 минут.
OpenForm
Мы все чаще будем встречать гиперперсонализацию в разработке.
Зачем платить за дорогое облачное решение, когда можно за пол-часа собрать для себя минимально-достаточное на порядки дешевле.
#opensource #claudecode
———
@tsingular
🔥33❤5😐5👍3🗿2
MCP Server Chart: 25+ графиков для ИИ-ассистентов
Немного полезного в коллекцию.
MCP сервер с графиками.
Позволяет Claude, Cursor, VSCode и другим клиентам генерировать 25+ типов графиков — от классики вроде line/bar до специфики типа fishbone-диаграмм и treemap.
Наверное такое и самому навайбкодить не сложно, но тут уже готовое.
Берём, пользуемся :)
#MCP #графики
———
@tsingular
Немного полезного в коллекцию.
MCP сервер с графиками.
Позволяет Claude, Cursor, VSCode и другим клиентам генерировать 25+ типов графиков — от классики вроде line/bar до специфики типа fishbone-диаграмм и treemap.
Наверное такое и самому навайбкодить не сложно, но тут уже готовое.
Берём, пользуемся :)
#MCP #графики
———
@tsingular
✍7⚡2👍1
Semantica для GraphRAG
Интересный фреймворк для GraphRAG-систем.
Превращает неструктурированные данные в графы знаний для агентов и мультиагентных систем.
Основные фишки:
- Гибридный поиск: векторы + граф траверсал
- Автогенерация OWL онтологий через 6-этапный LLM пайплайн с валидацией HermiT/Pellet
- Поддержка разнообразных форматов: PDF, DOCX, HTML, JSON, CSV, базы, стримы
- Постоянная память для агентов с ContextGraph и ContextRetriever
- Поддержка 100+ LLM через LiteLLM, Groq, OpenAI, HuggingFace
- Дедупликация сущностей через Jaro-Winkler, детект конфликтов
#Semantica #GraphRAG
———
@tsingular
Интересный фреймворк для GraphRAG-систем.
Превращает неструктурированные данные в графы знаний для агентов и мультиагентных систем.
Основные фишки:
- Гибридный поиск: векторы + граф траверсал
- Автогенерация OWL онтологий через 6-этапный LLM пайплайн с валидацией HermiT/Pellet
- Поддержка разнообразных форматов: PDF, DOCX, HTML, JSON, CSV, базы, стримы
- Постоянная память для агентов с ContextGraph и ContextRetriever
- Поддержка 100+ LLM через LiteLLM, Groq, OpenAI, HuggingFace
- Дедупликация сущностей через Jaro-Winkler, детект конфликтов
#Semantica #GraphRAG
———
@tsingular
1✍10⚡2
Saving Country Music объявил войну синтетической музыке
Интересный прецендент.
Музыкальный блог Saving Country Music предлагает ужесточить политику оценки и публикации музыки в 2026 году: любой трек с ИИ-звуками (даже 1%) не получит рецензию.
Для текстов допускается до 49% ИИ-помощи, но звук должен быть полностью человеческим.
Все сабмиты теперь требуют раскрытия использования ИИ, как с маркировкой explicit lyrics (слова с матом).
Авторы призывают Billboard, Spotify и RIAA внедрить аналогичные метки и отделить ИИ чарты от человеческих.
Проблема: детекторы вроде DistroKid показывают 97-98% точности в лабораторных тестах, но не справляются после мастеринга или питч-шифтов.
Исследование Deezer подтвердило - после простой обработки (шум, сжатие, изменение тональности) системы распознавания перестают определять ИИ генерацию практически в 100%.
В том же Suno уже 98% из 560 треков монетизируются после лёгкой правки в DAW.
Оптяь же точного способа измерить "1% ИИ-звука в композиции" не существует - модели классифицируют песню целиком, а не посекундно. При этом если композиция собрана из нескольких треков, часть из которых генерация, а часть натуральная - это детектор вообще не поймает.
В общем есть еще о чём поспорить.
#SavingCountryMusic #Suno #музыка #регулирование
———
@tsingular
Интересный прецендент.
Музыкальный блог Saving Country Music предлагает ужесточить политику оценки и публикации музыки в 2026 году: любой трек с ИИ-звуками (даже 1%) не получит рецензию.
Для текстов допускается до 49% ИИ-помощи, но звук должен быть полностью человеческим.
Все сабмиты теперь требуют раскрытия использования ИИ, как с маркировкой explicit lyrics (слова с матом).
Авторы призывают Billboard, Spotify и RIAA внедрить аналогичные метки и отделить ИИ чарты от человеческих.
Проблема: детекторы вроде DistroKid показывают 97-98% точности в лабораторных тестах, но не справляются после мастеринга или питч-шифтов.
Исследование Deezer подтвердило - после простой обработки (шум, сжатие, изменение тональности) системы распознавания перестают определять ИИ генерацию практически в 100%.
В том же Suno уже 98% из 560 треков монетизируются после лёгкой правки в DAW.
Оптяь же точного способа измерить "1% ИИ-звука в композиции" не существует - модели классифицируют песню целиком, а не посекундно. При этом если композиция собрана из нескольких треков, часть из которых генерация, а часть натуральная - это детектор вообще не поймает.
В общем есть еще о чём поспорить.
#SavingCountryMusic #Suno #музыка #регулирование
———
@tsingular
🤔15✍3❤2🤣2🤨2
Борис Чёрный - разработчик Claude Code, поделился собственным опытом использования CC в команде
Основные тезисы:
- Запускает 5 параллельных экземпляров Claude в терминале: нумерует вкладки 1–5, использует уведомления iTerm2 для ввода (docs: https://code.claude.com/docs/en/terminal-config#iterm-2-system-notifications). Пока один агент работает - ставит задачу следующему
- Дополнительно 5–10 сессий на https://claude.ai/code: передаёт локальные в веб (через &), запускает в Chrome, переключает --teleport; стартует сессии с iOS-приложения Claude утром/днём, проверяет позже.
- использует модель Opus 4.5 с thinking mode для всего: лучше пишет код, на круг получается эффективнее чем Sonnet за счёт меньшего количества корректировок и лучшего использования инструментов.
- Общий CLAUDE.md в Git для команды Claude Code: обновления несколько раз в неделю, добавление ошибок Claude для избежания повторений; другие команды держат свои (docs: https://code.claude.com/docs/, https://t.co/pp5TJkWmFE).
- В code review тегает @.claude в PR для добавления в CLAUDE.md; GitHub action (/install-github-action) — версия "Compounding Engineering" от @danshipper.
- Все сессии начинаются в Plan mode (shift+tab x2 раза): итеративно обсуждает план для PR, затем auto-accept edits для реализации в один проход; хорошее планирование, - ключ к успеху.
- Slash-команды для inner loop workflow: экономят промпты, используются Claude; в .claude/commands/ в Git; пример /commit-push-pr с inline bash для git status.
- Subagents: code-simplifier для упрощения кода, verify-app для E2E-тестирования Claude Code; автоматизируют workflow для PR, как slash-команды.
- PostToolUse hook: форматирует код Claude для последних 10%, избегает ошибок в CI.
- Вместо --dangerously-skip-permissions использует /permissions для безопасных bash-команд; разрешения в .claude/settings.json, поделены с командой.
- Claude использует инструменты: поиск/посты в Slack (MCP в .mcp.json), BigQuery (bq CLI), логи из Sentry; конфиги поделены.
- Для длительных задач:
(a) верификация background agent;
(b) agent Stop hook;
(c) плагин ralph-wiggum (@GeoffreyHuntley);
--permission-mode=dontAsk или --dangerously-skip-permissions в sandbox.
Ключевой совет: дать Claude задачу по верификации работы (повышает качество в 2–3 раза); для claude.ai/code — тестирование в браузере с Claude Chrome extension; варьируется: bash, тесты, браузер, симулятор; рекомендует повышать надёжность.
#claudecode #черный
———
@tsingular
Основные тезисы:
- Запускает 5 параллельных экземпляров Claude в терминале: нумерует вкладки 1–5, использует уведомления iTerm2 для ввода (docs: https://code.claude.com/docs/en/terminal-config#iterm-2-system-notifications). Пока один агент работает - ставит задачу следующему
- Дополнительно 5–10 сессий на https://claude.ai/code: передаёт локальные в веб (через &), запускает в Chrome, переключает --teleport; стартует сессии с iOS-приложения Claude утром/днём, проверяет позже.
- использует модель Opus 4.5 с thinking mode для всего: лучше пишет код, на круг получается эффективнее чем Sonnet за счёт меньшего количества корректировок и лучшего использования инструментов.
- Общий CLAUDE.md в Git для команды Claude Code: обновления несколько раз в неделю, добавление ошибок Claude для избежания повторений; другие команды держат свои (docs: https://code.claude.com/docs/, https://t.co/pp5TJkWmFE).
- В code review тегает @.claude в PR для добавления в CLAUDE.md; GitHub action (/install-github-action) — версия "Compounding Engineering" от @danshipper.
- Все сессии начинаются в Plan mode (shift+tab x2 раза): итеративно обсуждает план для PR, затем auto-accept edits для реализации в один проход; хорошее планирование, - ключ к успеху.
- Slash-команды для inner loop workflow: экономят промпты, используются Claude; в .claude/commands/ в Git; пример /commit-push-pr с inline bash для git status.
- Subagents: code-simplifier для упрощения кода, verify-app для E2E-тестирования Claude Code; автоматизируют workflow для PR, как slash-команды.
- PostToolUse hook: форматирует код Claude для последних 10%, избегает ошибок в CI.
- Вместо --dangerously-skip-permissions использует /permissions для безопасных bash-команд; разрешения в .claude/settings.json, поделены с командой.
- Claude использует инструменты: поиск/посты в Slack (MCP в .mcp.json), BigQuery (bq CLI), логи из Sentry; конфиги поделены.
- Для длительных задач:
(a) верификация background agent;
(b) agent Stop hook;
(c) плагин ralph-wiggum (@GeoffreyHuntley);
--permission-mode=dontAsk или --dangerously-skip-permissions в sandbox.
Ключевой совет: дать Claude задачу по верификации работы (повышает качество в 2–3 раза); для claude.ai/code — тестирование в браузере с Claude Chrome extension; варьируется: bash, тесты, браузер, симулятор; рекомендует повышать надёжность.
#claudecode #черный
———
@tsingular
✍11👍4🔥3⚡1
На Epoch.ai теперь появился раздел с датацентрами.
Можно посмотреть общую статистику (на скриншоте пример с логарифмической шкалой), включая прогнозы по стройке, детали по каждому датацентру и локацию на карте мира.
На сегодня, как ни странно, самый мощный, - Антропик. 1092 MW, 690К H100. Стоимость в ценах прошлого года - $35B
Что интересно, - прогнозы стройки этого года все крутятся вокруг 1млн аналога H100 по мощности. Таких центров будет уже больше 10ти, а вот уже в 2027м появятся датацентры с мощностью 5млн видеокарт, если измерять в H100 эквиваленте. Видимо развернут B300 уже.
И если верить графику,- то это будет Майкрософт (читай - OpenAI).
Самые мощные модели сегодняшнего дня были обучены в датацентрах с 600К карт в пределе.
т.е. в 27м х10 по компьюту даст нам в 28м модели в 10 раз (грубо) умнее нынешних. (х10 за 2 года, да.)
Вот это будет интересно посмотреть.
#Epoch #forecast #датацентры
———
@tsingular
Можно посмотреть общую статистику (на скриншоте пример с логарифмической шкалой), включая прогнозы по стройке, детали по каждому датацентру и локацию на карте мира.
На сегодня, как ни странно, самый мощный, - Антропик. 1092 MW, 690К H100. Стоимость в ценах прошлого года - $35B
Что интересно, - прогнозы стройки этого года все крутятся вокруг 1млн аналога H100 по мощности. Таких центров будет уже больше 10ти, а вот уже в 2027м появятся датацентры с мощностью 5млн видеокарт, если измерять в H100 эквиваленте. Видимо развернут B300 уже.
И если верить графику,- то это будет Майкрософт (читай - OpenAI).
Самые мощные модели сегодняшнего дня были обучены в датацентрах с 600К карт в пределе.
т.е. в 27м х10 по компьюту даст нам в 28м модели в 10 раз (грубо) умнее нынешних. (х10 за 2 года, да.)
Вот это будет интересно посмотреть.
#Epoch #forecast #датацентры
———
@tsingular
1✍6⚡3❤3🔥3
Google TPUv7: реальная угроза Nvidia
Вышел интересный детальный разбор от Semianalysis по ситуации с TPUv7 от Google и его конкурентноспособности с NVidia.
Anthropic заказал миллион TPUv7 Ironwood у Google - 400 тысяч купит напрямую у Broadcom за $10 млрд, ещё 600 тысяч арендует через GCP за $42 млрд.
OpenAI тоже подсуетились - выбили у Nvidia скидку 30% на весь объем просто угрозой перехода на TPUv7.
Технически TPUv7 почти догнал GB200 по FLOPs (4.6 петафлопс vs 5), но TCO на 44% ниже.
Техническая начинка TPU v7:
- 4.7 PFLOPS (FP8), 192GB HBM3E
- ICI сеть: до 9,216 TPU в едином кластере через 3D-тор
- Реконфигурируемая топология через оптические коммутаторы (OCS)
- Жидкостное охлаждение с активным контролем потока
Кстати, Gemini 3 и Claude 4.5 Opus обучены полностью на TPU.
Основной затык был с софтом, но Google активно дорабатывает библиотеки,- Pytorch, поддержку в vLLM и т.д.
Больше компьюта на киловатт, - всегда полезно.
Ещё интересно что Китай выкатит по железу в этом году.
Так, глядишь, всем миром и отменят монополию Nvidia, а там и квантовые процессоры подтянутся.
#TPU #Anthropic #Nvidia
———
@tsingular
Вышел интересный детальный разбор от Semianalysis по ситуации с TPUv7 от Google и его конкурентноспособности с NVidia.
Anthropic заказал миллион TPUv7 Ironwood у Google - 400 тысяч купит напрямую у Broadcom за $10 млрд, ещё 600 тысяч арендует через GCP за $42 млрд.
OpenAI тоже подсуетились - выбили у Nvidia скидку 30% на весь объем просто угрозой перехода на TPUv7.
Технически TPUv7 почти догнал GB200 по FLOPs (4.6 петафлопс vs 5), но TCO на 44% ниже.
Техническая начинка TPU v7:
- 4.7 PFLOPS (FP8), 192GB HBM3E
- ICI сеть: до 9,216 TPU в едином кластере через 3D-тор
- Реконфигурируемая топология через оптические коммутаторы (OCS)
- Жидкостное охлаждение с активным контролем потока
Кстати, Gemini 3 и Claude 4.5 Opus обучены полностью на TPU.
Основной затык был с софтом, но Google активно дорабатывает библиотеки,- Pytorch, поддержку в vLLM и т.д.
Больше компьюта на киловатт, - всегда полезно.
Ещё интересно что Китай выкатит по железу в этом году.
Так, глядишь, всем миром и отменят монополию Nvidia, а там и квантовые процессоры подтянутся.
#TPU #Anthropic #Nvidia
———
@tsingular
✍11⚡5👍5❤1🏆1
Forwarded from Пост Лукацкого
Наткнулся тут на исследование "Frontier AI Trends Report" от AI Security Institute (AISI), где проанализированы реальные результаты тестирования передовых моделей ИИ за последние ~2 года. Он охватывает несколько сфер, в том числе и кибербезопасность. Главный вывод: современные модели ИИ существенно улучшили свои способности в задачах, связанных с ИБ 🙂
Если в начале 2024 г. такие системы могли справляться только с простыми "ученическими"👶 задачами в сфере ИБ где-то в 10% случаев, то к концу 2025 года они выполняют такие задачи примерно в 50% случаев без помощи человека. Более того, впервые в 2025-м тестируемая модель смогла выполнить задачу экспертного уровня, то есть ту, которая традиционно требует десятилетнего опыта специалиста-человека 👨🏼
Речь пока не идет о полностью автоматическом взломе сложной сети, но о конкретных измеряемых аспектах разных киберзадач, например:
➡️ распознавание уязвимостей в коде,
➡️ обход некоторых элементарных проверок,
➡️ выполнение этапов, которые раньше считались прерогативой опытного профессионала 🤖
AISI замеряет, как ИИ способен выполнять "тяжелые" задачи без помощи человека, оценивая их в эквиваленте времени, которое бы на них потратил человек-специалист🕙 По наблюдениям института безопасности ИИ за ~8 месяцев ИИ-возможности примерно удваиваются, то есть модели все чаще и успешнее справляются с более сложными кибер-задачами. А развитие возможностей – это не только польза, но и риск, потому что такие ИИ-системы потенциально могут облегчить работу атакующих, снизив барьер входа в сложные техники 😔
Также отчет отмечает, что:
➡️ при попытках "обойти защиту" (jailbreak) современные модели стали намного труднее взламывать, чем раньше – среднее время нахождения универсальной лазейки выросло от минут до часов, то есть примерно в 40 раз.
➡️ тем не менее в каждом тестируемом случае исследователи находили уязвимости – ни одна система пока не идеальна.
Это говорит о том, что разработчики активно работают над все новыми и новыми барьерами безопасности, но одновременно с ростом возможностей моделей растет и сложность защиты🤖
Не могу сказать, что отчет как-то по-новому открыл глаза на применение ИИ в ИБ; он интересен анализом текущего уровня возможностей ИИ в ИБ. И, что интересно с практической точки зрения, оценкой удваивания возможностей ИИ каждые 8 месяцев🤔
#ии #тенденции
Если в начале 2024 г. такие системы могли справляться только с простыми "ученическими"
Речь пока не идет о полностью автоматическом взломе сложной сети, но о конкретных измеряемых аспектах разных киберзадач, например:
AISI замеряет, как ИИ способен выполнять "тяжелые" задачи без помощи человека, оценивая их в эквиваленте времени, которое бы на них потратил человек-специалист
Также отчет отмечает, что:
Это говорит о том, что разработчики активно работают над все новыми и новыми барьерами безопасности, но одновременно с ростом возможностей моделей растет и сложность защиты
Не могу сказать, что отчет как-то по-новому открыл глаза на применение ИИ в ИБ; он интересен анализом текущего уровня возможностей ИИ в ИБ. И, что интересно с практической точки зрения, оценкой удваивания возможностей ИИ каждые 8 месяцев
#ии #тенденции
Please open Telegram to view this post
VIEW IN TELEGRAM
✍5👍4❤3⚡2
Media is too big
VIEW IN TELEGRAM
Unitree H2 уже сделал кунг-фу зарядку.
А ты? :)
Терминатор, кстати, такое не умел.
#unitree #роботы
———
@tsingular
А ты? :)
Терминатор, кстати, такое не умел.
#unitree #роботы
———
@tsingular
🤯9🆒6👾2❤🔥1💯1
🧠 Архитектура важнее данных: сверточные сети имитируют мозг без обучения
Исследователи из университета Джона Хопкинса показали, что правильно спроектированные нейросети начинают работать как человеческий мозг ещё ДО обучения на данных. Это переворачивает парадигму "больше данных = лучше результат".
Суть открытия:
Исследователи сравнили три архитектуры — трансформеры, полносвязные и сверточные сети — без предварительного обучения.
Показывали им изображения и сравнивали активность с реакциями мозга людей и приматов.
Результат: только сверточные сети с правильными настройками показали паттерны активности, схожие с визуальной корой.
Трансформеры и полносвязные — нет.
Ключевые находки:
Сжатие в пространственном измерении (pooling) + расширение в измерении признаков (больше каналов) = реакции, подобные мозговым
Необученные сверточные сети показали результаты на уровне AlexNet, обученного на миллионах изображений
Эффект работает только в свёрточной архитектуре, - в других такой подход не работает.
Почему это важно:
Сейчас AI-индустрия строит датацентры размером с города и тратит сотни миллиардов на данные. А человек учится видеть на минимуме примеров.
Вывод авторов: эволюция сошлась на этом дизайне не случайно. Правильная архитектура даёт AI выгодную стартовую точку — и значительно ускоряет обучение при меньших затратах.
Практическая польза:
- Снижение стоимости обучения моделей
- Меньше энергопотребление
- Быстрее итерации в R&D
- Новое поколение энергоэффективного AI
Код и модель доступны тут: github.com/akazemian/untrained_models_of_visual_cortex
Код создаёт простую нейросеть из 5 слоёв, которая не обучается, - её веса задаются случайно один раз и остаются без изменений.
Через эту сеть прогоняют картинки, получают на выходе числовые "отпечатки" каждой картинки, а затем проверяют, насколько эти отпечатки похожи на реакции настоящего мозга (обезьян и людей) на те же картинки.
Главный трюк в том, что сеть устроена как зрительная кора: на каждом слое она сжимает пространство (из большой картинки делает маленькую) и одновременно раздувает количество признаков (вместо 3 цветов — тысячи абстрактных характеристик).
И вот как раз подбор правильной архитектуры сжатия-расширения позволяет необученной сети выдавать паттерны активности, почти неотличимые от тех, что показывают сети, обученные на миллионах изображений.
#Neuroscience #CNN #JohnsHopkins #Architecture
———
@tsingular
Исследователи из университета Джона Хопкинса показали, что правильно спроектированные нейросети начинают работать как человеческий мозг ещё ДО обучения на данных. Это переворачивает парадигму "больше данных = лучше результат".
Суть открытия:
Исследователи сравнили три архитектуры — трансформеры, полносвязные и сверточные сети — без предварительного обучения.
Показывали им изображения и сравнивали активность с реакциями мозга людей и приматов.
Результат: только сверточные сети с правильными настройками показали паттерны активности, схожие с визуальной корой.
Трансформеры и полносвязные — нет.
Ключевые находки:
Сжатие в пространственном измерении (pooling) + расширение в измерении признаков (больше каналов) = реакции, подобные мозговым
Необученные сверточные сети показали результаты на уровне AlexNet, обученного на миллионах изображений
Эффект работает только в свёрточной архитектуре, - в других такой подход не работает.
Почему это важно:
Сейчас AI-индустрия строит датацентры размером с города и тратит сотни миллиардов на данные. А человек учится видеть на минимуме примеров.
Вывод авторов: эволюция сошлась на этом дизайне не случайно. Правильная архитектура даёт AI выгодную стартовую точку — и значительно ускоряет обучение при меньших затратах.
Практическая польза:
- Снижение стоимости обучения моделей
- Меньше энергопотребление
- Быстрее итерации в R&D
- Новое поколение энергоэффективного AI
Код и модель доступны тут: github.com/akazemian/untrained_models_of_visual_cortex
Код создаёт простую нейросеть из 5 слоёв, которая не обучается, - её веса задаются случайно один раз и остаются без изменений.
Через эту сеть прогоняют картинки, получают на выходе числовые "отпечатки" каждой картинки, а затем проверяют, насколько эти отпечатки похожи на реакции настоящего мозга (обезьян и людей) на те же картинки.
Главный трюк в том, что сеть устроена как зрительная кора: на каждом слое она сжимает пространство (из большой картинки делает маленькую) и одновременно раздувает количество признаков (вместо 3 цветов — тысячи абстрактных характеристик).
И вот как раз подбор правильной архитектуры сжатия-расширения позволяет необученной сети выдавать паттерны активности, почти неотличимые от тех, что показывают сети, обученные на миллионах изображений.
#Neuroscience #CNN #JohnsHopkins #Architecture
———
@tsingular
👍16✍6⚡5🤔3
CES 2026: гигантский телевизор от Samsung с AI
Самсунг представил 130 дюймовый телевизор на MicroRGB технологии, которая обеспечивает лучшую цветопередачу.
Телевизор поддерживает собственного Bixby ассистента, а так же интеграцию с ассистентами Майкрософт и Perplexity, которые помогут найти передачу, сделать краткий пересказ сюжета сериала или ответить на любые вопросы зрителя.
Функция AI Sound Controller позволит независимо регулировать громкость диалогов, музыки и звуковых эффектов.
Под 130 дюймов (3 метра 30 сантиметров) придётся расширять гостиную.
#Samsung #CES2026
———
@tsingular
Самсунг представил 130 дюймовый телевизор на MicroRGB технологии, которая обеспечивает лучшую цветопередачу.
Телевизор поддерживает собственного Bixby ассистента, а так же интеграцию с ассистентами Майкрософт и Perplexity, которые помогут найти передачу, сделать краткий пересказ сюжета сериала или ответить на любые вопросы зрителя.
Функция AI Sound Controller позволит независимо регулировать громкость диалогов, музыки и звуковых эффектов.
Под 130 дюймов (3 метра 30 сантиметров) придётся расширять гостиную.
#Samsung #CES2026
———
@tsingular
🔥7🤯4❤2 2