Технозаметки Малышева
8.27K subscribers
3.72K photos
1.39K videos
40 files
3.91K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
На Epoch.ai теперь появился раздел с датацентрами.

Можно посмотреть общую статистику (на скриншоте пример с логарифмической шкалой), включая прогнозы по стройке, детали по каждому датацентру и локацию на карте мира.

На сегодня, как ни странно, самый мощный, - Антропик. 1092 MW, 690К H100. Стоимость в ценах прошлого года - $35B

Что интересно, - прогнозы стройки этого года все крутятся вокруг 1млн аналога H100 по мощности. Таких центров будет уже больше 10ти, а вот уже в 2027м появятся датацентры с мощностью 5млн видеокарт, если измерять в H100 эквиваленте. Видимо развернут B300 уже.
И если верить графику,- то это будет Майкрософт (читай - OpenAI).

Самые мощные модели сегодняшнего дня были обучены в датацентрах с 600К карт в пределе.

т.е. в 27м х10 по компьюту даст нам в 28м модели в 10 раз (грубо) умнее нынешних. (х10 за 2 года, да.)
Вот это будет интересно посмотреть.

#Epoch #forecast #датацентры
———
@tsingular
1633🔥3
Google TPUv7: реальная угроза Nvidia

Вышел интересный детальный разбор от Semianalysis по ситуации с TPUv7 от Google и его конкурентноспособности с NVidia.

Anthropic заказал миллион TPUv7 Ironwood у Google - 400 тысяч купит напрямую у Broadcom за $10 млрд, ещё 600 тысяч арендует через GCP за $42 млрд.

OpenAI тоже подсуетились - выбили у Nvidia скидку 30% на весь объем просто угрозой перехода на TPUv7.

Технически TPUv7 почти догнал GB200 по FLOPs (4.6 петафлопс vs 5), но TCO на 44% ниже.

Техническая начинка TPU v7:
- 4.7 PFLOPS (FP8), 192GB HBM3E
- ICI сеть: до 9,216 TPU в едином кластере через 3D-тор
- Реконфигурируемая топология через оптические коммутаторы (OCS)
- Жидкостное охлаждение с активным контролем потока

Кстати, Gemini 3 и Claude 4.5 Opus обучены полностью на TPU.

Основной затык был с софтом, но Google активно дорабатывает библиотеки,- Pytorch, поддержку в vLLM и т.д.

Больше компьюта на киловатт, - всегда полезно.
Ещё интересно что Китай выкатит по железу в этом году.
Так, глядишь, всем миром и отменят монополию Nvidia, а там и квантовые процессоры подтянутся.

#TPU #Anthropic #Nvidia
———
@tsingular
115👍41🏆1
Наткнулся тут на исследование "Frontier AI Trends Report" от AI Security Institute (AISI), где проанализированы реальные результаты тестирования передовых моделей ИИ за последние ~2 года. Он охватывает несколько сфер, в том числе и кибербезопасность. Главный вывод: современные модели ИИ существенно улучшили свои способности в задачах, связанных с ИБ 🙂

Если в начале 2024 г. такие системы могли справляться только с простыми "ученическими" 👶 задачами в сфере ИБ где-то в 10% случаев, то к концу 2025 года они выполняют такие задачи примерно в 50% случаев без помощи человека. Более того, впервые в 2025-м тестируемая модель смогла выполнить задачу экспертного уровня, то есть ту, которая традиционно требует десятилетнего опыта специалиста-человека 👨🏼

Речь пока не идет о полностью автоматическом взломе сложной сети, но о конкретных измеряемых аспектах разных киберзадач, например:
➡️ распознавание уязвимостей в коде,
➡️ обход некоторых элементарных проверок,
➡️ выполнение этапов, которые раньше считались прерогативой опытного профессионала 🤖

AISI замеряет, как ИИ способен выполнять "тяжелые" задачи без помощи человека, оценивая их в эквиваленте времени, которое бы на них потратил человек-специалист 🕙 По наблюдениям института безопасности ИИ за ~8 месяцев ИИ-возможности примерно удваиваются, то есть модели все чаще и успешнее справляются с более сложными кибер-задачами. А развитие возможностей – это не только польза, но и риск, потому что такие ИИ-системы потенциально могут облегчить работу атакующих, снизив барьер входа в сложные техники 😔

Также отчет отмечает, что:
➡️ при попытках "обойти защиту" (jailbreak) современные модели стали намного труднее взламывать, чем раньше – среднее время нахождения универсальной лазейки выросло от минут до часов, то есть примерно в 40 раз.
➡️ тем не менее в каждом тестируемом случае исследователи находили уязвимости – ни одна система пока не идеальна.
Это говорит о том, что разработчики активно работают над все новыми и новыми барьерами безопасности, но одновременно с ростом возможностей моделей растет и сложность защиты 🤖

Не могу сказать, что отчет как-то по-новому открыл глаза на применение ИИ в ИБ; он интересен анализом текущего уровня возможностей ИИ в ИБ. И, что интересно с практической точки зрения, оценкой удваивания возможностей ИИ каждые 8 месяцев 🤔

#ии #тенденции
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍432
Media is too big
VIEW IN TELEGRAM
Unitree H2 уже сделал кунг-фу зарядку.
А ты? :)

Терминатор, кстати, такое не умел.

#unitree #роботы
———
@tsingular
🤯9🆒5👾2❤‍🔥1💯1
🧠 Архитектура важнее данных: сверточные сети имитируют мозг без обучения

Исследователи из университета Джона Хопкинса показали, что правильно спроектированные нейросети начинают работать как человеческий мозг ещё ДО обучения на данных. Это переворачивает парадигму "больше данных = лучше результат".

Суть открытия:
Исследователи сравнили три архитектуры — трансформеры, полносвязные и сверточные сети — без предварительного обучения.

Показывали им изображения и сравнивали активность с реакциями мозга людей и приматов.

Результат: только сверточные сети с правильными настройками показали паттерны активности, схожие с визуальной корой.

Трансформеры и полносвязные — нет.

Ключевые находки:
Сжатие в пространственном измерении (pooling) + расширение в измерении признаков (больше каналов) = реакции, подобные мозговым

Необученные сверточные сети показали результаты на уровне AlexNet, обученного на миллионах изображений

Эффект работает только в свёрточной архитектуре, - в других такой подход не работает.

Почему это важно:
Сейчас AI-индустрия строит датацентры размером с города и тратит сотни миллиардов на данные. А человек учится видеть на минимуме примеров.

Вывод авторов: эволюция сошлась на этом дизайне не случайно. Правильная архитектура даёт AI выгодную стартовую точку — и значительно ускоряет обучение при меньших затратах.

Практическая польза:
- Снижение стоимости обучения моделей
- Меньше энергопотребление
- Быстрее итерации в R&D
- Новое поколение энергоэффективного AI

Код и модель доступны тут: github.com/akazemian/untrained_models_of_visual_cortex

Код создаёт простую нейросеть из 5 слоёв, которая не обучается, - её веса задаются случайно один раз и остаются без изменений.
Через эту сеть прогоняют картинки, получают на выходе числовые "отпечатки" каждой картинки, а затем проверяют, насколько эти отпечатки похожи на реакции настоящего мозга (обезьян и людей) на те же картинки.

Главный трюк в том, что сеть устроена как зрительная кора: на каждом слое она сжимает пространство (из большой картинки делает маленькую) и одновременно раздувает количество признаков (вместо 3 цветов — тысячи абстрактных характеристик).

И вот как раз подбор правильной архитектуры сжатия-расширения позволяет необученной сети выдавать паттерны активности, почти неотличимые от тех, что показывают сети, обученные на миллионах изображений.

#Neuroscience #CNN #JohnsHopkins #Architecture
———
@tsingular
👍1665🤔2
CES 2026: гигантский телевизор от Samsung с AI

Самсунг представил 130 дюймовый телевизор на MicroRGB технологии, которая обеспечивает лучшую цветопередачу.

Телевизор поддерживает собственного Bixby ассистента, а так же интеграцию с ассистентами Майкрософт и Perplexity, которые помогут найти передачу, сделать краткий пересказ сюжета сериала или ответить на любые вопросы зрителя.

Функция AI Sound Controller позволит независимо регулировать громкость диалогов, музыки и звуковых эффектов.

Под 130 дюймов (3 метра 30 сантиметров) придётся расширять гостиную.

#Samsung #CES2026
———
@tsingular
🔥6🤯422
⚛️ Ядерные реакторы с авианосцев — для дата-центров?

Техасская компания HGP Intelligent Energy предложила Минэнерго США перепрофилировать реакторы с военных кораблей ВМС для питания дата-центров в Ок-Ридже, Теннесси.

Цифры:
- 1 реактор, это 450-520 МВт мощности (≈360 000 домов)
- $1-4 млн за МВт — в разы дешевле строительства новых реакторов
- $1.8-2.1 млрд частных инвестиций
- Первая фаза — к 2029 году

Почему это возможно именно сейчас:
В октябре 2025 DOE запустило программу Energy Dominance Financing, - $250 млрд госгарантий по кредитам на энергопроекты. Критерии расширены: теперь подходят проекты для "обеспечения надёжности электросетей", - идеально под задачу.

Контекст:
- Новые АЭС — это 10+ лет
- Малые модульные реакторы — ещё в разработке
- Газовые станции — тоже годы строительства

А вот реакторы A4W (Westinghouse) и S8G (GE) с кораблей — уже существуют и работают

Риски: гражданское использование военных реакторов.
Если сработает — это может стать самым быстрым способом запитать AI-рынок энергией.

С другой стороны, - идеальная стратегия для обновления атомного флота.
- "это нам всё для ИИ, не отвлекайтесь"

#энергетика #ядерная #датацентры
———
@tsingular
🔥843
HKUDS DeepTutor: AI-репетитор с мульти-агентной архитектурой

HKUDS (те самые разработчики LightRAG, DeepCode, AutoAgent, RAG Anything и AI-trader) выкатили новый подарок под новый год, - теперь это полноценная образовательная платформа DeepTutor.

Open-source система, которая превращает любые документы в интерактивного репетитора.

Что под капотом:
- Dual-loop reasoning: RAG + web search + code execution в одной связке
- Knowledge Graph + Vector Store для семантических связей
- Мульти-агентная архитектура: отдельные модули для решения задач, генерации вопросов, deep research

Киллер-фичи:
- Загружаешь учебник → получаешь пошаговые объяснения с визуализацией
- Загружаешь экзамен → система клонирует стиль и генерит похожие задачи
- Automated IdeaGen — brainstorming с фильтрацией через RAG и веб-поиск
- Podcast generation из исследовательских материалов

Практическая польза:
- Студентам: персональный репетитор по любому предмету 24/7
- Исследователям: literature review + генерация новых направлений
- Преподавателям: автоматическая генерация тестов под стиль курса

Docker-деплой в одну команду. Поддержка локальных LLM через ollama в планах.

По сути — NotebookLM на стероидах, только self-hosted и с контролем над всем пайплайном.

#DeepTutor #HKUDS #RAG #Education #OpenSource #Китай
———
@tsingular
🔥1181
Forwarded from e/acc
За праздники посмотрел 30+ проектов автоматизации на Claude Code. Честно, офигел от масштаба.

Самое интересное — большинство построили нетехнические люди. Юрист из Anthropic Марк Пайк сам собрал систему проверки маркетинговых материалов. Раньше это занимало дни, теперь часы. Маркетолог из Strategic Nerds автоматизировал свои фреймворки позиционирования за выходные.

В корпорациях похожая картина. Thomson Reuters встроил Claude в CoCounsel для проверки контрактов. Matillion добавила AI-ассистента для пайплайнов — создание сократилось с 40 часов до одного.

У персональных проектов другой паттерн. Люди строят себе "life OS" — связка Claude Code + Obsidian + GitHub. Ютубер Kenny Liao использует это для ресёрча контента. AI Maker собрал систему для рассылок. Claudesidian это готовый шаблон для Obsidian с трекингом привычек и дневником. Daniel Miessler выложил целую инфраструктуру PAI для построения персонального ИИ.

Общее между корпоративными и персональными кейсами — один человек теперь может строить системы, которые раньше требовали команды инженеров. Не в смысле "заменяет программистов", а в смысле — порог входа упал радикально.

Скоро большинство офисных функций будут использовать подобные агентские системы. Причём системы будут эволюционировать по мере того, как команды их тюнят под свои задачи.
🔥16421🤣1🗿1
Claude Code 2.0: Практический гайд

Интересный гайд по CC от разработчика, перепробовавшего все топовые CLI-агенты (Codex, Cursor, GPT-5.1), и остановившегося на Claude Code с Opus 4.5.

Разбираем почему и что полезного взять на вооружение.

Почему Opus 4.5:
- Быстрее конкурентов при том же качестве кода
- Лучше понимает намерения, не игнорирует инструкции
- Разговорный стиль вместо сухих буллетов

Интересно, что для код-ревью автор использует GPT-5.2-Codex, - он точнее находит баги.

Ключевые команды:
/context
— заполненность контекста (handoff при ~60%)
/ultrathink — глубокое размышление для сложных задач
Esc + Esc — откат к чекпоинту
Ctrl + R — поиск по истории промптов

Субагенты — фишка CC:
Основной агент запускает отдельные инстансы Claude через Task tool. Explore-агент ищет по коду на Haiku, но можно сказать «Launch explore agent with Sonnet 4.5» для сложных случаев.

Контекст-инжиниринг — главный инсайт:
- Каждый tool call + результат съедает токены. Простая задача = 6K+ токенов. - Эффективный контекст ≈ 50-60% от максимума. Не начинайте сложную задачу на полпути планирования. Сначала дожмите План.
- Skills — загружаются по запросу, позволяют не раздувать системный промпт.
- Hooks — триггеры на этапы цикла (звук после завершения, автопромпты).

Рабочий процесс:
- Исследование (планирование) → вопросы, ASCII-диаграммы
- /ultrathink + микроменеджмент
- Первый черновик в топку → сравнение, чек на ошибки → второй подход
- Ревью через Codex

Полная версия (eng)

В целом похоже на то, что излагал Борис Чёрный, но с бОльшим количеством деталей.
Рекомендуется к прочтению.

#ClaudeCode #агенты #обучение
———
@tsingular
6🔥4👍32👀1
Ближайшее обновление Grok Imagine сможет генерить музыку, синхронизированную с видеорядом.

Это еще не музыка->видео, но [текст|картинка]->[видео с музыкой]

Ждём через год музыка->[видео с музыкой]

#Grok #Imagine
------
@tsingular
🔥14🆒311
Маск -таки что-то знает.

#сингулярность
------
@tsingular
👻65🤨511
CES2026: Gemini на Google TV

На CES2026 Google показал прокачанный Gemini для телевизоров, добавив Nano Banana и Veo — теперь можно генерить картинки и видео прямо на экране.

Поиск по Google Photos, стилизованные слайдшоу, визуальные ответы со спортивными обновлениями в реальном времени.

Ещё из интересного — голосовое управление настройками:
говоришь - «экран тусклый» → яркость увеличится,
скажешь - «не слышу диалоги» → голоса в голове станут громче.

Скоро будем как те шарообразные жители в креслах из мультика Wall-E :)

#Gemini #GoogleTV #CES2026
———
@tsingular
😁153🆒3🗿1
Media is too big
VIEW IN TELEGRAM
А вот и новый Atlas от Boston Dynamics подъехал.

Может работать, может танцевать.
Сам меняет батареи.
Работает под управлением Gemini.

- батареи хватает на 4 часа
- вес 76 кг
- рост 188 см
- 56 степеней свободы
- алюминий+титан
- максимальный груз 50кг, при длительной нагрузке - 30кг

Как вам такой работничек?

#BostonDynamics #Atlas #роботы
———
@tsingular
14🤯4👾4🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Ещё шоурил по Атласу. Тут, понятно, рендер, но показывает сценарии применимости.

#Atlas #BostonDynamics #роботы
———
@tsingular
6👾32
AMD на CES 2026: новые чипы Ryzen AI 400 и геймерский 9850X3D

AMD анонсировала Ryzen AI 400 — обновление прошлогодних чипов с небольшим разгоном (+100 МГц до 5.2 ГГц) и поддержкой памяти до 8533 МТ/с.

Обещают 1.3× по многозадачности и 1.7× по генерации контента в равнении с Intel Core Ultra 9 288V (Lunar Lake).

Для геймеров — Ryzen 7 9850X3D с 104 МБ кэша и бустом 5.6 ГГц. Плюс обновленная технология трассировки лучей Redstone.

Сравнивают с поколением Intel 2024 года, хотя новый Core Ultra Series 3 (Panther Lake) уже вышел.

#AMD #Ryzen #CES2026
———
@tsingular
👍5🔥2
Nvidia показала «рассуждающий» ИИ для беспилотных автомобилей

Дженсен Хуанг представил Alpamayo-R1 — систему для автономного вождения с рассуждениями.

Вместо чёрного ящика модель генерирует цепочки причинно-следственных объяснений перед каждым манёвром.

Архитектура:
- Cosmos-Reason обрабатывает камеры через структурированную токенизацию
- Диффузионный декодер строит траекторию за 8.75 мс
- Полный цикл решения: 99 мс на RTX 6000 Pro Blackwell

Результаты в симуляции AlpaSim:
- Потеря дороги снизились на 35% (с 17% до 11%)
- Опасные сближения сократились на 25%
- Точность планирования выросла на 12% в сложных сценариях

Железо: DRIVE AGX Thor — 1000 INT8 TOPS, 350 Вт, сертификация ISO 26262 ASIL-D.

Обучение: 700K аннотированных примеров с цепочками рассуждений плюс RL-дообучение.

Мерседес и другие партнёры уже тестируют платформу на дорогах.

#Nvidia #Alpamayo #CES2026
———
@tsingular
🔥8👍321😢1
Intel Core Ultra Series 3 — первые чипы на Intel 18A

Intel на CES 2026 представила Core Ultra Series 3 (Panther Lake) — первую платформу на техпроцессе Intel 18A, полностью разработанную и произведённую в США.

Что внутри топовых X9/X7:
- До 16 CPU-ядер + 12 Xe-ядер (интегрированная Arc)
- 50 NPU TOPS для AI-задач
- +60% скорость в многопоточных задачах по сравнению с Lunar Lake
- +77% в играх vs Lunar Lake
- До 27 часов автономности (Netflix, 1080p)

Главное изменение — впервые процессоры сертифицированы для edge-применений: робототехника, умные города, автоматизация, медицина. Работа 24/7, расширенный температурный диапазон.

Edge-бенчмарки vs NVIDIA Jetson Orin AGX 64GB:
1.9×
быстрее на LLM (вывод первого токена)
2.3× лучше производительность/ватт/доллар на видеоаналитике
4.5× выше обработка на VLA-моделях

Доступность:
- Предзаказ: 6 января 2026
- Продажи: 27 января 2026
- Edge-системы: Q2 2026

200+ дизайнов ноутбуков от партнёров в первом полугодии.

#Intel #CES2026 #PantherLake
———
@tsingular
👍8🔥42🤔2