Анализ анализ утекшего сегодня исходного кода Claude Code подтвердил давно циркулирующую в сети гипотезу о том, что преимущество Claude Code над веб-интерфейсом не в языковой модели, а в обвязке вокруг нее.
Если подставить в эту архитектуру другую модель (DeepSeek, MiniMax или Kimi) и адаптировать системные инструкции, результат будет сопоставим с оригиналом.
Модель ориентируется в проекте еще до первого запроса пользователя. Статичные части промпта отделены от динамических специальными маркерами и кэшируются глобально, что избавляет от повторной сборки контекста при каждом обращении.
Для поиска файлов предусмотрен отдельный Glob-инструмент, а для навигации по коду - инструмент на базе LSP, который открывает доступ к иерархии вызовов и ссылкам между сущностями. Благодаря этому модель воспринимает код не как статичный текст, а как структуру с зависимостями.
Claude Code дедуплицирует чтение файлов: если файл не изменился, повторно он не обрабатывается. Слишком объемные результаты инструментов выносятся на диск, а в контексте остается лишь превью со ссылкой. Длинные контексты автоматически усекаются и суммаризуются.
В нем создаются разделы: состояние задачи, рабочие файлы и функции, ошибки, выводы, рабочий лог. Это некий цифровой аналог заметок, которые разработчик делает по ходу работы.
Форкнутые процессы переиспользуют кэш родителя и учитывают мутабельные состояния. Это позволяет вести суммаризацию и фоновый анализ, не засоряя основной цикл агента.
В комментариях упоминается модель capybara-v2-fast и описаны ее особенности: чувствительность к стоп-последовательностям, склонность к избыточным аннотациям и защищенные блоки мышления.
Модели Opus 4.7 и Sonnet 4.8 фигурируют в коде лишь как примеры невыпущенных версий.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍87🔥43🤔25❤22🤓6💔3😭3😁1😨1
Парижский стартап H Company выпустил семейство мультимодальных моделей Holo3, предназначенных для управления графическими интерфейсами.
H Company (ранее Holistic AI) публично вышла на рынок в начале 2024 года. Основатели: Шарль Кантор, бывший исследователь Стэнфорда, и Лоран Сифр, ветеран Google DeepMind и один из ключевых участников проекта AlphaGo.
Посевной раунд составил $220 млн - один из крупнейших в истории европейского венчура. Среди инвесторов: Эрик Шмидт, Юрий Мильнер, Бернар Арно, Ксавье Ньель, а также Amazon, Samsung и UiPath.
Старшая Holo3-122B-A10B доступна только на платформе H Company по цене 40 центов за миллион входящих и 3 доллара за миллион выходных токенов.
Младшая версия Holo3-35B-A3B выложена на Hugging Face под лицензией Apache 2.0 и также доступна бесплатно через Inference API с ограничением в 10 PRM. В платном режиме - 0,25/1.8 доллара за миллион входных/выходных токенов.
Сначала по заданным сценариям генерируются синтетические примеры навигации по интерфейсам.
Затем данные расширяются за пределы исходных условий, чтобы модель учитывала нестандартные ситуации.
На финальном этапе все примеры проходят курируемый отбор и обучение с подкреплением.
Для тренировки H Company построила генератор синтетических корпоративных сред, в котором агенты создают веб-приложения по спецификациям сценариев, формируя верифицируемые задачи разной сложности.
На базе этих сред разработан H Corporate Benchmarks - набор из 486 многошаговых задач в 4 категориях: электронная коммерция, бизнес-ПО, инструменты совместной работы и межприложенческие сценарии.
Последние требуют координации между несколькими системами одновременно (скажем, извлечь цены из PDF, сопоставить их с бюджетами сотрудников и автоматически разослать персонализированные письма с одобрением или отказом).
Флагманская Holo3-122B-A10B набрала 78,85% на бенчмарке OSWorld-Verified - это лучший результат на ведущем тесте взаимодействия с рабочим столом.
@ai_machinelearning_big_data
#AI #ML #MMLM #Holo3 #HCompany
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👨💻110👍28🤩25❤16💯16🔥6👏6🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
🌔 Люди снова летят к Луне - впервые за 54 года.
Ракета NASA только что успешно стартовала с четырьмя астронавтами на борту.
Этот полёт - не просто символический. Корабль уйдёт на рекордные 407 000 км от Земли - дальше, чем когда-либо летал человек.
Следующий шаг - уже не мечты:
высадка на Луну запланирована на 2028 год.
@ai_machinelearning_big_data
#space
Ракета NASA только что успешно стартовала с четырьмя астронавтами на борту.
Этот полёт - не просто символический. Корабль уйдёт на рекордные 407 000 км от Земли - дальше, чем когда-либо летал человек.
Следующий шаг - уже не мечты:
высадка на Луну запланирована на 2028 год.
@ai_machinelearning_big_data
#space
🔥207❤84👏27👍14😁8🤣7🌚5
Media is too big
VIEW IN TELEGRAM
Компания направила GitHub жалобу в рамках DMCA, потребовав заблокировать доступ к утекшему коду Claude Code. Платформа полностью удовлетворила запрос и зачистила репозитории с нелегальным контентом.
Под блокировку попал родительский репозиторий
nirholas/claude-code и все его форки - в общей сложности 8100 проектов. Представитель Anthropic заявил, что содержимое этих репозиториев целиком нарушает авторские права компании.github.com
LFM2.5-350M - крошечная модель на 350 млн параметров. В нее влили 28 трлн. токенов и отполировали обучением с подкреплением. В квантованном виде вся эта радость весит меньше 500 МБ.
При столь скромных размерах она уверенно справляется с задачами агентных циклов, извлечением структурированных данных и вызовом внешних инструментов.
Разработчики говорят, что по сравнению с прошлой версией новинка стала в 2 раза лучше понимать инструкции и работать с функциями. Модель заводится локально на CPU, видеокартах и мобильных чипах. Плюс из коробки нативно поддерживается железо AMD, Intel и Qualcomm.
liquid.ai
Вышедший из стелс-режима стартап PrismML, созданный выходцами из Калтеха, придумал интересную концепцию - «плотность интеллекта». Суть в том, чтобы мерить полезную работу модели на гигабайт используемой памяти.
Чтобы не быть голословными, они релизнули семейство моделей Bonsai, с флагманом на 8B во главе. У модели однобитные веса, поэтому занимает она 1,15 ГБ. Заявлено, что при сохранении качества генерации она в 14 раз меньше, в 8 раз быстрее и в 5 раз экономнее аналогов в той же весовой категории. Плотность интеллекта оценивается в 1,06/ГБ против 0,10/ГБ у стандартных полноразмерных моделей на 8B.
В довесок к 8В идут легкие версии на 4B и 1,7B параметров. Код и веса - в опенсорсе под лицензией Apache 2.0.
prismml.com
Техногигант вынужден пойти на массовые сокращения из-за финансового давления, вызванного многомиллиардными инвестициями в ИИ. Пытаясь догнать конкурентов на рынке, Oracle привлекла огромные кредиты для строительства дата-центров и планировала привлечь еще 50 млрд. долларов на расширение инфраструктуры.
Высокая долговая нагрузка и снижение денежного потока вызвали обеспокоенность инвесторов - с начала года акции Oracle рухнули на 25%. Компания пока отказывается комментировать увольнения, однако руководство верит, что ИИ-стратегия окупится в долгосрочной перспективе.
Топ-менеджмент уверен, что спрос на ИИ-инфраструктуру остается большим и неудовлетворенным, а портфель контрактных обязательств на 553 млрд. долларов является прямым доказательством востребованности их решений на рынке.
businessinsider.com
Проект Панкаджа Гупты стал одной из первых крупных потерь ИИ-бума. Несмотря на финансирование при участии a16z, Джеффа Дина из Google и CEO Perplexity, а также базу в 1,3 млн. пользователей, компания так и не нашла востребованность на рынке.
Yupp развивал платформу краудсорсинга: пользователи за вознаграждение оценивали ответы более 500 ИИ-моделей, а лаборатории покупали эти данные для улучшения продуктов. Но эволюция технологий уничтожила эту бизнес-модель. Фокус сместился с чат-ботов на сложные агентные архитектуры, напрямую взаимодействующие со сторонними сервисами, API и реальными данными.
Ручная оценка текстовых генераций потеряла ценность для инженеров. Поняв, что подход больше не имеет экономической перспективы, команда решила закрыть бизнес. Неизрасходованный капитал вернут инвесторам, а Yupp проработает до середины апреля в режиме экспорта пользовательских данных.
yupp.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔92👍66❤34😢18🔥4👏4🤣3😐2🫡1🦄1
Forwarded from Норникель
Наш путь — комбинация ИИ и робототехники
🖥 Комбинация искусственного интеллекта и робототехники — не сценарий из будущего, а практический путь развития современной промышленности. Именно эту мысль директор департамента технологических инноваций «Норникеля» Алексей Тестин обозначил на форуме «ТОЛК-2026».
«ТОЛК Форум» — часть «ТОЛК-2026», крупнейшего в России форума-интенсива от частного бизнеса о финансах и инвестициях, где бизнес, власть и экспертное сообщество обсуждают ключевые вопросы развития экономики и технологий.
📄 Среди участников и спикеров форума — глава Банка России Эльвира Набиуллина, заместитель руководителя Администрации Президента Максим Орешкин и другие представители российского и международного экспертного сообщества.
💬 Алексей Тестин выступил в сессии «Что после ИИ-пузыря? Во что будем инвестировать до 2035 года» и рассказал о решениях «Норникеля», которые уже дают измеримый эффект бизнесу.
Машинное обучение и предиктивные алгоритмы компания внедряет в промышленность почти пять лет. Этот стек уже приносит «Норникелю» около 10 млрд ₽ в год — за счет влияния на EBITDA и дополнительных металлов, которые удается получать благодаря более точным моделям и прогнозам.
▶️ Но следующий шаг — роботизация. Рудники компании работают на глубине до 2 километров, и в таких условиях требования к безопасности, точности и устойчивости технологий становятся только выше. При этом эффект от ИИ — это во многом еще и эффект от снижения погрешностей, которые неизбежны при ручном управлении: человек просто не может работать с той же точностью, что алгоритм и машина в связке.
Именно поэтому ставка «Норникеля» — на комбинацию ИИ и робототехники как на будущую точку роста. Не в отрыве от практики, а на базе уже созданной технологической инфраструктуры: ML-кластеров на площадках компании, выстроенных процессов работы с подрядчиками, сильного контура информационной безопасности и собственной платформы внедрения.
📌 Такой подход показывает, что технологические инновации для «Норникеля» — не набор отдельных экспериментов, а последовательный курс на повышение эффективности, безопасности и качества производственных решений.
Следите за новостями «Норникеля» в MAX
«ТОЛК Форум» — часть «ТОЛК-2026», крупнейшего в России форума-интенсива от частного бизнеса о финансах и инвестициях, где бизнес, власть и экспертное сообщество обсуждают ключевые вопросы развития экономики и технологий.
💬 Алексей Тестин выступил в сессии «Что после ИИ-пузыря? Во что будем инвестировать до 2035 года» и рассказал о решениях «Норникеля», которые уже дают измеримый эффект бизнесу.
Машинное обучение и предиктивные алгоритмы компания внедряет в промышленность почти пять лет. Этот стек уже приносит «Норникелю» около 10 млрд ₽ в год — за счет влияния на EBITDA и дополнительных металлов, которые удается получать благодаря более точным моделям и прогнозам.
Именно поэтому ставка «Норникеля» — на комбинацию ИИ и робототехники как на будущую точку роста. Не в отрыве от практики, а на базе уже созданной технологической инфраструктуры: ML-кластеров на площадках компании, выстроенных процессов работы с подрядчиками, сильного контура информационной безопасности и собственной платформы внедрения.
Следите за новостями «Норникеля» в MAX
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓57👍22👏17😁14❤11💯5😐5🥱1
Команда Google Quantum AI совместно с исследователями Ethereum Foundation и Стэнфорда опубликовали исследование, которое рисует тревожную картину: квантовая угроза касается не отдельных блокчейнов, а криптовалютной индустрии в целом - от базовых транзакций до смарт-контрактов, механизмов консенсуса, стейблкоинов и токенизированных активов.
В центре работы - оценки ресурсов для взлома криптографии на эллиптических кривых secp256k1, которая защищает подписи в Bitcoin, Ethereum и множестве других блокчейнов.
Авторы разработали квантовые схемы, которые потребуют менее 500 тысяч физических кубитов (в 20 раз меньше, чем считалось ранее).
Для контекста: крупнейшие квантовые процессоры сегодня содержат порядка 1000 кубитов, но индустрия масштабируется быстро, и финишная черта теперь значительно ближе.
На сверхпроводящей архитектуре такая атака займёт около 9 минут при среднем времени блока Bitcoin в 10 минут. Это означает, что квантовый атакующий теоретически способен перехватить транзакцию прямо из мемпула, вычислить приватный ключ и подменить перевод до его записи в блокчейн.
Вероятность успеха такой атаки авторы оценивают примерно в 41%.
Исследование разбирает уязвимости всей криптоэкосистемы. Около 6,9 млн. BTC (порядка 35% всех монет в обращении) уже подвержены атакам по раскрытым или повторно использованным ключам, включая 1,7 млн BTC на ранних адресах эпохи Сатоши.
Современный формат Taproot (P2TR), принятый в 2021 году, парадоксальным образом вернул уязвимость, устраненную предшественниками: он снова записывает публичный ключ открыто в блокчейн.
Авторы выделяют 5 отдельных категорий:
Litecoin, Dogecoin, Bitcoin Cash, Zcash, Monero, Solana, Cardano, Rootstock - все используют криптографию на эллиптических кривых и находятся в зоне риска.
Приватные блокчейны (Zcash и Monero) столкнутся еще и с ретроактивной деанонимизацией: будущий квантовый атакующий сможет расшифровать исторические конфиденциальные транзакции.
Стейблкоины и токенизированные активы наследуют все уязвимости хост-блокчейнов, а прогнозируемый рост рынка токенизации до 16 трлн USD к 2030 году многократно увеличивает масштаб потенциального ущерба.
При этом Proof-of-Work-майнингу Bitcoin квантовые компьютеры не угрожают: ускорение от алгоритма Гровера полностью поглощается накладными расходами квантовой коррекции ошибок.
Для подтверждения своих оценок без раскрытия деталей атаки команда применила криптографическое доказательство с нулевым разглашением - прецедент ответственного раскрытия в квантовом криптоанализе.
Авторы призывают все криптосообщества как можно скорее начинать миграцию на постквантовую криптографию, ссылаясь на успешные примеры: блокчейн QRL, первую PQC-транзакцию на Algorand, эксперименты на Solana и XRP Ledger.
@ai_machinelearning_big_data
#QuantumComputing #Crypto #PostQuantum #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨129🤔41❤29😨16🔥12👍8🌚8🤣4😭4👏3🥰1
В ШАДе Яндекса научили CatBoost находить борщевик на спутниковых фото
За выявление сорняка отвечают технологии компьютерного зрения. Модель обучали в сервисах Yandex Cloud, для валидации использовался датасет из 10 тыс. спутниковых фото с очагами заражения. Качество распознавания оценивали по метрике IoU – получилось 0,75. Результат также проверяли эксперты
Волонтеры и специалисты уже пользуются сервисом: с его помощью выявили очаги заражения общей площадью 421 га в 17 регионах и ликвидировали один крупный. В дальнейшем Яндекс планирует научить искусственный интеллект распознавать другие инвазивные растения.
@ai_machinelearning_big_data
#news #ml #ai
За выявление сорняка отвечают технологии компьютерного зрения. Модель обучали в сервисах Yandex Cloud, для валидации использовался датасет из 10 тыс. спутниковых фото с очагами заражения. Качество распознавания оценивали по метрике IoU – получилось 0,75. Результат также проверяли эксперты
Волонтеры и специалисты уже пользуются сервисом: с его помощью выявили очаги заражения общей площадью 421 га в 17 регионах и ликвидировали один крупный. В дальнейшем Яндекс планирует научить искусственный интеллект распознавать другие инвазивные растения.
@ai_machinelearning_big_data
#news #ml #ai
1❤103👍72🔥42🤣26👏17😁9😎9🤝5💔1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская Zhipu AI, работающая на международном рынке под брендом Zai, представила GLM-5V-Turbo - мультимодальную модель, которая обрабатывает изображения, видео и текст для кодинг-задач.
Не путать новинку с вышедшей двумя неделями ранее GLM-5-Turbo: та была чисто текстовой языковой моделью, оптимизированной под агентные сценарии.
В модели GLM-5V-Turbo реализован концепт цикла
восприятие → планирование → исполнение для кодинг-агентов. Модель принимает на вход дизайн-макет или скриншот интерфейса, понимает компоновку, цветовую палитру и иерархию компонентов, после чего генерирует работающий фронтенд-проект.
Для вайрфреймов она восстанавливает структуру и логику взаимодействия, для макетов стремится к попиксельной точности воспроизведения.
Помимо прямой генерации кода по картинке, GLM-5V-Turbo работает в связке с Claude Code и OpenClaw: просматривает целевые сайты, собирает визуальные элементы и детали навигации, а затем генерирует код по результатам исследования.
Под капотом визуальный энкодер CogViT и архитектура Multi-Token Prediction. Контекстное окно составляет 200K токенов, максимальный выход - 128K токенов.
По собственным бенчам Z.ai заявляет лидирующие результаты в задачах design-to-code, визуальной генерации кода и работы с GUI-средами - AndroidWorld и WebVoyager.
При этом в чисто текстовом кодинге модель сохранила позиции по CC-Bench-V2: добавление визуальных возможностей не просадило текстовые навыки.
Модель доступна через API Z.ai и на OpenRouter. Цена - $1,20 за миллион входных токенов и $4,00 за миллион выходных.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡91❤19🤨16🔥13👨💻8🤔7👏6👍4
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0!
Blog: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
GGUFs: https://huggingface.co/collections/unsloth/gemma-4
Guide: https://unsloth.ai/docs/models/gemma-4
@ai_machinelearning_big_data
#Gemma
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0!
Blog: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
GGUFs: https://huggingface.co/collections/unsloth/gemma-4
Guide: https://unsloth.ai/docs/models/gemma-4
@ai_machinelearning_big_data
#Gemma
🔥151⚡39❤22👍12🏆5👏4💘3❤🔥1🤝1👾1
Cotype Light 3 ломает рынок корпоративных ИИ-агентов
MWS AI выкатили мультимодальную модель на 9B параметров, которая работает с текстом и с визуалом в едином контексте. Договоры, чертежи, формы, картинки можно обрабатывать без костылей и переключений между системами.
Ключевой акцент сделан на эффективности: меньше модель, ниже стоимость, быстрее внедрение в корпоративные процессы. При этом по качеству она уже конкурирует с моделями в 100B+.
- Мультимодальность из коробки: текст и изображения в одной логике.
- 9B параметров, но топ-3 в MERA среди русскоязычных моделей.
- Точность >99% в задачах на математику и знания о мире.
- Инференс на одном GPU без кластеров.
- Можно разворачивать в закрытом контуре.
По железу все приземленно:
A100, A10, L4 - один ускоритель, без сложной инфраструктуры
Запуск подтверждает тренд, который образовался на рынке: уход от гигантских моделей к компактным, заточенным под задачи. Выигрывает не тот, у кого больше параметров, а тот, у кого дешевле и быстрее работает прод.
MWS AI выкатили мультимодальную модель на 9B параметров, которая работает с текстом и с визуалом в едином контексте. Договоры, чертежи, формы, картинки можно обрабатывать без костылей и переключений между системами.
Ключевой акцент сделан на эффективности: меньше модель, ниже стоимость, быстрее внедрение в корпоративные процессы. При этом по качеству она уже конкурирует с моделями в 100B+.
- Мультимодальность из коробки: текст и изображения в одной логике.
- 9B параметров, но топ-3 в MERA среди русскоязычных моделей.
- Точность >99% в задачах на математику и знания о мире.
- Инференс на одном GPU без кластеров.
- Можно разворачивать в закрытом контуре.
По железу все приземленно:
A100, A10, L4 - один ускоритель, без сложной инфраструктуры
Запуск подтверждает тренд, который образовался на рынке: уход от гигантских моделей к компактным, заточенным под задачи. Выигрывает не тот, у кого больше параметров, а тот, у кого дешевле и быстрее работает прод.
🔥94👍32👏31🤣15❤10😁10💯6🎅1🗿1🆒1
Alibaba официально представила Qwen 3.6-Plus, новую флагманскую языковую модель, наследницу серии Qwen 3.5.
В 3.6 Plus сделан акцент на агентный кодинг. Модель самостоятельно декомпозирует сложные задачи на уровне репозитория, пишет и тестирует код, итеративно отлаживает его до готового результата.
Контекстное окно в миллион токенов - это примерно 2000 страниц текста в одном запросе, что позволяет загружать целые кодовые базы и длинные документы целиком.
Максимальный выход - 65 536 токенов, СoT включен постоянно, есть поддержка function calling.
Принципиальное отличие от предшественника: устранена проблема overthinking, которая была главной претензией разработчиков к Qwen 3.5. Модель тратит меньше токенов на рассуждения и ведет себя стабильнее в продакшн-сценариях.
По неофициальным тестам сообщества, скорость генерации примерно втрое выше, чем у Claude Opus 4.6, хотя time-to-first-token на бесплатном тарифе в среднем составляет 11,5 секунды.
Цена на платформе Alibaba Model Studio - от $0,5 до 2 за миллион входных токенов и от $3 до 6 за то же количество выходных.
Бесплатно - на OpenRouter (в режиме превью) и в веб-чате Qwen.
Планов на опен-сорс относительно нового флагмана Alibaba не озвучивала, но циркулируют слухи, что часть моделей серии Qwen 3.6 все-таки выложат в открытый доступ.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥92🤩32❤24👏9👍4🤣2🏆1🫡1
Media is too big
VIEW IN TELEGRAM
Anysphere выпустила крупное обновление среды разработки, в котором привычный форк VS Code дополняется интерфейсом, построенным с нуля вокруг агентов. Новая среда поддерживает мульти-репозиторную структуру, где локальные и облачные агенты собраны в одном сайдбаре.
Переключение между средами стало бесшовным. Сессию агента можно перенести из облака на локальную машину для правок и тестирования, а затем отправить обратно, чтобы задача продолжала выполняться после закрытия ноутбука.
Среди других нововведений - упрощенный интерфейс для диффов с возможностью довести код до merged PR, встроенный браузер для работы с локальными сайтами и маркетплейс плагинов с поддержкой MCP, субагентов и навыков.
cursor.com
По словам OpenAI, корпоративные стратегии продвижения больше не работают. Индустрии нужен новый формат честного диалога о том, как ИИ меняет мир, и онлайн-шоу с широкой аудиторией подходит для этого лучше всего. TBPN станет частью подразделения по глобальной стратегии.
TBPN популярно в Кремниевой долине, в его эфирах появлялись Цукерберг, Наделла и сам Альтман. При этом команда сохранит полную редакционную независимость. Ведущие смогут публично критиковать ИИ-индустрию, приглашать в эфир конкурентов OpenAI и самостоятельно формировать повестку. Финансовые условия сделки не разглашаются.
bloomberg.com
Японский стартап анонсировал первый B2B-продукт - систему глубокого рассуждения Sakana Marlin. Инструмент автоматизирует сложную аналитику, на которую у людей обычно уходят недели. Достаточно задать тему, после чего агент уходит в автономный поиск на срок до 8 часов, генерируя подробные стратегические бизнес-отчеты и презентации.
Архитектура объединяет систему AI Scientist, отвечающую за выявление и разрешение противоречий в данных, и алгоритм стратегического поиска AB-MCTS.
Sakana AI открыла набор на бета-тестирование для специалистов из финансов, науки и консалтинга. Доступ бесплатный, но форма регистрации доступна только на японском.
sakana.ai
Google расширила возможности тарифов AI Pro и Ultra. Главным бонусом стало увеличение облачного хранилища с 2 до 5 ТБ, но фокус обновления - глубокая интеграция ИИ в сервисы.
Gemini в Google Workspace научился работать со сложным контекстом. Модель напрямую агрегирует данные из локальных файлов, писем и веб-ресурсов пользователя, связывая разрозненную информацию.
Chrome auto browse - ИИ-агент, способный брать на себя управление браузером. Он может выполнять многошаговые задачи в вебе, например, заполнять громоздкие формы или собирать данные для ресерча. В Gmail добавили генерацию саммари по инбоксу и продвинутый пруфридинг.
В подписку также включили план Google Home Premium, где Gemini сможет настраивать сценарии умного дома промптами на естественном языке. Развертывание уже началось, часть функций пока ограничена рынком США.
Shimrit Ben-Yair в сети Х
Опрос американских учащихся показал, что 47% респондентов всерьез задумываются о смене профиля подготовки из-за опасений за карьерное будущее, а 16% уже перевелись на другие направления.
Тренд особенно заметен среди мужчин: 21% уже сменили специализацию (против 12% у женщин). Наибольшую тревогу испытывают студенты технологических направлений (70%) - это выше, чем на инженерных, гуманитарных и бизнес-факультетах (52–54%).
Академическая среда сильно отстает в выработке стандартов. 42% вузов не одобряет применение ИИ в учебе, и лишь 7% открыто поощряют использование новых инструментов. Реальная практика расходится с политикой университетов. Даже там, где ИИ строго запрещен, 10% студентов пользуются им ежедневно, а еще 17% обращаются к ИИ минимум раз в неделю.
axios.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79❤27👏17🤔10💯6🔥5🎉5⚡1💘1
Выиграй деньги, став чемпионом ИТ-соревнования от МТС
Остались считанные дни до окончания регистрации — призовой фонд 1 500 000 рублей.
True Tech Hack — это три уникальные задачи для инженеров данных, разработчиков и системных аналитиков. За лучшие решения дают деньги и зовут на стажировку.
Для всех финалистов — закрытая вечеринка с диджеем в Москве на видовой площадке.
Регистрация закроется вечером 9 апреля — торопись!
Остались считанные дни до окончания регистрации — призовой фонд 1 500 000 рублей.
True Tech Hack — это три уникальные задачи для инженеров данных, разработчиков и системных аналитиков. За лучшие решения дают деньги и зовут на стажировку.
Для всех финалистов — закрытая вечеринка с диджеем в Москве на видовой площадке.
Регистрация закроется вечером 9 апреля — торопись!
🎉59🏆25🔥18😁10❤8👏8🤬3