Media is too big
VIEW IN TELEGRAM
Компания направила GitHub жалобу в рамках DMCA, потребовав заблокировать доступ к утекшему коду Claude Code. Платформа полностью удовлетворила запрос и зачистила репозитории с нелегальным контентом.
Под блокировку попал родительский репозиторий
nirholas/claude-code и все его форки - в общей сложности 8100 проектов. Представитель Anthropic заявил, что содержимое этих репозиториев целиком нарушает авторские права компании.github.com
LFM2.5-350M - крошечная модель на 350 млн параметров. В нее влили 28 трлн. токенов и отполировали обучением с подкреплением. В квантованном виде вся эта радость весит меньше 500 МБ.
При столь скромных размерах она уверенно справляется с задачами агентных циклов, извлечением структурированных данных и вызовом внешних инструментов.
Разработчики говорят, что по сравнению с прошлой версией новинка стала в 2 раза лучше понимать инструкции и работать с функциями. Модель заводится локально на CPU, видеокартах и мобильных чипах. Плюс из коробки нативно поддерживается железо AMD, Intel и Qualcomm.
liquid.ai
Вышедший из стелс-режима стартап PrismML, созданный выходцами из Калтеха, придумал интересную концепцию - «плотность интеллекта». Суть в том, чтобы мерить полезную работу модели на гигабайт используемой памяти.
Чтобы не быть голословными, они релизнули семейство моделей Bonsai, с флагманом на 8B во главе. У модели однобитные веса, поэтому занимает она 1,15 ГБ. Заявлено, что при сохранении качества генерации она в 14 раз меньше, в 8 раз быстрее и в 5 раз экономнее аналогов в той же весовой категории. Плотность интеллекта оценивается в 1,06/ГБ против 0,10/ГБ у стандартных полноразмерных моделей на 8B.
В довесок к 8В идут легкие версии на 4B и 1,7B параметров. Код и веса - в опенсорсе под лицензией Apache 2.0.
prismml.com
Техногигант вынужден пойти на массовые сокращения из-за финансового давления, вызванного многомиллиардными инвестициями в ИИ. Пытаясь догнать конкурентов на рынке, Oracle привлекла огромные кредиты для строительства дата-центров и планировала привлечь еще 50 млрд. долларов на расширение инфраструктуры.
Высокая долговая нагрузка и снижение денежного потока вызвали обеспокоенность инвесторов - с начала года акции Oracle рухнули на 25%. Компания пока отказывается комментировать увольнения, однако руководство верит, что ИИ-стратегия окупится в долгосрочной перспективе.
Топ-менеджмент уверен, что спрос на ИИ-инфраструктуру остается большим и неудовлетворенным, а портфель контрактных обязательств на 553 млрд. долларов является прямым доказательством востребованности их решений на рынке.
businessinsider.com
Проект Панкаджа Гупты стал одной из первых крупных потерь ИИ-бума. Несмотря на финансирование при участии a16z, Джеффа Дина из Google и CEO Perplexity, а также базу в 1,3 млн. пользователей, компания так и не нашла востребованность на рынке.
Yupp развивал платформу краудсорсинга: пользователи за вознаграждение оценивали ответы более 500 ИИ-моделей, а лаборатории покупали эти данные для улучшения продуктов. Но эволюция технологий уничтожила эту бизнес-модель. Фокус сместился с чат-ботов на сложные агентные архитектуры, напрямую взаимодействующие со сторонними сервисами, API и реальными данными.
Ручная оценка текстовых генераций потеряла ценность для инженеров. Поняв, что подход больше не имеет экономической перспективы, команда решила закрыть бизнес. Неизрасходованный капитал вернут инвесторам, а Yupp проработает до середины апреля в режиме экспорта пользовательских данных.
yupp.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔91👍66❤33😢18🔥4👏4🤣3😐2🫡1🦄1
В ШАДе Яндекса научили CatBoost находить борщевик на спутниковых фото
За выявление сорняка отвечают технологии компьютерного зрения. Модель обучали в сервисах Yandex Cloud, для валидации использовался датасет из 10 тыс. спутниковых фото с очагами заражения. Качество распознавания оценивали по метрике IoU – получилось 0,75. Результат также проверяли эксперты
Волонтеры и специалисты уже пользуются сервисом: с его помощью выявили очаги заражения общей площадью 421 га в 17 регионах и ликвидировали один крупный. В дальнейшем Яндекс планирует научить искусственный интеллект распознавать другие инвазивные растения.
@ai_machinelearning_big_data
#news #ml #ai
За выявление сорняка отвечают технологии компьютерного зрения. Модель обучали в сервисах Yandex Cloud, для валидации использовался датасет из 10 тыс. спутниковых фото с очагами заражения. Качество распознавания оценивали по метрике IoU – получилось 0,75. Результат также проверяли эксперты
Волонтеры и специалисты уже пользуются сервисом: с его помощью выявили очаги заражения общей площадью 421 га в 17 регионах и ликвидировали один крупный. В дальнейшем Яндекс планирует научить искусственный интеллект распознавать другие инвазивные растения.
@ai_machinelearning_big_data
#news #ml #ai
1❤103👍71🔥42🤣26👏17😁9😎9🤝5💔1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская Zhipu AI, работающая на международном рынке под брендом Zai, представила GLM-5V-Turbo - мультимодальную модель, которая обрабатывает изображения, видео и текст для кодинг-задач.
Не путать новинку с вышедшей двумя неделями ранее GLM-5-Turbo: та была чисто текстовой языковой моделью, оптимизированной под агентные сценарии.
В модели GLM-5V-Turbo реализован концепт цикла
восприятие → планирование → исполнение для кодинг-агентов. Модель принимает на вход дизайн-макет или скриншот интерфейса, понимает компоновку, цветовую палитру и иерархию компонентов, после чего генерирует работающий фронтенд-проект.
Для вайрфреймов она восстанавливает структуру и логику взаимодействия, для макетов стремится к попиксельной точности воспроизведения.
Помимо прямой генерации кода по картинке, GLM-5V-Turbo работает в связке с Claude Code и OpenClaw: просматривает целевые сайты, собирает визуальные элементы и детали навигации, а затем генерирует код по результатам исследования.
Под капотом визуальный энкодер CogViT и архитектура Multi-Token Prediction. Контекстное окно составляет 200K токенов, максимальный выход - 128K токенов.
По собственным бенчам Z.ai заявляет лидирующие результаты в задачах design-to-code, визуальной генерации кода и работы с GUI-средами - AndroidWorld и WebVoyager.
При этом в чисто текстовом кодинге модель сохранила позиции по CC-Bench-V2: добавление визуальных возможностей не просадило текстовые навыки.
Модель доступна через API Z.ai и на OpenRouter. Цена - $1,20 за миллион входных токенов и $4,00 за миллион выходных.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡91❤19🤨16🔥13👨💻8🤔7👏6👍4
Alibaba официально представила Qwen 3.6-Plus, новую флагманскую языковую модель, наследницу серии Qwen 3.5.
В 3.6 Plus сделан акцент на агентный кодинг. Модель самостоятельно декомпозирует сложные задачи на уровне репозитория, пишет и тестирует код, итеративно отлаживает его до готового результата.
Контекстное окно в миллион токенов - это примерно 2000 страниц текста в одном запросе, что позволяет загружать целые кодовые базы и длинные документы целиком.
Максимальный выход - 65 536 токенов, СoT включен постоянно, есть поддержка function calling.
Принципиальное отличие от предшественника: устранена проблема overthinking, которая была главной претензией разработчиков к Qwen 3.5. Модель тратит меньше токенов на рассуждения и ведет себя стабильнее в продакшн-сценариях.
По неофициальным тестам сообщества, скорость генерации примерно втрое выше, чем у Claude Opus 4.6, хотя time-to-first-token на бесплатном тарифе в среднем составляет 11,5 секунды.
Цена на платформе Alibaba Model Studio - от $0,5 до 2 за миллион входных токенов и от $3 до 6 за то же количество выходных.
Бесплатно - на OpenRouter (в режиме превью) и в веб-чате Qwen.
Планов на опен-сорс относительно нового флагмана Alibaba не озвучивала, но циркулируют слухи, что часть моделей серии Qwen 3.6 все-таки выложат в открытый доступ.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥91🤩32❤24👏9👍4🤣2🏆1🫡1
Media is too big
VIEW IN TELEGRAM
Anysphere выпустила крупное обновление среды разработки, в котором привычный форк VS Code дополняется интерфейсом, построенным с нуля вокруг агентов. Новая среда поддерживает мульти-репозиторную структуру, где локальные и облачные агенты собраны в одном сайдбаре.
Переключение между средами стало бесшовным. Сессию агента можно перенести из облака на локальную машину для правок и тестирования, а затем отправить обратно, чтобы задача продолжала выполняться после закрытия ноутбука.
Среди других нововведений - упрощенный интерфейс для диффов с возможностью довести код до merged PR, встроенный браузер для работы с локальными сайтами и маркетплейс плагинов с поддержкой MCP, субагентов и навыков.
cursor.com
По словам OpenAI, корпоративные стратегии продвижения больше не работают. Индустрии нужен новый формат честного диалога о том, как ИИ меняет мир, и онлайн-шоу с широкой аудиторией подходит для этого лучше всего. TBPN станет частью подразделения по глобальной стратегии.
TBPN популярно в Кремниевой долине, в его эфирах появлялись Цукерберг, Наделла и сам Альтман. При этом команда сохранит полную редакционную независимость. Ведущие смогут публично критиковать ИИ-индустрию, приглашать в эфир конкурентов OpenAI и самостоятельно формировать повестку. Финансовые условия сделки не разглашаются.
bloomberg.com
Японский стартап анонсировал первый B2B-продукт - систему глубокого рассуждения Sakana Marlin. Инструмент автоматизирует сложную аналитику, на которую у людей обычно уходят недели. Достаточно задать тему, после чего агент уходит в автономный поиск на срок до 8 часов, генерируя подробные стратегические бизнес-отчеты и презентации.
Архитектура объединяет систему AI Scientist, отвечающую за выявление и разрешение противоречий в данных, и алгоритм стратегического поиска AB-MCTS.
Sakana AI открыла набор на бета-тестирование для специалистов из финансов, науки и консалтинга. Доступ бесплатный, но форма регистрации доступна только на японском.
sakana.ai
Google расширила возможности тарифов AI Pro и Ultra. Главным бонусом стало увеличение облачного хранилища с 2 до 5 ТБ, но фокус обновления - глубокая интеграция ИИ в сервисы.
Gemini в Google Workspace научился работать со сложным контекстом. Модель напрямую агрегирует данные из локальных файлов, писем и веб-ресурсов пользователя, связывая разрозненную информацию.
Chrome auto browse - ИИ-агент, способный брать на себя управление браузером. Он может выполнять многошаговые задачи в вебе, например, заполнять громоздкие формы или собирать данные для ресерча. В Gmail добавили генерацию саммари по инбоксу и продвинутый пруфридинг.
В подписку также включили план Google Home Premium, где Gemini сможет настраивать сценарии умного дома промптами на естественном языке. Развертывание уже началось, часть функций пока ограничена рынком США.
Shimrit Ben-Yair в сети Х
Опрос американских учащихся показал, что 47% респондентов всерьез задумываются о смене профиля подготовки из-за опасений за карьерное будущее, а 16% уже перевелись на другие направления.
Тренд особенно заметен среди мужчин: 21% уже сменили специализацию (против 12% у женщин). Наибольшую тревогу испытывают студенты технологических направлений (70%) - это выше, чем на инженерных, гуманитарных и бизнес-факультетах (52–54%).
Академическая среда сильно отстает в выработке стандартов. 42% вузов не одобряет применение ИИ в учебе, и лишь 7% открыто поощряют использование новых инструментов. Реальная практика расходится с политикой университетов. Даже там, где ИИ строго запрещен, 10% студентов пользуются им ежедневно, а еще 17% обращаются к ИИ минимум раз в неделю.
axios.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79❤27👏17🤔10💯6🔥5🎉5⚡1💘1
Microsoft выпустила сразу 3 модели под брендом MAI: MAI-Transcribe-1 для распознавания речи, MAI-Voice-1 для синтеза голоса и MAI-Image-2 для генерации изображений по текстовому описанию.
Все они позиционируются как решение для тех, кому нужны решения продакшен-уровня с конкурентной стоимостью инференса.
Модель speech-to-text с высокоскоростной транскрибацией для 25 языков, включая русский. На бенчмарке FLEURS показывает лучший Word Error Rate среди конкурентов: среднее значение составляет 3,86%.
Модель обходит Whisper во всех 25 языках, Gemini 3.1 Flash - в 22 из 25. Принимает форматы WAV, MP3 и FLAC.
Real-time транскрибация, диаризация и context biasing пока недоступны - эти функции заявлены на будущее.
Стоимость: $0,36 за час аудио.
TTS-модель, генерирующая реалистичную речь с эмоциональной окраской, естественной интонацией и возможностью клонированием голоса по референсу.
Доступ к клонированию требует одобрения Microsoft и загрузки записанного согласия владельца голоса.
Заявленная скорость генерации - 1 минута аудио за одну секунду. Модель поддерживает управление эмоциями на уровне отдельных фраз через SSML и рассчитана на длинный контент: аудиокниги, подкасты, лекции.
Пока работает только с английским, поддержка более 10 языков заявлена в перспективе. Доступна в 3-х регионах Azure: Central US, Japan West и Sweden Central.
Стоимость: $22 за 1 млн. символов.
Диффузионная модель для генерации изображений по текстовому промпту, которую Microsoft обкатывала в бета-тестировании с 20 марта.
Модель содержит от 10 до 50 млрд. параметров (без учета эмбеддингов), принимает контекст до 32K токенов и генерирует изображения с максимальным разрешением 1024×1024 пикселя.
По внутренним оценкам через Elo-рейтинг MAI-Image-2 набирает 1190 ± 8 баллов против 1093 ± 4 у предшественницы MAI-Image-1, особенно сильно выступая в фотореалистичных и портретных категориях (1201 балл). На лидерборде ArenaAI модель вошла в топ-3.
Стоимость: $5 за 1 млн. токенов текстового ввода, $33 за 1 млн. токенов на выходе (изображения).
Все модели доступны через Microsoft Foundry. Попробовать их в интерактивной среде MAI Playground пока можно только из США.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👨💻27👏26🎉9❤8👍7🤩5🔥2🥱2🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Netflix выложили open-source модель для удаления объектов из видео с сохранением логики сцены
Это не просто «удалить объект из видео».
Модель удаляет объект
и пересчитывает всю физику сцены.
Удалил человека → гитара падает сама
убрал домино → цепочка не падает
убрал машину → аварии не происходит
ИИ буквально отвечает на вопрос:
«что было бы, если этого объекта не существовало»
Под капотом:
- diffusion + transformer (на базе CogVideoX)
- анализ взаимодействий объектов
- генерация новой реальности, а не просто замазка
И это главное отличие от всего, что было раньше.
Раньше:
замазали объект → сцена ломается
Теперь:
удалили объект → сцена остаётся логичной
Требования, правда, не слабые:
GPU от ~40GB VRAM (A100)
Репа: https://github.com/Netflix/void-model
HF: https://huggingface.co/spaces/sam-motamed/VOID
@ai_machinelearning_big_data
#Netflix #ai #video
Это не просто «удалить объект из видео».
Модель удаляет объект
и пересчитывает всю физику сцены.
Удалил человека → гитара падает сама
убрал домино → цепочка не падает
убрал машину → аварии не происходит
ИИ буквально отвечает на вопрос:
«что было бы, если этого объекта не существовало»
Под капотом:
- diffusion + transformer (на базе CogVideoX)
- анализ взаимодействий объектов
- генерация новой реальности, а не просто замазка
И это главное отличие от всего, что было раньше.
Раньше:
замазали объект → сцена ломается
Теперь:
удалили объект → сцена остаётся логичной
Требования, правда, не слабые:
GPU от ~40GB VRAM (A100)
Репа: https://github.com/Netflix/void-model
HF: https://huggingface.co/spaces/sam-motamed/VOID
@ai_machinelearning_big_data
#Netflix #ai #video
🔥147❤29👍19👏18🤩10❤🔥2
🚨 Anthropic убила «безлимит» для Claude-агентов
С завтрашнего дня подписка Claude больше не работает с OpenClaw и другими сторонними агентами как раньше. Теперь всё, что идёт через OAuth, оплачивается отдельно поверх тарифа.
По факту это конец схемы, когда за $200 в месяц прогоняли агентные пайплайны на тысячи долларов. Anthropic прямо сказала, что такие кейсы перегружают их инфраструктуру.
Сам Claude никуда не делся. OpenClaw тоже не запретили. Просто экономика изменилась. Либо платишь за каждый запрос, либо идёшь через API.
Чтобы сгладить удар, дают кредит на сумму подписки до 17 апреля и обещают скидки на доп. использование. Но это уже косметика.
Все инструменты, которые строились вокруг подписки Claude, резко становятся дороже. И теперь вопрос не в удобстве, а в юнит-экономике.
Эра дешёвых агентных хакингов закончилась.
https://x.com/bcherny/status/2040206440556826908
@ai_machinelearning_big_data
📌 полезные ресурсы 🚀Max
#claude #ai #openclaw
С завтрашнего дня подписка Claude больше не работает с OpenClaw и другими сторонними агентами как раньше. Теперь всё, что идёт через OAuth, оплачивается отдельно поверх тарифа.
По факту это конец схемы, когда за $200 в месяц прогоняли агентные пайплайны на тысячи долларов. Anthropic прямо сказала, что такие кейсы перегружают их инфраструктуру.
Сам Claude никуда не делся. OpenClaw тоже не запретили. Просто экономика изменилась. Либо платишь за каждый запрос, либо идёшь через API.
Чтобы сгладить удар, дают кредит на сумму подписки до 17 апреля и обещают скидки на доп. использование. Но это уже косметика.
Все инструменты, которые строились вокруг подписки Claude, резко становятся дороже. И теперь вопрос не в удобстве, а в юнит-экономике.
Эра дешёвых агентных хакингов закончилась.
https://x.com/bcherny/status/2040206440556826908
@ai_machinelearning_big_data
📌 полезные ресурсы 🚀Max
#claude #ai #openclaw
🤔110😢98👍51🤬21❤20🤣14🔥10🤨7😐7🎅2👌1
Media is too big
VIEW IN TELEGRAM
OpenAI изменила подход к ценообразованию: для профилей с доступом исключительно к Codex отменены ограничения на частоту запросов. Оплата теперь списывается только за израсходованные токены. Это делает стоимость прозрачной и позволяет точнее распределять бюджеты по проектам.
Для тех, кому нужен комплексный доступ к чат-боту, сохраняется тариф ChatGPT Business. Codex в рамках этого плана остается лимитированным, но годовую подписку снизили с 25 до 20 долларов за рабочее место.
Для стимулирования перехода OpenAI запустила промо-акцию: за каждого нового участника с доступом только к Codex на баланс рабочего пространства начисляется 100 бонусных долларов (до 500 долларов на команду).
openai.com
Компания закрыла сделку по поглощению Coefficient Bio - стартапа, разрабатывающего ИИ-решения для биологических исследований. Покупка оплачена акциями, сумма оценивается примерно в 400 млн. долларов. Приобретение усилит экспертизу Anthropic в сфере здравоохранения, продолжая стратегию экспансии после запуска Claude for Life Sciences.
Coefficient Bio просуществовал в стэлс-режиме 8 месяцев. Основатели ранее занимались вычислительным дизайном медицинских препаратов в Genentech. Проект использовал ML для оптимизации поиска активных веществ и повышения эффективности биологических исследований.
Вся команда стартапа из 10 специалистов вольется в профильное медицинское подразделение Anthropic.
theinformation.com
Стартап Фэй-Фэй Ли, разрабатывающий ИИ для создания 3D-пространств из текста, обновил платформу. Базовой моделью по умолчанию стала Marble 1.1 с более высокой детализацией генерации при прежней стоимости в 1500 кредитов за сцену.
Marble 1.1 Plus автоматически расширяет площадь 3D-мира, если того требует сцена, решая проблему пространственных лимитов предыдущих версий - крупные локации генерируются за один проход без ручного изменения границ. Оплата гибкая: 1500 кредитов плюс 300 за каждый дополнительный динамический куб.
Платформа также получила обновление интерфейса: добавлен селектор моделей, страница ассетов показывает версию ИИ, инструменты редактирования вынесены в отдельное меню. Исправлен конфликт сессий при работе в разных вкладках и баг с видимостью дочерних узлов в Studio.
worldlabs.ai
Deepseek v4 ожидается в ближайшие недели. Главная особенность - полный отказ от зарубежных ускорителей: модель будет запускаться целиком на оборудовании Huawei. Инженеры Deepseek совместно с Huawei и Cambricon потратили несколько месяцев на портирование модели под отечественные чипы. Nvidia не получила раннего доступа к v4, он был открыт только для китайских производителей полупроводников.
Ставка на локальную инфраструктуру уже спровоцировала спрос на внутреннем рынке. Alibaba, ByteDance и Tencent суммарно заказали сотни тысяч ускорителей Huawei Ascend 950PR для развертывания v4 в своих облачных сервисах и продуктах. На фоне ажиотажа цены на чипы подскочили на 20%.
theinformation.com
Всплеск интереса к пользовательскому соглашению Copilot for Individuals вскрыл любопытную деталь: Microsoft заявляет, что ее ИИ-помощник предназначен «только для развлекательных целей».
Хотя маркетинг корпорации активно продвигает ИИ как незаменимого ассистента, юридически Microsoft полностью снимает с себя ответственность за любые галлюцинации модели.
Перестраховка типична и для других игроков индустрии. Европейское соглашение Anthropic для подписки Pro парадоксальным образом запрещает использовать сервис в коммерческих или деловых целях, исключая ответственность за возможные убытки бизнеса.
theregister.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍110❤25👏19🤔17🔥11👨💻7😁5
В 2024 году глава OpenAI заявил, что ИИ сделает возможным появление компании с выручкой в миллиард долларов и единственным сотрудником.
На этой неделе Альман направил письмо в The New York Times: по его словам, он выиграл пари с друзьями из числа руководителей технологических компаний - и хотел бы лично познакомиться с человеком, который, как он считает, это доказал.
"In my little group chat with my tech CEO friends there's this betting pool for the first year that there is a one-person billion-dollar company, which would have been unimaginable without AI and now will happen."
В сентябре 2024 года 41-летний предприниматель из Лос-Анджелеса вложил $20 тысяч и за 2 месяца запустил Medvi, телемедицинскую платформу по продаже препаратов для снижения веса. Код создавался с помощью ChatGPT, Claude и Grok, рекламные креативы - через Midjourney и Runway, а за клиентскую поддержку отвечали ИИ-агенты. В штате компании два человека: сам Галлахер и его брат Эллиот.
По данным NYT, выручка Medvi за 2025 год составила $401 млн. при чистой марже 16,2% (около $65 млн. прибыли). Прогноз по выручке на 2026 год - $1,8 млрд. Внешнего финансирования компания не привлекала.
Для сравнения: конкурент Hims & Hers при выручке $2,4 млрд. имеет штат свыше 2400 человек и маржу 5,5%.
Следует оговориться: финансовые показатели Medvi не проходили независимого аудита, и NYT не приводит какую-либо стороннюю верификацию этой оценке.
Медицинскую инфраструктуру Галлахер не строил, она полностью арендованная. Консультации врачей консультации и рецепты обеспечивает CareValidate, аптечную логистику - OpenLoop Health. Medvi владеет только брендом, сайтом, рекламой и поддержкой.
Чатбот Medvi выдумывал цены на препараты. Галлахеру, по его словам, пришлось выполнять такие заказы, пока это не починили.
Бот генерировал описания препаратов, которых не существовало.
Когда клиенты требовали разговора с живым человеком, звонки поступали на личный телефон основателя - всего таких звонков, по его оценке, было более 1000.
Во время одного сбоя сайта чинить его было некому: Галлахер находился на прогулке и за это время компания потеряла около 200 клиентов.
В марте этого года FDA, американский регулятор, направил предупреждения десяткам телемедицинских компаний, включая Medvi за вводящий в заблуждение маркетинг, так что окно для основы бизнеса Галлахера может закрыться.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔74❤66🔥36👍22😁17🤨14🤣6😢2💋2🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
В конце марта Apple удалила из App Store приложение Anything - один из инструментов вайб-кодинга, который позволяет создавать приложения с помощью текстовых запросов к ИИ без навыков программирования.
Компания сослалась на нарушение пункта 2.5.2 правил App Store: "приложения должны быть самодостаточными и не могут загружать или исполнять код, изменяющий их функциональность."
Anything основан выходцами из Google Дхрувом Амином и Маркусом Лоу. Они работают вместе с 2021 года: сначала запустили маркетплейс, затем в 2023-м свернули проект и переключились на ИИ-инструменты.
В апреле 2025-го продукт вышел как low-code платформа для создания полноценных веб- и мобильных приложений с базами данных, хостингом и платежными системами.
В сентябре 2025 года стартап привлёк $11 млн. при оценке $100 млн. За первые две недели Anything вышел на $2 млн. годового дохода.
Удаление стало частью масштабной зачистки. Еще в середине марта Apple заблокировала обновления приложений Replit и Vibecode, сославшись на те же правила.
Представитель Apple так же дежурно прокомментировал эти действия не как запрет вайб-кодинга, а о соблюдении действующих норм.
В сети обратили внимание на контекст: незадолго до этого Apple сама интегрировала в среду разработки Xcode ИИ-агенты на базе Claude и Codex - инструменты со сходной функциональностью, работающие только внутри экосистемы Apple.
Дхрув Амин пытался урегулировать ситуацию. Он предложил обновление, при котором превью сгенерированных приложений открывались бы в браузере, а не внутри Anything. Apple отклонила обновление.
В ответ команда Anything перенесла создание приложений в iMessage, штатную систему обмена сообщениями Apple, де-факто задействовав инфраструктуру самой Apple для обхода ее ограничений.
Уже 3 апреля Apple без публичных комментариев вернула Anything в App Store. Приложение восстановлено с рядом изменений, но основная функция - генерация приложений по текстовым запросам сохранилась.
Сам стартап объявил о проведении хакатона с призовым фондом $5 тыс. в честь возвращения.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉102👍84👏20🔥19❤15😁8🤔4
Лаборатория Tongyi (Qwen) опубликовала практическую часть проекта PrismAudio, участника ICLR 2026. Это фреймворк для задачи Video-to-Audio, то есть синтеза звуковой дорожки по видео.
Модель разделяет задачу генерации звука на 4 перцептивных измерения и работает с каждым отдельно через специализированные модули рассуждений и соответствующие им функции вознаграждения.
Предшественник PrismAudio, модель ThinkSound, первой применила CoT для V2A: MMLM сначала описывала, какой звук нужен, а затем диффузионная модель его генерировала.
Это было громоздко. ThinkSound использовала единый, монолитный блок рассуждений для всех аспектов звука одновременно.
Когда модель пыталась одновременно понять семантику сцены, выстроить тайминг, оценить эстетику и расположить звук в пространстве - качество каждого измерения страдало.
PrismAudio разбивает процесс рассуждения на 4 независимых CoT-модуля:
Каждому модулю назначена своя reward-функция: семантическое соответствие оценивает MS-CLAP от Microsoft, темпоральную синхронизацию Synchformer, эстетику Audiobox Aesthetics, пространственную точность StereoCRW.
Такая архитектура позволяет обучать модель с подкреплением сразу по 4 осям, не жертвуя одним измерением ради другого.
Для RL-обучения авторы предложили Fast-GRPO - модификацию, которая применяет SDE-сэмплирование только в небольшом случайном окне шагов, а остальную траекторию проходит детерминированно через ODE.
По данным техотчета, Fast-GRPO достигает финального результата за 200 шагов обучения вместо 600 и при этом выходит на более высокий итоговый показатель.
По отзывам пользователей, извлечение признаков для 10-секундного видео требует около 43 ГБ видеопамяти.
@ai_machinelearning_big_data
#AI #ML #V2A #PrismAudio #TongyiLab
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩58👍33👏15❤5🔥4🎉2👨💻2💘2
Media is too big
VIEW IN TELEGRAM
Поводом стал недавний конфликт создателей Claude с Администрацией США. Воспользовавшись обострением, мэр Лондона предложил главе Anthropic сделать британскую столицу главной базой компании, гарантировав стабильную и открытую для инноваций юрисдикцию. Чиновники подготовили пакет предложений по расширению местного офиса и двойному листингу акций. Проект представят Амодею в конце мая.
Сейчас в лондонском филиале Anthropic работают около 200 человек, из них 60 исследователей. На фоне отсутствия локальных компаний такого уровня Великобритания стремится стать главным европейским хабом для лидеров ИИ-рынка.
ft.com
В опубликованном документе OpenAI прогнозирует, что AGI обрушит традиционную экономику. Чтобы избежать дефицита бюджета, компания предлагает перенести налоговую нагрузку на сверхприбыли корпораций и ввести специальный сбор для бизнеса, где людей заменяют на ИИ-системы.
Для защиты рынка труда - переход на 32-часовую рабочую неделю с сохранением оклада и соцпакеты, не привязанные к работодателю. Плюс создание государственного ИИ-фонда, который будет выплачивать дивиденды всем гражданам.
Также OpenAI лоббирует закрепление базового права на ИИ и модернизацию энергосетей под дата-центры. Компания поддерживает курс США на минимальное внутреннее регулирование ради победы в технологической гонке с Китаем, призывая сфокусироваться лишь на контроле за безопасностью моделей.
wsj.com
Neural Texture Compression (NTC) использует компактные нейросети для распаковки текстур прямо во время рендеринга. Это уменьшает объем файлов на диске и кратно снижает потребление VRAM. На демонстрации активация NTC снизила потребление видеопамяти с 6,5 ГБ до 970 МБ, при этом разрешение текстур оказалось даже выше оригинала.
Тот же подход применяется в технологии Neural Materials: алгоритм заменяет ресурсоемкие математические вычисления, самостоятельно определяя, как свет взаимодействует со слоями материалов. Скорость рендеринга вырастает до 7,7 раз. Все вычисления идут на тензорных ядрах, поэтому базовая производительность GPU не страдает.
NTC не связана с генеративным ИИ: сети тренируются исключительно на ассетах конкретной игры, что исключает визуальные галлюцинации. Технология не останется эксклюзивом NVIDIA - Microsoft уже стандартизировала механику в DirectX под названием Cooperative Vectors.
tomshardware.com
В честь запуска новых пакетов расширенных лимитов Anthropic начисляет бонусы для тарифов Pro, Max и Team. Сумма эквивалентна стоимости подписки (Pro - $20, Max 5x - $100, Max 20x и Team - $200). Средства можно потратить на дополнительные запросы во всей экосистеме, включая Claude Code, Cowork и сторонние интеграции.
Для получения нужна активная подписка и включенная опция «Extra usage» в настройках. После этого бонус можно забрать кнопкой Claim на странице Usage.
Срок акции - с 3 по 17 апреля. Средства сгорят через 90 дней после активации. Подписки Enterprise и API-аккаунты Console в акции не участвуют.
support.claude.com
По данным платформы TrueUp, отслеживающей вакансии в 9000 технологических компаний, сейчас открыто более 67 тыс. позиций для разработчиков (вдвое больше, чем в середине 2023 года). Только с начала этого года число предложений выросло на 30%.
Статистика ломает нарратив о том, что ИИ отнимает работу у программистов. Напротив, гонка ИИ-технологий заставляет корпорации нанимать еще больше специалистов, а спрос в профильных ML-направлениях растет.
Иллюзия схлопывания рынка, на которую жалуются джуниоры, возникает из-за резкого роста конкуренции. Профессия стала массовой, и хотя вакансии начального уровня никуда не исчезли, конкурс на них выше, чем 5 лет назад.
businessinsider.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍91❤30🔥13👏6😁3🎉3🤔2🙏1💋1💘1
На русскоязычных медиа-площадках появились первые публичные интеграции ИИ-агентов непосредственно в пользовательский интерфейс. Два свежих кейса — Хабр и «Код Дурова» — демонстрируют разные архитектурные подходы к одной задаче: помочь читателю взаимодействовать с контентом.
Хабр совместно с SourceCraft разработал фичу для объяснения кодовых сниппетов прямо в статьях. В блоках кода появилась кнопка «Объяснить код с SourceCraft» — при нажатии ИИ-помощник на базе Yandex AI Studio берёт в качестве контекста всю статью и конкретный блок кода, затем генерирует объяснение в оверлейном окне. Можно в один клик перейти в среду разработки с сохранением контекста статьи, чтобы продолжить работу с кодом.
Издание запустило агента «Кодик» также на базе Yandex AI Studio — он работает как персональный помощник по всему контенту сайта. Архитектура задействует два компонента: нейросетевые модели для генерации ответов и AI Search для поиска релевантных материалов по сайту.
Логика работы: агент сначала ищет по контенту площадки. Если релевантная информация найдена — формирует ответ с привязкой к конкретным публикациям. Если нет — фолбэчит на базовые знания модели, покрывая вопросы за пределами тематики сайта. Функционал шире: поиск материалов по запросу, рекомендации, объяснение терминов, краткий пересказ статей в реальном времени.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍107🤓31❤17👏12🎉4🔥3💯3
This media is not supported in your browser
VIEW IN TELEGRAM
VoxCPM2 - крупное обновление открытой системы синтеза речи VoxCPM.
Модель обучена на более 2 млн. часов мультиязычных аудиоданных и поддерживает 30 языков, включая русский, китайский, английский, японский, корейский, арабский и хинди (плюс 9 диалектов китайского).
За проектом стоит OpenBMB, структура при Университете Цинхуа, объединяющая академическую лабораторию THUNLP и коммерческую компанию ModelBest.
THUNLP - одна из сильнейших академических групп по LLM в Азии, которой руководит легенда китайского NLP, профессор Maosong Sun.
OpenBMB известна сериями CPM, MiniCPM, AgentCPM и фреймворками BMTrain и OpenPrompt.
В отличие современных TTS-систем, VoxCPM2 работает напрямую с непрерывными представлениями в латентном пространстве AudioVAE V2.
Пайплайн состоит из 4 стадий: LocEnc, TSLM, RALM и LocDiT. На выходе - аудио с частотой 48 кГц студийного качества: асимметричная архитектура AudioVAE V2 принимает референс на 16 кГц и повышает разрешение без внешнего апсемплера.
Из версии 1.5 перешел режим Ultimate Cloning: если передать вместе с референсом его точный транскрипт, модель воспроизводит ритм, интонации и манеру речи.
На Seed-TTS-eval модель показывает WER 1.84% на английском и CER 0.97% на китайском при сходстве голоса (SIM) 75.3% и 79.5% соответственно.
На мультиязычном Minimax-MLS-test система лидирует по SIM в подавляющем большинстве из 24 языков, опережая Minimax, ElevenLabs, FishAudio S2 и Qwen3-TTS.
В задаче генерации голоса по описанию модель набирает лучшие баллы среди open-source решений на InstructTTSEval в английском языке.
Скорость инференса по соотношению времени, затраченного моделью на генерацию аудио к длительности самого аудио - около 0.3 на NVIDIA RTX 4090. На движке Nano-vLLM этот показатель снижается до 0.13 (подходит для стриминга в реальном времени).
Есть скрипты и гайд для SFT (добавления нового языка или домена) или LoRA для глубокой имитации конкретного спикера. LoRA потребует 5–10 минут аудио и 20 ГБ VRAM.
@ai_machinelearning_big_data
#AI #ML #TTS #VoxCPM2 #OpenBNB
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍70❤32👏12🔥9🤩5❤🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская лаборатория релизнула GLM-5.1 - флагманскую MoE-модель с 754B параметров нового поколения, ориентированную на агентную инженерию.
Фокус релиза - на кодинг и долгие агентные сессии.
GLM-5.1 построена так, чтобы оставаться продуктивной на длинной дистанции: декомпозировать задачу, запускать эксперименты, читать результаты, находить блокеры и пересматривать стратегию.
Z ai утверждает, что модель устойчиво оптимизирует решение на протяжении сотен итераций и тысяч вызовов инструментов, то есть результат тем заметнее, чем дольше она запускают.
API доступен на платформе Z ai, веб-версия на chat.z.ai обещана в ближайшие дни. Веса опубликованы на Hugging Face под лицензией MIT.
Для локального развертывания уже готовы сборки под SGLang 0.5.10+, vLLM 0.19.0+, xLLM, KTransformers и свежую ветку Transformers.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥85❤28💯21👍12👏5😁5💘2
Project Glasswing - инициатива по защите критической программной инфраструктуры с помощью ИИ.
Поводом стали возможности разрабатываемой модели Claude Mythos Preview, которая, по оценке самой компании, превосходит почти всех специалистов по поиску и эксплуатации уязвимостей в коде.
За несколько недель работы Mythos Preview обнаружила тысячи 0-day уязвимостей, в том числе во всех крупных операционных системах и браузерах. Среди раскрытых примеров:
Модель находила уязвимости и писала эксплойты без участия человека. Все упомянутые баги уже исправлены, для остальных Anthropic уже опубликовала криптографические хэши описаний и раскроет детали после выхода патчей.
Партнеры Glasswing получат модель для оборонительных задач: локального поиска уязвимостей, тестирования бинарников, защиты конечных точек и пентестов. Доступ открыт более чем 40 организациям, поддерживающим критическую и open-source-инфраструктуру.
К проекту присоединились AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA и Palo Alto Networks.
Anthropic выделяет до $100 млн. в кредитах на использование модели и $4 млн. прямых пожертвований: $2,5 млн в Alpha-Omega и OpenSSF через Linux Foundation и $1,5 млн. для Apache Software Foundation.
После этапа превью, модель будет доступна участникам Glasswing по цене $25 за миллион входных и $125 за миллион выходных токенов через Claude API, Amazon Bedrock, Vertex AI и Microsoft Foundry.
Защитные механизмы для моделей такого класса Anthropic планирует обкатать на ближайшем релизе Claude Opus, который не несет сопоставимых рисков.
Anthropic уже обсуждает возможности Mythos Preview (как атакующие, так и защитные) с американскими госструктурами.
Подробности о возможностях модели, ее свойствах и общих характеристиках доступны в Claude Mythos Preview system card.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥114👍42🤔25👏9❤7❤🔥3🥰2
Media is too big
VIEW IN TELEGRAM
Компания заключила крупное соглашение о поставке вычислительных мощностей нового поколения с запуском в 2027 году. Почти вся новая инфраструктура разместится в США.
Масштабирование железа связано с ростом бизнеса: в 2026 году прогнозируемая годовая выручка Anthropic перешагнула $30 млрд., а число клиентов, тратящих на Claude более $1 млн в год, достигло 1000 компаний.
Главным облачным провайдером остается Amazon, но Anthropic не привязывается к одному вендору: модели тренируются и запускаются на AWS Trainium, Google TPU и NVIDIA GPU.
anthropic.com
OpenAI, Anthropic и Google начали использовать площадку Frontier Model Forum для совместного отслеживания попыток враждебной дистилляции. Эта практика нарушает условия использования и обходится лабораториям Кремниевой долины в миллиарды долларов упущенной выгоды ежегодно.
Координация выстроена по аналогии с кибербезопасностью: компании делятся данными об атаках и тактиках злоумышленников, чтобы быстрее блокировать несанкционированный сбор результатов инференса.
Полноценному обмену мешает американское антимонопольное законодательство. Разработчики опасаются обвинений в сговоре и ждут от правительства США правовых инструкций для легальной защиты технологий.
bloomberg.com
Пилотный проект ориентирован на специалистов по элайнменту. Приоритеты: оценка уязвимостей, снижение рисков, контроль над ИИ-агентами, защита приватности и предотвращение злоупотребления моделями.
Программа пройдет с 14 сентября 2026 по 5 февраля 2027 года. Участники получат стипендию, менторов, вычислительные мощности и кредиты на API, но без доступа к внутренним системам OpenAI.
Формат - удаленно или в центре Constellation. По итогам каждый должен представить статью, бенчмарк или датасет.
OpenAI обещает, что опыт и технические навыки будут важнее дипломов. Заявки принимаются до 3 мая.
openai.com
По данным спецслужб Тайваня, Пекин атакует ИИ-сектор и производителей чипов, чтобы преодолеть технологическую блокаду. На острове фиксируют всплеск промышленного шпионажа: китайские компании используют теневые каналы, нелегально хантят инженеров, похищают интеллектуальную собственность и закупают оборудование в обход экспортного контроля.
Параллельно растет давление в киберпространстве. Только за первый квартал года ИТ-сети Тайваня зафиксировали свыше 170 млн попыток несанкционированного проникновения с целью сбора данных и слежки.
reuters.com
Университет Тафтса опубликовал концепт гибридной VLA-модели для управления роботами. Метод использует архитектуру, объединяющую глубокое обучение с правилами символьной логики. Система заранее выстраивает абстрактный план, опираясь на свойства объектов, и не учится долгим путем проб и ошибок.
На тестах с «Ханойской башней» модель показала радикальный прирост эффективности. Время обучения сократилось с полутора суток до 34 минут, затраты энергии на тренировку упали до 1% от стандартных VLA-систем. В инференсе потребление составило 5%. Точность выросла с 34% до 95%.
В усложненной версии теста нейросимволический ИИ добился успеха в 78% случаев, а традиционные модели провалили все попытки. По мнению авторов, структурное мышление поможет решить проблему роста энергоаппетитов нейросетей.
sciencedaily.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍137🤓24👏21❤14🔥4💯3❤🔥2
Об этом сообщил Сэм Альтман в сети Х.
В честь достижения этой отметки лимиты использования Codex будут сброшены.
Так будет каждый раз при достижении очередного миллиона, вплоть до 10 миллионов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤75🎉34👍32🔥12👏5🐳4
Институт Аллена представил модель WildDet3D, которая по одному изображению строит 3D-рамки объектов: оценивает их положение, размер и ориентацию в метрических координатах.
Модель принимает сразу несколько типов промптов: текстовый запрос, клик по точке или готовый 2D-бокс от внешнего детектора.
2D-детектор построен на SAM3 и обрабатывает все типы запросов.
Геометрическая ветка использует энкодер DINOv2 с обучаемым декодером глубины, учитывающим геометрию обзора: направления лучей камеры зашиваются через сферические гармоники, что снимает необходимость в отдельной калибровке.
Третий компонент, 3D-head, объединяет через кросс-внимание 2D-детекции с признаками глубины и поднимает их в полноценные 3D-боксы.
Если на инференсе доступны данные с LiDAR, ToF или стереокамеры, они подмешиваются в ту же геометрическую ветку без переобучения.
На бенчмарке Omni3D модель показывает 34,2 AP с текстовыми промптами (это +5,8 пункта к прежнему лидеру 3D-MOOD).
На zero-shot переносе на Argoverse 2 WildDet3D практически удваивает прежний результат: 40,3 ODS против 23,8.
На редких категориях из собственного бенчмарка WildDet3D-Bench успехи, разумеется, еще лучше - 47,4 AP против 2,4 у 3D-MOOD.
Оно использует видеопоток с камеры iPhone и данные LiDAR-сенсора, чтобы в реальном времени отрисовывать 3D-боксы поверх сцены как AR-оверлей.
Это наглядная демонстрация того, как монокулярная модель усиливается, когда устройство умеет отдавать дополнительный сигнал глубины.
Более 1 млн. изображений и 3,7 млн. верифицированных 3D-аннотаций, охватывающих свыше 13 тыс. категорий объектов. По сценам распределение получилось такое: 52% помещений, 32% городской среды и 15% природы.
Он собран на основе 2D-наборов (COCO, LVIS, Objects365, V3Det): кандидаты в 3D-боксы генерировались 5 независимыми методами оценки геометрии, затем фильтровались, проверялись VLM и дополнительно отбирались людьми.
@ai_machinelearning_big_data
#AI #ML #CV #Detection #WildDet3D #Ai2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩52👏26👍14🔥11🎉9❤6🥰3