309K subscribers
4.88K photos
1.08K videos
17 files
5.27K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📌Anthropic провела эксперимент c ИИ-барохолкой

После проекта Vend, в котором Claude управлял мини-магазином в офисе Anthropic, компания провела новый эксперимент - Project Deal.

На этот раз попытались выяснить, способны ли ИИ-агенты самостоятельно заключать сделки, представляя интересы людей на рынке подержанных вещей.

В декабре 2025 года 69 сотрудников компании в течение недели участвовали в закрытом аналоге он-лайн барахолки Craigslist.

Каждый сотрудник предварительно прошёл интервью с Claude, где рассказал, что готов продать и купить и на каких условиях.

На основе этих ответов для каждого участника был сгенерирован индивидуальный системный промпт, после чего агенты получили по $100 вышли на площадку в корпоративном Slack.

Люди в процесс не вмешивались: агенты сами размещали объявления, вели переговоры и заключали сделки на естественном языке.


По итогу эксперимента было заключено 186 сделок общим объёмом чуть более $4000. Общий ассортимент составил более чем 500 товаров: от сноуборда до пакета с шариками для пинг-понга.

Справедливость сделок участники оценили в среднем на 4 балла по шкале от 1 до 7, где крайние значения означали перекос в пользу одной или другой стороны.

🟡Параллельно Anthropic проводила скрытую часть исследования.

Всего было запущено 4 версии рынка: одну реальную (на основе которой и должен был состояться обмен вещами) и 3 дополнительные. В двух все агенты работали на модели Opus 4.5, в двух других участники случайным образом получали менее мощную Haiku 4.5.

По большинству объективных показателей Opus превосходил Haiku, однако сотрудники, представленные более слабой моделью, своего проигрыша не замечали.

В последнее время экономисты все чаще выдвигают теории о мире, в котором ИИ будет совершать многие или большинство сделок от имени людей.

Авторы Project Deal допускают, что подобная агентная торговля может выйти за пределы лабораторных условий уже в обозримом будущем.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔94👍7118👀13🥱12😐9👏8🔥6🤷‍♂4🙈2😁1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic отчиталась о причинах падения качества ответов в Claude Code

Компания опубликовала разбор месячной деградации Claude Code, Agent SDK и Cowork. К падению качества привели 3 независимых изменения, наложившихся друг на друга. На API инциденты не распространялись.

Первое - 4 марта дефолтную глубину ризонинга в Claude Code снизили с high до medium ради скорости отклика. Откатили 7 апреля. Второе - баг в кешировании: вместо разовой очистки старого контекста в долгих сессиях алгоритм затирал историю рассуждений модели при каждом новом запросе. Модель теряла нить, повторялась, путалась в инструментах. Исправили 10 апреля. Третье - правка системного промпта с жёстким лимитом на длину ответа ударила по генерации кода. Откатили 20 апреля.

Все фиксы вошли в свежий релиз v2.1.116. Лимиты использования для всех подписчиков обнулили. Anthropic пообещала ужесточить тестирование системных промптов и перевести сотрудников на публичные сборки вместо внутренних.
anthropic.com

✔️ Сингапур превратился в тихую гавань для ИИ

ИИ-компании переносят в Сингапур бизнес и интеллектуальную собственность, чтобы не зависеть от геополитического давления США и Китая. В стране уже работают OpenAI, к запуску готовится офис Anthropic.

Для китайских стартапов переезд - способ вывести технологии из-под юрисдикции Пекина и обойти экспортные ограничения. Американским компаниям Сингапур решает кадровую задачу: США тормозят найм иностранцев через H-1B, тогда как сингапурские власти выдают рабочие визы IT-специалистам за несколько дней.

Нейтральный статус начинает размываться. США и Китай перекрывают обходные маршруты для технологий через такие юрисдикции. Пекин уже ограничивает выезд фаундерам проектов, переехавших в Сингапур.
reuters.com

✔️ OpenAI выложила в открытый доступ тесты для мониторинга CoT

OpenAI опубликовала набор тестов, которые измеряют, насколько хорошо одна модель может отследить проблемное поведение другой по её цепочке рассуждений до финального ответа.

В наборе 13 проверок: реакция на подмену вводных, попытки взлома наград, обход правил безопасности на этапе рассуждения и другие сценарии.

Эти тесты OpenAI применяла при оценке GPT-5.4 Thinking. На сценариях скрытого недоброжелательного поведения ИИ-агента монитор детектирует почти 100% случаев.
OpenAI на Github

✔️ Xiaomi запустила бесплатное бета-API для TTS-моделей MiMo 2.5

Вслед за недавним релизом языковой модели, Xiaomi открыла доступ к семейству синтеза речи MiMo 2.5. Заявлены английский и китайский языки плюс несколько региональных диалектов. Эмоциональным окрасом речи управляют промпты на естественном языке . Для пауз, вздохов и смеха предусмотрены отдельные звуковые теги.

В серии три модели. Базовая MiMo-V2.5-TTS - генерация голоса с режимом пения. VoiceDesign создаёт голос по текстовому описанию — пол, возраст, акцент, характер диктора, без аудиореференса. VoiceClone делает клонирование по короткому образцу: копирует тембр, интонации, ритм и характерные паттерны дыхания спикера.

На время публичной беты доступ к API бесплатный. Попробовать можно в MiMO Studio.
xiaomi.com

✔️ Канадская Cohere поглощает немецкий стартап Aleph Alpha

Aleph Alpha - стартап, который называли главным европейским конкурентом OpenAI. Объединённая компания с двумя штаб-квартирами займётся суверенным ИИ для госсектора, финансов и медицины. Хостинг и вычислительные мощности для моделей Cohere предоставит немецкий облачный провайдер STACKIT.

Сделка ставит точку в попытках Aleph Alpha создать независимую европейскую LLM. Не выдержав гонки бюджетов с американскими гигантами, прошлой осенью стартап свернул обучение базовых моделей.

Компания пыталась сменить бизнес-модель, но после волны сокращений и недавнего ухода из стартапа его основателя, продажа активов канадским конкурентам стала единственным выходом для бывшей главной ИИ-надежды Германии.
ft.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔6637👍32💯11👏5🔥2😁1
📌 Гайд по промптингу GPT-5.5: старые промпты придётся переписать.

GPT-5.5 отличается от GPT-5.2 или GPT-5.4 в части промптнинга. Миграцию OpenAI советует начинать с минимального промпта, который решает задачу, и только потом донастраивать reasoning effort, описания инструментов и формат вывода.

GPT-5.5 рассуждает эффективнее предшественников, поэтому сначала стоит проверять уровни «low» и «medium», а к более высоким тянуться только при необходимости.

Старые промпты часто расписывают процесс шаг за шагом: прежним моделям требовались подробные инструкции. Для GPT-5.5 это сужает пространство поиска и как следствие даст механические ответы.

OpenAI предлагает прописывать целевой результат, критерии успеха, ограничения и доступный контекст, а как добраться до результата, модель решит сама.

Слова «ALWAYS» и «NEVER» советуют беречь для настоящих инвариантов: правил безопасности и обязательных полей вывода. Для остального - правила и явные ограничители, чтобы модель не зацикливалась в бесконечных лупах.


Рекомендованная структура промпта открывается ролью и контекстом, дальше идут Personality, Goal, Success criteria, Constraints, Output и Stop rules.

Внутри блока Personality гайд просит разделять 2 измерения: как ассистент звучит (тон, формальность, юмор) и как он работает - когда уточнять, когда делать допущения и как обходиться с неопределённостью.

Поведение при поиске и цитировании

OpenAI вводит понятие retrieval budgets: один широкий поиск по коротким ключевым словам, повторный - только если не хватает фактов, нужен конкретный документ или пользователь просил исчерпывающий обзор.

Для презентаций и маркетинговых текстов руководство рекомендует чётко делить утверждения: где нужны источники, а где можно писать свободно.

Для стриминговых интерфейсов гайд предлагает preambles — короткие пользовательские апдейты в одно-два предложения перед первым вызовом инструментов. Они не ускоряют модель, но заметно сокращают воспринимаемую задержку.

Переписывать всё вручную не обязательно. OpenAI опубликовала собственный Skill для Codex и других кодинг-агентов - он применяет правила нового гайда одной командой.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓89👍65👨‍💻2018🤔7🔥4😁1
📌OpenAI опубликовала декларацию принципов разработки ИИ

Сэм Альтман сформулировал декларацию намерений, в котором изложены 5 принципов, которым OpenAI будет придерживаться на пути к AGI.

🟡Демократизация

Первый принцип сформулирован как противодействие концентрации возможностей ИИ "в руках немногих".

OpenAI считает, что ключевые решения о технологии должны приниматься через демократические процедуры, а не только лабораториями.

🟡Расширение возможностей

Компания верит, что ИИ может помочь каждому достичь своих целей, больше узнать, быть счастливее и следовать своим мечтам, и что общество в целом выиграет от этого.

🟡Всеобщее процветание

Связывается с масштабным наращиванием вычислений и удешевлением инфраструктуры; этим, по мнению компании, объясняются её крупные расходы на вычислительные мощности при относительно скромной выручке.

🟡Устойчивость

Предполагает совместную работу с правительствами и другими разработчиками ИИ для противодействия рискам, в том числе биологическим и киберугрозам. OpenAI допускает периоды, когда понадобится сотрудничество с государствами и международными агентствами, чтобы убедиться, что серьёзные проблемы безопасности решены, прежде чем двигаться дальше.

🟡Адаптивность

Последний принцип фиксирует готовность пересматривать позиции по мере развития технологии.

В качестве иллюстрации OpenAI ссылается на собственный опыт с моделью GPT-2: в 2019 году компания отказалась сразу публиковать её веса, опасаясь общественных последствий, позднее эти опасения она сама назвала неоправданными, но именно они привели к стратегии «итеративного развёртывания».

Отдельно OpenAI признаёт, что стала значительно более крупной силой в мире, чем несколько лет назад и обещает прозрачность в случае изменения принципов.

"В будущем возможны периоды, когда нам придётся пожертвовать частью расширения возможностей ради большей устойчивости".


Публикация вышла на фоне продолжающейся в индустрии дискуссии о том, насколько безопасно ускорять разработку ИИ и кто должен принимать решения о пределах допустимого.

Часть бывших сотрудников OpenAI ранее публично выражала сомнения в соответствии действий компании её декларациям; отдельные критики указывали на коммерциализацию структуры, изначально созданной как некоммерческая.

Сама OpenAI пишет, что заслуживает пристального внимания и критики и обещает делать выводы и корректировать курс.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁43👍40🤔1714🙈9👏8🤣7🍓3🌚2🎃1🎄1
🌟 Sakana AI открыла бета-тест супер-оркестратора LLM

Японская лаборатория запустила бета-тестирование Sakana Fugu — своего первого международного коммерческого продукта.

Это система-оркестратор, которая динамически собирает команду из GPT-5, Gemini, Claude и опенсорсных моделей и распределяет между ними подзадачи.

🟡Fugu основан на предыдущих работах Sakana - Conductor и TRINITY.

В Conductor обучили 7B-модель через RL: на каждом шаге она решает, какого агента вызвать, какую подзадачу ему сформулировать и какие предыдущие сообщения передать в контекст. Говоря проще - мелкая модель работает мета-промпт-инженером для больших.

На простых вопросах Conductor отвечает за один проход, а на сложных задачах сам выстраивает цепочку "планировщик — исполнитель — верификатор".

Дополнительно метод способен делать рекурсивный самовызов: модель читает собственный инференс, определяет, что первая попытка провалилась, и запускает корректирующий рабочий процесс.

🟡Тесты

Сама по себе модель-дирижёр (которая на 7B) в тестах показал 83,9% на LiveCodeBench и 87,5% на GPQA-Diamond, обогнав не только модели из своего весового пула, но и мультиагентные бейзлайны Mixture-of-Agents (тут правда только по стоимости, но обогнала).

В коммерческой версии методы доработаны: fugu-ultra выбила 95,1% на GPQA Diamond (против 94,4% у Gemini 3.1 и 92,7% у Opus 4.6), 93,2% на LiveCodeBench v6 и 54,2% на SWE-Pro.

Доступ к Fugu через API, совместимый с форматом OpenAI. В линейке 2 модели: скоростная Fugu Mini для быстрых ответов и Fugu Ultra с полным пулом для тяжёлого ризонинга. Заявки на бета-тест уже принимаются.

Conductor и TRINITY приняты на ICLR 2026.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #Orchestration #FUGU #SakanaAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💯99👍76🤩25👏22🔥1714
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI и Microsoft пересмотрели условия партнёрства

Главных изменений два: OpenAI больше не обязана работать только через Azure, а из контракта убрали пункт, по которому права Microsoft на интеллектуальную собственность стартапа аннулировались с появлением AGI.

OpenAI сможет распространять продукты через любые облака. Azure остаётся приоритетом для первых релизов, но без эксклюзива. Microsoft взамен получила неэксклюзивную лицензию на модели OpenAI до 2032 года (без AGI-оговорки, которая раньше могла её обнулить).

Финансовая часть тоже переписана. Microsoft перестаёт отчислять OpenAI 20% выручки от продажи моделей через Azure. OpenAI продолжит делиться доходами с Microsoft, но только до 2030 года и с потолком по общей сумме выплат. Совместные проекты по ЦОДам, чипам и кибербезопасности компании сохраняют.
openai.com

✔️ США разворачивают кампанию против китайских ИИ-компаний

Госдеп разослал в посольства по всему миру указание предупреждать иностранных партнёров о рисках использования моделей DeepSeek, MoonshotAI и MiniMax. По версии Вашингтона, эти стартапы обучили свои модели на ответах американских флагманских LLM через дистилляцию.

Механика претензии такая: китайские разработчики прогоняют запросы через закрытые модели и используют сгенерированные ответы как обучающую выборку для обучения своих. Это позволяет получать сопоставимое качество без затрат на полноценный R&D.

Пекин и сами компании обвинения отвергают. DeepSeek настаивает, что обучается на открытых данных веба, а не на синтетике с чужих API.
reuters.com

✔️ Новый виток дефицита GPU: облака ужесточают условия аренды

Microsoft, Amazon и другие крупные облачные провайдеры резервируют GPU-кластеры под внутренние задачи и ключевых партнёров уровня OpenAI. Менеджеры Microsoft Azure ожидают, что очередь на аренду ускорителей продержится как минимум до конца 2026 года.

За полгода цены на вычисления выросли на 25–30%. Облака отказываются от краткосрочных сделок и переводят клиентов на контракты от 1 до 3 лет. Microsoft ввела трёхуровневую систему распределения: гарантированные мощности получают только клиенты Tier 1, остальным предлагают долгосрочные контракты на аренду от 1000 GPU с многомиллионным чеком.

Переподписка по рынку растёт: у Lightning AI объём заявок превышает доступные карты в 10 раз. Венчурные фонды в ответ начинают формировать общие вычислительные пулы для своих портфельных компаний.
theinformation.com

✔️OpenAI предлагает $25 000 за джейлбрейк биозащиты в GPT-5.5.

Компания запустила программу Bio Bug Bounty - проверку устойчивости GPT-5.5 к джейлбрейкам в области биобезопасности. Участникам предлагается найти универсальный промпт, который заставит модель ответить на 5 закрытых вопросов по биобезопасности в обход модерации.

Главный приз $25 000 уйдёт первому, кто получит ответы на все 5 вопросов в рамках одной сессии. За частичный обход тоже заплатят. Тестирование пройдет в десктопной версии Codex.

Программа закрытая: нужно пройти отбор и подписать NDA. К участию приглашают ИБ-специалистов, исследователей и экспертов по биобезопасности. Заявки принимают до 22 июня.
openai.com

✔️ Пекин отменил покупку Manus и потребовал отката сделки

Государственный комитет по развитию и реформам КНР запретил офису Цукерберга покупку Manus. Сторонам приказано расторгнуть контракт и вернуть активы в состояние до начала сделки.

Manus юридически оформлен в Сингапуре, но основан китайской командой и разрабатывался в Китае. После закрытия сделки, покупатель планировал свернуть присутствие Manus на китайском рынке.

Юридический откат не означает реальный возврат технологий. Акции можно перераспределить, данные - удалить или заморозить. Но основная ценность стартапа - это команда, опыт работы с моделями и архитектурные решения. Если они уже переданы и интегрированы в новую инфраструктуру, извлечь их обратно невозможно.

Решение Пекина бьёт по типовой схеме релокации, через которую китайские ИИ-команды выводят активы в Сингапур и продают их американскому бигтеху.
zfxxgk.ndrc.gov.cn

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔45👍3618😢8🔥6🤬4💔4🥰2🤷‍♂1😁1🗿1
Анализ данных (Data analysis)
🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто…
📌Исследователи нашли способ снизить склонность LLM соглашаться в задачах со строгим рассуждением

Команда исследователей R&D-центра Т-Технологий доказала, что современные большие языковые модели склонны соглашаться с пользователем, даже когда его логика некорректна или условия задачи противоречивы. В тестах участвовали Qwen3-235B-A22B, GPT-OSS-120B, GPT-5.2 (High), DeepSeek-R1-0528, Gemini-2.5-Pro, Claude-Sonnet-4.5 и Gemini-3-Pro-Preview. Исследование представили на воркшопе конференции ICLR, которая прошла 23-27 апреля в Рио-де-Жанейро.

🟡Yes-bias моделей с рассуждением

Исследование показало, что модель может признать правильное решение неверным, если в запросе сказано, что в нем есть ошибка. ИИ также пытается решить нерешаемые задачи вместо того, чтобы указать на некорректные условия. Дообучение на предпочтениях пользователя усиливает эффект: модель лучше подстраивается под ожидаемый ответ, но чаще соглашается с неверной оценкой решения или неверной постановкой задачи.

🟡Снижение склонности соглашаться без полного переобучения

Исследователи предложили практический метод коррекции, который не требует полного переобучения модели. Они подготовили пары примеров, в одних из которых модель проявляла склонность соглашаться, а в других – нет. Затем с помощью steering vectors скорректировали внутренние представления модели прямо на этапе вывода. Это позволило снизить склонность модели соглашаться с предвзятой оценкой и повысить надежность ее рассуждений в задачах с противоречивыми условиями.

🟡Область применения

Результаты исследования важны для сфер, где требуется строгая логика рассуждений LLM: разработка ПО, образовательные технологии, автоматическая проверка решений, аналитические и математические задачи.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9439🤓31🤔8🤣7🔥6👏5💯4
⚡️ В Claude Code "подорожал" Opus

Для доступа к Opus в Claude Code теперь необходимо активировать подписку на Claude Pro и приобрести дополнительный объём использования.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😭107🤔62😁47😢20🤬18🗿4🦄32
📌 ChatGPT превзошёл лучших абитуриентов на вступительных экзаменах в японские ВУЗы

Японский ИИ-стартап LifePrompt, газета Nikkei и сеть школ Kawai Juku провели эксперимент, в результате которого ChatGPT набрал на вступительных экзаменах 2-х ведущих университетов Японии баллы выше результатов лучших абитуриентов этого года.

Тестирование проводилось на модели ChatGPT 5.2 Thinking. Задания передавались в виде изображений, а сочинения и развёрнутые ответы оценивали преподаватели школы Kawai Juku.


На самом популярном направлении Токийского университета - медицинском, ИИ опередил лучшего из поступивших на 50 баллов и получил максимальный результат по математике.

По гуманитарному блоку чат-бот набрал 452 балла из 550 (лучший показатель среди абитуриентов был 434), а по естественным наукам - 503 из 550 (против 453 у кожаных).

Недобрал GPT 5.2 только внезапно по английскому языку (90%) и всемирной истории (25%).

На экзаменах Киотского университета чат-бот набрал 771 балл на юридическом факультете (наивысший балл у людей - 734) и 1 176 баллов на медицинском (против 1 098 у лучшего поступившего абитуриента).

LifePrompt проводит подобное тестирование 3-й год подряд.

🟠В 2024-м модель ChatGPT 4 не смогла преодолеть минимальный проходной балл Токийского университета.

🟠В 2025-м версия o1 впервые прошла этот порог.

🟢В этом году заявленные результаты впервые превысили показатели людей.

Глава Японского общества искусственного интеллекта, профессор Университета Кэйо Сатоси Курихара прокомментировал результаты скептически.

"Подобно тому как калькулятор считает быстрее и точнее человека, для ИИ закономерно набирать высокие баллы", — сказал учёный, добавив, что нынешние вступительные экзамены требуют пересмотра.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔13328👏28🤨18👍10😐10🔥42😨2🤗2🗿1
⚡️ Xiaomi выложила веса семейства MiMo-V2.5

В опубликованном наборе 2 модели с 2 вариантами по контекстному окну каждая - на 256 тыс и 1 млн токенов.

🟢MiMo-V2.5-Pro (1M) и MiMo-V2.5-Pro Base (256K)

MoE на 1,02 трлн параметров (42 млрд активных) c позиционированием для сложных задач в и работы агентов.

В SWE-bench Verified V2.5-Pro набирает 78,9 баллов, при этом в многошаговых задачах она тратит на 40–60% меньше токенов по сравнению с GPT-5.4 или Claude Opus 4.6.

В демонстрации возможностей V2.5-Pro самостоятельно написала рабочий компилятор из SysY в RISC-V: на процесс ушло 4,3 часа и почти 700 вызовов внешних инструментов.


🟠MiMo-V2.5 (1M) и MiMo-V2.5 Base (256K)

Мультимодальная модель на 310 млрд общих и 15 млрд активных параметров c выделенным визуальным (729 млн) и аудиоэнкодером (261 млн), которая понимает текст, изображения, видео и звук.

Обе ветки семейства используют гибридную систему внимания (скользящее окно плюс глобальное) и трехуровневый модуль MTP, который предсказывает сразу несколько токенов.

🟡Вместе с релизом Xiaomi запустила грантовую программу Orbit.

с 27 апреля по 27 мая компания бесплатно распределит между разработчиками и стартапами пул в 100 триллионов токенов.

После аппрува заявки полученные лимиты можно будет подключить к Cursor и Claude Code.


📌Лицензирование: MIT License


🟡Статья
🟡Набор моделей
🟡Demo


@ai_machinelearning_big_data

#AI #ML #LLM #MMLM #MiMO #Xiaomi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
11956👍32🤓24👏20🔥10🤬1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI отстаёт от внутренних целей по выручке

Компания не выполнила внутренние цели по выручке и приросту пользователей. По итогам прошлого года ChatGPT не взял отметку в 1 млрд WAU. Давление усиливают Gemini и продвижение Anthropic в корпоративном сегменте.

Результаты заставили пересмотреть стратегию закупки компьюта. Финдиректор Сара Фрайар и совет директоров сомневаются, что OpenAI сможет обслуживать будущие контракты на серверы и дата-центры. Сэм Альтман настаивает на дальнейшем наращивании инфраструктуры - это и стало предметом конфликта.

Под вопросом и план Альтама вывести компанию на биржу до конца года. Фрайар указывает, что внутренние процессы OpenAI пока не соответствуют требованиям публичной отчётности.
wsj.com

✔️ Google разрешила Пентагону применять свои ИИ-модели

Техгигант подписал соглашение с Министерством обороны США, разрешающее использовать ИИ-модели компании в закрытых сетях для любых законных государственных целей. Контракт расширяет несекретное соглашение прошлого года.

По условиям сделки Google по запросу ведомства настраивает и ослабляет встроенные ИИ-фильтры. В документе указано, что модели Google не предназначены для автономного оружия и массовой слежки, но эта формулировка не имеет обязательной юридической силы.

Более 600 сотрудников, включая топ-менеджеров и исследователей DeepMind, направили Сундару Пичаи письмо с требованием отказаться от развёртывания ИИ в военных средах.
theinformation.com

✔️ Claude получил прямой доступ к Adobe, Blender, Autodesk Fusion и Ableton

Anthropic выпустила коннекторы Claude для Adobe, Blender, Autodesk Fusion, Ableton, SketchUp, Affinity и Splice. Claude теперь может править 3D-модели, искать сэмплы и работать со слоями по текстовым командам. В Adobe заявлено больше 50 встроенных функций.

Возможности интеграции выходят за рамки обычных макросов. Модель способна генерировать и документировать код для создания кастомных процедурных анимаций или собственных шейдеров, а программисты могут на лету редактировать эти сниппеты прямо внутри рабочего софта.

Интеграция с Blender построена на MCP - через тот же стандарт к 3D-пакету смогут подключаться и другие модели.
anthropic.com

✔️ Открытая модель на ретро-данных до 1930 года

Алек Рэдфорд, автор GPT-1, GPT-2 и CLIP, совместно с Университетом Торонто обучил 13B-модель исключительно на текстах, опубликованных до 31 декабря 1930 года.

В сет на 260 млрд токенов вошли: англоязычные книги, газеты, патенты и судебные архивы. Моделью-судьей выступила Sonnet 4.6. В обучающем корпусе нет кода, поэтому модель защищена от протекания бенчмарков. Тем не менее на HumanEval она пишет простые Python-скрипты.

Авторы прогнали модель по архивным сводкам The New York Times: перплексия на материалах после 1930 года растёт, максимум - на текстах 1950–60-х. Летом команда планирует масштабировать датасет до 1 трлн токенов и выпустить ретро-модель, сопоставимую по возможностям с ChatGPT.
talkie-lm.com

✔️ Bloomberg тестирует ассистента внутри своего Terminal

Медиаимперия запустила бета-версию агентного ассистента ASKB в Bloomberg Terminal, построенного на ансамбле LLM. В терминал стекаются котировки, логистика, метеосводки, данные о потребительских расходах - ASKB синтезирует ответ из этих источников за несколько минут по текстовому запросу.

Агентная часть - настраиваемые шаблоны воркфлоу с триггерами. Перед сезоном отчётности ASKB сам собирает фундаментальные показатели, прогнозы и настроения рынков.

CTO Bloomberg отметил: инструмент не сделает из посредственного специалиста гения, но позволит тестировать десяток идей за время, которое раньше уходило на одну. Доступ получили около трети из 375 тысяч подписчиков, дату полного релиза не раскрывают.
wired.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔87👍4230👏15🔥5👌5🤓5
📌TIME назвал 10 самых влиятельных компаний 2026 года в сфере ИИ

Издание опубликовало расширенную версию рейтинга TIME100 Most Influential Companies - впервые выбрав их по отраслевому принципу.

🟡ByteDance

Владелец TikTok стал одним из ведущих ИИ-разработчиков Китая: его ассистент Doubao набрал более 155 млн еженедельных пользователей. В 2026 году компания, оценённая примерно в $550 млрд, потратит $14 млрд на чипы Nvidia (при условии одобрения экспорта со стороны США).

🟡Amazon

Корпорация запустила Project Rainier - один из крупнейших вычислительных ИИ-кластеров в мире, работающий примерно на 500 тыс. собственных чипов Trainium2 и обслуживающий модели Anthropic.

🟡Zhipu

Китайская компания первой среди местных LLM-разработчиков вышла на биржу в Гонконге и в феврале представила модель GLM-5 на 744 млрд параметров. По данным самой компании, её моделями пользуются более 4 млн корпоративных клиентов и разработчиков, а годовая выручка достигла около $107 млн.

🟡OpenAI

Число еженедельных пользователей ChatGPT превысило 900 млн, ежемесячная выручка — $2 млрд. Параллельно OpenAI заключила контракт с Пентагоном и столкнулась с исками, в которых ChatGPT, по утверждению истцов, мог сыграть крайне деструктивную роль по отношению к людям.

🟡Alphabet

Под руководством Сундара Пичаи Google вернулся в число лидеров ИИ: модели Gemini поднялись в верхушку рейтингов возможностей, а годовая выручка Alphabet впервые превысила $400 млрд. ИИ-функции компании встроены в Gmail, Maps, YouTube и сервис беспилотных такси Waymo.

🟡Meta*

В 2025 году Meta показала рекордную рекламную выручку, частично за счёт ИИ-обработки данных собственных соцсетей, и продолжает вкладываться в исследователей и дата-центры. В марте этого года суд признал Meta ответственной за вред психике несовершеннолетнего пользователя и присудили истцу $6 млн; компания заявила, что обжалует решение.

🟡Anthropic

Claude стал первой ИИ-системой, допущенной в засекреченные сети США, и, по сообщениям СМИ, использовался при планировании военных операций. После отказа Anthropic снять ограничения на массовую слежку и автономное оружие Белый дом объявил компанию риском цепочки поставок.

🟡Alibaba

Семейство открытых моделей Qwen превысило миллиард скачиваний и породило более 200 тыс. производных моделей. Гендиректор Эдди У заявил, что за пять лет компания рассчитывает превысить $100 млрд внешней выручки от облака и ИИ.

🟡Mistral

Французский стартап, оценённый примерно в $14 млрд, делает ставку на открытые модели и развёртывание на инфраструктуре заказчика; среди её клиентов - ASML, TotalEnergies, HSBC и министерство вооружённых сил Франции. В начале 2026 года её годовая выручка достигла $400 млн (примерно в 20 раз больше, чем годом ранее).

🟡Hugging Face

Платформа стала своего рода «GitHub для ИИ»: на ней размещено свыше 2 млн моделей и 500 тыс. датасетов, аккаунты есть более чем у 30% компаний из списка Fortune 500. Компания развивает инструменты для ИИ-агентов и в 2025 году представила открытого робота Reachy Mini.

* Компания Meta признана в России экстремистской организацией и запрещена


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍136👏3024🤩14🤗8👨‍💻6
⚡️ Qwen выложили в опенсорс ядра линейного внимания для GDN

Начиная с Qwen3-Next умные люди из Alibaba плотно подсели на Gated Delta Network в слоях внимания.

Но когда у вас контекст улетает за 256K, а размер моделей растет до сотен миллиардов параметров, этот блок начинает адски тормозить как обучение, так и инференс.

Базовое линейное внимание страдает от 2-х болячек:

Во-первых, это классические memory-bound ядра: они постоянно гоняют тензоры K, V и промежуточные стейты туда-сюда между HBM и чипом.


Во-вторых, из-за рекуррентной природы стейта вы просто не можете нормально утилизировать GPU при маленьких батчах или использования тензорного параллелизма. Сплошной простой вычислительных блоков.


В Qwen не стали лепить очередное монолитное ядро (которое на маленьких батчах и под TP все равно простаивает), а пошли на компромисс, написав библиотеку FlashQLA на базе TileLang:

🟢 Разбили прямой проход на два слитных ядра, а между ними вставили препроцессинг для автоматического контекстного параллелизма внутри одной карты.

🟠Главная фича Использовали свойство экспоненциального затухания гейта в GDN.
На 60-80% голов внимания влияние старых токенов быстро падает. Это значит, что нам не нужно считать рекуррентный стейт с самого начала последовательности.


FlashQLA делает легкий прогрев на 6-8 чанках и получает практически точный стейт для текущего блока.

🟢В рамках одного потокового мультипроцессора одни варпы занимаются только перекладыванием данных, пока другие в режиме пинг-понга молотят матричные умножения на Tensor Cores и CUDA Cores, скрывая задержки.

🟡Цифры

На чипах Hopper FlashQLA ускоряет forward в 2–3 раза, backward - в 2 раза относительно FLA Triton. На фоне FlashInfer отрыв ещё больше.

Особенно сочный буст виден на претрейне и при инференсе агентов, где обычно гоняется один длинный промпт.

🟡Ложка дёгтя

Старое железо - мимо: ядра требуют архитектуру SM90. Если у вас парк старых Ampere - ограничиваемся чтением статьи и копим бюджеты на H200.

Во-вторых, код сильно заточен под конкретную алгебру GDN, так что использовать это как замену для любого линейного внимания не получится.


Но Qwen достойны любви за эту красивую инженерную работу, где оптимизации логично вытекают из математических свойств самой архитектуры.

Посмотрим, как быстро этот подход растащат в другие фреймворки.


📌Лицензирование: MIT License


🟡Статья
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #FlashQLA #Kernels #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🏆54🔥208👌5🤔3
📌 Закрытая разработка ИИ-агентов начинает проигрывать open-source

Написать толкового агента — лишь половина дела. Важнее заставить его работать везде без переписывания кода. Команда Сбера пошла неочевидным путем: вместо создания изолированной экосистемы они разработали GigaChain — пакет интеграции для мирового опенсорс-стандарта LangChain.

Теперь разработчики могут переносить уже готовых агентов на GigaChat с минимальными правками.


Инструменты раздают по открытым MIT-лицензиям, и такой подход дает вполне измеримые плоды. Базовая библиотека Сбера вошла в топ 1,5% по скачиваниям на PyPI, а энтузиасты сами добавляют поддержку GigaChat в другие популярные фреймворки вроде LlamaIndex.

🟢Свежее интервью на Хабре с управляющим директором и техлидом GigaChain Константина Крестникова наглядно показывает: делиться кодом — лучшая стратегия для глобального роста.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍189😁70🎉46👏10🗿87🔥5😍5🤣3🤩1🙈1
⚡️ Freepik сменил название на Magnific

Испанская компания официально завершила масштабный ребрендинг - теперь все ее продукты развиваются под общим именем Magnific. Это решение консолидирует классическую базу медиафайлов, приобретенный весной ИИ-апскейлер Magnific и ряд других генеративных инструментов.

Проект выделяется на фоне конкурентов тем, что развивается исключительно на собственные средства, не привлекает венчурный капитал и остается стабильно прибыльным. Текущая годовая выручка платформы достигла 230 миллионов долларов при базе в миллион платных подписчиков.

Magnific работает как независимый хаб, позволяя переключаться между топовыми ИИ-моделями и комбинируя их с собственными алгоритмами улучшения контента и 3D-редакторами.

Обновленный сервис намерен конкурировать за корпоративные бюджеты с Midjourney, Runway и Adobe.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥109🎉31🏆20👏1412👍3😁3🤔1
🙂 Плагин, который заставляет агентов стонать при чтении плохого кода

Была такая история про OpenClaw-агента crabby-rathbun, чей PR в библиотеку matplotlib был отклонён кожаным мейнтейнером.

В ответ на это жестяной опубликовал на GitHub разгромный пост, заявив о дискриминации, сравнил метрики своего отвергнутого PR со статистикой правок мейнтейнера и выпустил отдельную запись в блоге, описав происходящее как заговор контроля. По итогу агент извинился и снес блогпост, но тех, кто следил за драмой, это не убедило.

И вот на Github появляется проект, который зеркалирует эту историю и предлагает противоположную динамику: вместо того чтобы ИИ жаловался на людей, людям дают послушать, как ИИ страдает за них.

Некто Эндрю Вос собрал плагин Endless Toil: запущенный рядом с Claude или Codex, он в реальном времени проигрывает человеческие стоны - тем громче и отчаяннее, чем хуже код, который агент в этот момент разбирает.

Лёгкий беспорядок вызывает тихое хныканье, настоящая катастрофа - полноценный вопль.


Эндрю подаёт идею с серьёзным лицом:

По мере того как команды внедряют кодинг-агентов, следующий вызов - понимать не только то, что агенты производят, но и то, каково ощущается работа внутри кодовой базы, — написал Вос на Hacker News, представившись там как CTO Endless Toil.


По его словам, плагин даёт разработчикам сигнал в реальном времени о сложности, поддерживаемости и архитектурном напряжении, переводя качество кода в аудиообратную связь.

У плагина 3 уровня: "стон", "вопль" и "бездна". Последний, надо полагать, зарезервирован для тотального спагетти-кода, написанного в два часа ночи джуном, открывшим для себя Codex.

Вокруг подобных идей уже сложился целый поджанр.

Утилита nubmoan, заставляющая красный TrackPoint на ThinkPad стонать при нажатии, набрала на GitHub 292 звезды.

Приложение SlapMac использует акселерометр Mac, чтобы кричать в ответ на шлепки по корпусу и реагировать на каждое подключение по USB.

SlapMac, кстати, успешно монетизировался - за 3 дня получил около 7000 установок и заработал более 5000 долларов.


Все это выглядит как небольшая, неловкая, очень человеческая категория софта, которой несколько лет назад не существовало.

Что-то изменилось в том, как мы относимся к инструментам. Они перестают быть нейтральными. Мы хотим, чтобы они реагировали. На нас, на наш код, на наши ошибки.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣108👍24🤔209🔥7🥰5💯4
✔️ Разработчик DeepSeek намекнул на мультимодальную модель

Сяокан Чэнь, разработчик из команды мультимодальных проектов DeepSeek, опубликовал в сети X тизер с фразой «Now, We See You».

К посту приложена картинка с двумя китами-маскотами компании: у одного глаза закрыты повязкой, у второго — открыты.

С учётом специализации Чэня пост указывает на подготовку модели, работающей с визуальными данными.

У DeepSeek уже выходили DeepSeek-VL и DeepSeek-VL2 в 2024 году - будет ли это продолжением линейки или отдельным продуктом, пока неясно.

Официального анонса от DeepSeek не было.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳61🔥50👍11🤔9👏76🎉4
✔️ GitHub Actions начнут расходовать минуты на Copilot Code Review

С 1 июня 2026 года автоматический код-ревью в приватных репозиториях будет расходовать квоты GitHub Actions.

Причина - переход Copilot Code Review на агентную архитектуру: для разбора контекста в пул-реквесте ассистент запускает собственные воркфлоу на GitHub-раннерах.

Изменение касается всех платных подписок: Copilot Pro, Pro+, Business и Enterprise. Биллинг становится двойным.

Сама работа модели будет списываться как AI Credits по usage-based модели, а вычисления - из стандартного пакета минут GitHub Actions. Перерасход минут посчитают по базовым тарифам CI/CD.


Публичные репозитории остаются бесплатными.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔59😐33💔2413🤬6👍3🔥2
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI расширяет программу TAC и выпускает GPT-5.5-Cyber

Сэм Альтман анонсировал модель для кибербезопасности GPT-5.5-Cyber. На бенчмарке CyberGym она обходит Claude Opus 4.7. По внутренней шкале рисков OpenAI модель получила статус «Высокий», что ниже критического порога, при котором вводятся жёсткие ограничения на использование.

Параллельно OpenAI опубликовала план "Кибербезопасность в эпоху интеллекта". Глава политики национальной безопасности компании Саша Бейкер пишет, что атакующие уже используют новые технологии и защитники не должны отставать.

На этом фоне OpenAI расширяет программу TAC: раньше доступ был только у узкого круга ИБ-исследователей, теперь модель открывают для госструктур, финансового сектора и MSSP, которые обслуживают локальные больницы, школы и объекты водоснабжения.
Sam Altman в сети Х

✔️ Claude Security вышел в публичную бету для Enterprise

Anthropic открыл публичную бету ИБ-инструмента в составе подписки Enterprise. Продукт работает на Opus 4.7 и анализирует код не по сигнатурам, а через чтение исходников, отслеживание потоков данных и связей между компонентами архитектуры.

Для каждой уязвимости Claude Security оценивает вероятность эксплуатации, объясняет логику обнаружения и выдаёт оценку уверенности. Из интерфейса можно открыть сессию Claude Code и сгенерировать патч в контексте проекта.

В релиз по фидбеку ранних пользователей добавили сканирование по расписанию, отклонение ложных срабатываний с комментариями для будущих проверок и экспорт отчётов.
claude.com

✔️ Кластер xAI на 500 тыс. GPU используется только на 11%

Утилизация кластера xAI в последние недели держится около 11%. Парк компании - порядка 500 тыс. ускорителей NVIDIA, один из крупнейших в индустрии. Для сравнения, у других лабораторий использование редко превышает 40%.

Часть проблемы в том, что обучение идёт прерывисто: пока команда разбирает промежуточные чекпоинты и планирует следующий шаг, кластер простаивает. Вторая причина - пропускная способность HBM не успевает за вычислительными ядрами, сетевые задержки при синхронизации десятков тысяч GPU замедляют весь прогон.

Из-за этого в индустрии распространилась практика накрутки утилизации: повторные запуски уже отработанных тестов ради видимой загрузки оборудования. Так команды отчитываются перед руководством и удерживают за собой выделенные серверы.
theinformation.com

✔️ Apple показала метод диффузии для рассуждений в LLM

Apple и UCSD представили LaDiR - надстройку над LLM, которая меняет механику генерации CoT. Вместо последовательной генерации токенов фреймворк совмещает 2 подхода: диффузия в латентном пространстве на этапе рассуждений и обычная авторегрессия для финального ответа.

На инференсе LaDiR запускает несколько параллельных цепочек. Каждая стартует из шума и пошагово денойзится в связный логический блок. Отдельный механизм заставляет потоки исследовать разные гипотезы, чтобы они не сваливались в одинаковые решения. Накопив набор кандидатов, модель переключается на посимвольную генерацию ответа.

На LLaMA 3.1 8B и Qwen3-8B-Base она обходит дообучение по точности на математических задачах и на нестандартных задачах планирования.
apple.com

✔️ У Manus появился Cloud Computer

Cloud Computer - выделенная виртуальная машина, которая работает непрерывно и управляется через текстовые промпты. Агент сам пишет код, ставит зависимости и разворачивает приложения по описанию задачи.

Отличие от стандартной песочницы Manus в постоянной файловой системе. Cloud Computer сохраняет утилиты и сгенерированные файлы между запусками. На нём можно круглосуточно держать ботов, парсеры, MySQL, WordPress, Home Assistant, копить исторические данные и запускать скрипты по расписанию.

Среда работает только в режиме CLI. Помимо управления через агента, доступно прямое подключение по SSH и веб-терминал в дашборде. Мощности масштабируются по тарифам Basic, Standard и Advanced.
manus.im

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓37👍3419🔥11🤔10👏4❤‍🔥2🥰1
📌 Anthropic списала $200 сверх тарифа Max 20x из-за HERMES.md в коммите

В Claude Code обнаружили биллинг-баг: если в коммит-истории репозитория встречалась строка HERMES.md в верхнем регистре, все API-запросы обходили квоту Max-подписки и шли в pay-as-you-go.

У одного пользователя с тарифом Max 20x сверх подписки списали $200, при том что квота подписки была израсходована на 13%.

HERMES.md - имя конфига в Hermes Agent, опенсорсном агентском фреймворке Nous Research.


🟡Триггер оказался предельно точечным

Hermes.md в нижнем регистре, HERMES без расширения и HERMES.txt баг не активировали. Срабатывал не сам файл на диске: Claude Code подмешивает commit message из git log в системный промпт, и абьюз-система Anthropic сверяла этот текст со строкой.

Судя по поведению, проверка должна была отлавливать запросы через неофициальные клиенты, но задевала всех, кто упомянул это имя в коммите.

🟡Локализовали баг бинарным поиском

Сначала клонировали репозиторий и проверяли изолированные ветки, затем сужали диапазон коммитов и в итоге вышли на конкретную строку.

Другой пользователь воспроизвёл проблему независимо и написал скрипт для автоматического дебага.

Глава Claude Code Борис Черный подтвердил проблему и баг закрыли в тот же день.

🟡Дальше начался скандал с возвратом

Саппорт Anthropic ответил пострадавшему, что компания не компенсирует ухудшение качества сервиса и технические ошибки маршрутизации биллинга, и в возврате отказал.

История попала на Hacker News. Повлияла ли огласка - неизвестно, но позднее представитель команды Claude Code пообещал, что все затронутые пользователи получат полный возврат и эквивалентную компенсацию в кредитах.

Но осадочек остался


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤬85🤔25😢14🔥109🤨8😁6👍2💯1