Аишка
946 subscribers
697 photos
66 videos
2 files
445 links
Side-канал @contentreview с новостями из области искусственного интеллекта (AI)

Наши каналы:
Основной (телеком и IT) – @contentreview
Песочница (БигТех) – @BigTechSandbox
Электричка – @econtentreview
Download Telegram
Microsoft нанимает израильских хакеров для взлома своего ИИ

Microsoft разворачивает в Израиле «красную команду» (Red Team) для взлома собственных ИИ-продуктов и начинает активно нанимать людей. Локация выбрана не случайно – Израиль с его опытом в разведке, ИБ и кибербезопасности, подходит на эту роль идеально, потому что здесь есть подходящие кадры и менталитет. Довольно цинично, но и подход максимально серьёзный – компания создавала подразделение ещё в 2018 году, а именно сейчас планирует большое расширение. Само подразделение замаскировано под R&D, но из тысяч сотрудников половина заняты в кибербезопасности. Так что, по сути, это не R&D центр, а большой ИБ-полигон

По планам Microsoft, специалисты в компании автоматизированных агентов будут круглосуточно атаковать инфраструктуру Azure и Copilot, имитируя реальных противников. Пока в соцсетях вполне оправданно смеются над галлюцинациями (придуманными фактами и лишними пальцами на картинках), для бизнеса это проблема куда серьёзнее. Ведь ИИ перестал быть просто чат-ботом и стал прослойкой между сотрудником и корпоративными данными. Главный риск теперь – не глупый ответ, а успешная атака (например, с инъекцией собственных инструкций злоумышленника), когда модель, имеющая доступ к рабочей почте или базам данных, сливает секреты наружу и уничтожает корпоративные данные.

Microsoft на этом пути не единственные. Те же Google в марте прошлого года совершили рекордную сделку – купили стартап в области облачной безопасности Wiz. Удивительным образом так вышло, что тоже израильский. И чем дальше, тем больше индустрия признаёт, что логика работы языковых моделей предполагает взлом, навязывание ролей, подмену инструкций и прочие подобные неприятности. А учитывая, с какой скоростью технологию сегодня интегрируют в CRM, ERP, корпоративные сервисы и итоговые продукты, вокруг каждого «умного помощника» приходится строить второй невидимый продукт – жёсткую систему инструкций, ограничений и надзора.
👍3
Forwarded from Content Review
Топ-менеджеры на кассе и создание фич не ради фич

Посмотрели интервью с CPO Авито Доставки Марией Осиповой. Вводные данные внушительные: штат вырос до 12 тысяч сотрудников. При таких масштабах риск превратиться в неповоротливую структуру с миллионом согласований огромен, но спикер уверяет, что они очень этому сопротивляются, предпочитая избавляться от микроменеджмента и бюрократии.

Зрителям поведали про концепцию «ЛДПР» - Лица, Действительно Принимающие Решения. Это не отсылка к политической партии, а аббревиатура Марии из опыта менторства. Опыт довольно любопытный с точки зрения бизнеса компании. Когда-то на заре карьеры она работала над приложением для подготовки к ЕГЭ. Показатели радовали, а вот бизнес-составляющая при этом отсутствовала. Оказалось, школьники не приносят деньги, ведь платят их родители. А они не платили. Так и родилась концепция ЛДПР (тот самый скучный взрослый с картой). В Авито, похоже, усвоили этот урок и ориентируются не на фичи ради фич, а на реальные потребности и роли в принятии решения.

Подобно политикам, которые ездят в общественном транспорте, была история и про сотрудников Авито в пунктах доставки. Продакты, дизайнеры и аналитики выезжали работать операторами ПВЗ: принимать и выдавать посылки, чтобы не терять, так сказать, почву под ногами. Проверить это, конечно, не можем, но для понимания аудитории и её потребностей может быть очень полезно.

Не обошли стороной и тему искусственного интеллекта. Пока рынок носится с генеративными сетями и рисует картинки, в Авито ИИ интегрируют в рутинные процессы. Например, модели предсказывают вес и габариты отправления по фото и историческим данным, чтобы точнее считать стоимость доставки и уменьшать ручной ввод.
👍5
Многолетняя игра в этичный ИИ потихоньку заканчивается. Мы наблюдали этот процесс последовательно – сначала OpenAI убрала обещание не использовать ИИ в военных целях (после чего официально «заколлабилась» с Пентагоном). За ними, не отставая, то же сделал Google. Насчёт xAI Маска вообще нет уверенности, что они когда-то занимали себя подобными этическими вопросами. И вот эта постепенная спайка ИИ-компаний с американским ВПК подходит к логичному финалу: до конца января нейросети Grok и Gemini, по заявлением новоиспечённого министра войны США, будут интегрированы в работу Пентагона на всех уровнях.

Во время выступления Пита Хегсета на базе SpaceX Starbase были и другие заявления, не менее интересные. Он подтвердил, что армии больше не нужны соевые модели, чья «идеология», то бишь заложенный набор ценностей, мешает наводить ракеты на противника. Вот так отсутствие цензуры и моральных принципов неожиданно стало преимуществом перед конкурентами.

Этим ведомство не ограничилось – своей главной метрикой они считают так называемую deployment velocity, то бишь скорость, с которой происходит интеграция всех новых продуктов и их обновлений. Условно говоря, внедить Gemini 4 надо успеть в течение 30 дней после её выхода, а любое сопротивление на местах будет подавлено.

Кремниевой долине это нужно, конечно, не из-за щемящего сердце патриотизма, а из-за обильного урожая госконтрактов, которые растут вокруг Пентагона и его структур. Palantir Питера Тиля и другие стартапы уже доказали, что софт может быть не менее ликвидным, чем реальное вооружение. А вот рисков меньше – если танк в итоге должен поехать и даже, в идеале, где-то кого-то убить справиться с каким-то противником, то с ИИ спроса нет никакого. Ему достаточно просто быть.

Бигтех потому с готовностью согласился на роль подрядчиков в создании War Data Platform. Ведомство не стало выбирать одного поставщика, а просто разложило яйца по разным корзинам: вся братия из OpenAI, Google, Anthropic и xAI получили по 200 миллионов долларов. OpenAI работает в каких-то закрытых прототипах, Gemini назначили лицом платформы GenAI.mil для офисных приложений, ну а Grok Илона Маска интегрируют во внутренние сети и базы данных. Опрометчиво – сказали бы мы, но речь про Пентагон, потому скатертью дорожка.

Зачем, наверное думаете вы, Пентагон делает ставку на капризную и непредсказуемую технологию, особенно учитывая проблему галлюцинаций и рисков безопасности? Всё ради развития – могли ответить бы мы, если бы не обнаружили среди инвесторов упомянутых здесь компаний упомянутые здесь же лица. В семейном портфеле Пита Хегсета лежат пакеты акций Alphabet, Microsoft и Amazon (от которых он формально начал избавляться после назначения). У вице-президента Вэнса откуда-то взялись акции оборонных стартапов вроде Anduril и связи с Питером Тилем. Да и главный «куратор» ИИ в Белом доме Дэвид Сакс пришел из венчурного технологического бизнеса. Ну а Маск уже очень давно оседлал волну госконтрактов и умеет жить на них как никто другой. Разумеется, всё совершенно законно. На этом фоне даже как-то неловко вспоминать, что речь идёт об армии.
🔥31
Несколько месяцев назад CEO Cloudflare Мэттью Принс загадал загадку – какой поисковый провайдер «видит» больше интернета? Ответ наконец нашёлся. По данным Cloudflare, Googlebot видит примерно в 3,2 раза больше уникальных страниц, чем GPTBot от OpenAI. Для остальных игроков рынка ситуация ещё хуже: разрыв с ботами Microsoft и Anthropic доходит до 4,8 раз. Можно просто сказать «Google лучше» и успокоиться, но причина куда менее очевидная.

Googlebot обладает уникальной привилегией. У его материнской компании есть основной бизнес, и бизнес этот, так получилось – поиск. Поэтому бот, конечно, ищет контент для ИИ, но параллельно занимается индексацией сайтов для поисковой выдачи. А вот это уже печальная новость для вебмастера: заблокировать Google значит исчезнуть из выдачи и потерять трафик. Учитывая, что ИИ-ответы посетителей практически не приносят, на такое экономические харакири идти никто не хочет.

Боты OpenAI, Anthropic и прочих такого рычага влияния не имеют. Они приходят только забирать данные, почти ничего не отдавая взамен. Поэтому решение об их блокировке как раз принимается гораздо более легко и безболезненно. Собственно, поэтому им и приходится прибегать к хитростям для обхода robots.txt и прочих ограничений.

Как тогда быть с поиском в ChatGPT? Он ведь есть и работает. Однако ChatGPT не имеет своего полноценного поискового индекса, сравнимого с Google. Они активно пытаются через GPTBot собрать свою базу для обучения моделей. Однако их основной продуктовый поиск ChatGPT Search – это надстройка, которая использует Bing от Microsoft.

Недавние документы из антимонопольного суда Google показали, что OpenAI пытались договориться с ними о поиске, но получила отказ. Кажется это вопрос времени, пока Google не закроет окончательно от конкурентов свою выдачу. Поэтому сейчас OpenAI вынуждены и дальше полагаться на Bing, параллельно пытаясь построить свой индекс. Как не сложно догадаться, построить «свой Google» за пару месяцев и с дырой в бюджете не получится, как бы Альтман этого ни желал. Поле искажения реальности, конечно, может мотивировать людей, но не отменяет необходимости в наличии денег, специалистов и времени.
👍3
Тариф ChatGPT Go, тот самый «облегчённый» вариант подписки за 8 долларов, который OpenAI запускала специально для развивающихся стран с медленным интернетом и низкой платёжеспособностью, теперь станет доступен всем. Вот так лёгким жестом в «развивающиеся» азиатские страны занесли весь мир, включая США.

Случайные тесты рекламы оказались не случайными, и рекламные объявления скоро появятся у всех пользователей без подписки. Видимо, владельцев ChatGPT Go и тут за подписчиков не считают, потому что у них реклама будет. Логика мягко говоря спорная: лимиты там чуть шире, чем в бесплатной версии, есть реклама и минимум преимуществ. Но компании уже не важно: они в очередной раз признали, что денег нет. Странно, а разве что-то предвещало?

Зато выручка растёт как по часам. Сэм Альтман, словно пророк, в середине 2025 «предсказывал» выход к концу года на выручку в 20 миллиардов долларов. И – о чудо! – цифры совпали. В отсутствие независимого аудита и в преддверии IPO такая точность в очередной раз вызывает флешбэки с историей WeWork. Там тоже рисовали красивые графики и «community-adjusted EBITDA», пока пузырь не лопнул.

Как сильно Альтман хочет быть новым Google. Правда же в том, что ситуация OpenAI хуже на порядки. У Google есть Chrome, Android, YouTube и Поиск – гигантские поверхности, где реклама смотрится органично и, главное, её есть кому показывать. OpenAI, словно дикари-австралийцы, тоже копировали такой подход, вливая деньги в свой поиск, браузер, соцсеть для коротких видео, создавая очередное «ИИ-устройство» (кстати, где оно?) и пытаясь договориться об интеграции ИИ в экосистемы крупных игроков. Оказалось, правда, что слепое копирование модели не приводит к копированию бизнес-результатов.

В итоге Альтман сжигает миллиарды на создание экосистемы, которая никому не нужна, надеясь на какой-то будущий потенциальный рост. Но по факту у компании нет ничего, кроме чат-бота, поэтому и выбора по внедрению рекламы нет. И пока Anthropic отвоёвывают у OpenAI b2b рынок, Google – забирают b2c, они с прежним упорством рассказывают про невероятное будущее, сотни миллиардов выручки, тысячи триллионов новых пользователей.
🤔1
В России создают Национальный штаб по искусственному интеллекту. Предложено создать штаб в формате межведомственной комиссии при президенте. Нужен он для того, чтобы получить административный ресурс и синхронизировать внедрение ИИ во всех контурах, от гражданских ведомств до ФСБ и Минобороны.

В мире сегодня формируются модели регулирования ИИ: в США Трамп и бигтех готовят федеральный закон по «принуждению к ИИ», в ЕС, напротив, смягчают требования к ИИ-компаниям и хранению данных с AI Act, чтобы не задушить инновации. У России и Китая своя специфика: вертикаль власти позволяет внедрять технологии более органично и системно, сверху вниз, поэтому и проблем на этом треке было меньше. Но от регулирования всё равно не уйти.

Важным кажется то, что на государственном уровне признана невозможность и неэффективность бесконтрольного строительства ЦОДов. Отрасль находится на пересечении интересов ИТ и энергетиков: нейросетям нужны гигаватты (в кабмине считают, что энергопотребление дата-центров в России к 2030 году увеличится минимум в 2,5 раза и составит 2,5 ГВт), взять их из воздуха не получится, кому платить тоже не до конца понятно. И если в США выбрали радикальный подход – бигтех сам пошел на рынок энергетики и занялся строительством станций – то у нас ЦОДы решили располагать в оптимальных местах. Например, вокруг существующих и планируемых АЭС и ГЭС, чем штаб, помимо прочего, и займётся.

Мы неоднократно видели, как страсть к KPI и реестрам затмевает рациональный подход к делу. Формальный подход в стиле «процент сотрудников , использующих ИИ» может привести к тому, что ведомства займутся имитацией бурной деятельности ради красивых цифр и места в рейтинге.
👍5
Искусственный интеллект приравняли к урагану, чтобы обойти NDA

С 1 января в Калифорнии заработал SB 53 – закон, который обязывает разработчиков ИИ-моделей раскрывать информацию. Закон де-факто признает топовые нейросети не программным продуктом, а стихийным бедствием. Штат считает, что раз, мол, вы не можете контролировать свои «черные ящики», мы будем регулировать их как лесные пожары или наводнения. Именно поэтому отчеты о критических сбоях теперь нужно слать в OES (офис чрезвычайных ситуаций).

Закон касается только передовых моделей – тех, что требуют больше 10²⁶ FLOPS для обучения, и только компаний с выручкой от 500 миллионов долларов. Они обязаны публиковать документы с описанием рисков, методов их оценки и планов реагирования на ЧС. А также публичные «transparency reports» (отчёты о прозрачности) на каждую новую модель: для чего создана, как может навредить, кто проверял. Критические инциденты, внутренние оценки рисков и другие сообщения остаются закрытыми, но их видят законодатели и губернатор.

Переведя де-факто ИИ в статус «угрозы общественной безопасности» (наравне с прорывом плотины), законодатели получили возможность обойти NDA. Теперь работники могут легально «стучать», хотя раньше сливы внутренней информации наказывались разорительными для кошелька и репутации исками. Штрафы компаниям назначили до миллиона долларов за нарушение, но это, конечно, немного, важнее прецедент: Нью-Йорк уже скопировал схему, другие штаты смотрят в ту же сторону.
Билайн решил в очередной раз, что ему мало быть просто оператором связи. Говорят, что первый признак сумасшествия – это повторение одного и того же действия с надеждой, что результат будет иным. В эту логику вполне вписывается очередной заход в цифру, теперь под соусом ИИ: оператор объявил о назначении директора по искусственному интеллекту. Эту расстрельную должность занял Максим Иванов, выходец из структур Сбера и БКС.

Он, имея опыт внедрения ИИ в структурах Сбера, призван, по словам компании, «масштабировать продукты» и отвечать за «AI-трансформацию» (что бы это ни значило). Заметим, что внедрение ИИ в структуры Сбера привело пока что лишь к тому, что клиентам массово блокируются счета и переводы, а для разблокировки требуется пройти унизительную процедуру в виде разговора с оператором, который требует рассказать, что за перевод, кому, зачем и почему у вас изо рта луком пахнет.

В пресс-релизе звучат заявления о намерении «встроить ИИ в ДНК компании». Тезис смелый, учитывая, что до сих пор ДНК оператора состояла в основном из попыток не отстать от конкурентов. Судя по результату – ДНК не помогла. Вот, несут новую.

На текущий момент ИИ-ландшафт Билайна выглядит стандартно для отрасли: антифрод, спам-фильтры и попытки автоматизировать поддержку. Никаких собственных публичных GPT-моделей и других оригинальных продуктов у них нет, да простит нас вдохновлённая британцами Кибербабушка. Но, видимо, раз у других есть директора по ИИ, то и у Билайна должен быть. План надежный, инфа сотка.
1👍4
Как Microsoft хоронит себя за свои же деньги

Microsoft продолжает упражняться в любимом виде спорта – финансировании собственных конкурентов. Компания ежегодно отдаёт более 500 миллионов долларов стартапу Anthropic за использование их моделей, а стартап в благодарность выпускает продукт, который целит прямо в сердце стратегии Сатьи Наделлы.

Недавно Anthropic выпустила инструмент Cowork. Суть простая: это «цифровой сотрудник», который должен взять на себя офисную рутину, от разбора скриншотов с чеками до сведения таблиц и создания презентаций. По сути, это просто форк их же продукта для программистов Claude Code, адаптированного под офисную работу. Он работает в фоне, анализирует содержимое папок, к которому получает доступ, и делает именно то, что Microsoft годами обещает, но всё никак не доделает в своём продукте. Речь про Copilot. Даже в названии считывается троллинг: Наделла называл Copilot «цифровым коллегой» (coworker), а теперь это имя занято стартаптом, получающим деньги от Microsoft. Более того, именно модели Claude были интегрированы в офисный пакет Microsoft 365.

Ситуация подозрительно напоминает грабли, на которые Microsoft наступила с OpenAI. Несколько лет назад корпорация влила в Альтмана 10 миллиардов, надеясь оживить полумертвый Bing. Итог мы видели: ChatGPT стал синонимом ИИ, перетянув одеяло на себя, а Bing остался там же, где и был. И даже поиском Bing через ChatGPT пользуются чаще, чем через, собственно, сервис. Теперь история повторяется, только опасность ещё выше – под угрозой доминирование офисного пакета Office.

Хайп вокруг Cowork частично оправдан: он вырос из Claude Code, одного из самых популярных на сегодняшний день ИИ-инструментов для разработчиков. У Microsoft есть преимущество в виде бренда, привычек пользователей, контрактов с корпорациями и мантр про «безопасность», которые привлекают новых клиентов, но одного у них больше нет – технологического перевеса. Впрочем, в этой борьбе Microsoft проиграть не сможет по определению, потому что что спасёт заветное облако, благодаря которому работает что ChatGPT, что Claude Code, что новый Cowork.
Да здравствует эпоха музыкального слопа

Ещё недавно мы удивлялись, что нейросетевой трек возглавил кантри-чарт Billboard. Теперь ИИ в музыкальной индустрии есть у нас дома – в новогодние праздники чарты российских стримингов оккупировали именно сгенерированные треки. Похоже, пора переставать этому удивляться.

В авангарде оказался проект Sasha Komovich с переосмыслением советской классики «Расскажи, Снегурочка». Трек завирусился и добрался в Яндекс Музыке» до 3-го места по пользовательскому интересу, собрав 2 млн слушателей, а в VK вошел в топ-5. Следом подтянулись другие ИИ-проекты – Jeny Vesna и Alena, занявшие высокие позиции в чартах Kion и Звука. За этими именами стоят не реальные музыканты, а промпт-инженеры и продюсеры.

Разговоры о смерти живых авторов из-за ИИ мы слышим уже который год, а видим по итогу обратное. Понятно, что они не исчезнут – однако поводы думать, что ИИ-конента будет больше, есть. Причина в текущей модели потребления контента. Люди всё больше полагаются на рекомендации, слушают музыку фоном и постоянно хотят «чего-то похожего». Это идеальная почва для ИИ: он генерирует очень жанровые, предсказуемые треки, которые алгоритмам легко классифицировать и подсунуть слушателю. В итоге мы имеем дело с контентом, который легко производить, рекомендовать и в целом даже можно потреблять – то есть очень виральным контентом. Ситуация похожа на то, как ИИ-слоп захламляет ленты соцсетей и YouTube.

Индустрия, кажется, решила возглавить процесс. Российские лейблы уже подписывают контракты на дистрибуцию ИИ-контента, а Сбер даже успел сделать с упомянутой в начале Sasha Komovich совместную рекламу. То есть на российском рынке мы наблюдаем то же, что на мировом. Правда, никто не думает о том, что вся эта конструкция стоит на очень зыбком фундаменте – авторских правах ИИ-треков, которые сейчас в серой зоне. В любой момент может прийти либо автор оригинального текста, либо правообладатель аудио, на котором обучали нейросеть, и предъявить претензии. Но это головная боль завтрашнего рынка, а сегодня приходится слушать в ленте конвейер из подозрительно знакомых по звучанию треков-однодневок.

Иллюстрация – обложка к треку «Расскажи, Снегурочка» Саши Комович
Опциональный интеллект

Индустрия так спешила внедрить ИИ везде где можно, что, похоже, перестаралась. Иллюстрацией стал свежий опрос поисковика DuckDuckGo, где пользователям предложили выбрать, поддерживают они ИИ в продуктах или нет. 91% нажали «Нет». Понятно, что это открытое голосование без авторизации, которое легко накрутить, но это не делает разницу менее показательной и наглядной. Складывается ощущение, что мы имеем дело не со статистической погрешностью, а с усталостью пользователей от навязанных агентов, ассистентов и помощников.

DuckDuckGo на этом пути не одинок. Удаление навязанных нейросетей уже становится нормой цифровой гигиены – появляются приложения, которые, например, вычищают Copilot из Windows. Анти-ИИ риторика постепенно превращается в рабочий маркетинговый инструмент. Графический редактор Procreate заслужил любовь и уважение художников тем, что публично отказался от генеративных функций, а Dove пообещал не заменять реальных людей в рекламе нейросетями, в противовес брендам вроде Zara. Пока бигтех ломает привычные интерфейсы ради интеграции чат-ботов, бренды поменьше начинают делать обратное – продавать приложения без ИИ.

Конечно, у поискового сервиса в данном случае есть свои интересы. DuckDuckGo «продаёт» себя и вашим, и нашим, сделав 2 версии поиска – с ИИ и без, которые отличаются только несколькими буквами в адресе. Искусственный интеллект (по заявлению компании) остаётся опциональным с возможностью отключения. Так сервис пытается усидеть на двух стульях, предоставляя каждому ту версию продукта, которая ему нужна, и получая по итогу максимально широкую воронку новых пользователей.

Не удивимся, если в ближайшее время случится откат в прошлое и приложения, которые просто хорошо выполняют свою функцию, не лезут в интернет каждую секунду и не пытаются думать за владельца, перейдут в разряд дефицитных и премиальных. А продвигать их будут буквально фразой no pasaran No AI. Never.
6
YouTube планирует добавить цифровых аватаров

YouTube объявил о планах запуска функции создания Shorts с использованием «цифрового дублёра» автора. Фактически платформа начинает менять суть профессии блогера: автор сможет управлять использованием своего цифрового образа и, возможно, лицензировать его. Объясняют это тем, что живой человек становится узким местом в производстве контента, а сгенерированный аватар может выпускать ролики круглосуточно, не требуя сна и не сталкиваясь с выгоранием.

Осенью 2025 компания внедрила систему Likeness Detection для защиты от дипфейков. Чтобы запретить нелегально использовать своё лицо, автор должен был сдать платформе данные – паспорт и видео на селфи-камеру. Эти данные используются для верификации и работы механизма детекции. Подтверждений, что они применяются для обучения моделей, нет, но Google не в первый раз вольно обращается с пользовательскими данными – можно вспомнить, как компания использует контент YouTube для обучения собственных видео-моделей.

После этого был другой заход на генеративную поляну – первая интеграция Veo в Shorts и первые аватары в Vids. Теперь постепенно разные технологии из разных продуктов объединяются на одной платформе. В отличие от нейросети Sora, которая сразу приходит на ум, YouTube строит не социальную сеть, а более утилитарный инструмент по генерации контента. Какая именно модель будет использоваться (например, одна из версий Veo 3) и как устроен пайплайн (генерация фона, анимация блогера, «склейка» в единый ролик и так далее), компания пока не раскрывала. Кнопка для создания цифровой копии в будущем, вероятно, появится в творческой студии.
Тренер футбольного клуба “Сочи” использовал ChatGPT для планирования тренировок и логистики для выезда команды на матч в Хабаровск. В результате, ChatGPT составил графики тренировок и подробный план поездки, но он предполагал, что футболисты должны будут вставать в 5 утра, тренировки начинаться в 7 утра, а в какой-то момент футболисты должны не спать 28 часов.

Роберт Морено приехал в “Сочи” в статусе топ-тренера, однако в первый же сезон клуб под его руководством вылетел из высшего дивизиона. В Первом дивизионе клуб занял пятое место, но из-за того, что более успешные клубы не смогли пройти лицензирование для участия в РПЛ, “Сочи” попал в стыковые матчи и в итоге вернулся в высший дивизион. Однако, уже тогда к Морено возникали вопросы: тренер все чаще прибегал к помощи ИИ. Достоверно известно, что с он использовал ChatGPT для оценки игроков, что само по себе не преступление, если бы Морено относился к этому “анализу” критично.

“Сочи” расстался с любителем ИИ в декабре 2025 года.
😁9
Давос-2026: от романтики к электрическому стулу

Главный итог форума в Давосе – период «детских игр» с чат-ботами подходит к концу.
Если год назад все пили шампанское за здоровье ChatGPT, то сейчас разговоры о светлом будущем сменились беседами инженеров об энергосетях. США нужно всего за 4 года ввести 50 ГВт мощностей для новых дата-центров при текущих 25.

На смену чат-ботам пришёл новый фетиш – агентный ИИ. Тот же самый, правда, что был назначен «трендом года» в начале 2025. Джиту Патель из Cisco с горящими глазами обещает, что вместо одного помощника мы получим рой из 10–100 автономных агентов на человека. Звучит красиво, если не обращать внимание на тот факт, что вместе с роем агентов бизнесу придётся иметь дело и с роем их галлюцинаций. Юваль Харари заметил, что это уже не «инструмент», а субъект, способный наворотить дел без ведома хозяина. Но компаниям нужно продавать что-то новое, а других новых продуктов нет.

Риторика вокруг рынка труда сменилась с «ИИ поможет людям» на «джуниоры больше не нужны». Дарио Амодей из Anthropic считает, что вход в профессию для новичков закрывается. Если модель пишет базовый код и драфты писем быстрее выпускника вуза, то бизнес перестает нанимать стажеров. Возникает структурный тупик: откуда через пять лет возьмутся сеньоры и эксперты, если им негде набраться опыта? Ответа у бигтеха нет, есть только успокоительные мантры про «изменение характера работы».

В ход (возможно, для оправдания бюджетов) пошла тяжелая геополитическая артиллерия. Тот же Амодей сравнил продажу устаревших чипов Китаю с «передачей ядерного оружия Северной Корее». Ирония в том, что пока Запад переживает энергетический кризис, Китай строит энергосети и к 2030 году выйдет на профицит энергии, необходимый для обучения моделей. Так что, возможно, другого рынка для продажи чипов завтра уже не будет.

Главной метрикой эффективности становится «количество токенов на ватт», как выразился Сатья Наделла. И пока со сцены вещают про благо человечества, в кулуарах идёт драка за последние свободные мегаватты, которые позволят хоть немного посмотреть на пока неблизкий, но такой желанный рой ИИ-агентов со своего электрического стула.
МТС натравил ИИ на банкиров

МТС Банк похвастался внедрением Corporate AI Copilot – внутреннего помощника для сотрудников. Рынок к таким новостям уже привык: в 2025 году похожие инструменты для работы с кодом, базами знаний и HR-процессами презентовали конкуренты по банковской сфере. Однако интересно в новости другое – на какой инфраструктуре работает продукт.

Проект работает на базе MWS AI Agents Platform, on-premise (внутри контура банка), чтобы снизить риск утечки данных. При этом сервис не привязывается к конкретной языковой модели. Формально у них есть собственная LLM Cotype, но команда, видимо, сама понимает её ограничения и даёт возможность выбора, продавая инфраструктуру вокруг LLM. 

Имеем экосистемную историю, где собственный банк МТС становится заказчиком и витриной внедрения продукта. Как бы намекая внешним клиентам, что платформа справляется с требованиями банковской безопасности и регуляторикой.

Правда, проект пока на стадии пилота с фокус-группой. В релизе нет ни цифр экономии, ни данных об ускорении процессов. Есть ли там реальная эффективность или только красивые отчеты – вопрос открытый. С ИИ-агентами, которые любят фантазировать, никогда нельзя знать наверняка.
1😁41
Право первой ночи: как Amazon зачищает поляну для своего ИИ-агента

Amazon уличили в том, что он одной рукой блокирует попытки ИИ-агентов, разработанных сторонними компаниями, делать покупки на маркетплейсе, а другой рукой разрабатывает и внедряет собственного ИИ-агента, который помогает совершать покупки на сайтах вне экосистемы Amazon, но при этом оставаясь внутри Amazon. Функция “Купи за меня” начала тестироваться весной прошлого года и наделала много шума, вызвав справедливые опасения отдельных интернет-магазинов, что Amazon уведет их клиентов.

Опасения не беспочвенны. В выдаче Amazon стали появляться товары, которые могли бы быть интересные пользователю Amazon, но недоступные к покупке в самом Amazon. Нажимая “купи за меня” пользователь дает разрешение Amazon, а точнее его ИИ-агенту, использовать его персональные данные (имя, адрес доставки, платежную информацию) для оформления заказа, причем коммуникация по доставке ведется пользователем самостоятельно, а отслеживать заказ можно внутри Amazon в соответствующем разделе.

При этом Amazon заблокировал доступ к сайту ботам и компаниям, занимающихся ИИ, включая ChatGPT и Gemini. Причина простая: даже если сервисы и драйвят выручку Amazon от продажи товаров, они мешают Amazon зарабатывать на рекламе. Это десятки миллиардов долларов, доходы от рекламы сегодня составляют около 10% все выручки Amazon.

Результатом этой борьбы, как обычно и бывает, станет гонка за человечностью: ботам и ИИ-агентам придется как-то доказывать ИИ-защите маркетплейса, что они не боты, а живые люди. В целом ИИ-индустрия от этого противостояния только выиграет, если целью развития является трансформация ИИ из нынешней формы тупых алгоритмов в настоящий ИИ, способный обмануть не только человека, но и такой же ИИ.

Пострадавшие в этой битве тоже будут. В первую очередь независимым интернет-магазинам и небольшим маркетплейсам придется искать новые способы доказать, почему покупатель должен приходить к ним напрямую, а не пользоваться агрегаторами и ИИ-агентами. Во вторую очередь, придется наконец-то зарабатывать на продаже товаров, а не пользовательских данных.
3😁1
Отцы-основатели ИИ

Anthropic решили поиграть в отцов-основателей. Только вместо Филадельфии 1787 года у них Сан-Франциско 2026-го, а вместо прав человека – права и обязанности нейросети. Они выкатили 84-страничную «Конституцию» Claude. В компании уверяют, что это не просто брошюрка для инвесторов, а инструмент настройки алгоритма. Anthropic пытаются уйти от ручной разметки данных и внедрить систему, где ИИ сам оценивает свои ответы через призму прописанных ценностей.

Anthropic давно и последовательно пытаются продавать безопасность и предсказуемость своего ИИ, в отличие от более либеральных конкурентов вроде xAI. В этом разрезе публикация «Конституции» – отличный способ пустить пыль в глаза бизнесу и регуляторам, что у них в основе модели не просто какой-то там чёрный ящик, а чёрный ящик с понятными заложенными ценностями: заботой о безопасности компании, этикой, и только потом полезностью для юзера. Мол, если вам нейросеть не ответила, не обессудьте.

При этом для реального бизнеса, который запускает ИИ в своём закрытом контуре, вся эта может оказаться не слишком полезно. Компании обычно используют собственные системные инструкции для модели, которые перекрывают или дополняют дефолтные настройки. Тем более что им нужен инструмент, который выполняет задачи, а не рефлексирует о своём «благополучии» или «экзистенциальных открытиях», как того требует этот документ. Возникает резонный вопрос: насколько сильно эта конституция будет помогать в развитии ИИ именно как инструмента?

Выглядит как очень странная попытка натянуть человеческую мораль на математическую функцию. Любой алгоритм при должном старании можно взломать (для этого существует джейлбрейк), и никакие прописанные на 84 страницы принципы тут не спасут. Разработчики сами признают, что обучение модели – дело трудное, поэтому их Claude не всегда будет соответствовать задуманному идеалу. Но Конституция есть. А отцы-основатели могут собой гордиться.
Прогнозы погоды – дело неблагодарное. Если на ближайшие несколько часов и даже суток прогноз может быть достаточно точным, то, чем дальше горизонт прогнозирования, тем больше все зависит от исторических данных и моделей. На этот рынок внезапно решила выйти Nvidia, представив семейство открытых моделей, библиотек и фреймворков Nvidia-Earth-2 и модель Earth-2 Nowcasting. Как утверждает Nvidia, двухнедельные прогнозы учитывают более 70 погодных параметров.

Сказать, что это чисто разработка Nvidia, нельзя – в Earth-2 используются открытые модели от Google, Microsoft и других разработчиков. Продавать систему прогнозирования Nvidia собирается корпорациям и государственным ведомствам, в частности среди первых клиентов указываются метеорологические службы Израиля, Тайваня и США.

Проблема прогнозов, составленных искусственным интеллектом, в том, что они полностью подчинены тем алгоритмам, которые заложены в систему. Там, где условный Тишковец может просто посмотреть в окно и скорректировать прогноз, ИИ-модель будет до последнего настаивать на собственном прогнозе, даже если погода за окном будет указывать на обратное. Это означает, что классические метеорологи без работы не останутся, а те, кому достаточно какого-то условного прогноза погоды, подкрепленного условными историческими данными, будет доступен инструмент на основе Earth-2 Nowcasting.
Нюдсы от ИИ заказывали?

Генерация 18+ контента с помощью искусственного интеллекта стала новым Клондайком для креаторов, ведь секс по-прежнему продаёт, а издержки на производство такого контента стремительно падают. И если Илон Маск только прощупывает эту почву в X, вызывая критику и недовольство регуляторов, специализированные платформы уже строят на этом бизнес по оптимизации потока ИИ-нюдсов и адресной доставке пользователю. Ярким примером стала британская площадка Fanvue, которая заявила о выходе на 100 миллионов долларов годового оборота и показала кратный рост трафика за последний год.

Их офер звучит подозрительно приятно: подключаешь через API внешние нейросети (вроде Claude или OpenAI), а дальше автономные агенты сами ведут переписку, флиртуют и втюхивают тарифы круглые сутки, пока автор отдыхает. Но за этим фасадом скрывается потогонная по сути система. Fanvue отличается от того же OnlyFans не только ставкой на ИИ-аватары, но и скупостью. Взрывной рост трафика (с 5 до 12 млн визитов за год) вызывает вопросы о качестве аудитории, поэтому платформа боится фрода – вероятно, отсюда и серьёзные меры: за каждый возврат платежа с креатора списывают 50 долларов штрафа. Если аккаунт перестает подавать признаки жизни, то счёт обнуляется. В итоге выбор небольшой: либо бежать в колесе, генерируя контент нон-стоп, либо платить штрафы и терять накопленное.

С контентом тоже не всё хорошо. Беглый осмотр показал, что наличием контента платформа похвастаться не может. При включённом безопасном режиме его количество стремительно приближается к нулю, ограничиваясь несколькими продвигаемыми платформой спортсменами и инфлюенсерами. Если же его отключить, то рекомендации даже на новом аккаунте заполняются одними и теми же профилями, которые начинают повторяться по кругу через несколько минут. Удивительно для платформы, которая продвигает нон-стоп генерацию контента на базе ИИ и где «средний автор» якобы зарабатывает «3-10 тысяч долларов в месяц».

Fanvue пока везёт, ведь портал не столкнулся со скандалами вокруг дипфейков, исками по поводу использования чужих лиц, фотографий и в конце концов, использования ИИ, чей статус в мире авторских прав ещё не определён. Параллельно есть огромное количество сайтов (в том числе крайне популярных в ИИ-среде, вроде CivitAI), где подобный контент от пользователей лежит в большом количестве и бесплатно, так что конкуренция будет. Ну а самое главное, что по мере роста предложения упадёт и ценность синтетического 18+ контента. Так что хоронить человеческие нюдсы пока рано.
🔥7
Коллега написал хороший текст про отношение к ИИ. Примерно с теми же мыслями, что наша редакция старается транслировать с момента основания канала. ИИ – не волшебная палочка или универсальная, всё-с-концами-автоматизирующая пилюля, а просто очередной инструмент со своими нюансами использования и ограничениями. Именно поэтому такое удивление вызывает энтузиазм, с которым отдельные менеджеры бросают ресурсы на амбразуру разработки и внедрения ИИ, отказываясь от предыдущих планов и наработок по развитию продукта. Последствия уже видны – появляются приложения, которые удаляют ИИ-функции из продуктов, а «NO AI» постепенно формируется как тренд.

Есть большой соблазн поверить, что новая технология всемогуща и изменит мир. Особенно когда впервые сталкиваешься с результатами её работы. Но уже после нескольких месяцев использования заметно, что контент LLM – это набор паттернов, которые легко выявить. Что ИИ не умеет адекватно делать отсылки, выходить за рамки языковых норм там, где нужно; находить нормальные сравнения и вообще писать «по-человечески» (иронично, учитывая контекст). Он не держит в базе данных историю вопроса, релевантные примеры из смежных индустрий и областей знания, у него нет жизненного опыта человека и набора баек с анекдотами, привязанных к ситуации.

При этом генеративные модели зачем-то стараются наделить интеллектом, придумывают этические кодексы, конституцию, размышляют над тонкостями воспитания, приближая к людям, вместо того чтобы воспринимать как инструмент. Как нам показалось, примерно такое же отношение к ИИ – как к полезному инструменту со своими изъянами и нюансами – транслируется в этом тексте.

#мнение
👍2😁1🙏1