Радиорубка Лихачёва
12K subscribers
955 photos
190 videos
5 files
1.36K links
И мы снова с вами, дорогие наши радиослушатели.

Приближаю новый интернет: технологии и медиа, маркетинг и IT. Работаю в VK.

Написать мне: @niketas
Download Telegram
Media is too big
VIEW IN TELEGRAM
Брайан Чески про спрос на реальное и нерешённую проблему верификации

Фаундер Airbnb предсказывает движение к реальному в эпоху искусственного. Техническая реализация — вот где главная проблема сейчас.

В ноябре Брайан Чески выступил с тезисом, который недавно привлёк внимание: его назвали одним из самых прозорливых визионеров Кремниевой долины.

Брайан сделал годную провокацию: мол, спустя три года после взлёта ChatGPT 3.5 мы всё ещё не видим реального и существенного приложения этих технологий к решению проблем: «Люди всё так же залипают в телефоны, только вместо Google идут в ChatGPT». В топ-50 App Store первые три места — Sora, ChatGPT и Gemini, а остальные 47 — это те же приложения, что были до появления AI.

Метафора Чески:

«Интеллект — это золото. Enterprise-стартапы — компании по продаже кирок и лопат. Но что мы делаем с золотом? Мы изобрели реактивный двигатель и приделали его к машине. Нужно изобрести самолёт».


Ну, допустим, можно перевернуть этот тезис так: настоящее золото, прорыв будущего лежит уже не среди топовых AI-лабораторий, а среди реального бизнеса, эффективность или продукт которого перевернутся с ног на голову из-за AI. И надо смотреть туда, в «остальные 47» сервисов из топ-50 — кто из них будет успешно дизраптить свой бизнес с AI, или кто-то придёт и задизраптит их, скинет с Олимпа.

Но вот ещё одна интересная (хотя и неоригинальная) мысль Брайана:

«Важное слово в AI — это "искусственное". После Sora ты не можешь знать наверняка, реально ли то, что видишь на экране. В будущем всё на экране — искусственное или может быть искусственным».


Отсюда стратегия: «Противоположность искусственного — реальное. Противоположность экрана — реальный мир».

Его прогноз: цифровой мир станет всё более искусственным и иммерсивным, но физический мир останется физическим. Роботы заменят множество работ, но людям по-прежнему будет нужна связь с другими людьми.

«Ваши фолловеры не придут на ваши похороны. Никто не изменил чужое мнение в секции YouTube-комментариев. Скоро ваши друзья будут AI. Поэтому должно быть движение к реальному».


Проблема без решения

Визионерство Брайана работает на уровне прогноза спроса: людям действительно захочется качнуться к реальности, когда контент вокруг не даёт объективного представления о происходящем.

Но как это реализовать технически? Вот что мы видели до сих пор:

1. Верификация аккаунтов недостаточна — в человеческих аккаунтах можно размещать AI-контент. Даже если ты сделаешь верификацию по паспорту владельцев аккаунта, это не защищает от размещения в их аккаунтах AI-слопа или дезы.

2. Вотермарки подделываются или удаляются. Ленты забиты видосами из Sora и картинками Nano Banana с удалёнными маркерами ИИ-контента.

3. Центры проверки фактов обманываются, игнорируются, при больших объёмах задач не справляются с обработкой. С ними экспериментировали и Цукерберг, и прошлая администрация Twitter — они скорее нужны для прикрытия, а не для решения проблемы.

Спрос на реальное увеличится. Но хороший вопрос не всегда имеет хороший ответ. Верифицировать реальность контента так, чтобы систему нельзя было обойти — пока что не решённая задача.
124👍1😁1
Радиорубка Лихачёва
Брайан Чески про спрос на реальное и нерешённую проблему верификации Фаундер Airbnb предсказывает движение к реальному в эпоху искусственного. Техническая реализация — вот где главная проблема сейчас. В ноябре Брайан Чески выступил с тезисом, который недавно…
Криптография и персональная ответственность: подход World

У фаундера OpenAI Сэма Альтмана и фаундера Tools for Humanity Алекса Блании есть совместный проект World (ранее Worldcoin). Его заявленная миссия — обеспечить процветание людей в эпоху, когда ИИ-ботов вокруг становится всё больше: создатели утверждают, что к некоторым сервисам доступ стоит давать только для живых людей — финансовым приложениям, трейдинг-платформам, социальным сетям, дейтингу и видеоиграм.

В основе World лежит биометрия как способ идентифицировать конкретного человека и безопасно связать его с цифровыми аккаунтами. Насколько можно судить, на базе этих технологий небольшая команда вокруг этого проекта работает (как минимум с апреля 2025) над созданием социальной сети для живых людей, где верификация будет через биометрию в специальных сферических устройствах Orb, раскиданных по миру. Массовые сервисы так до сих пор не делали, полагаясь на электронные почты или телефонные номера.

Но интерес тут не только в соцсетях и предсказаниях, будет ли запуск успешным и востребованным, но и в способе контролировать то, что постит человек — а не только верифицировать реальность его личности.

В версии протокола World ID 3.0 была представлена функция Deep Face. Она нацелена на решение проблемы дипфейков в реальном времени (например, в видеозвонках).

Система сравнивает видеопоток с вашими биометрическими данными, подтвержденными ранее через Orb — станцию регистрации, которую нельзя подделать. Если кто-то пытается выдать себя за вас в FaceTime или Zoom, используя ИИ-фильтр, система увидит несоответствие «цифровой подписи» лица и заблокирует авторизацию.

Что касается обычных видео и постов, подход архитекторов World (и Сэма Альтмана в частности) заключается не в том, чтобы «угадывать», сгенерировано ли видео (это невозможно, и все сервисы-«детекторы AI» — полная херня), а в том, чтобы криптографически подтверждать источник данных.

1. Ответственность на авторе: если видео опубликовано аккаунтом с World ID, это значит, что за него отвечает конкретный живой человек. Если он публикует фейк, его репутация (и доступ к сервисам) может быть аннулирована.

2. Верификация съёмки: World продвигает идею интеграции с аппаратным обеспечением камер. В будущем камера смартфона может «подписывать» файл в момент съемки ключом, привязанным к вашему World ID. Это создает метаданные (по стандарту C2PA), которые подтверждают: «Это видео было снято физической линзой в такое-то время, а не сгенерировано нейросетью».

Сделаем несколько допущений, чтобы телепортироваться в будущее: допустим, Альтману удалось создать востребованную соцсеть. Допустим, другие продукты, заваленные AI-ботами и нейрослопом, оказались покинутыми реальными людьми. Допустим, что новые методы верификации оказались действенными и прошли государственную регуляцию, в том числе приняли регуляции ответственности авторов контента за его оригинальность.

И вот мы в мире, где для победы над AI-контентом введена и легализована персональная ответственность авторов контента, а чтобы получить внимание других живых людей, нужно сидеть под аккаунтом, который привязан к твоей биометрии.

И если ты запостишь что-то, что в картине мира Сэма Альтмана, его компаний и государственного аппарата будет воспринято как дезинформация или введение в заблуждение, то твой социальный рейтинг упадёт. Сначала ты лишишься доступа к постингу в эту соцсеть или каких-то бенефитов ChatGPT, а потом у тебя вырастет процент по ипотеке.

Норм?
1😱208👍7😁3
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic троллит ChatGPT рекламой про рекламу. У OpenAI подгорело

Война бизнес-моделей вышла на главную рекламную сцену планеты — Супербоул.

Anthropic выпустила серию рекламных роликов, высмеивающих рекламу, которую вскоре встроят в другие ИИ-ассистенты — в первую очередь в ChatGPT. Один из роликов покажут во время Супербоула в воскресенье — а это 8-10 млн долларов за 30-секундный слот. Слоган кампании: «Ads are coming to AI. But not to Claude» («Реклама приходит в ИИ. Но не в Claude»).

В роликах показывают гротескные ситуации: парень спрашивает, как качать пресс, а «помощник» посреди ответа начинает впаривать стельки для увеличения роста. Другой — спрашивает у «ИИ-терапевта», как наладить отношения с матерью, и получает рекламу дейтинг-сервиса, который «соединяет чувствительных котиков с рычащими пумами» (cougars — это такие милфы, ищущие секса с молодняком). Мягко говоря, неприятненько.

Формально Anthropic ни на кого конкретно пальцем не показывает. Но даже по интонации и натянутым лицам услужливых персонажей-помощников в роликах ясно как день, что это атака на OpenAI.

В январе OpenAI анонсировала скорое тестирование рекламы в ChatGPT для бесплатных пользователей и подписчиков ChatGPT Go ($8/мес). Реклама будет отображаться внизу ответов, чётко маркироваться как спонсорская, и «не влиять на содержание ответов».

В OpenAI утверждают, что данные пользователей не будут продаваться рекламодателям, а сами пользователи смогут отключить персонализацию.

Почему это больно ударило по OpenAI

Сэм Альтман отреагировал в Твиттере — и по тону видно, что его задело:

«Ролики смешные, я посмеялся. Но почему Anthropic пошла на откровенную нечестность? Наш главный принцип по рекламе — мы никогда не будем делать так, как они это изобразили. Мы не тупые и понимаем, что пользователи такое отвергнут».


Дальше Альтман назвал Anthropic «авторитарной компанией» и добавил, что бесплатных пользователей в одном Техасе у ChatGPT больше, чем у Claude во всём мире. Это, вообще-то, правда: у OpenAI под 900 млн еженедельных пользователей, у Anthropic — около 30 млн в месяц.

Маркетинг-директор OpenAI Кейт Рауч пошла дальше и попыталась перевести стрелки: мол, настоящее предательство — это не реклама, а контроль. Anthropic якобы хочет, чтобы мощный ИИ контролировался «в маленьких комнатах в Сан-Франциско и Давосе», а вот OpenAI несёт свободу сотням миллионов. Аргументация шаткая, но видно, что пытаются хоть как-то ударить в ответ: когда тебя публично собираются облить дерьмом на Супербоуле, хочется ответить чем угодно.

Две разные компании с двумя разными бизнес-моделями

Тут важно понимать контекст: OpenAI и Anthropic играют в принципиально разные игры.

OpenAI — это массовый рынок. Сотни миллионов бесплатных пользователей по всему миру, ChatGPT как синоним слова «нейросеть» для обывателя, партнёрства с Apple и Microsoft, дешёвые тарифы типа ChatGPT Go. Их стратегия — быть номером один по охвату, стандартом индустрии, первым именем, которое приходит в голову. Для такой модели реклама — логичный следующий шаг: у тебя гигантская аудитория, часть которой не платит, надо как-то монетизировать.

Anthropic — это enterprise-first компания. Более 80% выручки приходится на корпоративные контракты. Claude Code стал вирусным хитом среди разработчиков. Cowork — новый продукт для автоматизации рабочих процессов — уже заставил инвесторов пересматривать оценки целых софтверных компаний. Anthropic сообщает, что достигла $9 млрд ежегодной выручки меньше чем за два года. Им не нужна реклама — у них другая экономика.

Поэтому когда Anthropic говорит «Claude останется без рекламы» — это не альтруизм, а позиционирование. Они могут себе это позволить, потому что их бизнес не зависит от бесплатных пользователей. А OpenAI — зависит.
😁2612👍10🔥5
Радиорубка Лихачёва
Anthropic троллит ChatGPT рекламой про рекламу. У OpenAI подгорело Война бизнес-моделей вышла на главную рекламную сцену планеты — Супербоул. Anthropic выпустила серию рекламных роликов, высмеивающих рекламу, которую вскоре встроят в другие ИИ-ассистенты…
Удар по больному месту

Anthropic бьёт по реальной боли пользователей. Люди, которые пользуются ChatGPT бесплатно — а это сотни миллионов человек — не читают длинные посты на сайте OpenAI с объяснениями того, как будет работать реклама. Они увидят рекламу в своём чате и начнут подозревать всё подряд: что ответы подстроены под рекламодателей, что их данные продают, что за ними следят.

В своём блоге Anthropic приводит показательный пример: пользователь говорит, что не может заснуть. Ассистент без рекламных стимулов начнёт исследовать возможные причины — стресс, обстановка, привычки. Ассистент с рекламой будет думать ещё и о том, не подходящий ли это момент для продажи мелатонина.

Это гипербола, но она резонирует с опытом поколений, выросших на бесплатных сервисах. «Если ты не платишь за продукт, ты и есть продукт» — этот мем работает уже десятки лет, на этом построена добрая половина интернета.

Но есть нюанс

Во-первых, Anthropic сама оставляет себе лазейку: «Если нам понадобится пересмотреть этот подход, мы будем прозрачны в объяснении причин». То есть обещание «В Claude не будет рекламы» не высечено в камне (ничего не напоминает, пользователи Telegram?).

Во-вторых, рекламный аналитик Эрик Сайферт (один из самых уважаемых на рынке, имхо) называет позицию Anthropic «экономическим шовинизмом» и «технологическим гейткипингом». Его аргумент: современные платформы для персонализации рекламы используют поведенческие факторы, а не контекст разговора. А после поиска появилась целая индустрия дисплейной рекламы, которая прекрасно сосуществует с контентом.

В-третьих, есть неловкий факт: Claude стоит денег. Да, есть бесплатный тир, но с жёсткими лимитами. Подписка Pro — $20 в месяц, Max — $100 и $200. OpenAI, при всей критике, реально делает ChatGPT бесплатным для миллиардов людей, которые не могут позволить себе $20 в месяц.

У OpenAI и без того непростой февраль

Anthropic бьёт не в вакууме. У OpenAI сейчас несколько головных болей одновременно:

— Сделка с NVIDIA на $100 млрд буксует. Дженс Хуанг публично дистанцируется от обещаний, которых якобы и не давал. Инсайды говорят, что OpenAI недовольна производительностью чипов NVIDIA и рассматривает альтернативы.

— Google заключил партнёрство с Apple для интеграции Gemini в обновлённую Siri. OpenAI теряет эксклюзивность.

— Claude Code взорвал рынок инструментов для разработчиков. OpenAI в ответ выпустила Codex и хвастается 500 тысячами загрузок за три дня — но это выглядит как damage control, а не как лидерство.

— OpenAI нанимает SEO-специалистов из Netflix и создаёт разделы типа chatgpt.com/translate, чтобы перехватывать поисковый трафик у Google. Это growth-хаки, которые показывают: компания отчаянно борется за каждого пользователя.

На этом фоне Супербоул-реклама от конкурента, высмеивающая твою монетизацию — это соль на раны и масло в огонь.

Что это значит для рынка

Война бизнес-моделей в ИИ выходит на новый уровень. Раньше компании соревновались в бенчмарках и фичах. Теперь — в позиционировании и ценностях:

1. Anthropic говорит: мы за пространство для мысли, за доверие, за отсутствие скрытых стимулов. Мы дороже, но честнее.

2. OpenAI: мы за доступность, за демократизацию ИИ, за миллиарды людей, которые не могут платить. Реклама — цена этой доступности.

3. Google пока молчит про рекламу в Gemini, но учитывая, что реклама — основа их бизнеса, это вопрос времени.

4. Все знают, как Apple относится в рекламе в своих продуктах и как она воевала с Цукербергом, чьи продукты на 96% зависят от рекламы.

Обе позиции можно защитить. И обе — атаковать.

Anthropic можно обвинить в элитизме: мол, вы делаете дорогой продукт для богатых и пытаетесь стыдить тех, кто несёт ИИ в массы. OpenAI можно обвинить в том, что они превращают интимный инструмент мышления в очередную рекламную площадку.

Правда, как обычно, где-то посередине.

Самое смешное во всей этой истории: Anthropic использует рекламу, чтобы критиковать рекламу. Тратит миллионы долларов на рекламный слот, чтобы сказать, что реклама — это плохо. В интернете это называют мета-иронией.
1😁48🔥22👍107
This media is not supported in your browser
VIEW IN TELEGRAM
Главный ролик Супербоула — «невыпущенная реклама устройства OpenAI»

Даже несмотря на то, что это фейк, это интересный детектив.

В ночь на 9 февраля в соцсетях разошёлся профессиональный рекламный ролик: актёр Александр Скарсгард (сериал Murderbot, сын тоже известного актёра Стеллана Скарсгарда) крутит в руках хромированный объект яйцеобразной формы. На ушах у него — футуристичные наушники того же хромированного дизайна. Никаких надписей, логотипов, объяснений. Просто загадочный гаджет и известное лицо.

Видео опубликовал крупный аккаунт Discussing Film (1.7M подписчиков). Пользователи в комментариях единогласно решили: это точно не AI-генерация. Отражения в хромированных поверхностях, естественная мимика Скарсгарда, профессиональный свет — всё выглядит как полноценный продакшн с живым актёром и серьёзным бюджетом.

Но кроме названия Dime и слогана «Almost time» в ролике ничего нет. Видео появилось во время Супербоула, но его там не показывали. Разошёлся слух: что, если это слитая или невыпущенная реклама будущего устройства OpenAI?

Что известно о будущем устройстве от OpenAI

Показанное в ролике устройство очень похоже на то, о чём писали в реальных утечках про OpenAI и Джони Айва. В январе пользователь Smart Pikachu (аккаунт уже удалён) слил детали про устройство под кодовым именем Sweet Pea:
— «Специальный аудиопродукт, который должен заменить AirPods»
— Наушники внутри — визуально уникальные «pills» (пилюли), таких раньше не видели
— Корпус в форме яйца, сделанный из металла
— Наушники находятся внутри этого яйцеобразного кейса

Это очень похоже на «слитый» ролик: металлическое яйцо и хромированные наушники в ушах Скарсгарда. Хотя вот сами наушники в его ушах — не пилюли, а скорее недавно вышедшие наушники-каффы от Huawei.

Крис Лехайн, Chief Global Affairs Officer в OpenAI, тоже совсем недавно подтвердил, что компания покажет своё устройство в первой половине 2026 года, а продажи вероятно начнутся позже в 2026 году.

А в октябре FT опубликовала подробную статью о технических проблемах, с которыми сталкивается OpenAI при разработке устройства. В ней есть и более-менее детальное описание концепции устройства: размером с ладонь, без экрана, взаимодействие — через камеру, микрофон и динамики. Оно записывает аудио и визуальные данные из окружающей среды, а также отвечает на голосовые запросы пользователя.

FT цитировала источник, знакомый с планами OpenAI:

«Концепция в том, что у тебя должен быть друг-компьютер, который не твоя странная AI-подружка... типа Siri, но лучше. OpenAI ищет способы сделать его доступным, но не навязчивым».

Другой источник:
«Персональность модели — сложная штука для баланса. Она не может быть слишком подобострастной, но и не слишком прямолинейной, полезной, но не превращаться в feedback loop».

Один источник говорил, что устройство скорее будет «всегда включено», чем активироваться по ключевому слову. Это означает постоянный сбор данных для создания контекста, но и несёт технические сложности с большим объёмом обработки и скромо работы устройства от зарядки.

Нехарактерная паника топов OpenAI

OpenAI почти никогда публично не опровергает слухи. Руководители компании активны в соцсетях, но новостей про OpenAI сотни каждый день, и комментируют они разве что критические моменты вроде обвинений в краже данных или проблем с безопасностью. Обычная тактика — молчание.

А тут — массовый скоординированный выход с опровержениями. Директор по коммуникациям Линдси Маккаллум написала техноблогеру Роберту Скоблу: «This is totally fake». Со-основатель Грег Брокман ответил на уже удалённый пост: «fake news».

Но никто не уточнил, что именно тут является фейком. Сам ролик? Устройство в нём? Связь с OpenAI? Ведь в видео нигде не написано, что это продукт OpenAI — просто показывается гаджет без контекста.

Такая резкая и нехарактерная реакция сразу наводит на мысль: они точно знают, кто это сделал и зачем, и очень хотят от этого дистанцироваться. Кроме того, куча постов оказались удалены: тут явно поработали юристы или пиарщики, надавившие ответственностью за распространение недостоверных сведений.
👍1811👎2🔥1
Проплаченная кампания с исчезающими заказчиками

Здесь начинается реальный детектив. Сразу несколько человек публично рассказали, что к ним обращались с предложением поучаствовать в продвижении этой истории — за деньги.
Техноблогер Макс Вайнбах (≈300K подписчиков в X) рассказал: за неделю до публикации ему написали с предложением заретвитить пост про анонс некоего устройства. Обещали $1,146.12.

Самое странное — он выставил счёт, и его оплатили уже через пять минут, хотя Вайнбах ещё ничего не сделал. После этого заказчики пропали — перестали отвечать на сообщения. Никаких договоров, никакого NDA, ничего.

Несмотря на это, Вайнбах в итоге заретвитил видео из аккаунта Discussing Film — видимо, решив, что раз деньги получены, надо выполнить обещанное.

Редактору AdAge Джиллиан Фоллетт приписали статью про этот ролик. По её словам, в X курсировал фейковый скриншот с заголовком якобы от неё про то, что OpenAI меняет свою рекламу для Супербоула. Статьи на самом деле не было.

CMO OpenAI Кейт Рауч упоминала про «целый фейковый сайт», пытающийся выглядеть как настоящий источник информации про то, что OpenAI «в последний момент поменяла свою рекламу для Супербоула». Судя по всему, создатели кампании пытались сымитировать медийное освещение.

Аккаунт в Reddit, который якобы первым «слил» видео, теперь удалён. Пост был оформлен как жалоба разочарованного сотрудника: мол, работали над роликом, он не вышел в эфир, случайно утёк целый промо-ролик. Классический сценарий вирусного «слива».

Кто-то даже откопал, что год назад тот же аккаунт Reddit искал работу библиотекарем в Санта-Монике — для такого человека было бы странным карьерным поворотом внезапно оказаться в команде, делающей рекламу для OpenAI к Супербоулу.

BrandWorks Studios — кто эти люди

На скриншотах переписок с Вайнбахом упоминается рекламное агентство BrandWorks. Покопавшись, можно составить картину.

BrandWorks Studios — не какая-то гаражная контора. Это продакшн и креативное агентство из Лос-Анджелеса, которое специализируется на:

— Рекламных кампаниях для крупных брендов;
— Продакшене коммерческих роликов;
— Креативной стратегии и брендинге;
— Работе с селебрити и инфлюенсерами.

Основатель — Тимоти Солинджер, с серьёзным стажем в индустрии развлечений и рекламы. По его линкдину видно, что у него опыт работы с крупными проектами, продюсирование контента, связи в Голливуде.
Агентство работает в том числе с tech-компаниями, делает вирусные кампании, занимается «нетрадиционным маркетингом» — именно той штукой, когда границы между органическим вирусом и проплаченным промо размываются.

У BrandWorks есть опыт создания «утечек» контента как маркетинговой тактики — когда якобы случайная утечка на самом деле тщательно срежиссирована. Это легальная серая зона: формально никто не врёт, просто создаётся контекст, в котором аудитория сама додумывает нужные выводы.

Учитывая профиль агентства и качество ролика со Скарсгардом, это точно не работа любителей. Профессиональная съёмка, кастинг известного актёра, проплаченное продвижение через инфлюенсеров, создание фейковых медийных следов — классический набор инструментов агентства полного цикла.
👍164👎3
Что это было на самом деле

Наиболее вероятный сценарий: BrandWorks Studios сделала незаказанную демо-кампанию, чтобы продать свои услуги — возможно, и самой OpenAI.

1. Агентство знает, что OpenAI готовит устройство к релизу в 2026 — это все знают
2. Используя публичные утечки про дизайн (яйцо + наушники), создают концепт-ролик
3. Нанимают Александра Скарсгарда — дорого, но эффектно
4. Запускают вирусную кампанию с платными постами, фейковыми утечками, медийным шумом
5. Демонстрируют результат.

Даже если OpenAI не наймёт их (после такого прикола и опровержений— вряд ли), агентство может продавать этот кейс другим клиентам: «Мы сделали вирус с нуля, вот охваты, ингейджмент, даже Грегу Брокману пришлось вмешаться, чтобы остановить волну — настолько мы были эффективны. Ксттаи, вот наш прайс».

Почему это работает:

1. Нет прямого урона репутации OpenAI — просто загадочный тизер, никакой дезинформации;
2. Агентство демонстрирует реальные навыки: продакшн, работа с селебрити, вирусное распространение, создание искусственного медийного следа;
3. Риск минимальный: никаких юридических нарушений (нет логотипов OpenAI, нет ложных заявлений).

Почему топы OpenAI побежали всё опровергать? Потому что они точно знают, что это не их кампания, и боятся, что либо конкуренты спутают им карты перед скорым настоящим анонсом, либо кто-то без спроса использует инсайдерскую информацию про дизайн устройства, либо их пытаются «взять на понт».

В любом случае, такие историю нужно задавать, чтобы она не оставила долгосрочных неправильных ожиданий у аудитории.

Есть, конечно, вероятность, что это очередные происки конкурентов (тем более интересен тайминг рекламы Claude от Anthropic) или действительно настоящий невыпущенный ролик, но мне в это верится с трудом.

Выводы

Независимо от истинной природы этой истории, она демонстрирует несколько важных вещей:

1. OpenAI действительно готовит своё устройство — и судя по паническим опровержениям, релиз близко. Компании не стали бы так активно реагировать на какой-то фейк, не имеющий никакого отношения к реальности.

2. Дизайн устройства в ролике очень реалистичен — иначе зачем так нервничать? Если бы показали что-то совершенно не то, можно было просто проигнорировать.

3. Рынок AI-устройств остаётся минным полем — Friend провалился, Humane AI Pin закрылся, Rabbit получил смешанные отзывы. OpenAI с Джони Айвом пытаются создать что-то действительно новое, но предыдущие прецеденты не обнадёживают. OpenAI нужно чистое поле и ещё предстоит постараться, чтобы не просрать единственную возможность создать правильное впечатление.

4. Современный маркетинг размыл границы между органическим и проплаченным. «Утечки» становятся инструментом PR, а агентства создают фейки как демонстрацию своих возможностей, и доверие к реальным «сливам» падает.

5. BrandWorks Studios либо очень смелые, либо очень глупые — использование реального концепта чужого продукта с наймом известного актёра без разрешения — это или гениальный ход, или способ попасть в чёрный список всей индустрии. Но не могу спорить с тем, что это получилось заметно.

Ребята добились своего: все об этом говорят.
123👍9👎7🔥7
Дизайн того, как работает LLM от Дурова — во 👍
😁52😱10👎5😢4
Бывший CEO GitHub запускает «GitHub для агентов»

Entire решает проблему, которую сам же Домке и создал в Microsoft.

Томас Домке четыре года возглавлял GitHub, лично следил за взрывным ростом Copilot, а в августе 2025-го ушёл из Microsoft основывать стартап. И вот спустя полгода он выходит из сумрака с Entire — платформой для управления кодом, который пишут AI-агенты. Стартап только что привлёк $60 млн при оценке $300 млн: это рекорд для seed-раунда в категории dev tools, говорят в Felicis Ventures, которые его лидировали.

Кроме Felicis в раунде участвовали Madrona, M12 (венчурное крыло Microsoft — забавно), Basis Set, а также Джерри Янг (сооснователь Yahoo), Гарри Тан (CEO Y Combinator), Оливье Помель (CEO Datadog) и даже некоторые популярные разработчики вроде Гергели Орожа и Тео Брауна.

Сама идея Entire в том, что существующие инструменты разработки не были спроектированы для эры, когда код пишут агенты, а не люди. Об этом Домке говорит в интервью The New Stack:

«Мы живём в эпоху бума агентов, и теперь генерируются массивные объёмы кода быстрее, чем любой человек может разумно понять. Правда в том, что наша ручная система производства ПО — от issues до git-репозиториев, от пуллреквестов до деплоя— никогда не была спроектирована для эры ИИ».


Entire против испаряющихся контекстов

Первый продукт Entire — open-source инструмент Checkpoints, который автоматически сохраняет весь контекст AI-генерации вместе с каждым коммитом. То есть не просто код, а промпты, которые ты давал агенту, транскрипты ваших диалогов, все ходы рассуждений.

Сейчас при работе с Claude Code, OpenCode или другими CLI-агентами ты жаришь токены, как батя — суп, а потом контекст сессии заканчивается и «aaaaand it's gone». В исключительных случаях копию делают в папке проекта, но обычно вся дискуссия просто исчезает в небытии. Все рассуждения, все твои ценные комментарии, все пролопаченные источники и совершённые ошибки — всё это просто выкидывается на помойку.

Entire встраивается в CLI-среду так, что при каждом коммите весь контекст чата тоже присовокупляется и записывается. Не в сам код, а отдельно, специальным форматом. Потому что если потом нужно будет отматывать назад, а весь код написал AI и спросить «А как это получилось» не у кого, то придётся переписывать всё заново и снова жечь токены. А так хотя бы можно будет понять, где что пошло не так.

Но гениальность здесь в другом. Чуваки из Entire получат доступ к результатам генерации огромного количества разработчиков. Разработчики будут тратить свои токены на создание сервисов, а база Entire будет видеть все результаты этих взаимодействий, которые привели к чему-то значимому — к коммиту.

Это не просто какие-то генерации, которые ни к чему не привели. Это генерации, которые способствовали продвижению разработки вперёд. А это уже очень важный датасет. На его основе можно обучить новые агентские модели, которые видят, как генерация работает вместе с человеком — как он её направляет, поправляет, даёт новый контекст.

Пока процесс AI-ассистированной разработки доступен только создателям самих CLI-сред — Claude Code, OpenCode и других. Все остальные этого не видят. На GitHub лежит только конечный код, максимум комментарии к нему, README.md и CLAUDE.md. А теперь у нас код начинают писать агенты, и люди не смогут объяснить, как это работает.
326👍14👎7🔥5
Радиорубка Лихачёва
Бывший CEO GitHub запускает «GitHub для агентов» Entire решает проблему, которую сам же Домке и создал в Microsoft. Томас Домке четыре года возглавлял GitHub, лично следил за взрывным ростом Copilot, а в августе 2025-го ушёл из Microsoft основывать стартап.…
Open-source медленно умирает от пулл-реквестов

Вторая большая проблема, которую Entire пытается решить — это то, как сейчас агентный код убивает open-source.

Open-source обычно поддерживается очень небольшим количеством идеологически заряженных людей, которым почему-то не всё равно. Они тратят своё свободное время на разработку и поддержку проектов. И вот сейчас приходят вайб-кодеры с пуллреквестами, написанными искусственным интеллектом, и начинают просто забрасывать ими мейнтейнеров, большинство из которых — не вайб-кодеры.

Я это видел недавно на примере Васи Зубарева, у которого завирусился пост про его open-source решение для оптимизации и учёта налогов. Какой-то чел нахерачил ему пуллреквестов, и у Васи бомбануло — он чуть ли не забросил проект, потому что это отсутствие уважения.

Снова очередной AI-лунатик решил "помочь" мне с опенсорс-проектами и, расчехлив свою $20 подписку на сраный claude code, нахуячил за утро 30+ слоп-пуллреквестов. Заебали... Во всех моих новых проектах отныне NO PR policy. И буду потихоньку двигать с гитхаба. Опенсорс закончился


Но если контекст написанного кода есть и он присовокуплен к пуллреквесту, то другой AI может пройти по всей цепочке и проверить, не совершены ли были ошибки, которые приведут к критической несовместимости. Вероятность безопасного мерджа будет гораздо выше.

Это не полное решение проблемы с open source — там есть ещё философские, психологические и финансовые проблемы. Но как минимум это помогает с ревью кода, когда ты не можешь поговорить с разработчиком, потому что он сам не знает: он просто нахуевертил при помощи AI.

Столпы индустрии трещат под натиском агентов

Архитектура Entire состоит из трёх компонентов:

1. Git-совместимая база данных для унификации AI-сгенерённого кода;

2. «Универсальный слой семантического рассуждения» для коллаборации между несколькими AI-агентами;

3. AI-native интерфейс, спроектированный для взаимодействия агент←→человек.

Компания из 15 человек работает полностью удалённо, и да — в пресс-релизе они упоминают, что планируют расширить команду до «сотен агентов». Домке в интервью сказал, что в 2026 году любой лидер должен думать о хедкаунте компании не просто как о зарплатах и бенефитах, но и о токенах. Инженеры в Bay Area тратят тысячи долларов в месяц на токены: это значимая статья расходов в семейном бюджете.

Мы видим, как целые столпы индустрии вынуждены адаптироваться. GitHub — это столп индустрии. И вся индустрия сейчас пытается адаптировать те столпы, на которых она стоит, потому что действительность меняется очень сильно и с невероятной скоростью.

Это пока ещё видение будущего в миниатюре — сейчас речь идёт о части разработки, о CLI-инструментах. Хотя мы уже видим, что абсолютно во всех IDE появились инструменты на базе AI, даже в Xcode — господи, сколько времени-то прошло, 2026 год на дворе, а Xcode вот только обновился с агентным ИИ.

Stack Overflow исчезает, потому что никто на него не ходит. GitHub придётся измениться, потому что кода уже недостаточно. По некоторым оценкам, уже 4% всех публичных коммитов GitHub сделано в соавторстве с Claude — при автоматическом пуше изменений на GitHub он добавляет себя в качестве соавтора. А сколько ещё приватных репо и кода, написанного другими нейросетями, где это авторство не указано?

Индустрию прямо сильно трясёт, но возникающим новым проблемам находится новые решения. Мы наблюдаем появление сервисов, созданных уже не для людей: OpenClaw, Moltbook, Entire создаются для взаимодействия между агентами. Эта волна уже начинает ощущаться как цунами, которая сметает и переворачивает всё с ног на голову, как только в какую-то сферу приходит агентный AI.

Это впечатляет.
2👍46😱87👎2
Forwarded from Data Secrets
Не учебная тревога: Пентагон использовал Claude для планирования похищения президента Венесуэлы

По данным WSJ, Claude интегрировали с аналитической платформой Palantir Technologies, которая уже давно используется спецслужбами США. Модель использовали для анализа разведданных и непосредственного планирования операции.

Вроде как Claude стал первым внешним ИИ, допущенным к подобным засекреченным данным. Интересно, что при этом в пользовательской политике Anthropic прямо прописан запрет использовать Claude для насилия, разработки оружия и слежки.

Стартап уже высказал публичный протест, а Пентагон в ответ на это заявил, что будет «обсуждать возможность разрыва или пересмотра контрактов с Anthropic». Речь идет о соглашении от прошлого лета на сумму ~200 млн долларов, в рамках которого Anthropic должны были работать над задачами национальной безопасности Америки.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁24🔥125
Мы часто обсуждаем, как AI ломает привычные бизнес-модели — от гибели StackOverflow до падения выручки Tailwind CSS из-за нейросетей. Для многих бизнесов ключевым вопросом становится: как пересобрать продукт и бизнес так, чтобы продолжать генерировать реальную ценность, а не просто сжигать деньги на API.

19-20 февраля пройдёт ROИИ Conf 2026 — профильная конференция про AI, деньги и продуктовую стратегию. Ребята делают площадку без воды и абстрактных рассуждений про будущее, чтобы разобрать конкретные рабочие AI-стратегии.

В течение двух дней (треки Strategy & ROI и Growth & Execution) там отвечают на прикладные вопросы:

— Как внедрять AI так, чтобы метрики реально росли, а не просто увеличивались расходы на API;
— Когда продукту пора пилить свою модель, а когда с головой хватит базовой интеграции;
— Как трансформировать продуктовую команду и кого вообще нанимать, когда компании ставят найм на паузу если нет обоснования того, что эту работу не может сделать AI.

В лайнапе 12 спикеров-практиков. Своим опытом поделятся Миша Карпов (founder DialogAI), Денис Сметнев (co-founder Skyeng, Uforce), Аня Подображных (product lead в T-Bank AI), Ислам Мидов (ex-head of МТС VC, Forbes 30u30), Влад Корнышев (ex-product lead в Pearson AI R&D) и другие.

Если вы делаете AI-продукты, управляете командами или хотите понимать, как сейчас работает реальная экономика ИИ-интеграций — загляните. Вход бесплатный (нужно только подписаться на каналы спикеров).

После конференции все участники получат записи докладов и презентации спикеров.

📅 19-20 февраля | 13:30-20:00 МСК | Online
👉 Регистрация в боте
📋 Программа: https://www.ai-pnl.com

Реклама. ИП Корнышев Владислав Александрович. erid: 2VtzqwdxLaY
👎23🔥6👍43
Повторяй промт дважды — и нейросеть станет умнее. Это реально работает

Ещё раз: повторяй промт дважды — и нейросеть станет умнее. Это реально работает!

Исследователи Google Яньив Левиатан, Матан Кальман и Йосси Матиас опубликовали в декабре 2025 года препринт научной работы с неожиданно простым наблюдением: если вставить запрос пользователя в промт к LLM дважды (и более раз) — буквально скопипастить его — то качество ответа у нерассуждающих LLM улучшается в 47 случаях из 70 по тестовым бенчмаркам. Минусов нет.

Понять, почему это вообще работает, помогает архитектура LLM: это каузальные языковые модели, в которых токен может «видеть» только уже прочитанные токены, но не будущие. Из-за этого порядок слов в промте влияет на качество ответа: конструкция «контекст → вопрос» часто даёт другой результат, чем «вопрос → контекст». Когда ты повторяешь промт дважды, токены из первой копии вопроса получают возможность «посмотреть» на токены второй — и наоборот. По сути, так модель точно видит весь контекст, без ограничений каузальности.

Важно то, что в результате повтора длина и формат ответа при этом не меняются. Задержка на ответ тоже не растёт. Исключение — очень длинные промты: там растёт нагрузка, а вместе с ней и задержка ответа.

Кому это поможет, а кому нет

Для reasoning-моделей вроде o3, Claude 3.7 Sonnet или DeepSeek-R1 трюк практически бесполезен: в исследование у повтора 5 побед, 1 проигрыш, 22 ничьи по тем же бенчмаркам. Причина — эти модели уже делают то же самое самостоятельно: в цепочке рассуждений они сами переформулируют и повторяют части задачи, прежде чем найти и дать ответ.

А вот для «обычных» моделей без встроенного reasoning — GPT-4o, Claude 3 Haiku, Gemini 2.0 Flash и аналогов — эффект в некоторых случаях очень серьёзный. Пример из исследования: точность Gemini 2.0 Flash-Lite на задаче поиска имён по списку выросла с 21% до 97% при повторении промта.

Авторы также проверили варианты: повторять не только механически, но и с маркером в середине — «Я повторяю свой вопрос: [вопрос]». Это работает. Несколько повторений иногда лучше, чем два. Всё это укладывается в ту же логику: чем больше у модели шансов «связать» части своего контекста между собой, тем точнее ответ.

Вас плохо слышно, повторите

Забавно, что человеческое внимание работает точно так же. Широко разошлось откровение Мэтта Деймона про то, что Netflix в последние годы стали повторять ключевую информацию по нескольку раз в одном эпизоде: якобы зрители сильнее отвлекаются на смартфон, и если важный сюжетный поворот не повторить, его пропустят и потом не поймут, что происходит в сериале. Оказывается, у LLM та же проблема — только на уровне архитектуры, а не невнимательности.

С прикладной точки зрения вывод такой: при использовании моделей без режима рассуждений стоит попробовать вставить свой запрос в конец промта ещё раз — это буквально ничего не стоит. Для продакшен-систем авторы отдельно отмечают, что повторение промта можно использовать при файнтюне — и даже улучшить reasoning-модели, если они были специально обучены избегать повторов.

Маленькая оговорка: работа длиной меньше пяти страниц — это препринт от декабря 2025 года, и рецензии пока не было, но и обновлений тоже. Но её авторы — это та самая команда Google Research, которая придумала спекулятивное декодирование. Это техника ускорения работы больших LLM, которую эта команда предложила ещё в 2022 году: вместо того чтобы гонять медленную большую модель на каждый токен, сначала быстрая маленькая модель делает «черновик» ответа (на несколько токенов вперёд), а большая модель потом одним проходом проверяет, согласна ли она с этим черновиками, то есть работает как редактор.

Сегодня спекулятивное декодирование встроено в инфраструктуру крупнейших провайдеров, в том числе API Anthropic и Google. Обычным пользователям от этого ни холодно ни жарко: просто модели отвечают быстрее, чем отвечали бы без этой техники, а компании экономят на вычислениях. Но это так, лирическое отступление к тому, что команда — не абы кто, и находка про повторение промтов — не случайность и не булшит.
👍9👎62