Олег Лупиков
Вот кому-то нахуй делать 2 Я сделал ещё одну 😄 Вообще у меня есть три любимых ролика Apple. Первый — легендарный Don’t Blink (смотреть) Он в свое время конкретно мне голову повредил и подсадил на быстрый дофамин 😂 Этим роликом Apple породили целый тренд…
https://www.apple.com/apple-events/event-stream/
Погнали смотреть новые айфоны (и насколько их трейлер отличается от моего)
Погнали смотреть новые айфоны (и насколько их трейлер отличается от моего)
Apple
Apple Events
Explore the next generation of iPhone — iPhone 17 Pro, iPhone 17, iPhone Air. Plus, AirPods Pro 3 and additions to the Apple Watch family.
Олег Лупиков
https://www.apple.com/apple-events/event-stream/ Погнали смотреть новые айфоны (и насколько их трейлер отличается от моего)
✨ Apple Event 2025 — коротко все в одном посте
📱 iPhone 17
— iPhone 17 — 6,3″ OLED 120 Hz, A19, Ceramic Shield 2, 48 MP камера, Dolby Vision. От $799.
— iPhone 17 Air — ультра-тонкий (5,6 мм), 6,5″ OLED 120 Hz, A19 Pro, eSIM-only, титан. От $999.
— iPhone 17 Pro / Pro Max — 6,3″ / 6,9″ OLED 120 Hz, A19 Pro с охлаждением, тройная 48 MP Fusion, 8× zoom, ProRes RAW. От $1099.
Предзаказ с 12 сентября, продажи с 19.
⌚ Apple Watch
— Series 11 — 5G, защита IonX, давление, Sleep Score, Workout Buddy (AI-тренер), Live-перевод.
— SE 3 — чип S10, Always-On, Sleep Apnea Detection, 5G, 18 ч батарея. От $249.
— Ultra 3 — до 42 ч работы, 5G + спутник, SOS, давление, Sleep Score. Натуральный и чёрный титан. От $799.
🎧 AirPods Pro 3
— Шумоподавление в 2 раза лучше, до 10 ч работы.
— Датчик сердечного ритма, фитнес-метрики.
— Live-перевод в реальном времени.
$249, в продаже с 19 сентября.
Что конкретно мне понравилось: iPhone Air такой стильный и тонкий, датчик пульса в наушниках и перевод в режиме реального времени. Больше даже и отметить нечего🥲
🆕 @founderit | навигация | дневник
📱 iPhone 17
— iPhone 17 — 6,3″ OLED 120 Hz, A19, Ceramic Shield 2, 48 MP камера, Dolby Vision. От $799.
— iPhone 17 Air — ультра-тонкий (5,6 мм), 6,5″ OLED 120 Hz, A19 Pro, eSIM-only, титан. От $999.
— iPhone 17 Pro / Pro Max — 6,3″ / 6,9″ OLED 120 Hz, A19 Pro с охлаждением, тройная 48 MP Fusion, 8× zoom, ProRes RAW. От $1099.
Предзаказ с 12 сентября, продажи с 19.
⌚ Apple Watch
— Series 11 — 5G, защита IonX, давление, Sleep Score, Workout Buddy (AI-тренер), Live-перевод.
— SE 3 — чип S10, Always-On, Sleep Apnea Detection, 5G, 18 ч батарея. От $249.
— Ultra 3 — до 42 ч работы, 5G + спутник, SOS, давление, Sleep Score. Натуральный и чёрный титан. От $799.
🎧 AirPods Pro 3
— Шумоподавление в 2 раза лучше, до 10 ч работы.
— Датчик сердечного ритма, фитнес-метрики.
— Live-перевод в реальном времени.
$249, в продаже с 19 сентября.
Что конкретно мне понравилось: iPhone Air такой стильный и тонкий, датчик пульса в наушниках и перевод в режиме реального времени. Больше даже и отметить нечего
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Олег Лупиков
✨ Apple Event 2025 — коротко все в одном посте 📱 iPhone 17 — iPhone 17 — 6,3″ OLED 120 Hz, A19, Ceramic Shield 2, 48 MP камера, Dolby Vision. От $799. — iPhone 17 Air — ультра-тонкий (5,6 мм), 6,5″ OLED 120 Hz, A19 Pro, eSIM-only, титан. От $999. — iPhone…
НЕ ПОКУПАЙ iPhone 17, пока не узнаешь это:
1. Тебе не нужен этот телефон, если ты не контентмейкер и не собираешься снимать видео в 8K + Pro-видео (ProRes RAW, Log 2, Dolby Vision 4K120, genlock…)
2. Не покупай, если ты не роняешь телефон — Ceramic Shield 2 спереди и впервые сзади делает его почти пуленепробиваемым
3. Телефон тебе не нужен, если ты не читаешь на улице — экран с ProMotion 120 Hz и 3000 нит яркости, читается даже под прямым солнцем
4. Не покупай, если ты не геймер — iPhone 17 Pro получил активное охлаждение (vapor chamber) и до 40 % лучше производительность чипа
5. Ещё он тебе не нужен, если тебя не волнуют быстрая связь и скоростной интернет — в линейке есть фирменный чип N1, поддержка Wi-Fi 7, Bluetooth 6
6. И главное, не покупай новый айфон если еще не устал от однотипного дизайна прошлых айфонов
🙈 @founderit | навигация | дневник
1. Тебе не нужен этот телефон, если ты не контентмейкер и не собираешься снимать видео в 8K + Pro-видео (ProRes RAW, Log 2, Dolby Vision 4K120, genlock…)
2. Не покупай, если ты не роняешь телефон — Ceramic Shield 2 спереди и впервые сзади делает его почти пуленепробиваемым
3. Телефон тебе не нужен, если ты не читаешь на улице — экран с ProMotion 120 Hz и 3000 нит яркости, читается даже под прямым солнцем
4. Не покупай, если ты не геймер — iPhone 17 Pro получил активное охлаждение (vapor chamber) и до 40 % лучше производительность чипа
5. Ещё он тебе не нужен, если тебя не волнуют быстрая связь и скоростной интернет — в линейке есть фирменный чип N1, поддержка Wi-Fi 7, Bluetooth 6
6. И главное, не покупай новый айфон если еще не устал от однотипного дизайна прошлых айфонов
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍1
Олег Лупиков
НЕ ПОКУПАЙ iPhone 17, пока не узнаешь это: 1. Тебе не нужен этот телефон, если ты не контентмейкер и не собираешься снимать видео в 8K + Pro-видео (ProRes RAW, Log 2, Dolby Vision 4K120, genlock…) 2. Не покупай, если ты не роняешь телефон — Ceramic Shield…
Почему кажется, что Apple уже не та и ничего революционного не происходит?
Например, из года в год внешний вид особо не меняется, а из функций только «процессор до 40% мощнее». Заметили же?
Но вот в чем прикол: это не потому что «у Apple закончились идеи».
Наоборот — идей и патентов у них вагон: гибкие дисплеи, подэкранные камеры, встроенные проекторы, безрамочные корпуса, очки смешанной реальности, управление жестам. Вы посмотрите, что Apple запатентовала за последние десять лет и продолжает подавать патенты почти каждый месяц.
Просто компания никогда не выкатывает все сразу.
Apple работает по дорожной карте на 5–10 лет вперед.
Каждое нововведение подготавливает рынок и пользователей к следующему шагу.
Сначала экраны 120 Гц → чтобы приложения и игры подтянулись. Потом их можно делать безрамочными. А потом гибкими.
В камере ночной режим → ProRAW и 8К → и только потом подэкранная камера.
Корпус держат несколько лет подряд → потому что на миллионах заводов и чехлов надо перестроить всю экосистему. А потом вставить туда более емкую батарею.
Это стратегия. Жесткая и выверенная.
И Тим Кук играет в долгую так же холодно, как Джобс в своё время — только без громких шоу и эмоций. Вообще, он не просто так CEO с 2011 года.
Стратегия у Apple гениальная и они могут позволить ее реализовывать 10 лет.
Теперь видите всю картинку целиком? 🔥
🍎 @founderit | навигация | дневник
Например, из года в год внешний вид особо не меняется, а из функций только «процессор до 40% мощнее». Заметили же?
Но вот в чем прикол: это не потому что «у Apple закончились идеи».
Наоборот — идей и патентов у них вагон: гибкие дисплеи, подэкранные камеры, встроенные проекторы, безрамочные корпуса, очки смешанной реальности, управление жестам. Вы посмотрите, что Apple запатентовала за последние десять лет и продолжает подавать патенты почти каждый месяц.
Просто компания никогда не выкатывает все сразу.
Apple работает по дорожной карте на 5–10 лет вперед.
Каждое нововведение подготавливает рынок и пользователей к следующему шагу.
Сначала экраны 120 Гц → чтобы приложения и игры подтянулись. Потом их можно делать безрамочными. А потом гибкими.
В камере ночной режим → ProRAW и 8К → и только потом подэкранная камера.
Корпус держат несколько лет подряд → потому что на миллионах заводов и чехлов надо перестроить всю экосистему. А потом вставить туда более емкую батарею.
Это стратегия. Жесткая и выверенная.
И Тим Кук играет в долгую так же холодно, как Джобс в своё время — только без громких шоу и эмоций. Вообще, он не просто так CEO с 2011 года.
Стратегия у Apple гениальная и они могут позволить ее реализовывать 10 лет.
Теперь видите всю картинку целиком? 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Олег Лупиков
Сидели сегодня с Сережей (sinners.studio) в зуме 3 часа и раскручивали тему гипер-персонализации контента в рекламе. Про это в частности буду рассказывать на G8. Пришли к такой штуке: представь, что ты один раз сделал рекламный креатив. Например, это баннер…
Быстрый вопрос: хотите короткий трехдневный воркшоп по ИИ-агентам? 🤔
Научиться собирать простые и сложные пайплайны и связки для автоматизации всяких разных процессов (с графикой, видео, сбором информации).
Без записи, чистый лайв
Ткните реакцию или сразу напишите мне @lupikovoleg
Научиться собирать простые и сложные пайплайны и связки для автоматизации всяких разных процессов (с графикой, видео, сбором информации).
Без записи, чистый лайв
Ткните реакцию или сразу напишите мне @lupikovoleg
❤11👍8🔥3 2
Seedream 4.0 — ответ китайцев на весь западный хайп
ByteDance выкатили свою «игрушку» — модель Seedream 4.0. Оперативный ответ Nano Banana от Google.
Я уже все проверил, поэтому факты:
— Работает быстрее, чем Nano Banana (и вообще выглядит, будто они его просто обогнали по всем фронтам).
— Стоит $0.03 за генерацию
— Есть форматы 2К и 4К, возможность задавать соотношение сторон
— В Higgsfield.ai годовой безлимит на 2К-генерацию!
ByteDance своеобразно хайпуют. Сперва Seedance, теперь Seedream, во всех случаях оперативный ответ на американские модели.
Это прям демонстративная война в рынке ИИ 😂
Но есть один маленький нюанс. Первое фото — Seedance, второе — Nano Banana. Промт один и тот же, обратите внимание на детали и следование модели промту. Вот и делаем выводы 🤔
😂 @founderit | навигация | дневник
ByteDance выкатили свою «игрушку» — модель Seedream 4.0. Оперативный ответ Nano Banana от Google.
Я уже все проверил, поэтому факты:
— Работает быстрее, чем Nano Banana (и вообще выглядит, будто они его просто обогнали по всем фронтам).
— Стоит $0.03 за генерацию
— Есть форматы 2К и 4К, возможность задавать соотношение сторон
— В Higgsfield.ai годовой безлимит на 2К-генерацию!
ByteDance своеобразно хайпуют. Сперва Seedance, теперь Seedream, во всех случаях оперативный ответ на американские модели.
Это прям демонстративная война в рынке ИИ 😂
Но есть один маленький нюанс. Первое фото — Seedance, второе — Nano Banana. Промт один и тот же, обратите внимание на детали и следование модели промту. Вот и делаем выводы 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥2 2
Кажется, что Apple отстает в ИИ. Или нет?
На первый взгляд кажется, что Apple выпала из гонки. У Google есть Gemini, Microsoft встроила Copilot во все продукты, у Meta довольно популярная LLaMA. А Apple? Тишина.
Но за этой тишиной скрывается целая стратегия — Apple Intelligence. И да, кажется что стратегия, которую они презентовали еще год назад провалилась. Но самое интересное происходит за кулисами презентаций.
Что это значит на практике:
– У Apple есть свои foundation models — это те же нейросети, что у других, но оптимизированные под их устройства.
– Визуальные и мультимодальные модели уже работают прямо на iPhone и Mac без интернета, быстро и безопасно. Именно они распознают собачку и цветочки на ваших фотографиях, или позволяют их с фотографии стереть.
– Более сложные задачи отправляются в их собственное облако Private Cloud Compute, где всё завязано на приватность.
– В iOS и macOS уже есть первые фичи (которые доступны, если перевести устройство на английский язык):
Writing Tools — переписать или сократить текст в один клик.
Genmoji и Image Playground — генерация эмодзи и картинок по описанию.
Visual Intelligence — телефон понимает, что на экране, и сразу предлагает действия.
– А ещё Apple регулярно патентует вагон ИИ-технологий. Один из самых крутых примеров – «temporal reasoning» — это способность ИИ понимать время и события в последовательности, что было, что есть, и что будет – а не просто отвечать на вопросы.
Идея простая: вместо того чтобы продавать чат-бот, Apple делает ИИ частью каждой мелкой функции в экосистеме. Когда они решат показать это во всю мощь — конкуренты будут догонять. Так было с каждым рынком, на который компания заходила: телефоны, наушники, виртуальная реальность. Apple всегда молчит до последнего. Но если посмотреть на патенты — видно, что они готовят мощный заход в ИИ. Просто всему свое время.
И я жду 🔥
🍎 @founderit | навигация | дневник
На первый взгляд кажется, что Apple выпала из гонки. У Google есть Gemini, Microsoft встроила Copilot во все продукты, у Meta довольно популярная LLaMA. А Apple? Тишина.
Но за этой тишиной скрывается целая стратегия — Apple Intelligence. И да, кажется что стратегия, которую они презентовали еще год назад провалилась. Но самое интересное происходит за кулисами презентаций.
Что это значит на практике:
– У Apple есть свои foundation models — это те же нейросети, что у других, но оптимизированные под их устройства.
– Визуальные и мультимодальные модели уже работают прямо на iPhone и Mac без интернета, быстро и безопасно. Именно они распознают собачку и цветочки на ваших фотографиях, или позволяют их с фотографии стереть.
– Более сложные задачи отправляются в их собственное облако Private Cloud Compute, где всё завязано на приватность.
– В iOS и macOS уже есть первые фичи (которые доступны, если перевести устройство на английский язык):
Writing Tools — переписать или сократить текст в один клик.
Genmoji и Image Playground — генерация эмодзи и картинок по описанию.
Visual Intelligence — телефон понимает, что на экране, и сразу предлагает действия.
– А ещё Apple регулярно патентует вагон ИИ-технологий. Один из самых крутых примеров – «temporal reasoning» — это способность ИИ понимать время и события в последовательности, что было, что есть, и что будет – а не просто отвечать на вопросы.
Идея простая: вместо того чтобы продавать чат-бот, Apple делает ИИ частью каждой мелкой функции в экосистеме. Когда они решат показать это во всю мощь — конкуренты будут догонять. Так было с каждым рынком, на который компания заходила: телефоны, наушники, виртуальная реальность. Apple всегда молчит до последнего. Но если посмотреть на патенты — видно, что они готовят мощный заход в ИИ. Просто всему свое время.
И я жду 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6😁1
Олег Лупиков
Ваш брат выступает на фестивале креативных индустрий G8. Буду рассказывать про то, как AI-агенты переворачивают календарь индустрию диджитал продакшена Пятница, 12 сентября. Покупайте билетики 🤌🏻
Может быть вам это не оч интересно будет, но я сегодня рассказывал про ИИ-агентов в диджитал бизнесе и креативной экономике. Как драматически стоимость продакшена может снижаться и все такое.
И успел с парой креативных директоров пары крупнейших брендов страны поболтать на эту тему, достаточно прямо говорят «сделайте такой продукт, мы бы попробовали у себя». И ещё идей накинули) хм
Энивей, если хотите то саму презентацию пришлю сюда
И успел с парой креативных директоров пары крупнейших брендов страны поболтать на эту тему, достаточно прямо говорят «сделайте такой продукт, мы бы попробовали у себя». И ещё идей накинули) хм
Энивей, если хотите то саму презентацию пришлю сюда
101❤14🔥5💅3
Олег Лупиков
Может быть вам это не оч интересно будет, но я сегодня рассказывал про ИИ-агентов в диджитал бизнесе и креативной экономике. Как драматически стоимость продакшена может снижаться и все такое. И успел с парой креативных директоров пары крупнейших брендов…
Презу забирайте тут, в ней основные тезисы
И если хотите на воркшоп по ИИ агентам, тыкайте сюда, проведем через неделю — три сессии, за которые вы научитесь быстро собирать любые пайплайны и связки для автоматизации почти чего угодно (а потом использовать у себя или продавать, whatever). Проведу один раз, максимум на 10 человек
И если хотите на воркшоп по ИИ агентам, тыкайте сюда, проведем через неделю — три сессии, за которые вы научитесь быстро собирать любые пайплайны и связки для автоматизации почти чего угодно (а потом использовать у себя или продавать, whatever). Проведу один раз, максимум на 10 человек
👍11
Олег Лупиков
1 сентября — в России запрет на рекламу в Instagram. А я именно сейчас решил стать блогером 😂 Три недели назад я решил всерьез заняться своим контентом в Инстаграме. Мне нравятся технологии, искусственный интеллект и я люблю сам процесс делиться чем-то. …
Я сел разбираться, почему мои reels набирают 10К а не 100К, и мое любопытство привело меня в блог инженеров Meta, их научные работы и даже патенты.
И теперь алгоритмы Instagram перестали для меня быть загадкой. Короче присаживайтесь, щя все расскажу! (пост поделю на две части, там много)
Дисклеймер: в основном, все пиздят когда говорят что знают, как работают «алгоритмы». Чтобы это знать, надо быть инженером (майндсет) и прочитать гору материалов плюс посмотреть выступления инженеров Meta.
Часть 1. Что происходит с видео после его загрузки.
Вот вам факт — внутри инстаграма более 1000 ML-моделей.
Когда вы загружаете видео, контент переводится в векторное представление. Ролик раскладывается на сотни признаков: длительность, динамика, цвет, объекты, лица, музыка, отдельные звуки, текст, даже шрифт текста.
— CV-модели распознают, кто и что в кадре: люди, предметы, сцены, эмоции
— Аудио-модели слушают музыку, речь, даже выделяют трендовые звуки
— OCR-система Rosetta читает текст прямо из видео, фиксирует совпадение текста и контекста
В итоге, у каждого ролика появляется гигантская карта параметров, цифровое описание того, что именно в нем.
— Рейтинг автора. Сет отдельных ML-систем скорит автора: частота публикаций, насколько его контент удерживает аудиторию, были ли страйки за нарушение правил. Если успешная серия — новому контенту дается буст, если контент дерьмо — алгоритм режет охваты. Работает это в виде «баллов».
— Предсказание успеха. Дальше вступают в игру сотни ML-моделей, которые смотрят ролик и делают ставку, будет ли он интересен. Причем они предсказывают не абстрактно «людям понравится», а конкретно — вот это видео досмотрят 67% зрителей, а вот тут будут перематывать, а в этом моменте будут тыкать лайк.
Почему ML это знает? Блядь, потому что так работает машинное обучение! Собери датасет из миллиарда единиц контента с детальной картой параметров (которые упоминал выше), наложи сверху поведение пользователей и тоже сможешь предсказывать. Science, bitch!
В след посте будет про то, как контент попадает к конкретному человеку в ленту.
📸 @founderit | навигация | дневник
И теперь алгоритмы Instagram перестали для меня быть загадкой. Короче присаживайтесь, щя все расскажу! (пост поделю на две части, там много)
Дисклеймер: в основном, все пиздят когда говорят что знают, как работают «алгоритмы». Чтобы это знать, надо быть инженером (майндсет) и прочитать гору материалов плюс посмотреть выступления инженеров Meta.
Часть 1. Что происходит с видео после его загрузки.
Вот вам факт — внутри инстаграма более 1000 ML-моделей.
Когда вы загружаете видео, контент переводится в векторное представление. Ролик раскладывается на сотни признаков: длительность, динамика, цвет, объекты, лица, музыка, отдельные звуки, текст, даже шрифт текста.
— CV-модели распознают, кто и что в кадре: люди, предметы, сцены, эмоции
— Аудио-модели слушают музыку, речь, даже выделяют трендовые звуки
— OCR-система Rosetta читает текст прямо из видео, фиксирует совпадение текста и контекста
В итоге, у каждого ролика появляется гигантская карта параметров, цифровое описание того, что именно в нем.
— Рейтинг автора. Сет отдельных ML-систем скорит автора: частота публикаций, насколько его контент удерживает аудиторию, были ли страйки за нарушение правил. Если успешная серия — новому контенту дается буст, если контент дерьмо — алгоритм режет охваты. Работает это в виде «баллов».
— Предсказание успеха. Дальше вступают в игру сотни ML-моделей, которые смотрят ролик и делают ставку, будет ли он интересен. Причем они предсказывают не абстрактно «людям понравится», а конкретно — вот это видео досмотрят 67% зрителей, а вот тут будут перематывать, а в этом моменте будут тыкать лайк.
Почему ML это знает? Блядь, потому что так работает машинное обучение! Собери датасет из миллиарда единиц контента с детальной картой параметров (которые упоминал выше), наложи сверху поведение пользователей и тоже сможешь предсказывать. Science, bitch!
В след посте будет про то, как контент попадает к конкретному человеку в ленту.
Please open Telegram to view this post
VIEW IN TELEGRAM
152🔥25❤5
Олег Лупиков
Я сел разбираться, почему мои reels набирают 10К а не 100К, и мое любопытство привело меня в блог инженеров Meta, их научные работы и даже патенты. И теперь алгоритмы Instagram перестали для меня быть загадкой. Короче присаживайтесь, щя все расскажу! (пост…
Прежде, чем двигаться дальше, вот список работ которые я прочитал (и советую прочитать всем, кто хочет реально разобраться в устройстве алгоритмов):
1. Scaling the Instagram Explore recommendations system - как работает ранжирование
2. Journey to 1000 models: Scaling Instagram’s recommendation system - как устроена оркестрация 1000 ML моделей
3. How Instagram suggests new content - как проектировали рекомендации
4. Faiss: A library for efficient similarity search - инженерный пост про Facebook AI similarity search, про векторный поиск на основе интересов
5. Inside Facebook’s video delivery system - как устроена доставка видео до пользователей
6. What is the Instagram Feed? - как формируется лента
7. Reels Chaining - как алгоритм ранжирует рилсы, которые мы видим
8. Explore - как устроен раздел «интересное»
9. Rosetta: Large-scale text recognition in images - OCR-система которая распознает текст в видео
10. DLRM: Deep Learning Recommendation Model - базовая архитектура рекомендательных моделей в Meta
11. How machine learning powers Facebook’s News Feed ranking algorithm - важный инженерный пост о предсказательных рейтингах
12. Matching and ranking content items - патент на методы сопоставления/ранжирования контента (в т.ч. с учётом трендов/поведения)
В целом, прочитав все это вы не только поймете примерное устройство алгоритмов, которые влияют на продвижение контента в инстаграме но и сможете построить свою рекомендательную систему (если вы умный инженер).
А завтра продолжим.
1. Scaling the Instagram Explore recommendations system - как работает ранжирование
2. Journey to 1000 models: Scaling Instagram’s recommendation system - как устроена оркестрация 1000 ML моделей
3. How Instagram suggests new content - как проектировали рекомендации
4. Faiss: A library for efficient similarity search - инженерный пост про Facebook AI similarity search, про векторный поиск на основе интересов
5. Inside Facebook’s video delivery system - как устроена доставка видео до пользователей
6. What is the Instagram Feed? - как формируется лента
7. Reels Chaining - как алгоритм ранжирует рилсы, которые мы видим
8. Explore - как устроен раздел «интересное»
9. Rosetta: Large-scale text recognition in images - OCR-система которая распознает текст в видео
10. DLRM: Deep Learning Recommendation Model - базовая архитектура рекомендательных моделей в Meta
11. How machine learning powers Facebook’s News Feed ranking algorithm - важный инженерный пост о предсказательных рейтингах
12. Matching and ranking content items - патент на методы сопоставления/ранжирования контента (в т.ч. с учётом трендов/поведения)
В целом, прочитав все это вы не только поймете примерное устройство алгоритмов, которые влияют на продвижение контента в инстаграме но и сможете построить свою рекомендательную систему (если вы умный инженер).
А завтра продолжим.
1🔥35❤13
Олег Лупиков
Я сел разбираться, почему мои reels набирают 10К а не 100К, и мое любопытство привело меня в блог инженеров Meta, их научные работы и даже патенты. И теперь алгоритмы Instagram перестали для меня быть загадкой. Короче присаживайтесь, щя все расскажу! (пост…
В первой части мы познакомились с Machine Learning и разобрали, что происходит с роликом после загрузки: нейросети анализируют видео, звук и текст, у автора есть рейтинг, а видео обрастает профилем параметров.
Теперь — самое интересное:
Часть 2. Как видео попадает именно к тебе в ленту.
– Retrieval — отбор кандидатов. Когда ты открываешь Reels, система показывает не случайные видео.
– У тебя есть вектор интересов — цифровое описание твоего поведения. Пример: «смотрю до конца ролики про Москву, пересматриваю мемы про негров, быстро скипаю мемы про бывшую».
– У каждого ролика тоже есть набор векторов, например «спорт + быстрый монтаж + текст в начале + мужской голос».
Каждый пользователь и каждое видео для алгоритма — это не «человек» или «рилс», а точка в многомерном пространстве.
Эта точка описывается числовым вектором. Наример:
Пользователь: [0.72 (спорт), 0.03 (танцы), 0.65 (технологии), 0.12 (коты), 0.88 (юмор)…]
Видео: [0.70 (спорт), 0.02 (танцы), 0.69 (технологии), 0.10 (коты), 0.85 (юмор)…]
У каждого ролика извлекаются сотни признаков:
Визуальные: лица, объекты, сцены, цветовая палитра, эмоции, темп.
Аудио: музыка, речь, настроение (веселое/грустное), громкость, трендовость.
Текст: субтитры, надписи в кадре, совпадение текста и картинки.
Метаданные: длительность, формат, язык, устройство загрузки.
А вектор пользователя строится из его поведения: какие ролики досматривает, где ставит лайки, какие темы комментирует, где задерживается даже без действий. И самое главное — вектор динамический: каждый скип, лайк или досмотр мгновенно чуть меняет профиль.
– Алгоритм ищет совпадения. Если векторы похожи (высокая косинусная близость), значит вероятность, что человек залипнет на рилсе, выше. Вот и мэтч. Из миллионов роликов остается несколько тысяч кандидатов, которые по мнению отдельной ML-ки могут зайти лично тебе.
– Ranking – первое ранжирование. Теперь эти тысячи кандидатов оценивают сотни ML-моделей. Их задача — предсказать поведение на каждом ролике: досмотрит до конца, пересмотрит, лайкнет, напишет комментарий, сделает репост, подпишется на автора.
Retrieval делает быстрый грубый мэтч (Two-Towers + векторный поиск), а ranking — тонкую донастройку предсказаний по каждому кандидату.
Дальше из этих вероятностей собирают общий скор — по сути, ожидаемую ценность показа:
Score = w₁·P_watchthrough + w₂·P_rewatch + w₃·P_follow + w₄·P_share + w₅·P_comment + w₆·P_like
У каждого действия свой вес. Подписка и пересмотр — самые сильные сигналы, лайк — минимальный.
Результат — прогноз твоего поведения под конкретным роликом.
– Re-ranking – второй слой. Теперь вступают дополнительные правила:
– разнообразие (чтобы тебе не показывали 10 одинаковых мемов подряд),
– свежесть (новый рилс может получить буст к охватам),
– рейтинг автора (стабильные авторы с высокой вовлеченностью получают буст),
– ограничения по безопасности и политике (например, за логотип TikTok охваты снижаются)
Видео могут чуть подвинуть вверх или вниз, даже если у них одинаковый базовый скор.
– Предсказание не равно истина. Важно: все эти расчеты — прогноз, а не гарантия. Поэтому каждое новое видео сначала показывают маленькой тестовой аудитории.
– Смотрят retention: досмотрели ли до конца, есть ли пересмотры.
– Проверяют реакции: комменты, репосты, подписки.
– Если показатели выше среднего то видео масштабируют.
Пример:
– У ролика 100 тестовых показов, 70 человек досмотрели, 15 пересмотрели, 5 подписались. Алгоритм масштабирует.
– У ролика 100 тестов, 30 человек скипнули на 2-й секунде. Видео умирает и дальше почти не показывается.
Поэтому:
– видео будет популярным, если его прогноз по сильным действиям (пересмотры, подписки) высокий;
– у зрителя в ленте всегда именно то, на чем он с максимальной вероятностью задержится.
Алгоритм заранее «знает», какие ролики взлетят, а какие умрут после первых 100 показов.
А в следующей серии я расскажу, какие правильные выводы из всего этого можно сделать и как применять в создании собственного контента.
С вас 🔥, комментарий или хоть что-нибудь позитивное 🫶🏻
📸 @founderit | навигация | дневник
Теперь — самое интересное:
Часть 2. Как видео попадает именно к тебе в ленту.
– Retrieval — отбор кандидатов. Когда ты открываешь Reels, система показывает не случайные видео.
– У тебя есть вектор интересов — цифровое описание твоего поведения. Пример: «смотрю до конца ролики про Москву, пересматриваю мемы про негров, быстро скипаю мемы про бывшую».
– У каждого ролика тоже есть набор векторов, например «спорт + быстрый монтаж + текст в начале + мужской голос».
Каждый пользователь и каждое видео для алгоритма — это не «человек» или «рилс», а точка в многомерном пространстве.
Эта точка описывается числовым вектором. Наример:
Пользователь: [0.72 (спорт), 0.03 (танцы), 0.65 (технологии), 0.12 (коты), 0.88 (юмор)…]
Видео: [0.70 (спорт), 0.02 (танцы), 0.69 (технологии), 0.10 (коты), 0.85 (юмор)…]
У каждого ролика извлекаются сотни признаков:
Визуальные: лица, объекты, сцены, цветовая палитра, эмоции, темп.
Аудио: музыка, речь, настроение (веселое/грустное), громкость, трендовость.
Текст: субтитры, надписи в кадре, совпадение текста и картинки.
Метаданные: длительность, формат, язык, устройство загрузки.
А вектор пользователя строится из его поведения: какие ролики досматривает, где ставит лайки, какие темы комментирует, где задерживается даже без действий. И самое главное — вектор динамический: каждый скип, лайк или досмотр мгновенно чуть меняет профиль.
– Алгоритм ищет совпадения. Если векторы похожи (высокая косинусная близость), значит вероятность, что человек залипнет на рилсе, выше. Вот и мэтч. Из миллионов роликов остается несколько тысяч кандидатов, которые по мнению отдельной ML-ки могут зайти лично тебе.
– Ranking – первое ранжирование. Теперь эти тысячи кандидатов оценивают сотни ML-моделей. Их задача — предсказать поведение на каждом ролике: досмотрит до конца, пересмотрит, лайкнет, напишет комментарий, сделает репост, подпишется на автора.
Retrieval делает быстрый грубый мэтч (Two-Towers + векторный поиск), а ranking — тонкую донастройку предсказаний по каждому кандидату.
Дальше из этих вероятностей собирают общий скор — по сути, ожидаемую ценность показа:
Score = w₁·P_watchthrough + w₂·P_rewatch + w₃·P_follow + w₄·P_share + w₅·P_comment + w₆·P_like
У каждого действия свой вес. Подписка и пересмотр — самые сильные сигналы, лайк — минимальный.
Результат — прогноз твоего поведения под конкретным роликом.
– Re-ranking – второй слой. Теперь вступают дополнительные правила:
– разнообразие (чтобы тебе не показывали 10 одинаковых мемов подряд),
– свежесть (новый рилс может получить буст к охватам),
– рейтинг автора (стабильные авторы с высокой вовлеченностью получают буст),
– ограничения по безопасности и политике (например, за логотип TikTok охваты снижаются)
Видео могут чуть подвинуть вверх или вниз, даже если у них одинаковый базовый скор.
– Предсказание не равно истина. Важно: все эти расчеты — прогноз, а не гарантия. Поэтому каждое новое видео сначала показывают маленькой тестовой аудитории.
– Смотрят retention: досмотрели ли до конца, есть ли пересмотры.
– Проверяют реакции: комменты, репосты, подписки.
– Если показатели выше среднего то видео масштабируют.
Пример:
– У ролика 100 тестовых показов, 70 человек досмотрели, 15 пересмотрели, 5 подписались. Алгоритм масштабирует.
– У ролика 100 тестов, 30 человек скипнули на 2-й секунде. Видео умирает и дальше почти не показывается.
Поэтому:
– видео будет популярным, если его прогноз по сильным действиям (пересмотры, подписки) высокий;
– у зрителя в ленте всегда именно то, на чем он с максимальной вероятностью задержится.
Алгоритм заранее «знает», какие ролики взлетят, а какие умрут после первых 100 показов.
А в следующей серии я расскажу, какие правильные выводы из всего этого можно сделать и как применять в создании собственного контента.
С вас 🔥, комментарий или хоть что-нибудь позитивное 🫶🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥73❤21👍13
Олег Лупиков
В первой части мы познакомились с Machine Learning и разобрали, что происходит с роликом после загрузки: нейросети анализируют видео, звук и текст, у автора есть рейтинг, а видео обрастает профилем параметров. Теперь — самое интересное: Часть 2. Как видео…
This media is not supported in your browser
VIEW IN TELEGRAM
Примерно вот так Instagram видит все ваши видео, фотографии, рилс и даже сторис*.
Технология называется Detectron и уже много лет используется в Meta, чтобы распознавать и скорить Ваш контент.
А теперь про сторис. Для меня было удивительным открытием, что алгоритмика показов сторис подписчикам тоже гораздо более сложная и умная, чем я предполагал. Если в случае с рилс участвуют две стороны (в основном), это видео и зритель — то в сторис участвует ещё одна: связь между АВТОРОМ и ЗРИТЕЛЕМ. И сверху наслаивается предиктивный анализ на основании истории взаимодействий автора и зрителя.
Короче говоря, там есть механизм, потянув за который твои истории будет видеть каждый твой подписчик. Да, я тоже ох*ел 😂
Сразу после лонгридов про алгоритмы reels я расскажу, как работают Instagram Stories.
Будете ждать?
Технология называется Detectron и уже много лет используется в Meta, чтобы распознавать и скорить Ваш контент.
А теперь про сторис. Для меня было удивительным открытием, что алгоритмика показов сторис подписчикам тоже гораздо более сложная и умная, чем я предполагал. Если в случае с рилс участвуют две стороны (в основном), это видео и зритель — то в сторис участвует ещё одна: связь между АВТОРОМ и ЗРИТЕЛЕМ. И сверху наслаивается предиктивный анализ на основании истории взаимодействий автора и зрителя.
Короче говоря, там есть механизм, потянув за который твои истории будет видеть каждый твой подписчик. Да, я тоже ох*ел 😂
Сразу после лонгридов про алгоритмы reels я расскажу, как работают Instagram Stories.
Будете ждать?
99🔥62👍27 15❤3
Мне, если честно, уже не терпится выпустить следующий пост 😅
Но! Я обратил внимание, что количество моих подписчиков прибавилось. Я смотрю, кто вы: блогеры, креаторы, эксперты, развивающие личный бренд. И начинающие, и блогеры-миллионники
Я бы хотел посмотреть, что вы создаете. Потому что большой вам респект, кто создает собственный контент и учится делать это качественно! 🫶🏻
Короче, напишите, пожалуйста, в комментарии вашу тематику и пришлите ссылку на ваш канал/блог, и пару ссылок на самые интересные публикации/рилс 🙏
Но! Я обратил внимание, что количество моих подписчиков прибавилось. Я смотрю, кто вы: блогеры, креаторы, эксперты, развивающие личный бренд. И начинающие, и блогеры-миллионники
Я бы хотел посмотреть, что вы создаете. Потому что большой вам респект, кто создает собственный контент и учится делать это качественно! 🫶🏻
Короче, напишите, пожалуйста, в комментарии вашу тематику и пришлите ссылку на ваш канал/блог, и пару ссылок на самые интересные публикации/рилс 🙏
❤22👍7🔥6
Олег Лупиков
В первой части мы познакомились с Machine Learning и разобрали, что происходит с роликом после загрузки: нейросети анализируют видео, звук и текст, у автора есть рейтинг, а видео обрастает профилем параметров. Теперь — самое интересное: Часть 2. Как видео…
В прошлых сериях: мы с вами узнали, что происходит с видео после загрузки, как оно попадает к нужным зрителям и при чем тут machine learning.
Часть 3/1. Как заставить алгоритм поверить, что твой контент будут смотреть. Рекомендации для создания algorithm-first контента.
Все, что я пишу ниже, основано на понимании принципов работы машинного обучения и внутрянке DLRM, Reels Chaining и скоринга контента (см. эти материалы).
Первая задача – пройти фильтр этапа Retrieval
Миссия retrieval: из миллионов роликов быстро выбрать несколько тысяч похожих на твои вкусы по эмбеддингам (векторным представлениям). Если алгоритм не распознал тему/жанр — ролик даже не попадет в кандидаты.
ПОЧЕМУ? CV-модели считывают лица/объекты/сцены/движение. Чем понятнее сигналы жанра, тем выше уверенность классификации. Аудио-модели слушают голос/музыку/ритм, из этого строится аудио-вектор. OCR читает текст в кадре и сопоставляет его с визуалом/аудио. Совпадение усиливает понимание темы, рассинхрон — снижает.
Итог: вектор видео должен совпасть с вектором пользователя. Нечитаемый жанр = видео пролетает мимо нужной аудитории
ЧТО ДЕЛАТЬ? Дай алгоритмам понять, о чем видео. В первые 3–5 сек покажи лицо/ключевой объект/контекст жанра. Дай короткую фразу голосом и короткую фразу на экране про тему ролика, совпадающие по смыслу. Поставь характерную музыку: алгоритм уже знает, что грустная песня про любовь не будет в видео про ремонт квартир.
– Визуальное разнообразие. Модели видят динамику кадров и понятные объекты. Статичная картинка = риск раннего дропа.
ПОЧЕМУ? CV извлекает движение и смену сцен. Единообразие = низкая информативность по кадрам = зритель быстрее устает = early drop = падает досмотр. Разные планы увеличивают сигнал жанра, улучшают retrieval-мэтч и держат внимание = растет досмотр/повторный просмотр
ЧТО ДЕЛАТЬ? Смена плана каждые 2–4 сек. На биты/смысловые точки — визуализация (скрин/графика/руки/объект/whatever что совпадает по смыслу). Не скрывай лицо и ключевой объект (алгоритм любит узнаваемые признаки). Избегай водяных знаков, мутной или шумной картинки – алгоритм не сможет распознать объекты и у твоего видео будет меньше смысловых признаков
– Субтитры не для красоты, а для алгоритма распознавания текста
Ошибка: микроскопические или не читаемые шрифты, абстрактные фразы, рассинхрон с речью/смыслом/визуалом
ПОЧЕМУ? OCR модель читает текст и сопоставляет его с кадром, речью. Читабельный, синхронный текст усиливает понимание темы = выше шанс попасть в правильные кластеры пользователей. Перегруз/рассинхрон > когнитивный шум > ранние скипы = падает досмотр
ЧТО ДЕЛАТЬ? Одно предложение = 1–2 сек на экране (не 20 слов да секунду). Контраст текста с фоном; безопасные зоны (не перекрывай лицо). Смысл совпадает с речью
– Звук решает не меньше картинки
ПОЧЕМУ? Аудио-модель делает эмбеддинг жанра/настроения: это юмор? История? Лайфхак? Распознавание текста + речи = семантический мэтч: что ты говоришь и что показываешь, то есть о чем это видео? Плохой голос = менее точное распознавание = хуже мэтч = ниже шанс попасть в нужный кластер.
ЧТО ДЕЛАТЬ? Голос громче музыки; шумоподавление. Трендовый трек ок, но озвучка голосом = алгоритм думает, что на вас подпишутся (личный авторский сигнал). Речь должна быть четкой и внятной: облегчай алгоритмам работу по распознаванию того, что ты говоришь. Быстрая речь > медленная речь, но так, чтобы если человек зажал x2 на экране, речь все еще была понятной (иначе человек скипнет видео, алгоритм думает об этом заранее)
Алгоритмы не оценивают красоту. Они считают вероятность сильных действий на базе параметров видео и поведения пользователя и уже знают, как ведут себя зрители, в которых ты целишься.
Задача спроектировать ролик так, чтобы эти вероятности были максимальными еще до первых 100 показов.
Завтра – продолжение 3/2 про хуки и early drop, перезалив одинаковых видео и diversity (разнообразие), пересмотры сохранения и вес параметров, политику integrity, запретные слова и маты.
🧩 @founderit | навигация | дневник
Часть 3/1. Как заставить алгоритм поверить, что твой контент будут смотреть. Рекомендации для создания algorithm-first контента.
Все, что я пишу ниже, основано на понимании принципов работы машинного обучения и внутрянке DLRM, Reels Chaining и скоринга контента (см. эти материалы).
Первая задача – пройти фильтр этапа Retrieval
Миссия retrieval: из миллионов роликов быстро выбрать несколько тысяч похожих на твои вкусы по эмбеддингам (векторным представлениям). Если алгоритм не распознал тему/жанр — ролик даже не попадет в кандидаты.
ПОЧЕМУ? CV-модели считывают лица/объекты/сцены/движение. Чем понятнее сигналы жанра, тем выше уверенность классификации. Аудио-модели слушают голос/музыку/ритм, из этого строится аудио-вектор. OCR читает текст в кадре и сопоставляет его с визуалом/аудио. Совпадение усиливает понимание темы, рассинхрон — снижает.
Итог: вектор видео должен совпасть с вектором пользователя. Нечитаемый жанр = видео пролетает мимо нужной аудитории
ЧТО ДЕЛАТЬ? Дай алгоритмам понять, о чем видео. В первые 3–5 сек покажи лицо/ключевой объект/контекст жанра. Дай короткую фразу голосом и короткую фразу на экране про тему ролика, совпадающие по смыслу. Поставь характерную музыку: алгоритм уже знает, что грустная песня про любовь не будет в видео про ремонт квартир.
– Визуальное разнообразие. Модели видят динамику кадров и понятные объекты. Статичная картинка = риск раннего дропа.
ПОЧЕМУ? CV извлекает движение и смену сцен. Единообразие = низкая информативность по кадрам = зритель быстрее устает = early drop = падает досмотр. Разные планы увеличивают сигнал жанра, улучшают retrieval-мэтч и держат внимание = растет досмотр/повторный просмотр
ЧТО ДЕЛАТЬ? Смена плана каждые 2–4 сек. На биты/смысловые точки — визуализация (скрин/графика/руки/объект/whatever что совпадает по смыслу). Не скрывай лицо и ключевой объект (алгоритм любит узнаваемые признаки). Избегай водяных знаков, мутной или шумной картинки – алгоритм не сможет распознать объекты и у твоего видео будет меньше смысловых признаков
– Субтитры не для красоты, а для алгоритма распознавания текста
Ошибка: микроскопические или не читаемые шрифты, абстрактные фразы, рассинхрон с речью/смыслом/визуалом
ПОЧЕМУ? OCR модель читает текст и сопоставляет его с кадром, речью. Читабельный, синхронный текст усиливает понимание темы = выше шанс попасть в правильные кластеры пользователей. Перегруз/рассинхрон > когнитивный шум > ранние скипы = падает досмотр
ЧТО ДЕЛАТЬ? Одно предложение = 1–2 сек на экране (не 20 слов да секунду). Контраст текста с фоном; безопасные зоны (не перекрывай лицо). Смысл совпадает с речью
– Звук решает не меньше картинки
ПОЧЕМУ? Аудио-модель делает эмбеддинг жанра/настроения: это юмор? История? Лайфхак? Распознавание текста + речи = семантический мэтч: что ты говоришь и что показываешь, то есть о чем это видео? Плохой голос = менее точное распознавание = хуже мэтч = ниже шанс попасть в нужный кластер.
ЧТО ДЕЛАТЬ? Голос громче музыки; шумоподавление. Трендовый трек ок, но озвучка голосом = алгоритм думает, что на вас подпишутся (личный авторский сигнал). Речь должна быть четкой и внятной: облегчай алгоритмам работу по распознаванию того, что ты говоришь. Быстрая речь > медленная речь, но так, чтобы если человек зажал x2 на экране, речь все еще была понятной (иначе человек скипнет видео, алгоритм думает об этом заранее)
Алгоритмы не оценивают красоту. Они считают вероятность сильных действий на базе параметров видео и поведения пользователя и уже знают, как ведут себя зрители, в которых ты целишься.
Задача спроектировать ролик так, чтобы эти вероятности были максимальными еще до первых 100 показов.
Завтра – продолжение 3/2 про хуки и early drop, перезалив одинаковых видео и diversity (разнообразие), пересмотры сохранения и вес параметров, политику integrity, запретные слова и маты.
🧩 @founderit | навигация | дневник
2🔥40❤17👍6 2
