Information Retriever
3.45K subscribers
254 photos
1 video
8 files
127 links
Download Telegram
Этика рекомендательных систем от философа-computer scientist’а Erich Prem.

Первая мини-история была следующая: в Америке есть популярный супермаркет Target, который раньше рассылал людям по домам спец предложения, скидки и все такое. В target’е решили, что хорошая идея — делать спец предложения для беременных женщин. Соответственно, в дом, в котором жила со своими родителями 16-летняя девочка, начали постоянно приходить такие спецпредложения (для этой девочки). В один момент отец совсем возмутился, ворвался в target, выразил свое недовольство. А потом оказалось, что она реально была беременна, просто он не знал =)

Дальше был пример, который я тоже люблю приводить — про Тиндер. Что по сути в дейтингах самая успешная рекомендация — это та, после которой пользователю дейтинг больше не нужен :) А это платформе совсем невыгодно, ей нужно растить пользовательскую базу, иначе деньги не заработать. Соответственно, платформе выгодней рекомендовать вам какие-то частичные “матчи”, которые полностью проблему большинства юзеров не решают.

Также обсуждались чат боты. Во-первых, известный случай, когда подросток совершил суицид, чтобы “воссоединиться” с ботом (который, по-моему ролеплеил Денерис Таргариен из игры престолов). Во-вторых, обсуждали должен ли чатбот выдавать инструкцию по созданию бомбы или нет.

Также был следующий фундаментальный кусочек: Erich кратко рассказал про философию Канта (про категорический императив), что в его понимании высшая ценность — это человеческая автономность (читай личная свобода). И затем противопоставил его утилитаризму (которым часто по его мнению руководствуются инженеры). Рассказал такой пример — если пять человек попадут в аварию, и одному из них нужна будет новая почка, другому печень, третьему сердце и так далее, при этом один из них останется абсолютно здоров (отделается сломанной рукой), то с точки зрения утилитаризма нужно органы этого здорового человека пожертвовать остальным. Но мы так не делаем, потому что тогда люди перестанут приходить в больницы со сломанной рукой :)

В его понимании многие вопросы вида “что можно, а что нельзя” сводятся к этому противостоянию философий — считаем ли мы, что личная свобода это самое важное, либо же мы пытаемся максимизировать какое-то общее благо (то есть смотрим на вещи утилитарно).

Отдельные мысли: моральные ценности очень сильно зависят от общества, времени, контекста; что рассматривать человека как какую-то цифровую сущность — это очень сильное упрощение, которое не учитывает существенную часть человеческих чувств и эмоций; что использовать engagement как прокси к чему-то хорошему и полезному для человека опасно. Что противоположностью автономии является манипуляция, контроль.

Упомянул интересный термин — Dark Patterns. Это когда приложение дизайнится таким образом, чтобы побудить пользователя делать не самые полезные для него вещи (например, покупать что-то не целесообразно дорогое).

Последнее — была интересная история про Rene Carmille, которого Erich считает образцовым computer scientist’ом, применявшим свои навыки во благо. Что равняться надо на таких людей, а не на Цукербергов / Илонов Масков. Вроде бы Рене был статистом и работал над машинами, помогавшими идентифицировать людей. Когда немцы захватили Францию, он так хакнул эти машины, чтобы нельзя было выявлять евреев. Таким образом он спас тысячи людей. Но сам, к сожалению, плохой участи не избежал :(

Еще кратко упомяну лекцию про accessibility и inclusion. Вообще Вена — очень доступный город. Например, здесь свободно передвигаются люди на колясках. И лекция была про то же самое — что мы можем сделать с рекомендательными системами, чтобы обеспечить доступ к ним для всех. В Европе не так давно (в июне) приняли акт, по которому все рекомендательные системы обязаны это делать.

Я может быть еще напишу отдельный пост про впечатления от Вены, но в целом — уже впереди сам RecSys! :)
24👍9🔥4
Начинаем утро с выступления на воркшопе RecSys Challenge :)
🔥395
ACM RecSys’25, день первый.

1. Больше всего времени я провёл на воркшопе СONSEQUENCES’25. Происхождение названия:
An increasing amount of research understands recommender systems as a decision-making problem, instead of a pure prediction problem. Indeed, this view of the recommendation task makes it clear that recommendation decisions on real-world platforms have consequences


В рамках воркшопа был очень хороший туториал про бандитов для рексистем “Practical Bandits: An Industry Perspective” от авторов из Booking, Netflix, Spotify, Amazon. На ютубе есть запись одноименного туториала с WWW’23. Она двухлетней давности, зато в три раза больше по длительности. Что было на сегодняшнем туториале:

Дали определение контекстуальных бандитов, рассказали про минусы on-policy подходов, рассказали про off-policy методы (про importance weighting, cIPS, SNIPS, DR, etc). Сказали, что on-policy — это “optimism in the face of uncertainty”, что мы выбираем действия, в которых не уверены, надеясь на лучший исход; и что off-policy — это наоборот пессимизм :)

Также сказали, что нужно рандомизировать данные, добавлять рандом к текущей продовой политике (если она детерминированная). Был рассказ про различные способы рандомизации (epsilon-greedy, софтмакс-сэмплирование, упомянули Thompson sampling, сказали прочитать статью Olivier Jeunen с этого рексиса — видимо, вот эту). Также было чуть-чуть про Plaсkett-Luce и Гумбеля. И была байка про то, как с помощью control variates авторы из Амазона диагностировали у себя багу в функционале “Play music” Алексы, что у них часть фидбека не доезжала до модели.

Еще я впервые услышал термин “symbiosis bias”. Так докладчики назвали эффект, когда все тестируемые алгоритмы используют весь трафик для обучения, и из-за этого сравнение становится некорректным. В такой ситуации всегда будет выигрывать более жадная политика, в которой меньше эксплорейшна. Из-за похожей логики мы не можем и в обычном A/B нормально замерять эффект от эксплорейшна. По крайней мере, без таких титанических усилий, как в статье от Google DeepMind Long-Term Value of Exploration.

Еще был кусочек про то, как работать с очень большими пространствами действий.

Я, собственно, очень поверхностно перечислил про что был туториал, если заинтересовал — призываю посмотреть ту самую трехчасовую версию с WWW’23. Лекция этого года тоже наверняка станет доступна, но вероятно не скоро.

Вдогонку, если вас заинтересовала тема counterfactual learning’а, то есть еще один клёвый трехчасовой туториал от Yuta Saito и Thorsten Joachims с RecSys’21 (тык) — подробный рассказ про всевозможные off-policy методы для бандитов.

2. Также уже состоялась первая постерная сессия, на которой были статьи с того же воркшопа CONSEQUENCES. Выделю одну статью — Unidentified and Confounded? Understanding Two-Tower Models for Unbiased Learning to Rank. Пользователи чаще кликают на верхние позиции выдачи из-за position bias’а, и один из способов это побороть — это обучить совместно сумму “bias-башни” и основной модели. Bias-башня при этом на входе использует только позиционные данные, а основная модель их наоборот игнорирует. При обучении используем обе башни, при применении bias-башню отбрасываем. В идеале bias-башня перетягивает на себя весь позиционный bias.

Пару лет назад Google Research в статье Towards Disentangling Relevance and Bias in Unbiased Learning to Rank подсветили следующую проблему — так как позиция в выдаче коррелирует с релевантностью (обычно мы определяем позицию, отранжировав по релевантности), то “bias-башня” начинает перетягивать на себя полезный сигнал, отражающий релевантность. Из-за этого основная модель, которую мы применяем в проде, часть сигнала про релевантность теряет. Чтобы это побороть, предложили использовать дропаут скора bias-башни, или вообще использовать gradient reversal.

Так вот — автор вышеупомянутой статьи утверждает, что они не правы. Что у них неправильные симуляции, и вообще все работает по-другому (а как — читайте в его статье). А еще он процитировал наш старый препринт про трансформер в Маркете :)
29👍6🔥21
Пишите в комментариях, какими платформами из списка пользуетесь =)

P.S: это первый keynote на RecSys, внезапно — про EU регуляции.
😁16🍌6🔥2😢1
Я простоял у постера 7 часов. Людей было очень много! Кто-то даже подходил со словами, что уже прочитал статью до конференции. В целом я очень доволен, больше рассказывать сегодня нечего :)

Пожалуй, пока для меня это самый крутой момент конференции. Теперь цель — повторить =)

Было довольно забавно говорить ребятам из Гугла что-то в духе “у вас logQ коррекция устарела” :)
4🔥9319👍7😁1
ACM RecSys’25, день третий.

1. Утром был keynote от Jure Lescovec, известного специалиста по графовым моделям и одного из авторов GraphSAGE / PinSAGE. Рассказывал про свой стартап kumo.ai; про модель, которую делают — RFM (Relational Foundation Model). Эта модель позволяет взять произвольный набор табличек бизнеса (по сути реляционную бд), построить на их основе граф, затем предсказать какие-то новые ребра в этом графе, либо что-то классифицировать по вершинам. Причём делается это in-context learning’ом, без дообучения модели на графе. Вроде говорят, что прожевывают “billions of records”, но при этом используют pandas, чтобы манипулировать таблицами в оперативной памяти (что в 2025-м году уже нелегально). Под капотом то ли просто многоголовый аттеншн, то ли полноценный трансформер. Графовые данные и in-context примеры как-то преобразуются, “токенизируются”, чтобы можно было подать в трансформер. Еще, из интересного — есть целый предиктивный язык, похожий на SQL, в стиле “PREDICT NEXT(order) FOR users IN (1, 2, 3)”.

Что не понравилось — так это бенчмарки. Они выглядели как попытка продать что-то инвесторам. Рекомендательный бенчмарк, например, выглядел супер невнятно — взяли для сравнения LightGBM, GraphSAGE, NFBNet. Датасеты тоже непонятные (но зато был датасет от avito :) ). Ах да, потом еще выясняется что их RFM модельку файнтюнить все-таки можно, и от этого качество существенно растет. В общем, чувства от доклада немного смешанные =) Еще в related work был небольшой омаж Tabular Foundation Models.

2. Это был день индустриальных статей, на котором было много интересных постеров. Все мои знакомые, павшие духом после первых двух дней конференций, воспряли :) Мне, правда, и от ресерч работ, и от индустрии сильно не хватило фундаментальности. Почти все, что делается (за исключением части RL работ) — выглядит не слишком значительным.

Так как я в прошлом году больше всего активничал именно на индустриальных работах, у меня осталось много знакомых из индустрии. Сегодня кучу из них встретил. Знаете, есть такое ощущение, когда давно не видел человека и хорошо его помнишь, но не уверен, помнит ли он тебя :) Так вот — все помнят!

3. После просмотра постеров я заметил, что их меньше, чем слотов. И решил повесить свой еще раз =) В итоге я еще часа 3-4 простоял с постером сегодня, удалось где-то 10-15 человек посвятить в наши наработки :) Еще один человек, прочитавший нашу статью до конференции, сослался на мой пост на реддите. Он не выглядит популярным, но тем не менее тоже сработал. Если хотите, чтобы ваша работа получила максимальный охват, нужно пользоваться всеми доступными социальными сетями — это совсем не бесполезный труд, даже если на первый взгляд может так показаться.

4. На RecSys традиционно есть social dinner, после которого ночью люди обычно самоорганизуются и идут на караоке. В прошлом году я про караоке не знал и ушел рано, а в этом до него таки добрался. В результате были спеты Creep (Radiohead), Yesterday (Beatles), Do I Wanna Know (Arctic Monkeys), Where Is My Mind (Pixies). Еще кто-то Viva la Vida (Coldplay) заказал, а петь не стал, пришлось помогать… В общем, домой я добрался где-то в 3:30 =)

P.S: напоследок немного инсайдов — следующий RecSys будет в Миннесоте, город Миннеаполис. Будет трудно туда попасть :( И про RecSys, который будет через два года, у меня есть похожая инфа, что он будет в Штатах (если интересно где — ищите сериал White Lotus).

А еще, вроде как ребята из Дипмайнда через пару недель должны дропнуть новую статью про семантические айдишники!

Кстати, на прошлом RecSys их коллеги из соседней команды тизерили DCN-v3 и даже DCN-v4, а статей про них что-то нет — подозрительно?)
🔥1913🤩3👍1
Началось
👀29🔥6🤡1
ACM RecSys’25, день четвертый.

Сегодня в рамках гугловского симпозиума (это что-то типа мини-сессии от конкретного спонсора на конференции) было очередное выступление от Эда Чи и панельная дискуссия с Эдом, Lichan Hong’ом (это тимлид одной из команд Эда; эта команда занимается LLM x RecSys, например, семантическими айдишниками) и инженерами Ютуба (включая Лукаса, выступавшего на large recsys воркшопе два года назад — см пост).

Доклад был очень похож на прошлогодний (см пост), даже шутки повторялись:
* опять рассказал, как в девяностых сказал научнику (John Riedl), что делать рекомендации для пользователей на основе матрицы user-item фидбека — глупая затея (просчитался, но где)
* опять упомянул, что наработки его команды приносят Гуглу 10 млрд ежегодно, и пошутил, что надо было просить долю вместо зарплаты, когда выходил на работу
* опять упомянул, что один из трех авторов оригинальной seq-to-seq работы (наряду с Суцкевером и Oriol Vinyals) — ресерчер из его команды, Quoc V. Le
* много времени посвятил термину transduction — что он значит (в физике), почему transformer называется transformer
* показал какую-то новую демку Project Astra, на которой мужик чинит велосипед и гладит собаку
* опять говорил про акции. Спросил, купил ли кто-нибудь в аудитории в 2015 году акций NVIDIA на 5000 долларов, нашелся один человек; попросил его купить всем по пиву

Сказал, что мы (рекомендательные инженеры) занимаемся ранжированием, и что ранжирование — это просто сортировка. Что мы все зарабатываем на жизнь с помощью сортировки :)

Еще рассказал, что выход в свет ChatGPT в ноябре 22-го года заставил их срочно выпускать своего чатбота. Что они и так чем-то подобным занимались (долгие годы к этому шли), но выход чатгпт не оставил им возможности аккуратно проресерчить все риски и потенциальные последствия релиза такой технологии. Что через неделю после выхода чатгпт была встреча с Сундаром (CEO Гугла), на которой было много Senior VP и были очень-очень жаркие дискуссии. Сказал, что “OpenAI выпустили джина из бутылки”.

Было чуть-чуть про монетизацию. Что конечно же будут встраивать рекламу; не хочешь рекламу — плати за подписку.

Сказал, что думает, что нормальные квантовые компьютеры появятся в лучшем случае через 10 лет, раньше их ждать не стоит. Но если вдруг появятся — надо срочно продавать все акции =)

На прямой вопрос про потенциальный вред от AI технологий сказал, что мы хотим IA (intelligence augmentation), а не AI. Чтобы нам помогали думать, а не думали вместо нас (звучит почти как тавтология).

Во время конференции также выпала возможность пообщаться с Lichan’ом (тем самым тимлидом LLM x RecSys команды), и видно, что они очень сильно верят в свой подход, когда тюнят LLM на рекомендации. Почти дословная цитата: “моя команда 10 лет занималась дип лернингом для рекомендаций, а теперь мы уже два года делаем LLM, потому что верим, что за этим подходом будущее”.

Еще на панельной дискуссии Эд упомянул, что Lichan вчера попросил его посмотреть манускрипт с новой статьей про семантические айдишники. Видимо, он сначала пообещал нам выпустить новую статью в ближайшие две недели, и сразу пошел ее доделывать =)

P.S: знакомый из Гугла меня своим коллегам представляет как “автора той самой статьи про LogQ”. Теперь я официально амбассадор LogQ-коррекции. Если на вашей вечеринке нужно про нее рассказать — зовите :)
1👍28🔥188