Forwarded from Valuable AI / Валентин Малых
я хотел сегодня пропустить, чтобы дать всем отдохнуть, но меня догнала огненная новость - мои бывшие коллеги из исследовательского центра им. Н.Н. Лузина (это псевдоним, могу намекнуть на оригинальное навзвание - 🐉🪷🌺) выложили свой претрейн!
модель под названием Gamayun на 1.5B параметров, лучше Qwen2.5 аналогичного размера на русском, арабском, болгарском, испанском и польском языках!
также в этой работе коллеги предложили бенчмарк RuBIN, фактически измеряющий знание популярных русскоязычных цитат
мне очень приятно начать год с такой новости, поздравляю коллег из исследовательского центра им. Н.Н. Лузина, а также всех интересующихся русскоязычным NLP! 🎉🎉🎉
@valuableai
модель под названием Gamayun на 1.5B параметров, лучше Qwen2.5 аналогичного размера на русском, арабском, болгарском, испанском и польском языках!
также в этой работе коллеги предложили бенчмарк RuBIN, фактически измеряющий знание популярных русскоязычных цитат
мне очень приятно начать год с такой новости, поздравляю коллег из исследовательского центра им. Н.Н. Лузина, а также всех интересующихся русскоязычным NLP! 🎉🎉🎉
@valuableai
❤4👍1🔥1
Forwarded from Пул N3
Media is too big
VIEW IN TELEGRAM
Как приходит новый день год - так выглядит граница между днём и ночью на Земле:
«Эта «сумеречная полоса» шириной в сотни километров непрерывно движется вокруг Земли. На экваторе она мчится со скоростью около 1666 км/ч, а у полюсов почти замирает. Природа создаёт свой собственный калейдоскоп света и тени»
Подпишись на ПУЛ N3 / MAX
«Эта «сумеречная полоса» шириной в сотни километров непрерывно движется вокруг Земли. На экваторе она мчится со скоростью около 1666 км/ч, а у полюсов почти замирает. Природа создаёт свой собственный калейдоскоп света и тени»
Подпишись на ПУЛ N3 / MAX
❤1
Forwarded from Machinelearning
Интересная история, которая заставляет задуматься об образовании и карьере.
Знакомьтесь - Габриэль Петерссон. Ему всего 23 года, он бросил школу в глухом шведском городке, не учился в ВУЗе, но прямо сейчас работает научным сотрудником в OpenAI, в команде Sora.
Традиционное образование - это путь "снизу вверх". Хочешь заниматься машинным обучением? Сначала выучи линейную алгебру, потом матан, потом тервер. Это долго и зачастую теряется мотивация и понимание, зачем тебе это нужно прямо сейчас.
Масла в котел демотивации подливают компании, которые тоже не очень хотят ждать. Palantir, например, уже нанимает старшеклассников, минуя вузы. И история Габриэля — показательный пример тенденции.
Он не проходил классический путь "школа — бакалавриат — магистратура". Вместо этого он использовал ChatGPT как персонального ментора. И речь не о том, чтобы попросить чат-бот «напиши код за меня». Габриэль использовал метод, который он сам называет «рекурсивным заполнением пробелов».
Его суть том, чтобы идти как бы "сверху вниз". Он берет сложный проект: например, хочет разобраться, как работают модели диффузии. Он просит ChatGPT написать код. Естественно, сначала он ничего не понимает.
И вот тут он начинает задавать вопросы к каждому непонятному модулю. «Что делает этот блок?». Допустим, это блок ResNet. Он спрашивает: «Почему это помогает модели учиться?». И копает глубже. Если всплывает незнакомое понятие - он просит объяснить математическую базу, лежащую в его основе.
Это и есть рекурсия: слой за слоем, пока не заполнятся все пробелы в знаниях. Он не учит математику впрок, он учит ту математику, которая нужна ему прямо сейчас для работы кода.
Для получения визы талантов (O1) он использовал свою репутацию на Stack Overflow и рекомендации, которые просмотрели миллионы людей, как доказательство вклада в индустрию.
Габриэль советует: забудьте про HR. Резюме и дипломы не важны, если вы можете показать результат. Его стратегия — MVP или демо продукта и написать напрямую топ-менеджменту компании с предложением бесплатной работы на неделю. Это снимает риски для нанимателя и дает вам шанс показать себя.
Его главный посыл: если вы готовы активно задавать вопросы и не боитесь выглядеть глупо перед ИИ, изучая основы, вы уже входите в 1% лучших. Потому что большинство людей просто плывут по течению.
@ai_machinelearning_big_data
#AI #ML #Interview #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18❤6🤡4🔥3🥰1🤯1😢1
Forwarded from Valuable AI / Валентин Малых
всем привет, если вам нечем заняться на новогодние праздники, кроме доедания салатов, то еще есть возможность залететь в соревнование по переводу на тюркские языки (будет идти до конца праздников)
тем более, что появился повод, прямо под ёлочку 🎄 Tencent выпустили обновление своих моделей для машинного перевода Hunyuan 1.5(если я правильно понял, то наилучшим переводом 混元 будет "первичный бульон", как источник для всего разнообразия жизни)
коллеги выпустили две новых модели 1.8B и 7B, результаты (на картинке) впечатляют - бьют специализированные переводчики от Google и Microsoft, правда, проигрывают Gemini Pro(что, конечно, неудивительно)
кстати, часть результатов на FLORES-200, который среди 200 языков включает башкирский, казахский, кыргызский и татарский, так что можно залететь в соревнование с этими моделями; присоединяйтесь!
@valuableai
тем более, что появился повод, прямо под ёлочку 🎄 Tencent выпустили обновление своих моделей для машинного перевода Hunyuan 1.5
коллеги выпустили две новых модели 1.8B и 7B, результаты (на картинке) впечатляют - бьют специализированные переводчики от Google и Microsoft, правда, проигрывают Gemini Pro
кстати, часть результатов на FLORES-200, который среди 200 языков включает башкирский, казахский, кыргызский и татарский, так что можно залететь в соревнование с этими моделями; присоединяйтесь!
@valuableai
🔥2👍1🥰1🤯1
Forwarded from Valuable AI / Валентин Малых
вообще эта новость вполне могла быть в любой день, но иллюстрация требует поставить ее в субботу; суть новости - Google выкатил генератор заголовков для новостных сюжетов, и все заверте... я могу восстановить логику событий так, что кто-то решил обучить генератор делать привлекательные (кликабельные) заголовки; как следствие, генератор честно выучился делать кликбейт - то есть максимально "желтые"
я думаю, что люди, которые обучали, не были знакомы со спецификой новостного домена, что еще раз подчеркивает необходимость погружения в область, прежде, чем "палить из всех столов", в смысле обучать самые модные модели на любых доступных данных
@valuableai
я думаю, что люди, которые обучали, не были знакомы со спецификой новостного домена, что еще раз подчеркивает необходимость погружения в область, прежде, чем "палить из всех столов", в смысле обучать самые модные модели на любых доступных данных
@valuableai
👍3🥰1
Forwarded from commit history
This media is not supported in your browser
VIEW IN TELEGRAM
Серега @southfreebird параллельно с работой в Nebius с друзьями сделал крутой open-source проект!
Авторы: @southfreebird, @Olegbalakhnov и @zaringleb.
Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз меньше (0.5B vs 3B в оригинальной работе), которая показывает success rate 94.1% на Libero benchmark (против 94.7% у оригинальной модели).
VLA (Vision-Language-Action) это модель, которая смотрит на картинку, понимает текстовую команду и сразу выдаёт действие для робота, типа «возьми кубик и положи справа».
Вообще порог входа в robotics ML всё ещё достаточно высокий, поэтому у ребят крутая цель: сделать в open-source воспроизводимые рецепты для файнтюна небольших моделей на небольшом количестве демонстраций.
Ссылка на блогпост и модель:
https://robot-learning-collective.github.io/vla-0-smol
Если интересно следить, ребята завели Discord:
https://discord.gg/XcZVY2kxj9
Ну и пишите, если будут вопросы!
Авторы: @southfreebird, @Olegbalakhnov и @zaringleb.
Ребята обучили и выложили в open-source VLA-модель на базе VLA-0 от Nvidia, только с backbone в 6 раз меньше (0.5B vs 3B в оригинальной работе), которая показывает success rate 94.1% на Libero benchmark (против 94.7% у оригинальной модели).
VLA (Vision-Language-Action) это модель, которая смотрит на картинку, понимает текстовую команду и сразу выдаёт действие для робота, типа «возьми кубик и положи справа».
Вообще порог входа в robotics ML всё ещё достаточно высокий, поэтому у ребят крутая цель: сделать в open-source воспроизводимые рецепты для файнтюна небольших моделей на небольшом количестве демонстраций.
Ссылка на блогпост и модель:
https://robot-learning-collective.github.io/vla-0-smol
Если интересно следить, ребята завели Discord:
https://discord.gg/XcZVY2kxj9
Ну и пишите, если будут вопросы!
Forwarded from Анализ данных (Data analysis)
⚡️ Google показала интересный пример того, как мультимодели уже помогают в гуманитарных исследованиях.
Gemini 3.0 Pro смогла расшифровать загадочные пометки в «Нюрнбергской хронике», которым более 500 лет. В модель залили сканы страниц и попросили не просто переписать текст, а объяснить, что означают заметки с учетом контекста.
Оказалось, что круговые таблицы на полях были попыткой примирить две конкурирующие библейские хронологии и вычислить год рождения Авраама.
Сложность состояла в том, что заметки смешивали латинские сокращения, римские цифры и обрывки надписей.
Gemini связала вычисления с системой датировки Anno Mundi (год от сотворения мира), привязала их к традициям Септуагинты и еврейской Библии, а затем перевела в «до н.э.», получив расхождение примерно в 100 лет.
siliconangle.com/2026/01/01/googles-gemini-3-0-pro-helps-solve-long-standing-mystery-nuremberg-chronicle/
@data_analysis_ml
Gemini 3.0 Pro смогла расшифровать загадочные пометки в «Нюрнбергской хронике», которым более 500 лет. В модель залили сканы страниц и попросили не просто переписать текст, а объяснить, что означают заметки с учетом контекста.
Оказалось, что круговые таблицы на полях были попыткой примирить две конкурирующие библейские хронологии и вычислить год рождения Авраама.
Сложность состояла в том, что заметки смешивали латинские сокращения, римские цифры и обрывки надписей.
Gemini связала вычисления с системой датировки Anno Mundi (год от сотворения мира), привязала их к традициям Септуагинты и еврейской Библии, а затем перевела в «до н.э.», получив расхождение примерно в 100 лет.
siliconangle.com/2026/01/01/googles-gemini-3-0-pro-helps-solve-long-standing-mystery-nuremberg-chronicle/
@data_analysis_ml
🔥4👍3❤1
Forwarded from Мой Компьютер
Малайзия, Франция и Индия пошли против ИИ-чат-бота Grok
ИИ разрабатываемый компанией Илона Маска, снова оказался в центре скандала. Grok был создан стартапом xAI и позже интегрирован в социальную сеть X. Пользователи платформы обнаружили, что при загрузке обычной фотографии и указании в запросе «удалить одежду», чат-бот генерировал реалистичное изображение с имитацией обнажённого тела. Такие материалы в ряде случаев даже становились публичными, попадая в ленту X.
Индия направила письмо компании X, предписав провести всестороннюю проверку чат-бота. Власти Малайзии уже расследуют изображения, после жалоб на неправомерное использование ИИ. Франция объявила контент незаконным.
Мой Компьютер
ИИ разрабатываемый компанией Илона Маска, снова оказался в центре скандала. Grok был создан стартапом xAI и позже интегрирован в социальную сеть X. Пользователи платформы обнаружили, что при загрузке обычной фотографии и указании в запросе «удалить одежду», чат-бот генерировал реалистичное изображение с имитацией обнажённого тела. Такие материалы в ряде случаев даже становились публичными, попадая в ленту X.
Индия направила письмо компании X, предписав провести всестороннюю проверку чат-бота. Власти Малайзии уже расследуют изображения, после жалоб на неправомерное использование ИИ. Франция объявила контент незаконным.
Мой Компьютер
Forwarded from Machinelearning
Когда говорят, что одна модель пишет код лучше другой, обычно имеется ввиду бенчмарк SWE-Bench. Модель получает реальный баг из настоящего проекта с Github, который она должна прочитать, найти ошибку и исправить её. Это частично повторяет ежедневную работу программиста.
Но у этого бенча, как и у любого другого, есть свои недостатки.
И вот здесь MiniMax-AI задалась вопросом: как создать по-настоящему универсального ИИ-программиста?
Ответ они нашли и реализовали его в своей свежайшей модели M2.1.
За этим расплывчатым термином кроется огромная система, которая оперирует популярными языками: JS, TS, Python, Java, Go, C++ и Rust.
Для этого с GitHub были собраны более 100 тыс. реальных задач с описанием проблемы, кодом и тестами. Это было непросто, так как сложные языки (Java или C++) требуют настройки и у каждого языка свои фреймворки и системы управления зависимостями.
Чтобы обучить модель на таком массиве данных, MiniMax построил инфраструктуру, способную запускать более 5 тыс. изолированных сред выполнения за максимально короткое время - 10 секунд.
MiniMax-M2.1 обучали и генерации тестов и в результате оказалось, что это критически важный навык.
Предыдущая версия, M1, писала слишком простые тесты и часто выбирала неверные решения. M2.1 в этом преуспела и сравнялась по результатам с мощным конкурентом Claude Sonnet 4.5.
Еще она научилась оптимизировать производительность кода — на SWE-Perf показала средний прирост эффективности в 3.1%.
И наконец, M2.1 научили делать Code Review, для чего создали внутренний бенчмарк SWE-Review.
Модель должна одинаково хорошо следовать длинным инструкциям и адаптироваться к разным способам управления контекстом диалога.
Команда провела тесты в mini-swe-agent, Droid и Claude Code и если посмотреть на цифры из их сравнительной таблицы, то можно увидель, что модель стала гораздо более гибкой и универсальной.
На том же SWE-Bench, при использовании Claude Code, MiniMax-M2.1 выбила 74 балла, что выше, чем у модели M2 с ее 69.2 баллами, и практически наравне с Claude Sonnet 4.5 и DeepSeek V3.2.
На другом тесте, OctoCodingBench, разрыв еще больше: 26.1 у новой модели против 13.3 у старой.
Во-первых, MiniMax планирует научить модель оценивать не только правильность кода, но и читаемость кода, качество комментариев, прозрачность процесса работы.
Во-вторых - повысить эффективность решения задач, чтобы модель не делала лишних шагов, например, не перечитывала один и тот же файл по несколько раз.
Но самое интересное — это их планы по RL Scaling, и создание так называемой Coding World Model.
Идея в том, чтобы построить модель-симулятор, которая сможет предсказывать результат выполнения кода, не запуская его в реальности.
Наконец, они планируют расширяться в узкоспециализированные области: разработка GPU Kernel, компиляторов и смарт-контрактов.
Похоже, концепция "ИИ-кодера" становится все более реальной. Успех MiniMax-M2.1 показал, что дело уже не в написании отдельных строк кода, а в комплексном понимании всего процесса разработки.
@ai_machinelearning_big_data
#AI #ML #LLM #MiniMaх
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥1🤯1
Forwarded from Анализ данных (Data analysis)
🔥 Год ChatGPT Plus бесплатно: экономим 20 000 рублей
Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):
1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!
⚡️ Проверили, пока еще работает
@data_analysis_ml
Нашли рабочую лазейку в правилах OpenAI.
Вы получаете полноценный аккаунт без лимитов и с доступом ко всем топовым моделям.
Инструкция (займет 2 минуты):
1️⃣ Переходим на сервис временной почты: https://em.bjedu.tech/en/
2️⃣ Важно: в списке доменов выбираем erzi me.
3️⃣ Регистрируем новый аккаунт ChatGPT на этот адрес.
4️⃣ Получаем код подтверждения в почту - готово!
⚡️ Проверили, пока еще работает
@data_analysis_ml
🔥14🥰4👍3🤬2🤔1😢1
Forwarded from Бэклогово
Искусственный интеллект в проектах — помощник, а не начальник🤖
ИИ всё чаще появляется в рабочих процессах — но польза начинается не там, где он «думает за людей», а там, где снимает рутину.
Что уже можно автоматизировать без боли:
🟣 создавать задачи из писем и встреч;
🟣 следить за статусами и дедлайнами;
🟣 собирать отчёты и сводки;
🟣 подсвечивать перегруз и зависшие задачи.
Что ИИ делать не должен — принимать решения и брать ответственность. И именно с таким подходом он работает: человек решает, ИИ экономит время.
Почему управление проектами — идеальная среда для ИИ и как это уже реализовано внутри Kaiten — рассказываем в статье на Хабре: https://habr.com/ru/companies/kaiten/articles/974472/
ИИ всё чаще появляется в рабочих процессах — но польза начинается не там, где он «думает за людей», а там, где снимает рутину.
Что уже можно автоматизировать без боли:
Что ИИ делать не должен — принимать решения и брать ответственность. И именно с таким подходом он работает: человек решает, ИИ экономит время.
Почему управление проектами — идеальная среда для ИИ и как это уже реализовано внутри Kaiten — рассказываем в статье на Хабре: https://habr.com/ru/companies/kaiten/articles/974472/
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Делегировать рутину, а не ответственность: как ИИ-автоматизация проникает в управление проектами
Разберем, как ИИ работает в контексте управления процессами: от возможностей моделей до того, какие задачи реально автоматизировать и где ИИ может дать ощутимый эффект эффект. А на примере управления...
👍4❤1😢1
Forwarded from Код Дурова
Dell открыто признала, что потребители не заинтересованы в покупке ПК с искусственным интеллектом.
В рекламе новой линейки устройств от Dell упоминания ИИ сведены к нулю, хотя устройства способны работать с нейросетями.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👍4🤔2
Тацитное знание — это практическое личное знание, которое мы используем чтобы делать что-то в мире. Это именно то, что характеризует отличие теории от практики.
Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.
Ребята в AI Talent Hub и GIGASCHOOL сделали курс с фокусом на выводе проектов в прод под нагрузку, не забыв и про традиционные ipynb-тетрадки.
Вот это всё про дообучение, fine-tuning, PEFT, LoRA / QLoRA, RLHF. С актуальными LangChain, LangGraph, векторными базами чтобы можно было пройти фильтр HR-ов.
Про книгу Валеры и Арсения я не спрашивал, но уверен, что её затронут тоже.
Курс запускается уже третьим потоком (пофиксили баги иможет сделали новых 🤷♀️ )а преподают практики из крупных AI-команд, включая директора по разработке моделей в Газпромбанке Кристину Желтову, NLP Lead'а из X5 Tech Александра Потехина и CEO HiveTrace Евгения Кокуйкина.
Старт: 26 января на 25 недель. Дают диплом, есть рассрочка.
Ссылка: https://clck.ru/3R4Cen
Когда теория есть в каждой LLM-ке или Ютуб ролике именно наличие практического опыта позволяет сэкономить время и силы для решения задач.
Ребята в AI Talent Hub и GIGASCHOOL сделали курс с фокусом на выводе проектов в прод под нагрузку, не забыв и про традиционные ipynb-тетрадки.
Вот это всё про дообучение, fine-tuning, PEFT, LoRA / QLoRA, RLHF. С актуальными LangChain, LangGraph, векторными базами чтобы можно было пройти фильтр HR-ов.
Про книгу Валеры и Арсения я не спрашивал, но уверен, что её затронут тоже.
Курс запускается уже третьим потоком (пофиксили баги и
Старт: 26 января на 25 недель. Дают диплом, есть рассрочка.
Ссылка: https://clck.ru/3R4Cen
Please open Telegram to view this post
VIEW IN TELEGRAM
llmcourse.tech
Онлайн‑курс «LLM-инженер» | AI Talent Hub | GIGASCHOOL
Создавай, обучай и внедряй LLM‑проекты под руководством экспертов и практиков
👍3🤡1
Forwarded from Максим Горшенин | imaxai
Сервис доставки «изнутри»: увольняющийся программист, работавший в западном сервисе доставки, поделился подробностями алгоритмов и внутренней кухни
Я бэкенд-инженер. Я сижу на еженедельных встречах по планированию спринтов, где продакт-менеджеры обсуждают, как выжать ещё 0,4% маржи из «человеческих активов» (именно так они называют курьеров в схемах баз данных)
Во-первых, «Приоритетная доставка» — это полный обман. Нам её продавали как «психологическое добавление ценности». Как я и писал в заголовке: когда вы платите лишние $2,99, в JSON-объекте заказа просто меняется булев флаг, но логика диспетчеризации его буквально игнорирует. Это никак не ускоряет доставку
В прошлом году мы даже проводили A/B-тест: мы не ускоряли приоритетные заказы, мы намеренно задерживали обычные на 5–10 минут, чтобы приоритетные ощущались быстрее на их фоне
Руководству это понравилось. Мы заработали миллионы чистой прибыли, просто ухудшив стандартный сервис, а не улучшив премиальный
Но то, от чего мне реально становится плохо — и главная причина, по которой я ухожу, — это «Индекс отчаяния». У нас есть скрытая метрика для курьеров, которая отслеживает, насколько они отчаянно нуждаются в деньгах, исходя из их поведения при принятии заказов
Если курьер обычно выходит в онлайн в 22:00 и мгновенно принимает любой мусорный заказ за $3 без колебаний, алгоритм помечает его как «Высокое отчаяние»
После этого система намеренно перестаёт показывать ему высокооплачиваемые заказы. Логика простая: «Зачем платить этому парню $15 за поездку, если мы знаем, что он в таком отчаянии, что сделает её за $6?»
Хорошие заказы с чаевыми мы оставляем «случайным» курьерам, чтобы заманить их и превратить процесс в игру, а тех, кто работает полный день, просто перемалывают в пыль
Затем идёт «Сбор за льготы». Вы, вероятно, видели этот $1,50 — «Сбор в ответ на регулирование» или «Сбор на льготы для водителей», который появился в чеке после принятия новых трудовых законов
Формулировка специально сделана так, чтобы у вас было ощущение, что вы помогаете работнику
На самом деле эти деньги напрямую идут в корпоративный «чёрный фонд», который используется для лоббирования против профсоюзов курьеров
У нас есть отдельный внутренний центр затрат под названием «Защита политики», и этот сбор напрямую его финансирует. Вы буквально платите за дорогих юристов, которые борются за то, чтобы курьер, доставивший вам еду, оставался бездомным
Что касается чаевых, мы, по сути, занимаемся «Кражей чаевых 2.0». Мы больше не «воруем» их напрямую в юридическом смысле, потому что нас за это засудили. Вместо этого мы используем предиктивное моделирование, чтобы динамически снижать базовую оплату
Если алгоритм прогнозирует, что вы — «щедрый на чаевые» клиент и, скорее всего, оставите $10, курьеру предлагают жалкие $2 базовой оплаты. Если вы не оставляете чаевых, ему предлагают $8 базовой оплаты, просто чтобы заказ вообще был выполнен. В итоге ваша щедрость не вознаграждает курьера — она субсидирует нас. Вы платите его зарплату вместо компании.
===
Ваши ставки, господа, как там дела в доставке у российских компаний?
И зачем создавать из WB конкурента Яндекса в том же такси, например... Загадка!
Telegram | Дзен | MAX
Я бэкенд-инженер. Я сижу на еженедельных встречах по планированию спринтов, где продакт-менеджеры обсуждают, как выжать ещё 0,4% маржи из «человеческих активов» (именно так они называют курьеров в схемах баз данных)
Во-первых, «Приоритетная доставка» — это полный обман. Нам её продавали как «психологическое добавление ценности». Как я и писал в заголовке: когда вы платите лишние $2,99, в JSON-объекте заказа просто меняется булев флаг, но логика диспетчеризации его буквально игнорирует. Это никак не ускоряет доставку
В прошлом году мы даже проводили A/B-тест: мы не ускоряли приоритетные заказы, мы намеренно задерживали обычные на 5–10 минут, чтобы приоритетные ощущались быстрее на их фоне
Руководству это понравилось. Мы заработали миллионы чистой прибыли, просто ухудшив стандартный сервис, а не улучшив премиальный
Но то, от чего мне реально становится плохо — и главная причина, по которой я ухожу, — это «Индекс отчаяния». У нас есть скрытая метрика для курьеров, которая отслеживает, насколько они отчаянно нуждаются в деньгах, исходя из их поведения при принятии заказов
Если курьер обычно выходит в онлайн в 22:00 и мгновенно принимает любой мусорный заказ за $3 без колебаний, алгоритм помечает его как «Высокое отчаяние»
После этого система намеренно перестаёт показывать ему высокооплачиваемые заказы. Логика простая: «Зачем платить этому парню $15 за поездку, если мы знаем, что он в таком отчаянии, что сделает её за $6?»
Хорошие заказы с чаевыми мы оставляем «случайным» курьерам, чтобы заманить их и превратить процесс в игру, а тех, кто работает полный день, просто перемалывают в пыль
Затем идёт «Сбор за льготы». Вы, вероятно, видели этот $1,50 — «Сбор в ответ на регулирование» или «Сбор на льготы для водителей», который появился в чеке после принятия новых трудовых законов
Формулировка специально сделана так, чтобы у вас было ощущение, что вы помогаете работнику
На самом деле эти деньги напрямую идут в корпоративный «чёрный фонд», который используется для лоббирования против профсоюзов курьеров
У нас есть отдельный внутренний центр затрат под названием «Защита политики», и этот сбор напрямую его финансирует. Вы буквально платите за дорогих юристов, которые борются за то, чтобы курьер, доставивший вам еду, оставался бездомным
Что касается чаевых, мы, по сути, занимаемся «Кражей чаевых 2.0». Мы больше не «воруем» их напрямую в юридическом смысле, потому что нас за это засудили. Вместо этого мы используем предиктивное моделирование, чтобы динамически снижать базовую оплату
Если алгоритм прогнозирует, что вы — «щедрый на чаевые» клиент и, скорее всего, оставите $10, курьеру предлагают жалкие $2 базовой оплаты. Если вы не оставляете чаевых, ему предлагают $8 базовой оплаты, просто чтобы заказ вообще был выполнен. В итоге ваша щедрость не вознаграждает курьера — она субсидирует нас. Вы платите его зарплату вместо компании.
===
Ваши ставки, господа, как там дела в доставке у российских компаний?
И зачем создавать из WB конкурента Яндекса в том же такси, например... Загадка!
Telegram | Дзен | MAX
🤯6❤3🔥1👏1
Forwarded from Data Science. SQL hub
🔥 Хочешь прокачаться в аналитике, но не просто читать теорию, а решать реальные задачи?
Мы запустили полностью бесплатный телеграм-тренажёр 👇
Тебя ждут сценарии, с которыми сталкиваются аналитики каждый день: от простых запросов до задач уровня собеседований.
Что внутри:
✔ живые кейсы из реальной практики
✔ удобный симулятор - как работа в компании, только бесплатно
✔ разбор ошибок — понимаешь не только «как», но и «почему»
✔ добавляем задачи с интервью и улучшаем бот вместе с сообществом
Начни тренироваться сегодня — и почувствуй уверенность в работе с данными.
t.me/Analitics_databot
Мы запустили полностью бесплатный телеграм-тренажёр 👇
Тебя ждут сценарии, с которыми сталкиваются аналитики каждый день: от простых запросов до задач уровня собеседований.
Что внутри:
✔ живые кейсы из реальной практики
✔ удобный симулятор - как работа в компании, только бесплатно
✔ разбор ошибок — понимаешь не только «как», но и «почему»
✔ добавляем задачи с интервью и улучшаем бот вместе с сообществом
Начни тренироваться сегодня — и почувствуй уверенность в работе с данными.
t.me/Analitics_databot
❤4👍3🔥2😢1🎉1
Forwarded from ODS Events
Привет!
Встречайте первый в новом году и в новом сезоне выпуск подкаста "Капитанский мостик". Ведущие подкаста - Валентин Малых и Дмитрий Колодезев обсуждают прогнозы на новый год, рассматривают ключевые аспекты рынка чипов, аспекты регулирования чатботов в здравоохранении, восприятие искусственного интеллекта, его влияние на экономику и коммодитизацию, а также прогнозы по автоматизации программирования.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Встречайте первый в новом году и в новом сезоне выпуск подкаста "Капитанский мостик". Ведущие подкаста - Валентин Малых и Дмитрий Колодезев обсуждают прогнозы на новый год, рассматривают ключевые аспекты рынка чипов, аспекты регулирования чатботов в здравоохранении, восприятие искусственного интеллекта, его влияние на экономику и коммодитизацию, а также прогнозы по автоматизации программирования.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).