Аналитика! Продукт! Мотор!
22 августа на больших экранах премьера аналитического митапа от команды Купер.тех (ex СберМаркет Tech).
Объединим четыре сюжетные линии и завершим кульминационной afterparty:
🎬 Предсказание оптимального ПВЗ покупателя на Авито. Directed by Ксения Кригер, аналитик в команде логистики, Авито.
🎬 Факторный анализ Retention пользователей самовывоза и B2B. Directed by Никита Истомин и Евгений Кадыгров, продуктовые аналитики самовывоза и B2B, Купер.
🎬 Не CSAT’ом едины: как анализировать клиентский опыт с помощью ML-алгоритмов? Directed by Владислав Петраков, руководитель продуктовой аналитики Платформы Origination, и Анна Муратова, продуктовый аналитик, Т-Банк.
🎬 Как ошибиться в АВ-тестах, даже если хорошо знаешь математику. Directed by Никита Мананников, руководитель направления аналитики BX, Ozon.
🗓 22 августа в 19:00 по Москве, КАРО 11 Октябрь.
Регистрируйся по ссылке и приятного просмотра!
Реклама. ООО «ИНСТАМАРТ СЕРВИС», ИНН: 9705118142. Ерид: LjN8KE4Et
22 августа на больших экранах премьера аналитического митапа от команды Купер.тех (ex СберМаркет Tech).
Объединим четыре сюжетные линии и завершим кульминационной afterparty:
🎬 Предсказание оптимального ПВЗ покупателя на Авито. Directed by Ксения Кригер, аналитик в команде логистики, Авито.
🎬 Факторный анализ Retention пользователей самовывоза и B2B. Directed by Никита Истомин и Евгений Кадыгров, продуктовые аналитики самовывоза и B2B, Купер.
🎬 Не CSAT’ом едины: как анализировать клиентский опыт с помощью ML-алгоритмов? Directed by Владислав Петраков, руководитель продуктовой аналитики Платформы Origination, и Анна Муратова, продуктовый аналитик, Т-Банк.
🎬 Как ошибиться в АВ-тестах, даже если хорошо знаешь математику. Directed by Никита Мананников, руководитель направления аналитики BX, Ozon.
🗓 22 августа в 19:00 по Москве, КАРО 11 Октябрь.
Регистрируйся по ссылке и приятного просмотра!
Реклама. ООО «ИНСТАМАРТ СЕРВИС», ИНН: 9705118142. Ерид: LjN8KE4Et
🤯7❤3👍1
Напоминаем, что режим JSON работает уже примерно год, однако заявленному формату выходы моделек соответствовали менее, чем в половине случаев. В обновленной версии gpt-4o-2024-08-06 такой проблемы больше нет: в 100% тестов ошибки в формате отсутствуют. Код и туториал по использованию фичи лежит тут.
Просто отличная новость для разработчиков и тех, кому нужна хорошая разметка данных
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42👏10❤7
Теперь можно реализовать, например, causal mask, AliBi или sliding window, просто изменяя параметр score_mod, который меняет скор перед софтмаксом.
Со стороны юзера – это несколько строк кода, но скомпилированы они так бодро, что по производительности сравнимы с кастомным ядром Triton.
Примеры кода и больше подробностей в блогпосте
Please open Telegram to view this post
VIEW IN TELEGRAM
Альтман подтвердил, что GPT-5 выйдет через месяц
Он запостил в твиттер фото ровно 5 клубник. А ведь Strawberry – это название того самого проекта OpenAI. Земляника созревает примерно 4 недели, значит все сходится. GPT-5 выйдет через месяц😉
Инфа 100%
Он запостил в твиттер фото ровно 5 клубник. А ведь Strawberry – это название того самого проекта OpenAI. Земляника созревает примерно 4 недели, значит все сходится. GPT-5 выйдет через месяц
Инфа 100%
Please open Telegram to view this post
VIEW IN TELEGRAM
😁245 83❤9👀3🦄2👍1
В сети нашли подход, который, возможно, лежит в основе новой OpenAI модели, генерирующей идеальные json
О самой свежей модели мы рассказывали тут. Кратко: она выбивает правильный формат json в 100% cлучаев, хотя раньше не дотягивала и до 50%. Вопрос: как?..
Вот это – опенсорс библиотека Jsonformer, которая представляет из себя надстройку над HF моделями, позволяющую генерировать json'ы. Подход прост. В структурированных данных (к коим относится json) многие токены фиксированы и предсказуемы. Например, "{", "}" или ":".
И в Jsonformer, вместо того, чтобы доверять генерацию целиком модели, либа заполняет фиксированные токены самостоятельно, а LLM делегирует только "внутренности" словаря.
Механика звучит изящно, и при этом работает, как швейцарские часы. Легко верится, что OpenAI крутит под капотом что-то подобное.
О самой свежей модели мы рассказывали тут. Кратко: она выбивает правильный формат json в 100% cлучаев, хотя раньше не дотягивала и до 50%. Вопрос: как?..
Вот это – опенсорс библиотека Jsonformer, которая представляет из себя надстройку над HF моделями, позволяющую генерировать json'ы. Подход прост. В структурированных данных (к коим относится json) многие токены фиксированы и предсказуемы. Например, "{", "}" или ":".
И в Jsonformer, вместо того, чтобы доверять генерацию целиком модели, либа заполняет фиксированные токены самостоятельно, а LLM делегирует только "внутренности" словаря.
Механика звучит изящно, и при этом работает, как швейцарские часы. Легко верится, что OpenAI крутит под капотом что-то подобное.
👍58🤔13❤11
А вот это интересно: GPT-4 может предсказывать результаты социальных экспериментов с большой точностью
Исследователи заставили модель просимулировать около 70 социальных исследований, а затем сравнили ее прогнозы с реальными результатами. Результат, как говорится, убил: коэффициент корреляции оказался равен 0.91. Это больше, чем у людей экспертов!
Вы скажете: но ведь эти исследования архивные, а GPT-4 видела так много данных. Откуда нам знать, что модель просто напросто не запомнила эти кейсы? Об этом ресерчеры тоже подумали и специально прогнали GPT отдельно по неизданным экспериментам. Итог: корреляция не только не понизилась, но еще и взлетела до 0.94.
При этом оказалось, что модель с высокой точностью моделирует не только результаты целиком, но и мнения людей относительно пола, расы и возраста.
Означает ли это, что теперь мы можем использовать LLM для симуляций социальных экспериментов? Или это капкан, который заманит нас в пузырь неверной статистики?
Исследователи заставили модель просимулировать около 70 социальных исследований, а затем сравнили ее прогнозы с реальными результатами. Результат, как говорится, убил: коэффициент корреляции оказался равен 0.91. Это больше, чем у людей экспертов!
Вы скажете: но ведь эти исследования архивные, а GPT-4 видела так много данных. Откуда нам знать, что модель просто напросто не запомнила эти кейсы? Об этом ресерчеры тоже подумали и специально прогнали GPT отдельно по неизданным экспериментам. Итог: корреляция не только не понизилась, но еще и взлетела до 0.94.
При этом оказалось, что модель с высокой точностью моделирует не только результаты целиком, но и мнения людей относительно пола, расы и возраста.
Означает ли это, что теперь мы можем использовать LLM для симуляций социальных экспериментов? Или это капкан, который заманит нас в пузырь неверной статистики?
🤔106👍27❤10🍾2
В Калифорнии сделали CV-систему, которая в режиме онлайн определяет акул вблизи береговой линии и посылает сигналы службам безопасности
Для обучения SharkEye понадобилось всего 1500 фотографий акул, NVIDIA T4 и 20 часов обучения. Precision получился около 92%.
Стартап, который мы заслужили этим летом
Для обучения SharkEye понадобилось всего 1500 фотографий акул, NVIDIA T4 и 20 часов обучения. Precision получился около 92%.
Стартап, который мы заслужили этим летом
👍165😁13⚡12❤8🐳3🎉2🕊1
Mistral тем временем запускает аналог GPTs
Теперь прямо на La Plateforme можно создавать своих агентов, и, что самое интересное, деплоить их бесплатно. Есть некоторые тестовые фичи, которые недоступны без подписки, но в целом базового пакета вполне достаточно.
Кроме того, теперь на том же La Plateforme можно файнтюнить Mistral Large 2 и Codestral.
Теперь прямо на La Plateforme можно создавать своих агентов, и, что самое интересное, деплоить их бесплатно. Есть некоторые тестовые фичи, которые недоступны без подписки, но в целом базового пакета вполне достаточно.
Кроме того, теперь на том же La Plateforme можно файнтюнить Mistral Large 2 и Codestral.
👍45❤12😁4
Data Secrets
Альтман подтвердил, что GPT-5 выйдет через месяц Он запостил в твиттер фото ровно 5 клубник. А ведь Strawberry – это название того самого проекта OpenAI. Земляника созревает примерно 4 недели, значит все сходится. GPT-5 выйдет через месяц 😉 Инфа 100%
Миниатюра: Сэм Альтман и его Твиттер
😁79❤12👍7😎4🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Любимое: исследователи из университета Джорджии и IBM подарили миру новый интерактивный Transformer Explainer
Это наглядная визуализация того, как работает трансформер под капотом, причем прямо в браузере. Можно менять входы и параметры и наблюдать поэтапно, как все это проходит через сеть. Короче, если до сих пор вы не понимали, как на самом деле предсказывается следующий токен, но с этой тулзой точно преисполнитесь. А заодно и позалипаете😉
Поиграться с самим инструментом можно вот здесь. Кстати, ко всему прочему ресерчеры еще и статью про него выкатили.
Ну как же это красиво
Это наглядная визуализация того, как работает трансформер под капотом, причем прямо в браузере. Можно менять входы и параметры и наблюдать поэтапно, как все это проходит через сеть. Короче, если до сих пор вы не понимали, как на самом деле предсказывается следующий токен, но с этой тулзой точно преисполнитесь. А заодно и позалипаете
Поиграться с самим инструментом можно вот здесь. Кстати, ко всему прочему ресерчеры еще и статью про него выкатили.
Ну как же это красиво
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56❤21😍9
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем инженеры Google DeepMind в пятницу вечером играют в настольный теннис с роботом. А вы что делаете? 👀
А вот, кстати, только что вышедшая статья про то, как они этого робота в теннис играть учили. Спойлер:у людей он выигрывает уже больше половины матчей.
А вот, кстати, только что вышедшая статья про то, как они этого робота в теннис играть учили. Спойлер:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍37👏9❤5😁3🌭1
2023_bookWTD_Dyakonov_27.pdf
6.3 MB
А вот вам еще одно развлечение на выходные: игра «Что изображено на графике» от Александра Дьяконова
Суть проста: на слайдах изображены графики, но без названий и подписей к осям. Нужно включить свое аналитическое мышление и угадать, что изображает диаграмма. Ответы и подсказки включены.
Всего таких головоломок 60 штук. Можно использовать с друзьями вместо настолок🫠
Суть проста: на слайдах изображены графики, но без названий и подписей к осям. Нужно включить свое аналитическое мышление и угадать, что изображает диаграмма. Ответы и подсказки включены.
Всего таких головоломок 60 штук. Можно использовать с друзьями вместо настолок
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🔥15❤7
OpenAI, возможно, запустила в Твиттер свою модель под видом живого человека, чтобы разжигать хайп вокруг своих новостей
Аккаунт называется @iruletheworldmo и пользователи уже давно подозревают, что с ним что-то неладное. Смотрите:
⚪️ Аккаунт всегда почти моментально реагирует на все новости от OpenAI, твиты об OpenAI, твиты Альтмана и тд,
⚪️ Даже оформление аккаунта меняется под новости. Например, сейчас в шапке стоит фото земляники, которое недавно твитнул Альтман, на аватарке кадр из фильма Она, а вместо имени – 🍓🍓🍓
⚪️ При этом на другие громкие новости аккаунт не реагирует, но зато часто отвечает на непопулярные твиты об OpenAI.
⚪️ Твиты у него без цензуры, но про политику он все равно не говорит, отшучивается. Кроме того, аккаунт всегда бездействует, если есть какие-то громкие новости, на которые все отвлечены.
⚪️ Иногда вбрасывает пасхалки прямо перед анонсами от OpenAI
⚪️ Самостоятельно, а не в ответ, твитит очень мало и невпопад.
⚪️ И что вообще обозначает это загадочное «mo» в конце ника? Не похоже ли это на то, как OpenAI шифрует свои свежие модели на LMSYS арене?
Если предположения верны, это действительно очень сильная по-человечески умная модель, а значит OpenAI опять обогнали время. Ну…. только если за аккаунтом не стоит какой-нибудь профессиональный троль😁
Аккаунт называется @iruletheworldmo и пользователи уже давно подозревают, что с ним что-то неладное. Смотрите:
Если предположения верны, это действительно очень сильная по-человечески умная модель, а значит OpenAI опять обогнали время. Ну…. только если за аккаунтом не стоит какой-нибудь профессиональный троль
Please open Telegram to view this post
VIEW IN TELEGRAM
Data Secrets
Любимое: исследователи из университета Джорджии и IBM подарили миру новый интерактивный Transformer Explainer Это наглядная визуализация того, как работает трансформер под капотом, причем прямо в браузере. Можно менять входы и параметры и наблюдать поэтапно…
Кстати про свежий интерактивный Transformer Explainer: мы нашли целый кладезь подобных ему игрушек
Вот репозиторий, в котором хранится список инструментов для понимания парадигм ML, DL и математики.
Там содержатся ссылки на огромные и супер-подробные системы интерактивной визуализации принципов действия сверточных нейросетей, внимания, GAN’ов, перцептрона с обратным распространением ошибки, эмбеддингов, дистилляции и мнооого чего другого.
Как говорится, лучше один раз увидеть, чем 100 раз услышать. Так что для обучения или просто повторения базы эти материалы ну просто незаменимы. Сохраняйте.
Вот репозиторий, в котором хранится список инструментов для понимания парадигм ML, DL и математики.
Там содержатся ссылки на огромные и супер-подробные системы интерактивной визуализации принципов действия сверточных нейросетей, внимания, GAN’ов, перцептрона с обратным распространением ошибки, эмбеддингов, дистилляции и мнооого чего другого.
Как говорится, лучше один раз увидеть, чем 100 раз услышать. Так что для обучения или просто повторения базы эти материалы ну просто незаменимы. Сохраняйте.
👍53🔥16❤7
Внезапно: Spotify оказался завален сгенерированными треками
Некоторые исполнители отличились больше других и нагенерировали AI-контента с разных аккаунтов на $3млн. И кстати, далеко не факт, что слушателей это не устраивает: треки других сгенерированных исполнителей набирают рекордные количества прослушиваний.
Но живых музыкантов такой расклад, конечно, не устраивает. Интересно, как там в Spotify поживает система модерации
Некоторые исполнители отличились больше других и нагенерировали AI-контента с разных аккаунтов на $3млн. И кстати, далеко не факт, что слушателей это не устраивает: треки других сгенерированных исполнителей набирают рекордные количества прослушиваний.
Но живых музыкантов такой расклад, конечно, не устраивает. Интересно, как там в Spotify поживает система модерации
😁79👍13❤7🤔1
Если вы когда-нибудь занимались обучением с подкреплением или изучали его, имя Эндрю Барто вам точно известно
Он – отец Reinforcement Learning, автор кучи широко цитируемых статей и нескольких основополагающих учебников.
Так вот, вчера Барто выступал на самой крупной конференции по RL с докладом под названием «В начале весь ML был RL», в котором утверждал, что весь Machine Learning – лишь частный случай обучения с подкреплением. Think about it🤔
Залу, кстати, доклад настолько понравился, что в конце все аплодировали стоя. Запись обещают скоро.
Он – отец Reinforcement Learning, автор кучи широко цитируемых статей и нескольких основополагающих учебников.
Так вот, вчера Барто выступал на самой крупной конференции по RL с докладом под названием «В начале весь ML был RL», в котором утверждал, что весь Machine Learning – лишь частный случай обучения с подкреплением. Think about it
Залу, кстати, доклад настолько понравился, что в конце все аплодировали стоя. Запись обещают скоро.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍102❤17🔥7😁7