This media is not supported in your browser
VIEW IN TELEGRAM
Знаю, что баян... Но...
Literally моя команда.
Literally моя команда.
😁52🔥3💯1
Forwarded from Пресидский залив (Nadia ズエバ)
Я подумывала написать в канал, когда соберу первый раунд или хотя бы пройду в аксель со своим стартапом и буду тут флексить. Но потом решила, что по мере своих сил буду держать вас в курсе. Так ведь интереснее 👀
💃 Итак, с чем же я планирую покорять fashion e-commerce? 💃
🪩 Какую проблему решаем?
"Перед выходом из дома я сомневаюсь, что оделся/оделась достаточно хорошо. Я чувствую неуверенность и дискомфорт."
🪩 Как сейчас решаем проблему?
mvp: Определяем какие цвета идут человеку, какому стилю он хочет следовать, что хочет подчеркнуть/скрыть при помощи одежды, одет ли он по погоде и даем алгоритм, как быстро улучшить свой сегодняшний образ по фотке в полный рост (например: заправь рубашку, подверни штаны, накинь куртку и так далее).
Есть мысли по развитию, но будем отталкиваться от фидбека пользователей 😏
🪩 Что уже успели сделать?
Сделали лендос, залетели в тестфлайт с mvp, а также подались в YC, techstars. Скоро узнаем, зовут ли нас на собесы. Планируем выйти в стор в Q1 2024
P.S. если хотите потестить прилу - напишите "+" в комменты или мне в личку, первым 20ти пошарю ссылку на тестфлайт
💃 Итак, с чем же я планирую покорять fashion e-commerce? 💃
🪩 Какую проблему решаем?
"Перед выходом из дома я сомневаюсь, что оделся/оделась достаточно хорошо. Я чувствую неуверенность и дискомфорт."
🪩 Как сейчас решаем проблему?
mvp: Определяем какие цвета идут человеку, какому стилю он хочет следовать, что хочет подчеркнуть/скрыть при помощи одежды, одет ли он по погоде и даем алгоритм, как быстро улучшить свой сегодняшний образ по фотке в полный рост (например: заправь рубашку, подверни штаны, накинь куртку и так далее).
Есть мысли по развитию, но будем отталкиваться от фидбека пользователей 😏
🪩 Что уже успели сделать?
Сделали лендос, залетели в тестфлайт с mvp, а также подались в YC, techstars. Скоро узнаем, зовут ли нас на собесы. Планируем выйти в стор в Q1 2024
www.aesty.ai
Aesty — Your Outfit Cookbook & Virtual Try-On
Turn outfits from Instagram, TikTok, and Pinterest into wearable looks. Try on styles from any photo, explore trending outfits, and see how they fit your body before buying
👍10👎3❤1🔥1
Ниче, шкет. Пока, они (альфовцы) ходят по чужим хакам и зарабатывают видимо вам и др. на призовые со своего хака. А вообще этот весь флекс от них задолбал, но когда видишь такое - вопросики возникают еще, какое отношение к комьюнити и какое отношение к собственному пиару. Одно дело показать , что они выйграли и за это ещё допом платят своим ребятам, другое, когда сами организовали конкурс и выплатить не могут до сих пор.
https://xn--r1a.website/kaggle_fucker/111
https://xn--r1a.website/kaggle_fucker/111
Telegram
MarksRemarks
Помните я участвовал в соревновании от Альфа Банка 💳? Так вот тру стори про наше с ними общение 😃.
🔵После того как объявили победителей, наступает бюрократический момент в оформлении документов на передачу интеллектуальной собственности и выплате вознаграждения…
🔵После того как объявили победителей, наступает бюрократический момент в оформлении документов на передачу интеллектуальной собственности и выплате вознаграждения…
👍10😁4🔥1🤔1
К посту выше, какой флекс. Пиар. Забрали! Не выйграли, забрали:)
Ну ваще, красавцы.
Но чушпан,не поймёт, а пацан воспримет: давать лучше, чем забирать. Сильные дают, слабые морозятся кварталами.
Немного шутеек напоследок:
Получается забрали у Сбера 1.5мульта + призовые Марк и Ко.. :) if you understand what I mean...😏
https://xn--r1a.website/AlfaBank/1915
Ну ваще, красавцы.
Но чушпан,не поймёт, а пацан воспримет: давать лучше, чем забирать. Сильные дают, слабые морозятся кварталами.
Немного шутеек напоследок:
Получается забрали у Сбера 1.5мульта + призовые Марк и Ко.. :) if you understand what I mean...
https://xn--r1a.website/AlfaBank/1915
Please open Telegram to view this post
VIEW IN TELEGRAM
😁12
Forwarded from что-то на DL-ском
Apple выложили код к обучению их трансформера с измененной параметризацией весов для достижения стабильной энтропии на каждом слое внимания.
Я уж очень люблю внутренние способы стабилизации показателей во время обучения или инференса. Примечательно для меня и то, что затрагивается несколько модальностей в их работе (не одновременно). Минус для меня, что нет весов (по крайней мере я не нашла), да и то, что написано на jax, но для кого-то это может оказаться плюсом))
🤓 Статья (аларм, много формул)
😆 Дискорд, через который генерала картинку
Я уж очень люблю внутренние способы стабилизации показателей во время обучения или инференса. Примечательно для меня и то, что затрагивается несколько модальностей в их работе (не одновременно). Минус для меня, что нет весов (по крайней мере я не нашла), да и то, что написано на jax, но для кого-то это может оказаться плюсом))
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤🔥2❤1
Forwarded from Kantor.AI (Victor Kantor)
ML-тренировки МТС х ВШЭ
Вчера вместе с Никитой Зелинским и великолепным Сашей Абрамовым @dealerAI открыли тренировки по ML от МТС и ВШЭ. Первое соревнование, которое будем решать с ребятами, посвящено распознаванию сгенерированных LLM текстов (будем отличать их от человеческих).
Я даже наивно надеюсь успеть и сам поучаствовать - всегда хотел поучиться решать каггл. Особенно приятно, что когда-то Саша учился у нас на Data Mining in Action, а теперь и у меня есть возможность поучиться у него :)
Btw, многие, наверно, подумали: "А как же private sharing?". Для тех, кто не знает, на kaggle можно делиться своими наработками по соревнованию: внутри своей команды или на всех участников соревнования. Третьего не дано, за передачу и использование "втихую" могут быть проблемы. Из фото вы видите, что для одной команды у нас многовато людей, поэтому все наработки и идеи, которые мы будем обсуждать в классе, будут собираться вместе, а затем публиковаться в открытом доступе на форуме соревнования. Так что если кто-то хочет к нам присоединиться в удаленном и асинхронном режиме - милости просим, материалы будут.
Спасибо коллегам из ВШЭ, с которыми у нас уже много совместных активностей, а в следующем году будет еще больше. И, конечно, спасибо Саше, что согласился поучаствовать в роли тренера.
P.S.: На фото есть пасхалка: подсказка, с кем еще мы сейчас обсуждаем грядущие образовательные активности (и может быть, до чего-то договоримся). Кто первый догадается? :)
Вчера вместе с Никитой Зелинским и великолепным Сашей Абрамовым @dealerAI открыли тренировки по ML от МТС и ВШЭ. Первое соревнование, которое будем решать с ребятами, посвящено распознаванию сгенерированных LLM текстов (будем отличать их от человеческих).
Я даже наивно надеюсь успеть и сам поучаствовать - всегда хотел поучиться решать каггл. Особенно приятно, что когда-то Саша учился у нас на Data Mining in Action, а теперь и у меня есть возможность поучиться у него :)
Btw, многие, наверно, подумали: "А как же private sharing?". Для тех, кто не знает, на kaggle можно делиться своими наработками по соревнованию: внутри своей команды или на всех участников соревнования. Третьего не дано, за передачу и использование "втихую" могут быть проблемы. Из фото вы видите, что для одной команды у нас многовато людей, поэтому все наработки и идеи, которые мы будем обсуждать в классе, будут собираться вместе, а затем публиковаться в открытом доступе на форуме соревнования. Так что если кто-то хочет к нам присоединиться в удаленном и асинхронном режиме - милости просим, материалы будут.
Спасибо коллегам из ВШЭ, с которыми у нас уже много совместных активностей, а в следующем году будет еще больше. И, конечно, спасибо Саше, что согласился поучаствовать в роли тренера.
P.S.: На фото есть пасхалка: подсказка, с кем еще мы сейчас обсуждаем грядущие образовательные активности (и может быть, до чего-то договоримся). Кто первый догадается? :)
❤19👍6🔥2😁1
Kantor.AI
Photo
На тему детектирования LLM-генерированного текста:
(https://xn--r1a.website/ml_cybersecurity/82)
на SemEval-2024 есть дорожка "Multigenerator, Multidomain, and Multilingual Black-Box Machine-Generated Text Detection"
https://github.com/mbzuai-nlp/SemEval2024-task8
Спасибо @inkoziev
(https://xn--r1a.website/ml_cybersecurity/82)
на SemEval-2024 есть дорожка "Multigenerator, Multidomain, and Multilingual Black-Box Machine-Generated Text Detection"
https://github.com/mbzuai-nlp/SemEval2024-task8
Спасибо @inkoziev
Telegram
RED BLUE Machines | ИИ и безопасность
Вышла статья с обзором способов детектирования
LLM-контента.
Перечислили доступные датасеты и применяемые техники.
A Survey on Detection of LLMs-Generated Content
https://arxiv.org/abs/2310.15654
https://github.com/Xianjun-Yang/Awesome_papers_on_LLMs_detection
LLM-контента.
Перечислили доступные датасеты и применяемые техники.
A Survey on Detection of LLMs-Generated Content
https://arxiv.org/abs/2310.15654
https://github.com/Xianjun-Yang/Awesome_papers_on_LLMs_detection
🔥5👍1
Forwarded from MarksRemarks (Mark Baushenko)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Яндекс отметил достижения исследователей в области машинного обучения
Компания уже в пятый раз вручила премию Yandex ML Prize. Её лауреатами стали 11 участников, представивших наиболее перспективные и значимые работы в области распознавания и синтеза речи, компьютерного зрения, информационного поиска, обработки естественного языка и генеративных моделей. При этом один из наших коллег по цеху тоже стал лауреатом, что особенно приятно!
Очень важно, что исследования лауреатов расширяют возможности для прикладного применения ML-технологий. Например, социально-значимые кейсы: поиск новых методов лечения серьёзных заболеваний, помощь людям с ограниченными возможностями и многое другое.
Отдельно подчеркну, что Яндекс поддерживает не только состоявшихся ученых, но и молодых исследователей, которые только начинают свой путь в науке. В этом году отметили представителей ведущих ВУЗов и исследовательских групп: МФТИ, МИСИС, СПбГУ, ВШЭ, Сколтех и Назарбаев Университет.
Теперь и я подумываю над тем, чтобы податься на премию в следующем году, пробуйте и вы!
Компания уже в пятый раз вручила премию Yandex ML Prize. Её лауреатами стали 11 участников, представивших наиболее перспективные и значимые работы в области распознавания и синтеза речи, компьютерного зрения, информационного поиска, обработки естественного языка и генеративных моделей. При этом один из наших коллег по цеху тоже стал лауреатом, что особенно приятно!
Очень важно, что исследования лауреатов расширяют возможности для прикладного применения ML-технологий. Например, социально-значимые кейсы: поиск новых методов лечения серьёзных заболеваний, помощь людям с ограниченными возможностями и многое другое.
Отдельно подчеркну, что Яндекс поддерживает не только состоявшихся ученых, но и молодых исследователей, которые только начинают свой путь в науке. В этом году отметили представителей ведущих ВУЗов и исследовательских групп: МФТИ, МИСИС, СПбГУ, ВШЭ, Сколтех и Назарбаев Университет.
Теперь и я подумываю над тем, чтобы податься на премию в следующем году, пробуйте и вы!
Yandex ML Prize
Премия Яндекса при экспертной поддержке Школы анализа данных за вклад в развитие ML
👍6🔥1🖕1
Forwarded from что-то на DL-ском
Тут буквально на днях Microsoft выложили код огромной проделанной работы. Речь идет о LongNet представленном в июне этого года. Очередная попытка побороться с квадратичной сложностью внимания и заскелить длину последовательности до (просто вдумайтесь) 1B токенов (см график на срине 1) 😳
Звучит круто, на деле механизм следующий: будем делить последовательность на сегменты, а внутри еще на уровень разреженности (ну типо как sparse attention). Посмотреть визуализацию можно на скрине 2.
Но это еще не все. Это дело все можно распараллелить на гпушки следующим образом: возьмем длину последовательности, разделим объем последовательность на сегменты, количество которых равно количеству карт. Дальше на каждой карте будут свои матрицы Q, K, V. Но объеденим далее мы в одну только матрицы K, V, а Q будет на каждой карте своя в итоговой формуле. (Скрин 3)
Так вот. Для всего этого дела теперь есть код в открытом доступе. Вот репа (заходим в директорию torchscale/model и наслаждаемся)
НО ЭТО ТОЖЕ ЕЩЕ НЕ ВСЕ. Также в начале декабря они зарелизели LongVIT, который представляет из себя такой же алгоритм, только картинка будет разделена на патчи (скрин 4), что и представит последовательность (код можно найти в той же репе, но директория examples/longvit)
🖥 Еще раз. Код весь туть
Звучит круто, на деле механизм следующий: будем делить последовательность на сегменты, а внутри еще на уровень разреженности (ну типо как sparse attention). Посмотреть визуализацию можно на скрине 2.
Но это еще не все. Это дело все можно распараллелить на гпушки следующим образом: возьмем длину последовательности, разделим объем последовательность на сегменты, количество которых равно количеству карт. Дальше на каждой карте будут свои матрицы Q, K, V. Но объеденим далее мы в одну только матрицы K, V, а Q будет на каждой карте своя в итоговой формуле. (Скрин 3)
Так вот. Для всего этого дела теперь есть код в открытом доступе. Вот репа (заходим в директорию torchscale/model и наслаждаемся)
НО ЭТО ТОЖЕ ЕЩЕ НЕ ВСЕ. Также в начале декабря они зарелизели LongVIT, который представляет из себя такой же алгоритм, только картинка будет разделена на патчи (скрин 4), что и представит последовательность (код можно найти в той же репе, но директория examples/longvit)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤4❤🔥2
Подбор недвижимости на RAGах.
Вайб выходного дня.
До чего техника дошла. Увидел на сайте Я.недвижимость возможность в бетке подбирать квартиры и тп. с помощью LLM.
На самом деле, сразу прикинул, а как? Что там под капотом.
Гипотеза, как это работает:
1. Вы вводите критерии подбора квартиры, на естественном языке конечно, хотя саджесты тоже в сервисе наблюдаются.
2. Далее запрос в виде критериев летит уверен в базу знаний, где каждый объект тоже описан на Я.стественном языке. Тут тоже предполагаю, что всё же или шаблонами заранее собрали или далее шаблоны вкинули в LLM, чтобы она их переписала в более естественный стиль.
3. Далее врубается RAG, который по такому запросу и БД выдаёт топК кандидатов в LLM. А она их реранжирует уже исходя из запроса пользователя, там же есть критерии.
Получается, вот такой сервис распознавания интентов, где намерение это приобрести недвигу с заданными параметрами: расположение, класс жилья, комнатность и тп.
До чего LLM-техника дошла!
UPD. А итить ей ещё теперь в такое же ток с картинками, прям взял загрузил ещё планировочки какие хотел бы, текст описания. Ух, мультимодалочка!
Вайб выходного дня.
До чего техника дошла. Увидел на сайте Я.недвижимость возможность в бетке подбирать квартиры и тп. с помощью LLM.
На самом деле, сразу прикинул, а как? Что там под капотом.
Гипотеза, как это работает:
1. Вы вводите критерии подбора квартиры, на естественном языке конечно, хотя саджесты тоже в сервисе наблюдаются.
2. Далее запрос в виде критериев летит уверен в базу знаний, где каждый объект тоже описан на Я.стественном языке. Тут тоже предполагаю, что всё же или шаблонами заранее собрали или далее шаблоны вкинули в LLM, чтобы она их переписала в более естественный стиль.
3. Далее врубается RAG, который по такому запросу и БД выдаёт топК кандидатов в LLM. А она их реранжирует уже исходя из запроса пользователя, там же есть критерии.
Получается, вот такой сервис распознавания интентов, где намерение это приобрести недвигу с заданными параметрами: расположение, класс жилья, комнатность и тп.
До чего LLM-техника дошла!
UPD. А итить ей ещё теперь в такое же ток с картинками, прям взял загрузил ещё планировочки какие хотел бы, текст описания. Ух, мультимодалочка!
👍35❤5
Творчество юзеров нашего детища.
RuElectra-small идёт в массы.
Спасибо за скрин @japanesefarmer
UPD. Мы тут ещё баловались с @chckdskeasfsd. Делали обрезку и облегчение этой же модельки.
См. тут.
RuElectra-small идёт в массы.
Спасибо за скрин @japanesefarmer
UPD. Мы тут ещё баловались с @chckdskeasfsd. Делали обрезку и облегчение этой же модельки.
См. тут.
❤9🔥3🤩1
Dealer.AI
Творчество юзеров нашего детища. RuElectra-small идёт в массы. Спасибо за скрин @japanesefarmer UPD. Мы тут ещё баловались с @chckdskeasfsd. Делали обрезку и облегчение этой же модельки. См. тут.
Метрики обрезки
P/S ruTiny модели это дистилляты крутых sentence энкодеров, поэтому если хотите догнать их, используйте их пайп с нашей small electra
P/S ruTiny модели это дистилляты крутых sentence энкодеров, поэтому если хотите догнать их, используйте их пайп с нашей small electra
👍5