Техножрица 👩‍💻👩‍🏫👩‍🔧
14.1K subscribers
1.45K photos
66 videos
28 files
768 links
Люблю высокие технологии и кушать.

Добро пожаловать, если в сферу твоих интересов тоже входят математика, DL, NLP, программирование на Python, или тебе просто любопытно, о чем на досуге размышляют люди, занимающиеся разработкой и исследованиями в ML.
Download Telegram
Ребят, как устроен алгоритм, который показывает новости под строкой поиска в Google Chrome на Андроид?

Сколько бы я не нажимала на всратых новостях про Галкина и Пугачёву кнопку "скрыть", мне все равно потом показывают все новые и новые новости на эту тему. И это при том, что я никогда не кликаю на новости про этих конкретных персонажей и не ищу в поиске ничего про них.
Такое ощущение, что алгоритм вообще не реагирует на мои действия и просто консистентно показывает то, что, по мнению создателей, является первым приближением к интересам женщины за 30, родившейся где-то в SOVIET RUSSIA 🙂🙂🙂
Какой же рекомендательный алгоритм делает это приближение? Решающий пень? 🤔
Интересно, можно ли подать на разработчиков в суд за то, что их пень оскорбляет меня таким мнением о моих интересах и интеллектуальных способностях? 🤡

Рис. 1-4 - типичный ассортимент новостей.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁42🔥4🤡2😢1💯1
У нас в комментариях под этим постом: https://xn--r1a.website/tech_priestess/747 получается довольно интересная дискуссия о философии науки. Было бы интересно узнать больше мнений на эту тему.

P.S. Картинка для привлечения внимания к философским вопросам 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6🤡4👍2
Выложила в Линкедин новость про то, что наше исследование включили в программу Interspeech 2023 со всеми ссылками:

https://www.linkedin.com/posts/laida-kushnareva_interspeech-speechprocessing-tda-activity-7084488426594394113-3C5l/

(На самом деле, это произошло уже пару недель назад, но я то ли забыла написать, то ли постеснялась ☺️)
Очень волнуюсь, конечно, в связи с предстоящей конференцией: дадут ли визу (вчера наконец-то подала документы), будет ли мне хоть что-то понятно из чужих докладов на этой конфе (я ведь всё-таки больше специализируюсь на обработке текста), да и в целом, как коллеги по науке, занимающиеся обработкой речи, воспримут наш необычный подход.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥348👍5❤‍🔥1🤩1
Расскажу еще пару слов про исследование из поста выше, "Topological Data Analysis for Speech Processing" ( https://arxiv.org/abs/2211.17223 ).

Суть такова.
Мы подавали на вход модели HuBERT примеры из датасетов, затем извлекали для каждого примера с каждой ее головы матрицу внимания, а потом строили по матрице взвешенный граф. Затем мы считали от каждого такого графа нулевые баркоды. В случае того способа фильтрации, который мы выбрали в данной статье, нулевые баркоды показывают, как меняется количество компонентов связности в графе по мере того, как мы добавляем в него ребра сначала с большим весом, а потом с весами поменьше ( анимация: https://topohubert.github.io/speech-topology-webpages/tda/example_01.html ). Сумма баров в таком баркоде также равна сумме весов ребер в минимальном остовном дереве данного графа ( https://e-maxx.ru/algo/mst_kruskal ). Эту сумму мы в итоге использовали как некоторую характеристику связности графа. Кроме этого мы считали некоторые алгебраические характеристики самих матриц внимания, а также меру расхождения между представлениями (эмбеддингами) на разных слоях модели, называемую Representation Topology Divergence ( наглядный пример расчета: https://topohubert.github.io/speech-topology-webpages/tda/rtd_example.html ).
В итоге, для каждого примера из HuBERT извлекалось по несколько десятков чисел, которые содержали в себе различные свойства эмбеддингов этой модели. Дальше эти числа - признаки эмбеддингов - использовались как фичи для классификации (в этом аспекте статья похожа на статьи Artificial Text Detection via Examining the Topology of Attention Maps и Acceptability Judgements via Examining the Topology of Attention Maps).
Показывалось, что классификация по этим фичам, извлеченных из предобученной (но не файн-тюненной) модели, дает результат на нескольких задачах такой же или лучше, чем если просто затюнить на них саму модель. Среди задач были: детекция искуственно сгенерированной речи, распознавание эмоций, распознавание спикера и др. Отсюда выдвигается предположение, что предложенные нами признаки эмбеддингов действительно несут в себе информацию, полезную для решения данных задач и, более того, позволяют очень успешно утилизировать эту информацию. На одном из датасетов с эмоциями (CREMA-D) получился результат даже лучше известной нам SOTA.

Кроме этого, было показано интересное наблюдение о том, как ведет себя граф, построенный по матрицам внимания с некоторых голов модели, по мере того, как мы добавляем в него ребра сначала с большим, а потом с меньшим весом. При таком добавлении сначала появляются компоненты связности между токенами, соответствующими одной и той же фонеме, потом - компоненты связности между токенами, соответствующими разным фонемам, и только потом добавляются токены, соответствующие тишине. Таким образом показывается то, что матрица внимания модели как бы сильнее связывает между собой токены, соответствующие одному и тому же кусочку произнесенного слова, а связь между разными кусочками слов менее сильная. Вроде бы наблюдение простое, но мы не смогли найти статей, в которых бы оно описывалось, поэтому тоже рассказали о нем в своей статье.

#объяснения_статей
👍34🔥2🤯2💩21
Знаете, я ведь с детства любил наряжать куклы в разные платья. Кому-то больше подходит розовое, кому-то красное, а кто-то лучше выглядит в модных брюках-клеш. Моя любовь к нарядам помогает и в профессиональной сфере. Я представляю себе, что активации -- это кофточки, инициализация -- косметика, а оптимайзеры -- туфельки. Ведь оптимайзеры как обувь: где-то нужны резиновые сапоги, а где-то нежные, бархатные ботинки "прощай молодость"; а лернинг рейты как носочки: с начесом, для warmup начала; или грязные, вонючие, засохшие носки как константный шедулер.

Вообще, детство можно считать отправной точкой моей исследовательской карьеры. В детском саду я всегда старался обойти всех и найти самый быстрый путь к горшку. Вы спросите меня: какой смысл? Ведь они все стоят рядом и нет никакой существенной разницы! Но ведь разница сотых долей секунды была! Никогда не забуду того удовольствия, когда удавалось выбрать нужную траектори и поставить новый рекорд, занять позицию на тысячную долю секунды быстрее! Именно тогда я почуствовал истинный запах и вкус соты.

В школе друзей у меня не было, но зато учился я очень даже хорошо: в третьем классе я решил свою первую СЛАУ, в четвером узнал что такое производная и строил графики до одури, до онемения в пальзах, до сточенного в пыль карандаша. Долгое время моим воспитанием занималась бабушка. Бабушка был немногословной и очень строгой. Она никогда не рассказывала мне о том, как устроен мир. Она буквально воспитывала меня кнутом и пряником: я что-то пробовал, а в ответ получал либо удар, либо котлету. Тогда то я и почуствовал собственной шкурой горький вкус реварда.

Сдать ЕГЭ было проще простого. Я поступил в МФТИ. Знаете, мне очень нравилась местная атмосфера. Отчужденность от мира. Необычные люди. Завораживающее, дарующие чувство свободны, открытые окна.

На третьем курсе мне удалось найти свою первую стажировку. Опуская подробности, скажу лишь что это была одна из тысяч аутсорс галер. Именно тогда я сделал себе прививку от продакшена и зарекся никогда больше не катить в прод. Я вычеркнул из своей жизни букву D, оставив только жирную R. Мне кажется что каждый уважающий себя исследователь должен хоть раз сходить в плавание на dev галере, чтобы иметь опыт и право так или иначе высказываться по существу.

Диплом писал по довольно обскурной теме. Пока все переводили датасеты на русский, я открывал для себя различные сферы: исследовал топологии, бороздил океаны негладкой оптимизации, зубрил свойства распределений и собственноручно доказывал предельные теоремы. Я смотрел на своих одногруппников свысока. Я знал, что дальше они пойдут надрачивать бизнес метрики, собирать контейнеры и вести свою скучную жизнь рабов корпораций. А я не такой. Я выше этого.

Свобода - в открытом оверлифе.
Весь мир - лаборатория.
Весь смысл - ресерч.
😁24🔥9👍5🤔3🤣3👎2
Интересное соревнование анонсировали на соревновательном треке NeurIPS 2023.
В нем нужно сделать такую эффективную имплементацию большой языковой модели, чтобы она сумела как можно лучше дообучиться за один день на одном GPU:
https://llm-efficiency-challenge.github.io/index
Submissions принимаются до 30 сентября.
А тут можно посмотреть формат submission для интересующихся:
https://github.com/llm-efficiency-challenge/neurips_llm_efficiency_challenge

-

Жалко, что в соревновании рассматривают только задачу дообучения, а не предобучения. Было бы интересно получить новые данные о том, насколько хорошо можно предобучить с нуля что-либо в таких условиях.
Например, как это сделали в этой статье:
https://aclanthology.org/2021.emnlp-main.831/
В ней за такой короткий срок предобучения смогли добиться качества, близкого к оригинальному BERT - правда, на сервере с несколькими GPU.
(Кстати, к вопросам о цитированиях: почему у этой статьи их всего лишь 50? Она опубликована в ACL Anthology и выглядит очень полезной для инженеров, а такие статьи обычно цитируют намного активнее. Почему эта работа не так сильно полюбилась? 🥺).
👍6🔥4🤡2
У меня не осталось никаких сомнений в том, кто автор паблика https://xn--r1a.website/ebaresearch
🔥31🤣123👍2👀2
Решила испытать возможности нового Kandinsky 2.2 в области смешивания пар изображений.

Больше о модели: https://habr.com/ru/companies/sberbank/articles/747446/
Больше о культурном феномене "ЖКХ АРТ": https://dvor.digital

#генерация
👍24😁10🔥53❤‍🔥3🥰1
Однажды, когда я была маленькой, у меня заболел молочный зуб. Но я не знала, как об этом сказать. Боль в зубе отличалась от тех видов боли, которые я знала до этого, поэтому я не догадалась, что это тоже называется словом "боль".

Я подошла к кому-то из взрослых и сказала "у меня чувства в зубе". Мне ответили "отстань". Но мне по-прежнему было больно. Поэтому я опять подошла и снова стала что-то мямлить. Взрослые, наконец, поняли, что к чему, сказали, что "он у тебя болит наверное потому что не чистила давно" и отправили чистить зубы зубной щеткой.
Но боль никуда не делась.
Так я поняла, что плоть слаба, и слабость моей плоти внушила мне отвращение.

Вечером пришла бабушка, и я сказала ей, что у меня "болит зуб". Бабушка приказала открыть рот.
Я открыла.
Бабушка сказала "Ээ, да он у тебя весь черный, да еще и шатается сильно. Вырвать его надо."
Я испугалась, но бабушка заверила меня, что будет совсем не больно, как комарик укусит.
После этого бабушка засунула руку мне в рот и резко выкрутила зуб из десны.
Я заплакала, убежала и спряталась под гору тряпок под смех взрослых, глотая кровь.

Под этой горой тряпок лежали книга "Что есть что: атомная энергия", фонарик и калькулятор.
Я сидела там очень-очень долго и читала эту книгу с фонариком до тех пор, пока у меня не выросли механодендриты, провода и трубки, такие же, как на картинках про ядерный реактор.

Так я стала техножрицей.

#о_себе
🔥121🫡3217😢9😱8❤‍🔥6🤣6🤮3🤔2👌2🙏1
Старый добрый комикс, иллюстрирующий принцип "garbage in -> garbage out" в машинном обучении. ⬇️