Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯38👍20🤔2❤1🗿1
А вы знали, что в pandas к датафреймам можно добавлять описание?
Делается это с помощью одной простой команды:
Полезно, если работаете одновременно с несколькими похожими фреймами или если готовите презентацию в Jupyter. А также может сойти в виде дополнительного комментирования кода.
😻 #python
Делается это с помощью одной простой команды:
df.style.set_caption(caption)
Полезно, если работаете одновременно с несколькими похожими фреймами или если готовите презентацию в Jupyter. А также может сойти в виде дополнительного комментирования кода.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯72👍31❤18🔥10🕊1
RNN в картинках
Объясняем как работют рекуррентные нейронные сети по такому рецепту: минимум слов, максимум схем и примеров.
😻 #NN
Объясняем как работют рекуррентные нейронные сети по такому рецепту: минимум слов, максимум схем и примеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥4❤3
A Collection of Dice Problems.pdf
308.9 KB
Огромный пул задачек по теорверу на кубики
Для тех, кто после наших воскресных задач понял, что пора подтягивать теорвер: отличный сборник задач от самых простых к тем, что посложнее
😻 #advice
Для тех, кто после наших воскресных задач понял, что пора подтягивать теорвер: отличный сборник задач от самых простых к тем, что посложнее
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23👍8🤯4👀1😇1
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе рабочее. Поиграем?
Это веб-игра, в которой вы соревнуетесь с ML-алгоритмом: у вас есть 60 секунд, чтобы нарисовать как можно больше слов, пока нейросеть пытается угадать, что вы рисуете в режиме реального времени. Ну что, кому сколько удалось?
*работает в Chrome на ПК
😻 #forfun
Это веб-игра, в которой вы соревнуетесь с ML-алгоритмом: у вас есть 60 секунд, чтобы нарисовать как можно больше слов, пока нейросеть пытается угадать, что вы рисуете в режиме реального времени. Ну что, кому сколько удалось?
*работает в Chrome на ПК
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17🤯3😇2❤1
Некоторые метрики задач классификации
В прошлый раз мы рассказывали об основных метриках в задачах регрессии. В этот раз на очереди некоторые метрики задач классификации. По классике: формула, схема и рекомендации к применению.
😻 #train
В прошлый раз мы рассказывали об основных метриках в задачах регрессии. В этот раз на очереди некоторые метрики задач классификации. По классике: формула, схема и рекомендации к применению.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥40👍11❤5⚡1😇1
У нас тут новый state-of-the-art оптимизатор завезли
Это расширение алгоритма LoRA – ReLoRA. Основная идея, лежащая в основе ReLoRA, заключается в разложении обновлений весов во время обучения на матрицы низкого ранга путем добавления новых обучаемых параметров к исходным весам модели. А для пущей бодрости внутри используется еще несколько техник, такие как перезапуски обучения, сбросы оптимизатора и ступенчатое нарастание скорости.
Эффективность метода возрастает с увеличением масштабов моделей. На модели с 1,3 миллиардами параметров использование памяти уменьшилось на 30%, а производительности обучения увеличилось на 52% по сравнению с обучением с полным рангом. В общем, это что-то на многообещающем.
Код доступен на Github.
😻 #news
Это расширение алгоритма LoRA – ReLoRA. Основная идея, лежащая в основе ReLoRA, заключается в разложении обновлений весов во время обучения на матрицы низкого ранга путем добавления новых обучаемых параметров к исходным весам модели. А для пущей бодрости внутри используется еще несколько техник, такие как перезапуски обучения, сбросы оптимизатора и ступенчатое нарастание скорости.
Эффективность метода возрастает с увеличением масштабов моделей. На модели с 1,3 миллиардами параметров использование памяти уменьшилось на 30%, а производительности обучения увеличилось на 52% по сравнению с обучением с полным рангом. В общем, это что-то на многообещающем.
Код доступен на Github.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40❤7🔥6❤🔥2
Непопулярная альтернатива KMeans – Gaussian Mixture Models (GMM)
KMeans широко используется в качестве алгоритма кластеризации из-за его простоты и эффективности. Но он имеет некоторые недостатки:
– может создавать только круглые кластеры
– не дает вероятностых оценок принадлежности точек кластерам
– не учитывает кластерную дисперсию
Эти ограничения часто делают KMeans неидеальным выбором для кластеризации. И тут на помощь приходит GMM. Он закрывает все недостатки выше (например, может создавать кластеры овальной формы), и о нем можно думать, как о некотором обобщении KMeans.
Эффективность GMM по сравнению с KMeans очевидна на картинке⏫
- KMeans просто полагается на расстояние и игнорирует распределение каждого кластера
- GMM изучает распределение и обеспечивает лучшую кластеризацию
P.S. Вот ссылка на GMM из sklearn
😻 #train
KMeans широко используется в качестве алгоритма кластеризации из-за его простоты и эффективности. Но он имеет некоторые недостатки:
– может создавать только круглые кластеры
– не дает вероятностых оценок принадлежности точек кластерам
– не учитывает кластерную дисперсию
Эти ограничения часто делают KMeans неидеальным выбором для кластеризации. И тут на помощь приходит GMM. Он закрывает все недостатки выше (например, может создавать кластеры овальной формы), и о нем можно думать, как о некотором обобщении KMeans.
Эффективность GMM по сравнению с KMeans очевидна на картинке
- KMeans просто полагается на расстояние и игнорирует распределение каждого кластера
- GMM изучает распределение и обеспечивает лучшую кластеризацию
P.S. Вот ссылка на GMM из sklearn
Please open Telegram to view this post
VIEW IN TELEGRAM
👍57🐳5❤4