Что делать с НЕнормальным распределением?
Как известно, моделям (особенно линейным) нравится, когда данные имеют нормальное распределение. Но что делать, если это не так? Рассказываем про два варианта: простой и посложнее.
😻 #train #analytics #python
Как известно, моделям (особенно линейным) нравится, когда данные имеют нормальное распределение. Но что делать, если это не так? Рассказываем про два варианта: простой и посложнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥45🌚8❤6
Gradient Accumulation
Из-за ограничений памяти всегда рекомендуется обучать нейронную сеть с небольшим размером батча. Но что, если мы скажем вам, что можно увеличить размер батча без увеличения размера батча?
😻 #NN
Из-за ограничений памяти всегда рекомендуется обучать нейронную сеть с небольшим размером батча. Но что, если мы скажем вам, что можно увеличить размер батча без увеличения размера батча?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27👍14🤯3❤2❤🔥1
Увлекательная история теоремы Байеса
Всем ведь знакома великая теорема Байеса, на основе которой построены несколько известных алгоритмов машинного обучение? Гарольд Джеффис писал, что для теории вероятностей она значит столько же, сколько теорема Пифагора для геометрии.
А знаете ли вы, что эта теорема была опубликована уже после смерти автора? Вообще, при жизни Байес опубликовал всего две работы (одна из них богословская), и в них не было вообще ничего про великую теорему.
Только через 2 года после смерти Томаса, в 1763, его друг нашел в рукописях то, что мы называем теоремой и формулой Байеса. Мог бы опубликовать под своим именем, но как человек благородный обессмертил своего друга, отправив рукопись в Королевское общество.
Кстати, огласке она не придавалась аж до 1812, пока ее не переоткрыл Лаплас. Он-то и опубликовал современную формулировку теоремы в своей книге «Аналитическая теория вероятностей».
😻 #forfun
Всем ведь знакома великая теорема Байеса, на основе которой построены несколько известных алгоритмов машинного обучение? Гарольд Джеффис писал, что для теории вероятностей она значит столько же, сколько теорема Пифагора для геометрии.
А знаете ли вы, что эта теорема была опубликована уже после смерти автора? Вообще, при жизни Байес опубликовал всего две работы (одна из них богословская), и в них не было вообще ничего про великую теорему.
Только через 2 года после смерти Томаса, в 1763, его друг нашел в рукописях то, что мы называем теоремой и формулой Байеса. Мог бы опубликовать под своим именем, но как человек благородный обессмертил своего друга, отправив рукопись в Королевское общество.
Кстати, огласке она не придавалась аж до 1812, пока ее не переоткрыл Лаплас. Он-то и опубликовал современную формулировку теоремы в своей книге «Аналитическая теория вероятностей».
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47❤16
Baidu представила китайскую нейросеть Ernie 4.0 и утверждает, что она лучше GPT-4
Основатель Baidu Робин Ли заявил, что разработанная LLM в полной мере догнала OpenAI’шную GPT-4, а сам китайский интернет-гигант стал лидером в гонке с США.
«С точки зрения создания контента, понимания, логики и памяти Ernie версии 4.0 ни в чем не уступает GPT-4», заявил Робин.
Верим?
😻 #news
Основатель Baidu Робин Ли заявил, что разработанная LLM в полной мере догнала OpenAI’шную GPT-4, а сам китайский интернет-гигант стал лидером в гонке с США.
«С точки зрения создания контента, понимания, логики и памяти Ernie версии 4.0 ни в чем не уступает GPT-4», заявил Робин.
Верим?
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿48🤔12👍9
На просторах Kaggle нашли супер-ликбез по NLP
Начиная с Word2Vec и GloVe, заканчивая BERT, Seq2Seq и механизмом внимания – подробно, структурировано и понятно. Полезно будет и тем, кто только начинает нырять в NLP, и тем, кто уже неплохо разбирается.
😻 #advice
Начиная с Word2Vec и GloVe, заканчивая BERT, Seq2Seq и механизмом внимания – подробно, структурировано и понятно. Полезно будет и тем, кто только начинает нырять в NLP, и тем, кто уже неплохо разбирается.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥11❤7☃1
Почему не следует деплоить модели Sklearn в прод
Sklearn — это идеальная библиотека для всех видов традиционных задач ML. Однако если попробовать развернуть любую модель на основе sklearn в прод, запахнет жаренным. Объясняем, почему, и что с этим можно сделать.
😻 #python
Sklearn — это идеальная библиотека для всех видов традиционных задач ML. Однако если попробовать развернуть любую модель на основе sklearn в прод, запахнет жаренным. Объясняем, почему, и что с этим можно сделать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🤨7🔥4❤2
Почему итерации по строкам в pandas такие медленные?
При использовании Pandas всегда рекомендуется избегать итерирования по DataFrame. Иначе это приведет к огромным потерям по времени выполнения. Но почему?
😻 #python
При использовании Pandas всегда рекомендуется избегать итерирования по DataFrame. Иначе это приведет к огромным потерям по времени выполнения. Но почему?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍45🔥11❤5