Монетки не такие уж и случайные
Группа исследователей доказала, что подброшенные монеты с большей вероятностью упадут на ту же сторону, которой они лежали вверх перед подбрасыванием, а не на обратную.
48 человек подбрасывали 350 757 монет, отчеканенных в 46 странах. В 50,8% случаев монета приземлялась той же стороной, что и при запуске. Хотя различие небольшое, но оно все же есть: например, если подбросить монету 1000 раз и каждый раз ставить по 1 доллару, то общий выигрыш должен составить в среднем $19.
Срочно перерешиваем все задачи и переписываем учебники
😻 #news
Группа исследователей доказала, что подброшенные монеты с большей вероятностью упадут на ту же сторону, которой они лежали вверх перед подбрасыванием, а не на обратную.
48 человек подбрасывали 350 757 монет, отчеканенных в 46 странах. В 50,8% случаев монета приземлялась той же стороной, что и при запуске. Хотя различие небольшое, но оно все же есть: например, если подбросить монету 1000 раз и каждый раз ставить по 1 доллару, то общий выигрыш должен составить в среднем $19.
Срочно перерешиваем все задачи и переписываем учебники
Please open Telegram to view this post
VIEW IN TELEGRAM
😁67❤3
Бесплатный курс по практическому DL от fastAI
Не самый свежий (2022), но точно актуальный. Про свертки, леса, NLP, известные архитектуры и алгоритмы. Конечно, все по-английски, но зато for free! К тому же, тут точно найдете все именно то, что пригодится на практике.
😻 #advice
Не самый свежий (2022), но точно актуальный. Про свертки, леса, NLP, известные архитектуры и алгоритмы. Конечно, все по-английски, но зато for free! К тому же, тут точно найдете все именно то, что пригодится на практике.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27❤5❤🔥4
Что делать с НЕнормальным распределением?
Как известно, моделям (особенно линейным) нравится, когда данные имеют нормальное распределение. Но что делать, если это не так? Рассказываем про два варианта: простой и посложнее.
😻 #train #analytics #python
Как известно, моделям (особенно линейным) нравится, когда данные имеют нормальное распределение. Но что делать, если это не так? Рассказываем про два варианта: простой и посложнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥45🌚8❤6
Gradient Accumulation
Из-за ограничений памяти всегда рекомендуется обучать нейронную сеть с небольшим размером батча. Но что, если мы скажем вам, что можно увеличить размер батча без увеличения размера батча?
😻 #NN
Из-за ограничений памяти всегда рекомендуется обучать нейронную сеть с небольшим размером батча. Но что, если мы скажем вам, что можно увеличить размер батча без увеличения размера батча?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27👍14🤯3❤2❤🔥1
Увлекательная история теоремы Байеса
Всем ведь знакома великая теорема Байеса, на основе которой построены несколько известных алгоритмов машинного обучение? Гарольд Джеффис писал, что для теории вероятностей она значит столько же, сколько теорема Пифагора для геометрии.
А знаете ли вы, что эта теорема была опубликована уже после смерти автора? Вообще, при жизни Байес опубликовал всего две работы (одна из них богословская), и в них не было вообще ничего про великую теорему.
Только через 2 года после смерти Томаса, в 1763, его друг нашел в рукописях то, что мы называем теоремой и формулой Байеса. Мог бы опубликовать под своим именем, но как человек благородный обессмертил своего друга, отправив рукопись в Королевское общество.
Кстати, огласке она не придавалась аж до 1812, пока ее не переоткрыл Лаплас. Он-то и опубликовал современную формулировку теоремы в своей книге «Аналитическая теория вероятностей».
😻 #forfun
Всем ведь знакома великая теорема Байеса, на основе которой построены несколько известных алгоритмов машинного обучение? Гарольд Джеффис писал, что для теории вероятностей она значит столько же, сколько теорема Пифагора для геометрии.
А знаете ли вы, что эта теорема была опубликована уже после смерти автора? Вообще, при жизни Байес опубликовал всего две работы (одна из них богословская), и в них не было вообще ничего про великую теорему.
Только через 2 года после смерти Томаса, в 1763, его друг нашел в рукописях то, что мы называем теоремой и формулой Байеса. Мог бы опубликовать под своим именем, но как человек благородный обессмертил своего друга, отправив рукопись в Королевское общество.
Кстати, огласке она не придавалась аж до 1812, пока ее не переоткрыл Лаплас. Он-то и опубликовал современную формулировку теоремы в своей книге «Аналитическая теория вероятностей».
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47❤16
Baidu представила китайскую нейросеть Ernie 4.0 и утверждает, что она лучше GPT-4
Основатель Baidu Робин Ли заявил, что разработанная LLM в полной мере догнала OpenAI’шную GPT-4, а сам китайский интернет-гигант стал лидером в гонке с США.
«С точки зрения создания контента, понимания, логики и памяти Ernie версии 4.0 ни в чем не уступает GPT-4», заявил Робин.
Верим?
😻 #news
Основатель Baidu Робин Ли заявил, что разработанная LLM в полной мере догнала OpenAI’шную GPT-4, а сам китайский интернет-гигант стал лидером в гонке с США.
«С точки зрения создания контента, понимания, логики и памяти Ernie версии 4.0 ни в чем не уступает GPT-4», заявил Робин.
Верим?
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿48🤔12👍9
На просторах Kaggle нашли супер-ликбез по NLP
Начиная с Word2Vec и GloVe, заканчивая BERT, Seq2Seq и механизмом внимания – подробно, структурировано и понятно. Полезно будет и тем, кто только начинает нырять в NLP, и тем, кто уже неплохо разбирается.
😻 #advice
Начиная с Word2Vec и GloVe, заканчивая BERT, Seq2Seq и механизмом внимания – подробно, структурировано и понятно. Полезно будет и тем, кто только начинает нырять в NLP, и тем, кто уже неплохо разбирается.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥11❤7☃1
Почему не следует деплоить модели Sklearn в прод
Sklearn — это идеальная библиотека для всех видов традиционных задач ML. Однако если попробовать развернуть любую модель на основе sklearn в прод, запахнет жаренным. Объясняем, почему, и что с этим можно сделать.
😻 #python
Sklearn — это идеальная библиотека для всех видов традиционных задач ML. Однако если попробовать развернуть любую модель на основе sklearn в прод, запахнет жаренным. Объясняем, почему, и что с этим можно сделать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🤨7🔥4❤2