Neural Networks | Нейронные сети
11.6K subscribers
803 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Квазиньютоновские методы, или когда вторых производных для Атоса слишком много
При первом знакомстве с квазиньютоновскими методами можно удивиться дважды. Во-первых, после беглого взгляда на формулы охватывают сомнения, что это вообще может работать. Однако же они работают. Дальше кажется сомнительным, что они будут работать хорошо. И тем удивительнее видеть то, насколько они превосходят по скорости разнообразные вариации градиентного спуска, причем не на специально построенных задачах, а на самых настоящих, взятых из практики. И если после этого еще остаются сомнения вперемешку с интересом — то нужно разбираться в том, почему вообще работает это нечто.

🔗 Квазиньютоновские методы, или когда вторых производных для Атоса слишком много
При первом знакомстве с квазиньютоновскими методами можно удивиться дважды. Во-первых, после беглого взгляда на формулы охватывают сомнения, что это вообще может...
​Подготовка данных в Data Science-проекте: рецепты для молодых хозяек

В предыдущей статье я рассказывала про структуру Data Science-проекта по материалам методологии IBM: как он устроен, из каких этапов состоит, какие задачи решаются на каждой стадии. Теперь я бы хотела сделать обзор самой трудоемкой стадии, которая может занимать до 90% общего времени проекта: это этапы, связанные с подготовкой данных -сбор, анализ и очистка.

В оригинальном описании методологии Data Science-проект сравнивается с приготовлением блюда, а аналитик - с шеф поваром. Соответственно, этап подготовки данных сравнивается с подготовкой продуктов: после того, как на этапе анализа бизнес-задачи мы определились с рецептом блюда, которое будем готовить, необходимо найти, собрать в одном месте, очистить и нарезать ингредиенты. Соответственно, от того, насколько качественно был выполнен этот этап, будет зависеть вкус блюда (предположим, что с рецептом мы угадали, тем более рецептов в открытом доступе полно). Работа с ингредиентами, то есть подготовка данных - это всегда ювелирное, трудоемкое и ответственное дело: один испорченный или недомытый продукт - и весь труд впустую.

🔗 Подготовка данных в Data Science-проекте: рецепты для молодых хозяек
В предыдущей статье я рассказывала про структуру Data Science-проекта по материалам методологии IBM: как он устроен, из каких этапов состоит, какие задачи решаю...
​Математика для Data Science. Новый курс от OTUS
Всем привет, сегодня хотим поговорить о запуске нового курса «Математика для Data Science», а точнее целой серии курсов, подробнее об этом в нашей публикации.

Не все, учась в школе, понимают, как в жизни им пригодится математика. Самый распространенный ответ – считать деньги, но не все рождаются крутыми финансистами. Это понимают и учителя математики, поэтому часто преподают через пень-колоду. И вот человек школу закончил, зачем нужна математика, так и не понял, но деньги считать (и свои, и чужие) научился, посчитал и захотел работать в IT, например, в сфере машинного обучения, чтобы зарабатывать немало. Тут-то и стало ясно, для чего нужна математика! Но школа, как и институт, уже давно прошли…

🔗 Математика для Data Science. Новый курс от OTUS
Всем привет, сегодня хотим поговорить о запуске нового курса «Математика для Data Science», а точнее целой серии курсов, подробнее об этом в нашей публикации.
RESHI.RU — робот решает и объясняет школьные текстовые задачи по математике
Введение
Когда я объяснял своему ребёнку в 4-м классе, как решать текстовую задачку по математике, то неожиданно понял две вещи. Во-первых, процесс объяснения решения можно автоматизировать. А во-вторых, для большинства школьных вычислительных задач подходит универсальный метод через систему уравнений, который почему-то пока не изучается в младших классах школы. Причём освоение этого метода вполне по силам среднему школьнику и позволит справляться с ранее недоступными ему задачами. Результатом этого понимания явился сайт [RESHI.RU](http://reshi.ru) с объясняющим задачи роботом.

🔗 RESHI.RU — робот решает и объясняет школьные текстовые задачи по математике
Введение Когда я объяснял своему ребёнку в 4-м классе, как решать текстовую задачку по математике, то неожиданно понял две вещи. Во-первых, процесс объяснения ре...
🎥 Michał Łusiak - How to Use Machine Learning and .NET to Write Crushing Metal Riffs
👁 1 раз 1851 сек.
DevConf - The Software Craftsmen Festival for Sharing Knowledge and Inspiration (https://devconf.pl/)

ML.NET is still fairly fresh Microsoft venture into deep learning. It's written in .NET Core and a lot of good thinking went into it. It's definitely the best hope for .NET developers to do machine learning natively and easily incorporate it into existing apps. CNTK is another venture into ML for Microsoft, that allows you better control over what you're doing.

And to show the power of both of them, we'll
🎥 How to Write Cutting Edge CNNs in Pytorch
👁 2 раз 2026 сек.
In today's video we're going to learn how to write modular convolutional neural networks in Pytorch. This will make our code more maintainable, more extensible, and more professional looking.

Simple Deep Q Network w/Pytorch: https://youtu.be/UlJzzLYgYoE
Reinforcement Learning Crash Course: https://youtu.be/sOiNMW8k4T0
Policy Gradients w/Tensorflow https://youtu.be/UT9pQjVhcaU
Deep Q Learning w/Tensorflow https://youtu.be/3Ggq_zoRGP4
Code Your Own RL Environments https://youtu.be/vmrqpHldAQ0
How to Spec a D
​Нейронаука: когда лучше всего работает наш мозг и как технологии могут ему помочь

Вы полностью сосредоточены. Вы потеряли счет времени. Ничего другого в мире не существует. Вы живете в данный момент.

Хотя это похоже на описание медитации, точно так же можно определить состояние потока — ощущение того, что вы настолько сильно вовлечены в работу, что полностью теряете себя в ней, но в то же время значительно увеличиваете свою продуктивность.

Это Святой Грааль, к которому мы все стремимся в любом занятии, будь то хобби или проект на работе. Однако достигать наилучших результатов и максимально раскрывать потенциал в любой момент может быть трудно.

Наши коллеги поговорили с доктором Джеком Льюисом, нейробиологом, который с увлечением изучает, как работает наш мозг, чтобы узнать, что побуждает нас выполнять нашу работу наилучшим образом и какую роль в этом могут играть технологии, культура и рабочая среда.

🔗 Нейронаука: когда лучше всего работает наш мозг и как технологии могут ему помочь
Вы полностью сосредоточены. Вы потеряли счет времени. Ничего другого в мире не существует. Вы живете в данный момент. Хотя это похоже на описание медитации, т...
​Обнаружение пересекающихся сообществ в Instagram для определения интересов пользователей
Сколько может рассказать о человеке профиль в соцсети? Фотографии, посты, комментарии, подписки – непаханное поле для анализа. Сегодня поговорим о том, как мы определяем интересы пользователей на основе их подписок в сети Instagram.

Источник

🔗 Обнаружение пересекающихся сообществ в Instagram для определения интересов пользователей
Сколько может рассказать о человеке профиль в соцсети? Фотографии, посты, комментарии, подписки – непаханное поле для анализа. Сегодня поговорим о том, как мы оп...
​Чат-бот на RASA: опыт Parallels

В настоящее время бурно развивается индустрия чат-ботов. Сначала они были достаточно глупыми и могли вести диалог с пользователем, являясь ведущими и предлагая возможные ответы. Потом боты слегка поумнели и начали требовать от пользователя текстового ввода, чтобы из ответов вытаскивать ключевые слова. Развитие машинного обучения привело к появлению возможности общаться с ботом еще и голосом. Однако, большая часть решений не сильно далеко ушла от все того же построения графа диалогов и перехода между его узлами по ключевым словам.

🔗 Чат-бот на RASA: опыт Parallels
В настоящее время бурно развивается индустрия чат-ботов. Сначала они были достаточно глупыми и могли вести диалог с пользователем, являясь ведущими и предлагая...
​Народ, кто нибудь разбирается в AdaBoost? Я пытаюсь решить задачу в которой просят доказать что взвешенная ошибка с новыми весами классификатора с предидущего шага равняется ровно 1/2. Вот мое решение, но я застрял с доказательством. https://math.stackexchange.com/questions/3386916/how-to-show-that-ada-boosting-weighted-error-is-exactly-1-2

🔗 How to Show that Ada Boosting Weighted Error is Exactly 1/2
I am trying to prove that in an AdaBoost model $Y \rightarrow [-1,1]$ $err_t'= \frac{\sum_{i=1}^{N}w'_i1\{h_t(x^{(i)})\neq t^{(i)}\}}{\sum_{i=1}^{N}w'_i} = \frac{1}{2}$ here, $w_i' = w_i exp(-\al...
​Kaggle LANL Earthquake Prediction — Алексей Могильников

🔗 Kaggle LANL Earthquake Prediction — Алексей Могильников
Алексей Могильников рассказывает про соревнование Kaggle LANL Earthquake Prediction, в котором он заработал серебряную медаль. Из этого видео вы сможете узнать: - Обзор соревнования, про проблему землетрясений и почему она важна - Как нужно начинать участвовать в соревновании - Ключевые идеи и подходы к решению - Подробности решения первого места Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/ Узнать о новых тренировках и видео можно из групп: ВКонтакте https://vk.com/mltrainings Fa
​How to Upload a Dataset to Kaggle | Kaggle

🔗 How to Upload a Dataset to Kaggle | Kaggle
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repository of free code and data. Stumped? Ask the friendly Kaggle community for help. Follow
​ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots

http://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html

🔗 ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots
Posted by Michael Ahn, Software Engineer and Vikash Kumar, Research Scientist, Robotics at Google Learning-based methods for solving rob...
​FacebookAI

has released higher, a library for bypassing limitations to taking higher-order gradients over an optimization process.
Library:
https://github.com/facebookresearch/higher
Docs:
https://higher.readthedocs.io

🔗 facebookresearch/higher
higher is a pytorch library allowing users to obtain higher order gradients over losses spanning training loops rather than individual training steps. - facebookresearch/higher