Neural Networks | Нейронные сети
11.6K subscribers
803 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Нейронаука: когда лучше всего работает наш мозг и как технологии могут ему помочь

Вы полностью сосредоточены. Вы потеряли счет времени. Ничего другого в мире не существует. Вы живете в данный момент.

Хотя это похоже на описание медитации, точно так же можно определить состояние потока — ощущение того, что вы настолько сильно вовлечены в работу, что полностью теряете себя в ней, но в то же время значительно увеличиваете свою продуктивность.

Это Святой Грааль, к которому мы все стремимся в любом занятии, будь то хобби или проект на работе. Однако достигать наилучших результатов и максимально раскрывать потенциал в любой момент может быть трудно.

Наши коллеги поговорили с доктором Джеком Льюисом, нейробиологом, который с увлечением изучает, как работает наш мозг, чтобы узнать, что побуждает нас выполнять нашу работу наилучшим образом и какую роль в этом могут играть технологии, культура и рабочая среда.

🔗 Нейронаука: когда лучше всего работает наш мозг и как технологии могут ему помочь
Вы полностью сосредоточены. Вы потеряли счет времени. Ничего другого в мире не существует. Вы живете в данный момент. Хотя это похоже на описание медитации, т...
​Обнаружение пересекающихся сообществ в Instagram для определения интересов пользователей
Сколько может рассказать о человеке профиль в соцсети? Фотографии, посты, комментарии, подписки – непаханное поле для анализа. Сегодня поговорим о том, как мы определяем интересы пользователей на основе их подписок в сети Instagram.

Источник

🔗 Обнаружение пересекающихся сообществ в Instagram для определения интересов пользователей
Сколько может рассказать о человеке профиль в соцсети? Фотографии, посты, комментарии, подписки – непаханное поле для анализа. Сегодня поговорим о том, как мы оп...
​Чат-бот на RASA: опыт Parallels

В настоящее время бурно развивается индустрия чат-ботов. Сначала они были достаточно глупыми и могли вести диалог с пользователем, являясь ведущими и предлагая возможные ответы. Потом боты слегка поумнели и начали требовать от пользователя текстового ввода, чтобы из ответов вытаскивать ключевые слова. Развитие машинного обучения привело к появлению возможности общаться с ботом еще и голосом. Однако, большая часть решений не сильно далеко ушла от все того же построения графа диалогов и перехода между его узлами по ключевым словам.

🔗 Чат-бот на RASA: опыт Parallels
В настоящее время бурно развивается индустрия чат-ботов. Сначала они были достаточно глупыми и могли вести диалог с пользователем, являясь ведущими и предлагая...
​Народ, кто нибудь разбирается в AdaBoost? Я пытаюсь решить задачу в которой просят доказать что взвешенная ошибка с новыми весами классификатора с предидущего шага равняется ровно 1/2. Вот мое решение, но я застрял с доказательством. https://math.stackexchange.com/questions/3386916/how-to-show-that-ada-boosting-weighted-error-is-exactly-1-2

🔗 How to Show that Ada Boosting Weighted Error is Exactly 1/2
I am trying to prove that in an AdaBoost model $Y \rightarrow [-1,1]$ $err_t'= \frac{\sum_{i=1}^{N}w'_i1\{h_t(x^{(i)})\neq t^{(i)}\}}{\sum_{i=1}^{N}w'_i} = \frac{1}{2}$ here, $w_i' = w_i exp(-\al...
​Kaggle LANL Earthquake Prediction — Алексей Могильников

🔗 Kaggle LANL Earthquake Prediction — Алексей Могильников
Алексей Могильников рассказывает про соревнование Kaggle LANL Earthquake Prediction, в котором он заработал серебряную медаль. Из этого видео вы сможете узнать: - Обзор соревнования, про проблему землетрясений и почему она важна - Как нужно начинать участвовать в соревновании - Ключевые идеи и подходы к решению - Подробности решения первого места Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/ Узнать о новых тренировках и видео можно из групп: ВКонтакте https://vk.com/mltrainings Fa
​How to Upload a Dataset to Kaggle | Kaggle

🔗 How to Upload a Dataset to Kaggle | Kaggle
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repository of free code and data. Stumped? Ask the friendly Kaggle community for help. Follow
​ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots

http://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html

🔗 ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots
Posted by Michael Ahn, Software Engineer and Vikash Kumar, Research Scientist, Robotics at Google Learning-based methods for solving rob...
​FacebookAI

has released higher, a library for bypassing limitations to taking higher-order gradients over an optimization process.
Library:
https://github.com/facebookresearch/higher
Docs:
https://higher.readthedocs.io

🔗 facebookresearch/higher
higher is a pytorch library allowing users to obtain higher order gradients over losses spanning training loops rather than individual training steps. - facebookresearch/higher
​Neural Machine Translation with TensorFlow

https://blog.paperspace.com/neural-machine-translation-with-tensorflow/

🔗 Neural Machine Translation with TensorFlow
If you are a fan of Google translate or some other translation service, do you ever wonder how these programs are able to make spot-on translations from one language to another on par with human performance. Well, the underlying technology powering these super-human translators are neural networks and we are going build a special type called recurrent neural network to do French to English translation using Google's open-source machine learning library, TensorFlow. ​​ ​​Note: This tutoria
​Facebook ставит на то, что следующим популярным интерфейсом будет разговор
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры компании, и не только

В 2015 году чатботы были очень популярной темой. Одним из наиболее раскрученных был M от Facebook, который, по задумкам компании, должен был стать гибким ботом общего назначения, способным на очень многое – заказ товаров, доставку подарков, резервирование столиков в ресторане и планирование путешествий. Однако шумиха оказалась слишком громкой для полученного результата. Когда Facebook проверила своего М на 2500 человек из области залива Сан-Франциско, программа не справилась с большинством порученных ей задач.

🔗 Facebook ставит на то, что следующим популярным интерфейсом будет разговор
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры ко...
​Самый мягкий и пушистый путь в Machine Learning и Deep Neural Networks
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагностировать болезни и принимать сложные решения. Алгоритмы могут переплюнуть человека и в творчестве: они рисуют картины, пишут песни и делают из обычных снимков шедевры. А те, кто разрабатывает эти алгоритмы, часто представляются карикатурным учеными.

Не все так страшно! Собрать нейронную сеть из базовых моделей может любой, кто сколько-то знаком с программированием. И даже не обязательно учить Python, всё можно сделать на родном JavaScript. Как легко начать и зачем машинное обучение фронтендерам, рассказал Алексей Охрименко (obenjiro) на FrontendConf, а мы переложили в текст — чтобы названия архитектур и полезные ссылки были под рукой.

Spoiler. Alert!
Этот рассказ:

Не для тех, кто «уже» работает с Machine Learning. Что-то интересное будет, но маловероятно, что под катом вас ждут открытия.
Не о Transfer Learning. Не будем говорить о том, как написать нейронную сеть на Python, а потом работать с ней из JavaScript. Никаких читов — будем писать глубокие нейронные сети именно на JS.
Не о всех деталях. Вообще все концепции в одну статью не поместятся, но необходимое, конечно, разберем.

🔗 Самый мягкий и пушистый путь в Machine Learning и Deep Neural Networks
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагнос...
🎥 TensorFlow 2.0 Tutorial for Beginners 19 - Multi Step Prediction using LSTM | Time Series Prediction
👁 1 раз 4386 сек.
In this lesson, you will learn a multi-step time series prediction using RNN LSTM for household power consumption prediction. We will predict the power consumption of the coming week based on the power consumption of past weeks.

Download the working file: https://github.com/laxmimerit/Multi-Step-Time-Series-Prediction-using-RNN-LSTM-for-household-power-consumption

### Like Facebook Page:
https://www.facebook.com/kgptalkie/

## Watch Full Playlists:
### Deep Learning with TensorFlow 2.0 Tutorials
https:
Finally, Style Transfer For Smoke Simulations! 💨

📝 The paper "Transport-Based Neural Style Transfer for Smoke Simulations" is available here:
http://www.byungsoo.me/project/neural...

🎥 Finally, Style Transfer For Smoke Simulations! 💨
👁 2 раз 348 сек.
❤️ Check out Lambda here and sign up for their GPU Cloud: https://lambdalabs.com/papers

📝 The paper "Transport-Based Neural Style Transfer for Smoke Simulations" is available here:
http://www.byungsoo.me/project/neural-flow-style/index.html

💨 My fluid control paper is available here, pick it up if you're interested!
https://users.cg.tuwien.ac.at/zsolnai/gfx/real_time_fluid_control_eg/

Wavelet Turbulence - one of the best papers ever written:
http://www.tkim.graphics/WTURB/

🙏 We would like to thank our
​With 180+ papers mentioning
Transformers and its predecessors, it was high time to put out a real paper that people could cite.

https://arxiv.org/abs/1910.03771

🔗 Transformers: State-of-the-art Natural Language Processing
Recent advances in modern Natural Language Processing (NLP) research have been dominated by the combination of Transfer Learning methods with large-scale Transformer language models. With them came a paradigm shift in NLP with the starting point for training a model on a downstream task moving from a blank specific model to a general-purpose pretrained architecture. Still, creating these general-purpose models remains an expensive and time-consuming process restricting the use of these methods to a small sub-set of the wider NLP community. In this paper, we present Transformers, a library for state-of-the-art NLP, making these developments available to the community by gathering state-of-the-art general-purpose pretrained models under a unified API together with an ecosystem of libraries, examples, tutorials and scripts targeting many downstream NLP tasks. Transformers features carefully crafted model implementations and high-performance pretrained weights for two main deep learning frameworks, PyTorch and Te
🎥 Machine Learning Overview | MLAIT | DSC-LPU
👁 1 раз 995 сек.
#MachineLearning #DSC #MLAIT

Resources: https://github.com/patidarparas13/Machine-Learning-Tutorials

Twitter: @patidarparas13,@mlait1908,@dsclpu
LinkedIn : https://linkedin.com/in/patidarparas13

Thank You!