Neural Networks | Нейронные сети
11.6K subscribers
802 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
🎥 Machine Learning through Streaming at Lyft
👁 1 раз 2462 сек.
Video with transcript included: https://bit.ly/2AVIBot

Sherin Thomas talks about the challenges of building and scaling a fully managed, self-service platform for stream processing using Flink, best practices, and common pitfalls. Thomas goes into the details of how the Lyft system evolved over the last couple of years, as well as the design tradeoffs they made.

This presentation was recorded at QCon London 2020: http://bit.ly/2VfRldq

#Flink #MachineLearning #Streaming
🎥 Deep Learning Text Recognition Using Programmatically Generated Synthetic Data
👁 1 раз 1831 сек.
This presentation covers three important points 1) You can create a text recognition model for Urdu using Deep Learning. 2) You can create synthetic data for Urdu programmatically. 3) The deep learning model recognises synthetic data really well.

This was a presentation I did at BrumAI in November 2018.
🎥 01 DEEP LEARNING LES RESEAUX DE NEURONES
👁 1 раз 2148 сек.
première vidéos sur le deep learning avec tensorflow


Code source : https://github.com/ilmare0506/DEEP-LEARNING
TensorFlow : https://www.tensorflow.org/
​АНО «Национальная технологическая инициатива» объявляет о старте конкурса прогнозов https://future.2035.dev/

💰Спрогнозируйте 1 августа 2020 года и выиграйте — 50 000 ₽
💰 Спрогнозируйте 1 декабря 2020 года и выиграйте — 100 000 ₽
💰 Спрогнозируйте 1 января 2035 года и выиграйте — 1 000 000 ₽

Сделайте прогноз, как будут развиваться события в будущем 👽.
Тот, кто окажется ближе всех к реальности, получит деньги 💰.

Автор самого точного прогноза 📈 на лето 2020 года получит награду в размере 50 тыс. рублей, лучший прогноз на 01 декабря 2020 года будет отмечен 100 000 рублями, и миллион рублей достанутся тому, кто релевантнее всех спрогнозирует ситуацию на 01 января 2035 года.

Оставить прогноз и получить деньги — https://future.2035.dev/
#future2035 #НТИ

🔗 Прогнозы будущего
Опишите развитие событий в будущем. Сделайте самый точный прогноз и выиграйте деньги.
​Искусственный интеллект и консервативные индустрии. История успешного внедрения на металлургическом заводе

🔗 Искусственный интеллект и консервативные индустрии. История успешного внедрения на металлургическом заводе
Искусственный интеллект в промышленности Часто люди, работающие в области технологий искусственного интеллекта, представляют себе металлургический завод как неч...
​Bayesian Graph Neural Networks with Adaptive Connection Sampling https://arxiv.org/abs/2006.04064

🔗 Bayesian Graph Neural Networks with Adaptive Connection Sampling
We propose a unified framework for adaptive connection sampling in graph neural networks (GNNs) that generalizes existing stochastic regularization methods for training GNNs. The proposed framework not only alleviates over-smoothing and over-fitting tendencies of deep GNNs, but also enables learning with uncertainty in graph analytic tasks with GNNs. Instead of using fixed sampling rates or hand-tuning them as model hyperparameters in existing stochastic regularization methods, our adaptive connection sampling can be trained jointly with GNN model parameters in both global and local fashions. GNN training with adaptive connection sampling is shown to be mathematically equivalent to an efficient approximation of training Bayesian GNNs. Experimental results with ablation studies on benchmark datasets validate that adaptively learning the sampling rate given graph training data is the key to boost the performance of GNNs in semi-supervised node classification, less prone to over-smoothing and over-fitting with m
​Unsupervised Reinforcement Learning

🔗 Unsupervised Reinforcement Learning
Watch Sergey Levine's lecture at International Conference on Autonomous Agents and Multi-Agent Systems 2020
​Efficient PyTorch — Part 1

🔗 Efficient PyTorch — Part 1
What is an efficient training pipeline? Is it the one, that produces a model with the best accuracy? Or the one that runs the fastest? Or…
​Ordinal and One-Hot Encodings for Categorical Data - Machine Learning Mastery

🔗 Ordinal and One-Hot Encodings for Categorical Data - Machine Learning Mastery
Machine learning models require all input and output variables to be numeric. This means that if your data contains categorical data, you must encode it to numbers before you can fit and evaluate a model. The two most popular techniques are an Ordinal Encoding and a One-Hot Encoding. In this tutorial, you will discover how to use encoding schemes for categorical machine learning
🎥 Случайный лес
👁 1 раз 367 сек.
Запишетесь на полный курс Машинного обучения на Python по адресу support@ittensive.com