ultralytics/yolov5
🔗 ultralytics/yolov5
YOLOv5 in PyTorch ? ONNX ? CoreML ? iOS. Contribute to ultralytics/yolov5 development by creating an account on GitHub.
🔗 ultralytics/yolov5
YOLOv5 in PyTorch ? ONNX ? CoreML ? iOS. Contribute to ultralytics/yolov5 development by creating an account on GitHub.
GitHub
GitHub - ultralytics/yolov5: YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite
YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite. Contribute to ultralytics/yolov5 development by creating an account on GitHub.
London Bike Ride Forecasting with Graph Convolutional Networks
🔗 London Bike Ride Forecasting with Graph Convolutional Networks
End-to-End PyTorch Deep-Learning from Concept to Validation
🔗 London Bike Ride Forecasting with Graph Convolutional Networks
End-to-End PyTorch Deep-Learning from Concept to Validation
Medium
London Bike Ride Forecasting with Graph Convolutional Networks
End-to-End PyTorch Deep-Learning from Concept to Validation
Neural Network Part1:Inside a single neuron
🔗 Neural Network Part1:Inside a single neuron
The perceptron or a single neuron is the fundamental building block of a neural network .The idea of a neuron is basic but essential .
🔗 Neural Network Part1:Inside a single neuron
The perceptron or a single neuron is the fundamental building block of a neural network .The idea of a neuron is basic but essential .
Medium
Neural Network Part1: Inside a Single Neuron
The perceptron or a single neuron is the fundamental building block of a neural network .The idea of a neuron is basic but essential .
🎥 Machine Learning - TensorFlow Extended com Apache Airflow
👁 1 раз ⏳ 5980 сек.
👁 1 раз ⏳ 5980 сек.
Link GitHub: https://github.com/AlvaroCavalcante/tensorflow-extended-tutorialVk
Machine Learning - TensorFlow Extended com Apache Airflow
Link GitHub: https://github.com/AlvaroCavalcante/tensorflow-extended-tutorial
🎥 Machine Learning through Streaming at Lyft
👁 1 раз ⏳ 2462 сек.
👁 1 раз ⏳ 2462 сек.
Video with transcript included: https://bit.ly/2AVIBot
Sherin Thomas talks about the challenges of building and scaling a fully managed, self-service platform for stream processing using Flink, best practices, and common pitfalls. Thomas goes into the details of how the Lyft system evolved over the last couple of years, as well as the design tradeoffs they made.
This presentation was recorded at QCon London 2020: http://bit.ly/2VfRldq
#Flink #MachineLearning #StreamingVk
Machine Learning through Streaming at Lyft
Video with transcript included: https://bit.ly/2AVIBot
Sherin Thomas talks about the challenges of building and scaling a fully managed, self-service platform for stream processing using Flink, best practices, and common pitfalls. Thomas goes into the details…
Sherin Thomas talks about the challenges of building and scaling a fully managed, self-service platform for stream processing using Flink, best practices, and common pitfalls. Thomas goes into the details…
🎥 Deep Learning Text Recognition Using Programmatically Generated Synthetic Data
👁 1 раз ⏳ 1831 сек.
👁 1 раз ⏳ 1831 сек.
This presentation covers three important points 1) You can create a text recognition model for Urdu using Deep Learning. 2) You can create synthetic data for Urdu programmatically. 3) The deep learning model recognises synthetic data really well.
This was a presentation I did at BrumAI in November 2018.Vk
Deep Learning Text Recognition Using Programmatically Generated Synthetic Data
This presentation covers three important points 1) You can create a text recognition model for Urdu using Deep Learning. 2) You can create synthetic data for Urdu programmatically. 3) The deep learning model recognises synthetic data really well.
This was…
This was…
🎥 01 DEEP LEARNING LES RESEAUX DE NEURONES
👁 1 раз ⏳ 2148 сек.
👁 1 раз ⏳ 2148 сек.
première vidéos sur le deep learning avec tensorflow
Code source : https://github.com/ilmare0506/DEEP-LEARNING
TensorFlow : https://www.tensorflow.org/Vk
01 DEEP LEARNING LES RESEAUX DE NEURONES
première vidéos sur le deep learning avec tensorflow
Code source : https://github.com/ilmare0506/DEEP-LEARNING
TensorFlow : https://www.tensorflow.org/
Code source : https://github.com/ilmare0506/DEEP-LEARNING
TensorFlow : https://www.tensorflow.org/
Machine Learning with Spark
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 Открыть в Telegram
📝 Machine Learning with Spark and Python. Essential Techniques for Predictive Analytics (Bowles) 2 ed (2020).pdf - 💾7 727 436
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 Открыть в Telegram
📝 Machine Learning with Spark and Python. Essential Techniques for Predictive Analytics (Bowles) 2 ed (2020).pdf - 💾7 727 436
АНО «Национальная технологическая инициатива» объявляет о старте конкурса прогнозов https://future.2035.dev/
💰Спрогнозируйте 1 августа 2020 года и выиграйте — 50 000 ₽
💰 Спрогнозируйте 1 декабря 2020 года и выиграйте — 100 000 ₽
💰 Спрогнозируйте 1 января 2035 года и выиграйте — 1 000 000 ₽
Сделайте прогноз, как будут развиваться события в будущем 👽.
Тот, кто окажется ближе всех к реальности, получит деньги 💰.
Автор самого точного прогноза 📈 на лето 2020 года получит награду в размере 50 тыс. рублей, лучший прогноз на 01 декабря 2020 года будет отмечен 100 000 рублями, и миллион рублей достанутся тому, кто релевантнее всех спрогнозирует ситуацию на 01 января 2035 года.
Оставить прогноз и получить деньги — https://future.2035.dev/
#future2035 #НТИ
🔗 Прогнозы будущего
Опишите развитие событий в будущем. Сделайте самый точный прогноз и выиграйте деньги.
💰Спрогнозируйте 1 августа 2020 года и выиграйте — 50 000 ₽
💰 Спрогнозируйте 1 декабря 2020 года и выиграйте — 100 000 ₽
💰 Спрогнозируйте 1 января 2035 года и выиграйте — 1 000 000 ₽
Сделайте прогноз, как будут развиваться события в будущем 👽.
Тот, кто окажется ближе всех к реальности, получит деньги 💰.
Автор самого точного прогноза 📈 на лето 2020 года получит награду в размере 50 тыс. рублей, лучший прогноз на 01 декабря 2020 года будет отмечен 100 000 рублями, и миллион рублей достанутся тому, кто релевантнее всех спрогнозирует ситуацию на 01 января 2035 года.
Оставить прогноз и получить деньги — https://future.2035.dev/
#future2035 #НТИ
🔗 Прогнозы будущего
Опишите развитие событий в будущем. Сделайте самый точный прогноз и выиграйте деньги.
future.2035.dev
Future forecasts
Predict future trends. Make the most precise forecast and get a reward.
Искусственный интеллект и консервативные индустрии. История успешного внедрения на металлургическом заводе
🔗 Искусственный интеллект и консервативные индустрии. История успешного внедрения на металлургическом заводе
Искусственный интеллект в промышленности Часто люди, работающие в области технологий искусственного интеллекта, представляют себе металлургический завод как неч...
🔗 Искусственный интеллект и консервативные индустрии. История успешного внедрения на металлургическом заводе
Искусственный интеллект в промышленности Часто люди, работающие в области технологий искусственного интеллекта, представляют себе металлургический завод как неч...
Хабр
Как мы внедряли искусственный интеллект на металлургическом заводе
Искусственный интеллект в промышленности Часто люди, работающие в области технологий искусственного интеллекта, представляют себе металлургический завод как нечто монструозное по форме и...
У искусственного интеллекта найден инстинкт размножения
🔗 У искусственного интеллекта найден инстинкт размножения
Наша команда из почти ста человек, занимающихся обучением нейросетей, постоянно сокращается, потому что нейросети начали обучать себя сами. А недавно и материал...
🔗 У искусственного интеллекта найден инстинкт размножения
Наша команда из почти ста человек, занимающихся обучением нейросетей, постоянно сокращается, потому что нейросети начали обучать себя сами. А недавно и материал...
Хабр
У искусственного интеллекта найден инстинкт размножения
Наша команда из почти ста человек, занимающихся обучением нейросетей, постоянно сокращается, потому что нейросети начали обучать себя сами. А недавно и материал для новых нейросетей тоже стали искать...
Почему стриминг на KSQL и Kafka Streams — это непросто
🔗 Почему стриминг на KSQL и Kafka Streams — это непросто
Привет, Хабр! Меня зовут Саша, я лид-разработчик в GlowByte Consulting. Мы с командой сделали неплохой стриминговый движок для одного крупного банка. Сейчас в п...
🔗 Почему стриминг на KSQL и Kafka Streams — это непросто
Привет, Хабр! Меня зовут Саша, я лид-разработчик в GlowByte Consulting. Мы с командой сделали неплохой стриминговый движок для одного крупного банка. Сейчас в п...
Хабр
Почему стриминг на KSQL и Kafka Streams — это непросто
Привет, Хабр! Меня зовут Саша, я лид-разработчик в GlowByte Consulting. Мы с командой сделали неплохой стриминговый движок для одного крупного банка. Сейчас в продакшене крутится онлайн обработка...
Нейросеть — Обучение без учителя. Метод Policy Gradient
🔗 Нейросеть — Обучение без учителя. Метод Policy Gradient
Доброго времени суток Хабр. Настоящей статьей открываю цикл статей о том, как обучать нейронные сети без учителя. (Reinforcement Learning for Neuron Networks)...
🔗 Нейросеть — Обучение без учителя. Метод Policy Gradient
Доброго времени суток Хабр. Настоящей статьей открываю цикл статей о том, как обучать нейронные сети без учителя. (Reinforcement Learning for Neuron Networks)...
Хабр
Нейросеть — обучение без учителя. Метод Policy Gradient
Доброго времени суток, Хабр Настоящей статьей открываю цикл статей о том, как обучать нейронные сети без учителя. (Reinforcement Learning for Neuron Networks) В цикле планирую сделать три статьи по...
Abstractive Text Summarization Using Transformers
🔗 Abstractive Text Summarization Using Transformers
An exhaustive explanation of Google’s Transformer model; from theory to implementation
🔗 Abstractive Text Summarization Using Transformers
An exhaustive explanation of Google’s Transformer model; from theory to implementation
Medium
Abstractive Text Summarization Using Transformers
An exhaustive explanation of Google’s Transformer model; from theory to implementation
Bayesian Graph Neural Networks with Adaptive Connection Sampling https://arxiv.org/abs/2006.04064
🔗 Bayesian Graph Neural Networks with Adaptive Connection Sampling
We propose a unified framework for adaptive connection sampling in graph neural networks (GNNs) that generalizes existing stochastic regularization methods for training GNNs. The proposed framework not only alleviates over-smoothing and over-fitting tendencies of deep GNNs, but also enables learning with uncertainty in graph analytic tasks with GNNs. Instead of using fixed sampling rates or hand-tuning them as model hyperparameters in existing stochastic regularization methods, our adaptive connection sampling can be trained jointly with GNN model parameters in both global and local fashions. GNN training with adaptive connection sampling is shown to be mathematically equivalent to an efficient approximation of training Bayesian GNNs. Experimental results with ablation studies on benchmark datasets validate that adaptively learning the sampling rate given graph training data is the key to boost the performance of GNNs in semi-supervised node classification, less prone to over-smoothing and over-fitting with m
🔗 Bayesian Graph Neural Networks with Adaptive Connection Sampling
We propose a unified framework for adaptive connection sampling in graph neural networks (GNNs) that generalizes existing stochastic regularization methods for training GNNs. The proposed framework not only alleviates over-smoothing and over-fitting tendencies of deep GNNs, but also enables learning with uncertainty in graph analytic tasks with GNNs. Instead of using fixed sampling rates or hand-tuning them as model hyperparameters in existing stochastic regularization methods, our adaptive connection sampling can be trained jointly with GNN model parameters in both global and local fashions. GNN training with adaptive connection sampling is shown to be mathematically equivalent to an efficient approximation of training Bayesian GNNs. Experimental results with ablation studies on benchmark datasets validate that adaptively learning the sampling rate given graph training data is the key to boost the performance of GNNs in semi-supervised node classification, less prone to over-smoothing and over-fitting with m
Unsupervised Reinforcement Learning
🔗 Unsupervised Reinforcement Learning
Watch Sergey Levine's lecture at International Conference on Autonomous Agents and Multi-Agent Systems 2020
🔗 Unsupervised Reinforcement Learning
Watch Sergey Levine's lecture at International Conference on Autonomous Agents and Multi-Agent Systems 2020
Efficient PyTorch — Part 1
🔗 Efficient PyTorch — Part 1
What is an efficient training pipeline? Is it the one, that produces a model with the best accuracy? Or the one that runs the fastest? Or…
🔗 Efficient PyTorch — Part 1
What is an efficient training pipeline? Is it the one, that produces a model with the best accuracy? Or the one that runs the fastest? Or…
Medium
Efficient PyTorch — Part 1
What is an efficient training pipeline? Is it the one, that produces a model with the best accuracy? Or the one that runs the fastest? Or…
How to Set Up Docker for Deep Learning on AWS
🔗 How to Set Up Docker for Deep Learning on AWS
Access GPUs inside a running container with nvidia-docker
🔗 How to Set Up Docker for Deep Learning on AWS
Access GPUs inside a running container with nvidia-docker
Medium
How to Set Up Docker for Deep Learning on AWS
Access GPUs inside a running container with nvidia-docker
Ordinal and One-Hot Encodings for Categorical Data - Machine Learning Mastery
🔗 Ordinal and One-Hot Encodings for Categorical Data - Machine Learning Mastery
Machine learning models require all input and output variables to be numeric. This means that if your data contains categorical data, you must encode it to numbers before you can fit and evaluate a model. The two most popular techniques are an Ordinal Encoding and a One-Hot Encoding. In this tutorial, you will discover how to use encoding schemes for categorical machine learning
🔗 Ordinal and One-Hot Encodings for Categorical Data - Machine Learning Mastery
Machine learning models require all input and output variables to be numeric. This means that if your data contains categorical data, you must encode it to numbers before you can fit and evaluate a model. The two most popular techniques are an Ordinal Encoding and a One-Hot Encoding. In this tutorial, you will discover how to use encoding schemes for categorical machine learning
A 12nm Programmable Convolution-Efficient Neural-Processing-Unit Chip Achieving 825TOPS
https://ieeexplore.ieee.org/document/9062984
🔗 7.2 A 12nm Programmable Convolution-Efficient Neural-Processing-Unit Chip Achieving 825TOPS - IEEE C
IEEE Xplore, delivering full text access to the world's highest quality technical literature in engineering and technology. | IEEE Xplore
https://ieeexplore.ieee.org/document/9062984
🔗 7.2 A 12nm Programmable Convolution-Efficient Neural-Processing-Unit Chip Achieving 825TOPS - IEEE C
IEEE Xplore, delivering full text access to the world's highest quality technical literature in engineering and technology. | IEEE Xplore
ieeexplore.ieee.org
7.2 A 12nm Programmable Convolution-Efficient Neural-Processing-Unit Chip Achieving 825TOPS - IEEE Conference Publication
IEEE Xplore, delivering full text access to the world's highest quality technical literature in engineering and technology. | IEEE Xplore