How to Upload a Dataset to Kaggle | Kaggle
🔗 How to Upload a Dataset to Kaggle | Kaggle
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repository of free code and data. Stumped? Ask the friendly Kaggle community for help. Follow
🔗 How to Upload a Dataset to Kaggle | Kaggle
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repository of free code and data. Stumped? Ask the friendly Kaggle community for help. Follow
YouTube
How to Upload a Dataset to Kaggle | Kaggle
SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_confirmation=1&utm_medium=youtube&utm_source=channel&utm_campaign=yt-sub
About Kaggle:
Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science…
About Kaggle:
Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science…
This Dress Doesn’t Exist
🔗 This Dress Doesn’t Exist
Fine tuning GPT-2 and StyleGAN for a fashion use case to generate synthetic product images and descriptions
🔗 This Dress Doesn’t Exist
Fine tuning GPT-2 and StyleGAN for a fashion use case to generate synthetic product images and descriptions
Medium
This Dress Doesn’t Exist
Fine tuning GPT-2 and StyleGAN for a fashion use case to generate synthetic product images and descriptions
ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots
http://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html
🔗 ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots
Posted by Michael Ahn, Software Engineer and Vikash Kumar, Research Scientist, Robotics at Google Learning-based methods for solving rob...
http://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html
🔗 ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots
Posted by Michael Ahn, Software Engineer and Vikash Kumar, Research Scientist, Robotics at Google Learning-based methods for solving rob...
Googleblog
ROBEL: Robotics Benchmarks for Learning with Low-Cost Robots
FacebookAI
has released higher, a library for bypassing limitations to taking higher-order gradients over an optimization process.
Library:
https://github.com/facebookresearch/higher
Docs:
https://higher.readthedocs.io
🔗 facebookresearch/higher
higher is a pytorch library allowing users to obtain higher order gradients over losses spanning training loops rather than individual training steps. - facebookresearch/higher
has released higher, a library for bypassing limitations to taking higher-order gradients over an optimization process.
Library:
https://github.com/facebookresearch/higher
Docs:
https://higher.readthedocs.io
🔗 facebookresearch/higher
higher is a pytorch library allowing users to obtain higher order gradients over losses spanning training loops rather than individual training steps. - facebookresearch/higher
GitHub
GitHub - facebookresearch/higher: higher is a pytorch library allowing users to obtain higher order gradients over losses spanning…
higher is a pytorch library allowing users to obtain higher order gradients over losses spanning training loops rather than individual training steps. - facebookresearch/higher
Neural Machine Translation with TensorFlow
https://blog.paperspace.com/neural-machine-translation-with-tensorflow/
🔗 Neural Machine Translation with TensorFlow
If you are a fan of Google translate or some other translation service, do you ever wonder how these programs are able to make spot-on translations from one language to another on par with human performance. Well, the underlying technology powering these super-human translators are neural networks and we are going build a special type called recurrent neural network to do French to English translation using Google's open-source machine learning library, TensorFlow. Note: This tutoria
https://blog.paperspace.com/neural-machine-translation-with-tensorflow/
🔗 Neural Machine Translation with TensorFlow
If you are a fan of Google translate or some other translation service, do you ever wonder how these programs are able to make spot-on translations from one language to another on par with human performance. Well, the underlying technology powering these super-human translators are neural networks and we are going build a special type called recurrent neural network to do French to English translation using Google's open-source machine learning library, TensorFlow. Note: This tutoria
Paperspace by DigitalOcean Blog
Neural Machine Translation with TensorFlow
Learn how to build build a recurrent neural network to do French to English translation using Google's open-source machine learning library, TensorFlow.
Facebook ставит на то, что следующим популярным интерфейсом будет разговор
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры компании, и не только
В 2015 году чатботы были очень популярной темой. Одним из наиболее раскрученных был M от Facebook, который, по задумкам компании, должен был стать гибким ботом общего назначения, способным на очень многое – заказ товаров, доставку подарков, резервирование столиков в ресторане и планирование путешествий. Однако шумиха оказалась слишком громкой для полученного результата. Когда Facebook проверила своего М на 2500 человек из области залива Сан-Франциско, программа не справилась с большинством порученных ей задач.
🔗 Facebook ставит на то, что следующим популярным интерфейсом будет разговор
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры ко...
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры компании, и не только
В 2015 году чатботы были очень популярной темой. Одним из наиболее раскрученных был M от Facebook, который, по задумкам компании, должен был стать гибким ботом общего назначения, способным на очень многое – заказ товаров, доставку подарков, резервирование столиков в ресторане и планирование путешествий. Однако шумиха оказалась слишком громкой для полученного результата. Когда Facebook проверила своего М на 2500 человек из области залива Сан-Франциско, программа не справилась с большинством порученных ей задач.
🔗 Facebook ставит на то, что следующим популярным интерфейсом будет разговор
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры ко...
Хабр
Facebook ставит на то, что следующим популярным интерфейсом будет разговор
Пока боты неспособны беседовать так, как люди. Но исследователи ИИ из Facebook уже активно проникают в эту область; это может серьёзно повлиять на мессенджеры ко...
AdaptIS – new instance segmentation method from my Samsung AI Center colleagues. It works with highly overlapping objects of complex shapes, where detection-based algorithms fail.
github.com/saic-vul/adaptis
arxiv.org/abs/1909.07829
🔗 saic-vul/adaptis
[ICCV19] AdaptIS: Adaptive Instance Selection Network - saic-vul/adaptis
github.com/saic-vul/adaptis
arxiv.org/abs/1909.07829
🔗 saic-vul/adaptis
[ICCV19] AdaptIS: Adaptive Instance Selection Network - saic-vul/adaptis
GitHub
GitHub - saic-vul/adaptis: [ICCV19] AdaptIS: Adaptive Instance Selection Network, https://arxiv.org/abs/1909.07829
[ICCV19] AdaptIS: Adaptive Instance Selection Network, https://arxiv.org/abs/1909.07829 - GitHub - saic-vul/adaptis: [ICCV19] AdaptIS: Adaptive Instance Selection Network, https://arxiv.org/abs/190...
Multilingual Machine Learning
🔗 Multilingual Machine Learning
Exploring BLEU Scores using Patent Data
🔗 Multilingual Machine Learning
Exploring BLEU Scores using Patent Data
Medium
Multilingual Machine Learning
Exploring BLEU Scores using Patent Data
Simple plotting in python (so you can concentrate on the bigger thing)
🔗 Simple plotting in python (so you can concentrate on the bigger thing)
(so you can concentrate on the bigger thing)
🔗 Simple plotting in python (so you can concentrate on the bigger thing)
(so you can concentrate on the bigger thing)
Medium
Simple plotting in python (so you can concentrate on the bigger thing)
(so you can concentrate on the bigger thing)
Самый мягкий и пушистый путь в Machine Learning и Deep Neural Networks
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагностировать болезни и принимать сложные решения. Алгоритмы могут переплюнуть человека и в творчестве: они рисуют картины, пишут песни и делают из обычных снимков шедевры. А те, кто разрабатывает эти алгоритмы, часто представляются карикатурным учеными.
Не все так страшно! Собрать нейронную сеть из базовых моделей может любой, кто сколько-то знаком с программированием. И даже не обязательно учить Python, всё можно сделать на родном JavaScript. Как легко начать и зачем машинное обучение фронтендерам, рассказал Алексей Охрименко (obenjiro) на FrontendConf, а мы переложили в текст — чтобы названия архитектур и полезные ссылки были под рукой.
Spoiler. Alert!
Этот рассказ:
Не для тех, кто «уже» работает с Machine Learning. Что-то интересное будет, но маловероятно, что под катом вас ждут открытия.
Не о Transfer Learning. Не будем говорить о том, как написать нейронную сеть на Python, а потом работать с ней из JavaScript. Никаких читов — будем писать глубокие нейронные сети именно на JS.
Не о всех деталях. Вообще все концепции в одну статью не поместятся, но необходимое, конечно, разберем.
🔗 Самый мягкий и пушистый путь в Machine Learning и Deep Neural Networks
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагнос...
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагностировать болезни и принимать сложные решения. Алгоритмы могут переплюнуть человека и в творчестве: они рисуют картины, пишут песни и делают из обычных снимков шедевры. А те, кто разрабатывает эти алгоритмы, часто представляются карикатурным учеными.
Не все так страшно! Собрать нейронную сеть из базовых моделей может любой, кто сколько-то знаком с программированием. И даже не обязательно учить Python, всё можно сделать на родном JavaScript. Как легко начать и зачем машинное обучение фронтендерам, рассказал Алексей Охрименко (obenjiro) на FrontendConf, а мы переложили в текст — чтобы названия архитектур и полезные ссылки были под рукой.
Spoiler. Alert!
Этот рассказ:
Не для тех, кто «уже» работает с Machine Learning. Что-то интересное будет, но маловероятно, что под катом вас ждут открытия.
Не о Transfer Learning. Не будем говорить о том, как написать нейронную сеть на Python, а потом работать с ней из JavaScript. Никаких читов — будем писать глубокие нейронные сети именно на JS.
Не о всех деталях. Вообще все концепции в одну статью не поместятся, но необходимое, конечно, разберем.
🔗 Самый мягкий и пушистый путь в Machine Learning и Deep Neural Networks
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагнос...
Хабр
Самый мягкий и пушистый путь в Machine Learning и Deep Neural Networks
Современное машинное обучение позволяет делать невероятные вещи. Нейросети работают на пользу общества: находят преступников, распознают угрозы, помогают диагностировать болезни и принимать сложные...
🎥 TensorFlow 2.0 Tutorial for Beginners 19 - Multi Step Prediction using LSTM | Time Series Prediction
👁 1 раз ⏳ 4386 сек.
👁 1 раз ⏳ 4386 сек.
In this lesson, you will learn a multi-step time series prediction using RNN LSTM for household power consumption prediction. We will predict the power consumption of the coming week based on the power consumption of past weeks.
Download the working file: https://github.com/laxmimerit/Multi-Step-Time-Series-Prediction-using-RNN-LSTM-for-household-power-consumption
### Like Facebook Page:
https://www.facebook.com/kgptalkie/
## Watch Full Playlists:
### Deep Learning with TensorFlow 2.0 Tutorials
https:Vk
TensorFlow 2.0 Tutorial for Beginners 19 - Multi Step Prediction using LSTM | Time Series Prediction
In this lesson, you will learn a multi-step time series prediction using RNN LSTM for household power consumption prediction. We will predict the power consumption of the coming week based on the power consumption of past weeks.
Download the working file:…
Download the working file:…
Finally, Style Transfer For Smoke Simulations! 💨
📝 The paper "Transport-Based Neural Style Transfer for Smoke Simulations" is available here:
http://www.byungsoo.me/project/neural...
🎥 Finally, Style Transfer For Smoke Simulations! 💨
👁 2 раз ⏳ 348 сек.
📝 The paper "Transport-Based Neural Style Transfer for Smoke Simulations" is available here:
http://www.byungsoo.me/project/neural...
🎥 Finally, Style Transfer For Smoke Simulations! 💨
👁 2 раз ⏳ 348 сек.
❤️ Check out Lambda here and sign up for their GPU Cloud: https://lambdalabs.com/papers
📝 The paper "Transport-Based Neural Style Transfer for Smoke Simulations" is available here:
http://www.byungsoo.me/project/neural-flow-style/index.html
💨 My fluid control paper is available here, pick it up if you're interested!
https://users.cg.tuwien.ac.at/zsolnai/gfx/real_time_fluid_control_eg/
Wavelet Turbulence - one of the best papers ever written:
http://www.tkim.graphics/WTURB/
🙏 We would like to thank ourWith 180+ papers mentioning
Transformers and its predecessors, it was high time to put out a real paper that people could cite.
https://arxiv.org/abs/1910.03771
🔗 Transformers: State-of-the-art Natural Language Processing
Recent advances in modern Natural Language Processing (NLP) research have been dominated by the combination of Transfer Learning methods with large-scale Transformer language models. With them came a paradigm shift in NLP with the starting point for training a model on a downstream task moving from a blank specific model to a general-purpose pretrained architecture. Still, creating these general-purpose models remains an expensive and time-consuming process restricting the use of these methods to a small sub-set of the wider NLP community. In this paper, we present Transformers, a library for state-of-the-art NLP, making these developments available to the community by gathering state-of-the-art general-purpose pretrained models under a unified API together with an ecosystem of libraries, examples, tutorials and scripts targeting many downstream NLP tasks. Transformers features carefully crafted model implementations and high-performance pretrained weights for two main deep learning frameworks, PyTorch and Te
Transformers and its predecessors, it was high time to put out a real paper that people could cite.
https://arxiv.org/abs/1910.03771
🔗 Transformers: State-of-the-art Natural Language Processing
Recent advances in modern Natural Language Processing (NLP) research have been dominated by the combination of Transfer Learning methods with large-scale Transformer language models. With them came a paradigm shift in NLP with the starting point for training a model on a downstream task moving from a blank specific model to a general-purpose pretrained architecture. Still, creating these general-purpose models remains an expensive and time-consuming process restricting the use of these methods to a small sub-set of the wider NLP community. In this paper, we present Transformers, a library for state-of-the-art NLP, making these developments available to the community by gathering state-of-the-art general-purpose pretrained models under a unified API together with an ecosystem of libraries, examples, tutorials and scripts targeting many downstream NLP tasks. Transformers features carefully crafted model implementations and high-performance pretrained weights for two main deep learning frameworks, PyTorch and Te
arXiv.org
HuggingFace's Transformers: State-of-the-art Natural Language...
Recent progress in natural language processing has been driven by advances in both model architecture and model pretraining. Transformer architectures have facilitated building higher-capacity...
🎥 Machine Learning Overview | MLAIT | DSC-LPU
👁 1 раз ⏳ 995 сек.
👁 1 раз ⏳ 995 сек.
#MachineLearning #DSC #MLAIT
Resources: https://github.com/patidarparas13/Machine-Learning-Tutorials
Twitter: @patidarparas13,@mlait1908,@dsclpu
LinkedIn : https://linkedin.com/in/patidarparas13
Thank You!Vk
Machine Learning Overview | MLAIT | DSC-LPU
#MachineLearning #DSC #MLAIT
Resources: https://github.com/patidarparas13/Machine-Learning-Tutorials
Twitter: @patidarparas13,@mlait1908,@dsclpu
LinkedIn : https://linkedin.com/in/patidarparas13
Thank You!
Resources: https://github.com/patidarparas13/Machine-Learning-Tutorials
Twitter: @patidarparas13,@mlait1908,@dsclpu
LinkedIn : https://linkedin.com/in/patidarparas13
Thank You!
Getting Started With Machine Learning, Part 3: Writing Your First Machine Learning Program
🔗 Getting Started With Machine Learning, Part 3: Writing Your First Machine Learning Program
A simple example using sci-kit learn
🔗 Getting Started With Machine Learning, Part 3: Writing Your First Machine Learning Program
A simple example using sci-kit learn
Medium
Getting Started With Machine Learning, Part 3: Writing Your First Machine Learning Program
A simple example using sci-kit learn
How Many Samples Do I Need in My Test?
🔗 How Many Samples Do I Need in My Test?
What you need to know to calculate a minimum test size for a binomial test — and how to calculate it
🔗 How Many Samples Do I Need in My Test?
What you need to know to calculate a minimum test size for a binomial test — and how to calculate it
Medium
How Many Samples Do I Need in My Test?
What you need to know to calculate a minimum test size for a binomial test — and how to calculate it
Feature Extraction Techniques
🔗 Feature Extraction Techniques
An end to end guide on how to reduce a dataset dimensionality using Feature Extraction Techniques such as: PCA, ICA, LDA, LLE, t-SNE and…
🔗 Feature Extraction Techniques
An end to end guide on how to reduce a dataset dimensionality using Feature Extraction Techniques such as: PCA, ICA, LDA, LLE, t-SNE and…
Medium
Feature Extraction Techniques
An end to end guide on how to reduce a dataset dimensionality using Feature Extraction Techniques such as: PCA, ICA, LDA, LLE, t-SNE and…
📹Artificial caricature
Agents learn to draw simplified (artistic?) portraits via trial and error.
Project website: https://learning-to-paint.github.io
ArXiV: https://arxiv.org/abs/1910.01007
🔗 Unsupervised Doodling and Painting with Improved SPIRAL
Agents learn to draw simplified (artistic?) portraits via trial and error.
Project website: https://learning-to-paint.github.io
ArXiV: https://arxiv.org/abs/1910.01007
🔗 Unsupervised Doodling and Painting with Improved SPIRAL
arXiv.org
Unsupervised Doodling and Painting with Improved SPIRAL
We investigate using reinforcement learning agents as generative models of images (extending arXiv:1804.01118). A generative agent controls a simulated painting environment, and is trained with...
Creating a Weapon Detector in 5 simple steps
🔗 Creating a Weapon Detector in 5 simple steps
Object detection using mask-RCNN on custom dataset
🔗 Creating a Weapon Detector in 5 simple steps
Object detection using mask-RCNN on custom dataset
Medium
Creating a Weapon Detector in 5 simple steps
Object detection using mask-RCNN on custom dataset
🎥 Deep Learning Weekly (VIII) - Two Stage Object Detection - Алмаз Зиноллаев
👁 1 раз ⏳ 2626 сек.
👁 1 раз ⏳ 2626 сек.
Алмаз Зиноллаев последовательно рассказал, как итеративно развивался и усложнялся пайплайн, посвященный задаче детекции объектов на изображении
Presentation: https://yadi.sk/i/97o5GkLOSK0lUgVk
Deep Learning Weekly (VIII) - Two Stage Object Detection - Алмаз Зиноллаев
Алмаз Зиноллаев последовательно рассказал, как итеративно развивался и усложнялся пайплайн, посвященный задаче детекции объектов на изображении
Presentation: https://yadi.sk/i/97o5GkLOSK0lUg
Presentation: https://yadi.sk/i/97o5GkLOSK0lUg