Optimising a Machine Learning Model with the Confusion Matrix
🔗 Optimising a Machine Learning Model with the Confusion Matrix
How to tune a classifier dependant on your use case, including a walk through in python
🔗 Optimising a Machine Learning Model with the Confusion Matrix
How to tune a classifier dependant on your use case, including a walk through in python
Medium
Optimising a Machine Learning Model with the Confusion Matrix
How to tune a classifier dependant on your use case, including a walk through in python
Objects Counting by Estimating a Density Map With Convolutional Neural Networks
🔗 Objects Counting by Estimating a Density Map With Convolutional Neural Networks
Written by Tomasz Bonus and Tomasz Golan.
🔗 Objects Counting by Estimating a Density Map With Convolutional Neural Networks
Written by Tomasz Bonus and Tomasz Golan.
Medium
Objects Counting by Estimating a Density Map With Convolutional Neural Networks
Written by Tomasz Bonus and Tomasz Golan.
Hey, Can (A)I Get Your Number?
🔗 Hey, Can (A)I Get Your Number?
Using CNNs to help love flourish in the 21st century
🔗 Hey, Can (A)I Get Your Number?
Using CNNs to help love flourish in the 21st century
Medium
Hey, Can (A)I Get Your Number?
Using CNNs to help love flourish in the 21st century
Искусственный интеллект простыми словами
✅Как учатся машины | Искусственный интеллект
✅Искусственный интеллект и машинное обучение
✅Искусственный интеллект и нейронные сети
✅Искусственный интеллект в юриспруденции
✅Искусственный интеллект в филологии и журналистике
✅Искусственный интеллект в сельском хозяйстве
✅Искусственный интеллект в бизнесе и финансах
✅Искусственный интеллект в медицине и биологии
✅Искусственный интеллект в педагогике и психологии
#video #ai
🎥 Как учатся машины | Искусственный интеллект
👁 40 раз ⏳ 483 сек.
🎥 Искусственный интеллект и машинное обучение
👁 12 раз ⏳ 718 сек.
🎥 Искусственный интеллект и нейронные сети
👁 5 раз ⏳ 686 сек.
🎥 Искусственный интеллект в юриспруденции
👁 9 раз ⏳ 378 сек.
🎥 Искусственный интеллект в филологии и журналистике
👁 1 раз ⏳ 308 сек.
🎥 Искусственный интеллект в сельском хозяйстве
👁 4 раз ⏳ 188 сек.
🎥 Искусственный интеллект в бизнесе и финансах
👁 1 раз ⏳ 248 сек.
🎥 Искусственный интеллект в медицине и биологии
👁 6 раз ⏳ 146 сек.
🎥 Искусственный интеллект в педагогике и психологии
👁 6 раз ⏳ 173 сек.
✅Как учатся машины | Искусственный интеллект
✅Искусственный интеллект и машинное обучение
✅Искусственный интеллект и нейронные сети
✅Искусственный интеллект в юриспруденции
✅Искусственный интеллект в филологии и журналистике
✅Искусственный интеллект в сельском хозяйстве
✅Искусственный интеллект в бизнесе и финансах
✅Искусственный интеллект в медицине и биологии
✅Искусственный интеллект в педагогике и психологии
#video #ai
🎥 Как учатся машины | Искусственный интеллект
👁 40 раз ⏳ 483 сек.
Искусственный интеллект простыми словами🎥 Искусственный интеллект и машинное обучение
👁 12 раз ⏳ 718 сек.
Про машинное обучение простыми словами🎥 Искусственный интеллект и нейронные сети
👁 5 раз ⏳ 686 сек.
Про нейронные сети простыми словами🎥 Искусственный интеллект в юриспруденции
👁 9 раз ⏳ 378 сек.
Примеры использования искусственного интеллекта в юриспруденции🎥 Искусственный интеллект в филологии и журналистике
👁 1 раз ⏳ 308 сек.
Примеры использования искусственного интеллекта в журналистике и филологии🎥 Искусственный интеллект в сельском хозяйстве
👁 4 раз ⏳ 188 сек.
Примеры использования искусственного интеллекта в сельском хозяйстве🎥 Искусственный интеллект в бизнесе и финансах
👁 1 раз ⏳ 248 сек.
Примеры использования искусственного интеллекта в бизнесе и финансах🎥 Искусственный интеллект в медицине и биологии
👁 6 раз ⏳ 146 сек.
Примеры использования искусственного интеллекта в медицине и биологии🎥 Искусственный интеллект в педагогике и психологии
👁 6 раз ⏳ 173 сек.
Примеры использования искусственного интеллекта в педагогике и психологииПогружение в свёрточные нейронные сети: передача обучения (transfer learning)
Полный курс на русском языке можно найти по этой ссылке.
Оригинальный курс на английском доступен по этой ссылке.
🔗 Погружение в свёрточные нейронные сети: передача обучения (transfer learning)
Полный курс на русском языке можно найти по этой ссылке. Оригинальный курс на английском доступен по этой ссылке. Содержание Интервью с Себастьяном Труном Введ...
Полный курс на русском языке можно найти по этой ссылке.
Оригинальный курс на английском доступен по этой ссылке.
🔗 Погружение в свёрточные нейронные сети: передача обучения (transfer learning)
Полный курс на русском языке можно найти по этой ссылке. Оригинальный курс на английском доступен по этой ссылке. Содержание Интервью с Себастьяном Труном Введ...
Хабр
Погружение в свёрточные нейронные сети: передача обучения (transfer learning)
Полный курс на русском языке можно найти по этой ссылке. Оригинальный курс на английском доступен по этой ссылке. Содержание Интервью с Себастьяном Труном Введение Передача модели обучения...
ALBERT: A Lite BERT for Self-supervised Learning of Language Representations
Lan et al. Google
arxiv.org/abs/1909.11942
🔗 ALBERT: A Lite BERT for Self-supervised Learning of Language Representations
Increasing model size when pretraining natural language representations often results in improved performance on downstream tasks. However, at some point further model increases become harder due to GPU/TPU memory limitations, longer training times, and unexpected model degradation. To address these problems, we present two parameter-reduction techniques to lower memory consumption and increase the training speed of BERT. Comprehensive empirical evidence shows that our proposed methods lead to models that scale much better compared to the original BERT. We also use a self-supervised loss that focuses on modeling inter-sentence coherence, and show it consistently helps downstream tasks with multi-sentence inputs. As a result, our best model establishes new state-of-the-art results on the GLUE, RACE, and SQuAD benchmarks while having fewer parameters compared to BERT-large.
Lan et al. Google
arxiv.org/abs/1909.11942
🔗 ALBERT: A Lite BERT for Self-supervised Learning of Language Representations
Increasing model size when pretraining natural language representations often results in improved performance on downstream tasks. However, at some point further model increases become harder due to GPU/TPU memory limitations, longer training times, and unexpected model degradation. To address these problems, we present two parameter-reduction techniques to lower memory consumption and increase the training speed of BERT. Comprehensive empirical evidence shows that our proposed methods lead to models that scale much better compared to the original BERT. We also use a self-supervised loss that focuses on modeling inter-sentence coherence, and show it consistently helps downstream tasks with multi-sentence inputs. As a result, our best model establishes new state-of-the-art results on the GLUE, RACE, and SQuAD benchmarks while having fewer parameters compared to BERT-large.
arXiv.org
ALBERT: A Lite BERT for Self-supervised Learning of Language...
Increasing model size when pretraining natural language representations often results in improved performance on downstream tasks. However, at some point further model increases become harder due...
Power BI as a Tool for Business Intelligence
🔗 Power BI as a Tool for Business Intelligence
An article about the advantages of Power BI as a tool for BI.
🔗 Power BI as a Tool for Business Intelligence
An article about the advantages of Power BI as a tool for BI.
Medium
Power BI as a Tool for Business Intelligence
An article about the advantages of Power BI as a tool for BI.
DeepMind Measures 7 Capabilities Every AI Should Have
video: https://www.youtube.com/watch?v=zrF5_O92ELQ
📝 The paper "Behaviour Suite for Reinforcement Learning"
https://arxiv.org/abs/1908.03568
code https://github.com/deepmind/bsuite
🎥 DeepMind Measures 7 Capabilities Every AI Should Have
👁 1 раз ⏳ 242 сек.
video: https://www.youtube.com/watch?v=zrF5_O92ELQ
📝 The paper "Behaviour Suite for Reinforcement Learning"
https://arxiv.org/abs/1908.03568
code https://github.com/deepmind/bsuite
🎥 DeepMind Measures 7 Capabilities Every AI Should Have
👁 1 раз ⏳ 242 сек.
❤️ Thank you so much for your support on Patreon: https://www.patreon.com/TwoMinutePapers
📝 The paper "Behaviour Suite for Reinforcement Learning" is available here:
https://arxiv.org/abs/1908.03568
https://github.com/deepmind/bsuite
🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible:
Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, Claudio Fernandes, Daniel HasegaYouTube
These Are The 7 Capabilities Every AI Should Have
❤️ Thank you so much for your support on Patreon: https://www.patreon.com/TwoMinutePapers
📝 The paper "Behaviour Suite for Reinforcement Learning" is available here:
https://arxiv.org/abs/1908.03568
https://github.com/deepmind/bsuite
🙏 We would like to…
📝 The paper "Behaviour Suite for Reinforcement Learning" is available here:
https://arxiv.org/abs/1908.03568
https://github.com/deepmind/bsuite
🙏 We would like to…
LSTM for time series prediction
🔗 LSTM for time series prediction
Training a Long Short Term Memory Neural Network with PyTorch and forecasting Bitcoin trading data
🔗 LSTM for time series prediction
Training a Long Short Term Memory Neural Network with PyTorch and forecasting Bitcoin trading data
Medium
LSTM for time series prediction
Training a Long Short Term Memory Neural Network with PyTorch and forecasting Bitcoin trading data
Why Kaggle Is Not Inclusive and How to Improve It.
🔗 Why Kaggle Is Not Inclusive and How to Improve It.
‘If you want to be good at swimming in pools, that is fine, go for Kaggle. If you want to be good on the open sea, go for Omdena’ —…
🔗 Why Kaggle Is Not Inclusive and How to Improve It.
‘If you want to be good at swimming in pools, that is fine, go for Kaggle. If you want to be good on the open sea, go for Omdena’ —…
Medium
Why Kaggle Is Not Inclusive and How to Improve It.
‘If you want to be good at swimming in pools, that is fine, go for Kaggle. If you want to be good on the open sea, go for Omdena’ —…
A Non-Confusing Guide to Confusion Matrix
🔗 A Non-Confusing Guide to Confusion Matrix
Uncover how your predictive model can be improved just from analyzing a simple 2x2 matrix
🔗 A Non-Confusing Guide to Confusion Matrix
Uncover how your predictive model can be improved just from analyzing a simple 2x2 matrix
Medium
A Non-Confusing Guide to Confusion Matrix
Uncover how your predictive model can be improved just from analyzing a simple 2x2 matrix
Is There a Difference Between Open Data and Public Data?
🔗 Is There a Difference Between Open Data and Public Data?
There is a general consensus that when we talk about open data we are referring to any piece of data or content that is free to access…
🔗 Is There a Difference Between Open Data and Public Data?
There is a general consensus that when we talk about open data we are referring to any piece of data or content that is free to access…
Medium
Is There a Difference Between Open Data and Public Data?
There is a general consensus that when we talk about open data we are referring to any piece of data or content that is free to access…
🎥 Learn Intel Ai With Gerald. How to set up Ai environment
👁 1 раз ⏳ 5229 сек.
👁 1 раз ⏳ 5229 сек.
Learn Ai with #IntelAi #tensorflow #deeplearning #Machine LearningVk
Learn Intel Ai With Gerald. How to set up Ai environment
Learn Ai with #IntelAi #tensorflow #deeplearning #Machine Learning
🎥 How to Become a Deep Learning Expert
👁 1 раз ⏳ 1431 сек.
👁 1 раз ⏳ 1431 сек.
In this video you will learn how to level up in your deep learning expertise. I share the path I took, and give you my guidelines on how to think about expertise.
You have to recognize that expertise is a sliding scale, rather than a state of being. Even the deep learning pioneers are learning more each day, and are gaining in expertise over time.
The key is to gradually increase your skills in mathematics and implementing cutting edge solutions at the forefront of deep learning. Always be striving forVk
How to Become a Deep Learning Expert
In this video you will learn how to level up in your deep learning expertise. I share the path I took, and give you my guidelines on how to think about expertise.
You have to recognize that expertise is a sliding scale, rather than a state of being. Even…
You have to recognize that expertise is a sliding scale, rather than a state of being. Even…
The Pitfalls of Linear Regression and How to Avoid Them
🔗 The Pitfalls of Linear Regression and How to Avoid Them
What to Do When the Linear Regression Assumptions Don’t Hold
🔗 The Pitfalls of Linear Regression and How to Avoid Them
What to Do When the Linear Regression Assumptions Don’t Hold
Medium
The Pitfalls of Linear Regression and How to Avoid Them
What to Do When the Linear Regression Assumptions Don’t Hold
Meet ALBERT: a new ‘Lite BERT’ from Google & Toyota with State of the Art NLP performance and 18x fe
🔗 Meet ALBERT: a new ‘Lite BERT’ from Google & Toyota with State of the Art NLP performance and 18x fe
TL;DR = your previous NLP models are parameter inefficient and kind of obsolete. Have a great day.
🔗 Meet ALBERT: a new ‘Lite BERT’ from Google & Toyota with State of the Art NLP performance and 18x fe
TL;DR = your previous NLP models are parameter inefficient and kind of obsolete. Have a great day.
Medium
Meet ALBERT: a new ‘Lite BERT’ from Google & Toyota with State of the Art NLP performance and 18x fewer parameters.
TL;DR = your previous NLP models are parameter inefficient and kind of obsolete. Have a great day.
🎥 Recitation 5 | Training Convolutional Neural Networks
👁 3 раз ⏳ 2542 сек.
👁 3 раз ⏳ 2542 сек.
Carnegie Mellon University
Course: 11-785, Intro to Deep Learning
Offering: Fall 2019
For more information, please visit: http://deeplearning.cs.cmu.edu/
Contents:
• Convolutional Neural Networks (CNNs)
• Arriving at the convolutional modeVk
Recitation 5 | Training Convolutional Neural Networks
Carnegie Mellon University
Course: 11-785, Intro to Deep Learning
Offering: Fall 2019
For more information, please visit: http://deeplearning.cs.cmu.edu/
Contents:
• Convolutional Neural Networks (CNNs)
• Arriving at the convolutional mode
Course: 11-785, Intro to Deep Learning
Offering: Fall 2019
For more information, please visit: http://deeplearning.cs.cmu.edu/
Contents:
• Convolutional Neural Networks (CNNs)
• Arriving at the convolutional mode
Параметризация нейросетью физической модели для решения задачи топологической оптимизации
Недавно на arXiv.org была загружена статья с не очень интригующим названием "Neural reparameterization improves structural optimization" [arXiv:1909.04240]. Однако оказалось, что авторы, по сути, придумали и описали весьма нетривиальный метод использования нейросети для получения решения задачи структурной/топологической оптимизации физических моделей (хотя и сами авторы говорят, что метод более универсален). Подход очень любопытный, результативный и судя по всему, — совершенно новый (впрочем, за последнее не поручусь, но ни авторы работы, ни сообщество ODS, ни я, аналогов припомнить не смогли), поэтому его может быть полезно знать интересующимся как использованием нейросетей, так и решением разнообразных задач оптимизации.
🔗 Параметризация нейросетью физической модели для решения задачи топологической оптимизации
Недавно на arXiv.org была загружена статья с не очень интригующим названием "Neural reparameterization improves structural optimization" [arXiv:1909.04240]. Одна...
Недавно на arXiv.org была загружена статья с не очень интригующим названием "Neural reparameterization improves structural optimization" [arXiv:1909.04240]. Однако оказалось, что авторы, по сути, придумали и описали весьма нетривиальный метод использования нейросети для получения решения задачи структурной/топологической оптимизации физических моделей (хотя и сами авторы говорят, что метод более универсален). Подход очень любопытный, результативный и судя по всему, — совершенно новый (впрочем, за последнее не поручусь, но ни авторы работы, ни сообщество ODS, ни я, аналогов припомнить не смогли), поэтому его может быть полезно знать интересующимся как использованием нейросетей, так и решением разнообразных задач оптимизации.
🔗 Параметризация нейросетью физической модели для решения задачи топологической оптимизации
Недавно на arXiv.org была загружена статья с не очень интригующим названием "Neural reparameterization improves structural optimization" [arXiv:1909.04240]. Одна...
Хабр
Параметризация нейросетью физической модели для решения задачи топологической оптимизации
Недавно на arXiv.org была загружена статья с не очень интригующим названием " Neural reparameterization improves structural optimization " [arXiv:1909.04240]. Однако оказалось, что авторы,...
🎥 How does Machine Learning Change Software Development Practices?
👁 1 раз ⏳ 3100 сек.
👁 1 раз ⏳ 3100 сек.
Активное развитие технологий машинного обучения и широкий успех систем, основанных на них, приводит к их повсеместному применению в самых различных областях науки и индустрии. В связи с этим можно отметить и исследовать изменения, которые использование данных методов привнесли во внутренние процессы разработки программного обеспечения, сравнивая опыт разработчиков.
В первом семинаре нового учебного года мы исследуем данную тему, представив обзор на две недавние статьи, ставящие своей целью изучить изменениVk
How does Machine Learning Change Software Development Practices?
Активное развитие технологий машинного обучения и широкий успех систем, основанных на них, приводит к их повсеместному применению в самых различных областях науки и индустрии. В связи с этим можно отметить и исследовать изменения, которые использование данных…