The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification
Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020)
code: https://github.com/dongliangchang/Mutual-Channel-Loss
paper: https://arxiv.org/abs/2002.04264v1
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 dongliangchang/Mutual-Channel-Loss
Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020) - dongliangchang/Mutual-Channel-Loss
Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020)
code: https://github.com/dongliangchang/Mutual-Channel-Loss
paper: https://arxiv.org/abs/2002.04264v1
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
🔗 dongliangchang/Mutual-Channel-Loss
Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020) - dongliangchang/Mutual-Channel-Loss
GitHub
GitHub - PRIS-CV/Mutual-Channel-Loss: Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image…
Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020) - PRIS-CV/Mutual-Channel-Loss
Top 20 free Data Science, ML and AI MOOCs on the Internet
🔗 Top 20 free Data Science, ML and AI MOOCs on the Internet
Here is a list of the best online courses on Data Science, Machine Learning, Deep Learning, and Artificial Intelligence
🔗 Top 20 free Data Science, ML and AI MOOCs on the Internet
Here is a list of the best online courses on Data Science, Machine Learning, Deep Learning, and Artificial Intelligence
Medium
Top 20 free Data Science, ML and AI MOOCs on the Internet
Here is a list of the best online courses on Data Science, Machine Learning, Deep Learning, and Artificial Intelligence
Мифы о больших данных и цифровая культура
Мы продолжаем публиковать самые интересные доклады RAIF. Сегодня хотим поделиться рассказом доктора физико-математических наук, профессора департамента информатики НИУ ВШЭ Бориса Асеновича Новикова.
🔗 Мифы о больших данных и цифровая культура
Мы продолжаем публиковать самые интересные доклады RAIF. Сегодня хотим поделиться рассказом доктора физико-математических наук, профессора департамента информа...
Мы продолжаем публиковать самые интересные доклады RAIF. Сегодня хотим поделиться рассказом доктора физико-математических наук, профессора департамента информатики НИУ ВШЭ Бориса Асеновича Новикова.
🔗 Мифы о больших данных и цифровая культура
Мы продолжаем публиковать самые интересные доклады RAIF. Сегодня хотим поделиться рассказом доктора физико-математических наук, профессора департамента информа...
Хабр
Мифы о больших данных и цифровая культура
Мы продолжаем публиковать самые интересные доклады RAIF, ежегодного форума по искусственному интеллекту, организованному «Инфосистемы Джет». Сегодня хотим поделиться рассказом доктора...
Классификация с многими метками
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов», посвященный классификации.
Для описания изображения на рисунке можно использовать одновременно несколько меток: «хвойный лес», «горы», «дорога». Если число возможных значений для меток велико, но все они имеют одинаковую природу, как теги, каждый размеченный образец можно преобразовать в несколько размеченных данных, по одному для каждой метки. Все эти новые данные будут иметь одинаковые векторы признаков и только одну метку. В результате задача превращается в задачу многоклассовой классификации. Решить ее можно, используя стратегию «один против всех». Единственное отличие от обычной задачи многоклассовой классификации заключается в появлении нового гиперпараметра: порога. Если оценка подобия для какой-то метки выше порогового значения, эта метка присваивается входному вектору признаков. В этом сценарии одному вектору признаков может быть присвоено несколько меток. Значение порога выбирается с использованием контрольного набора.
🔗 Классификация с многими метками
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов», посвященный классификации. Для описан...
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов», посвященный классификации.
Для описания изображения на рисунке можно использовать одновременно несколько меток: «хвойный лес», «горы», «дорога». Если число возможных значений для меток велико, но все они имеют одинаковую природу, как теги, каждый размеченный образец можно преобразовать в несколько размеченных данных, по одному для каждой метки. Все эти новые данные будут иметь одинаковые векторы признаков и только одну метку. В результате задача превращается в задачу многоклассовой классификации. Решить ее можно, используя стратегию «один против всех». Единственное отличие от обычной задачи многоклассовой классификации заключается в появлении нового гиперпараметра: порога. Если оценка подобия для какой-то метки выше порогового значения, эта метка присваивается входному вектору признаков. В этом сценарии одному вектору признаков может быть присвоено несколько меток. Значение порога выбирается с использованием контрольного набора.
🔗 Классификация с многими метками
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов», посвященный классификации. Для описан...
Хабр
Классификация с многими метками
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов» , посвященный классификации. Для описания изображения на рисунке можно...
📚Natural Language Processing with PyTorch
📝 [Delip_Rao,_Brian_McMahan]_Natural_Language_Proces.pdf - 💾16 896 401
📝 [Delip_Rao,_Brian_McMahan]_Natural_Language_Proces.pdf - 💾16 896 401
Why Heatmaps don’t work for experimenting “geospatially” on ground?
🔗 Why Heatmaps don’t work for experimenting “geospatially” on ground?
What can we learn about experiments on the ground from web-based experimentation?
🔗 Why Heatmaps don’t work for experimenting “geospatially” on ground?
What can we learn about experiments on the ground from web-based experimentation?
Medium
Saying Goodbye to Heatmaps for Geospatial Analytics
What can we learn about experiments on the ground from web-based experimentation?
Real-Time Object Detection with YOLO
🔗 Real-Time Object Detection with YOLO
Exploring the ultra-fast computer vision algorithm capable of processing 155+ frames per second
🔗 Real-Time Object Detection with YOLO
Exploring the ultra-fast computer vision algorithm capable of processing 155+ frames per second
Medium
Real-Time Object Detection with YOLO
Exploring the ultra-fast computer vision algorithm capable of processing 155+ frames per second
🎥 Bridging Game Theory and Deep Learning Opening and Motivation
👁 1 раз ⏳ 640 сек.
👁 1 раз ⏳ 640 сек.
Bridging Game Theory and Deep Learning Opening and Motivation
This video reposted for educational purposes
Workshop URL: https://sgo-workshop.github.io/
Video URL: https://slideslive.com/38922020/bridging-game-theory-and-deep-learning-1
Overview:
Advances in generative modeling and adversarial learning have given rise to renewed interest in differentiable two-players games, with much of the attention falling on generative adversarial networks (GANs). Solving these games introduces distinct challenges comVk
Bridging Game Theory and Deep Learning Opening and Motivation
Bridging Game Theory and Deep Learning Opening and Motivation
This video reposted for educational purposes
Workshop URL: https://sgo-workshop.github.io/
Video URL: https://slideslive.com/38922020/bridging-game-theory-and-deep-learning-1
Overview:
Advances…
This video reposted for educational purposes
Workshop URL: https://sgo-workshop.github.io/
Video URL: https://slideslive.com/38922020/bridging-game-theory-and-deep-learning-1
Overview:
Advances…
https://www.youtube.com/watch?v=bQa7hpUpMzM
🔗 Vladimir Vapnik: Predicates, Invariants, and the Essence of Intelligence | AI Podcast
Vladimir Vapnik is the co-inventor of support vector machines, support vector clustering, VC theory, and many foundational ideas in statistical learning. He was born in the Soviet Union, worked at the Institute of Control Sciences in Moscow, then in the US, worked at AT&T, NEC Labs, Facebook AI Research, and now is a professor at Columbia University. His work has been cited over 200,000 times. This conversation is part of the Artificial Intelligence podcast.
This episode is presented by Cash App. Download
🔗 Vladimir Vapnik: Predicates, Invariants, and the Essence of Intelligence | AI Podcast
Vladimir Vapnik is the co-inventor of support vector machines, support vector clustering, VC theory, and many foundational ideas in statistical learning. He was born in the Soviet Union, worked at the Institute of Control Sciences in Moscow, then in the US, worked at AT&T, NEC Labs, Facebook AI Research, and now is a professor at Columbia University. His work has been cited over 200,000 times. This conversation is part of the Artificial Intelligence podcast.
This episode is presented by Cash App. Download
YouTube
Vladimir Vapnik: Predicates, Invariants, and the Essence of Intelligence | Lex Fridman Podcast #71
Vladimir Vapnik is the co-inventor of support vector machines, support vector clustering, VC theory, and many foundational ideas in statistical learning. He was born in the Soviet Union, worked at the Institute of Control Sciences in Moscow, then in the US…
New Data Science Cheat Sheet,
https://www.datasciencecentral.com/profiles/blogs/new-data-science-cheat-sheet
🔗 New Data Science Cheat Sheet, by Maverick Lin
Below is an extract of a 10-page cheat sheet about data science, compiled by Maverick Lin. This cheatsheet is currently a reference in data science that covers…
https://www.datasciencecentral.com/profiles/blogs/new-data-science-cheat-sheet
🔗 New Data Science Cheat Sheet, by Maverick Lin
Below is an extract of a 10-page cheat sheet about data science, compiled by Maverick Lin. This cheatsheet is currently a reference in data science that covers…
Data Science Central
New Data Science Cheat Sheet, by Maverick Lin
Below is an extract of a 10-page cheat sheet about data science, compiled by Maverick Lin. This cheatsheet is currently a reference in data science that covers basic concepts in probability, statistics, statistical learning, machine learning, deep learning…
AAAI 20 / AAAI 2020 Keynotes Turing Award Winners Event / Geoff Hinton, Yann Le Cunn, Yoshua Bengio
🔗 AAAI 20 / AAAI 2020 Keynotes Turing Award Winners Event / Geoff Hinton, Yann Le Cunn, Yoshua Bengio
**Highlighted Topics** 02:52 [Talk: Stacked Capsule Autoencoders by Geoffrey Hinton] 36:04 [Talk: Self-Supervised Learning by Yann LeCun] 1:09:37 [Talk: Deep Learning for System 2 Processing by Yoshua Bengio] 1:41:06 [Panel Discussion] Auto-chaptering powered by VideoKen (https://videoken.com/) For indexed video, https://conftube.com/video/vimeo-390347111 **All Topics** 03:09 Two approaches to object recognition 03:53 Problems with CNNs: Dealing with viewpoint changes 04:42 Equivariance vs Invariance 0
🔗 AAAI 20 / AAAI 2020 Keynotes Turing Award Winners Event / Geoff Hinton, Yann Le Cunn, Yoshua Bengio
**Highlighted Topics** 02:52 [Talk: Stacked Capsule Autoencoders by Geoffrey Hinton] 36:04 [Talk: Self-Supervised Learning by Yann LeCun] 1:09:37 [Talk: Deep Learning for System 2 Processing by Yoshua Bengio] 1:41:06 [Panel Discussion] Auto-chaptering powered by VideoKen (https://videoken.com/) For indexed video, https://conftube.com/video/vimeo-390347111 **All Topics** 03:09 Two approaches to object recognition 03:53 Problems with CNNs: Dealing with viewpoint changes 04:42 Equivariance vs Invariance 0
Subdomains Of AI (Genetic Computing (Automative Design, Encryption and…
🔗 Subdomains Of AI (Genetic Computing (Automative Design, Encryption and…
Subdomains Of AI (Genetic Computing, Neural Network, Machine Learning, Deep Learning, Computer Vision, Robotics, Expert System, Natural Language Process, Semantic Web, ( ( (Knowledge Representation, Production, Image Classification))))
🔗 Subdomains Of AI (Genetic Computing (Automative Design, Encryption and…
Subdomains Of AI (Genetic Computing, Neural Network, Machine Learning, Deep Learning, Computer Vision, Robotics, Expert System, Natural Language Process, Semantic Web, ( ( (Knowledge Representation, Production, Image Classification))))
coggle.it
Subdomains Of AI (Genetic Computing (Automative Design, Encryption and…
Subdomains Of AI (Genetic Computing, Neural Network, Machine Learning, Deep Learning, Computer Vision, Robotics, Expert System, Natural Language Process, Semantic Web, (((Knowledge Representation, Production, Image Classification))))
🎥 Инновационный практикум. Презентации проектов. Часть 1
👁 1 раз ⏳ 4140 сек.
👁 1 раз ⏳ 4140 сек.
00:07 Computer Science course management system
07:36 REF Fan Computer vision
28:04 Резонанс
33:30 Анализ и извлечение данных из диаграмм
41:53 Obfuscare
54:46 Deep Learning for RetailVK Видео
Инновационный практикум. Презентации проектов. Часть 1
00:07 Computer Science course management system
07:36 REF Fan Computer vision
28:04 Резонанс
33:30 Анализ и извлечение данных из диаграмм
41:53 Obfuscare
54:46 Deep Learning for Retail
07:36 REF Fan Computer vision
28:04 Резонанс
33:30 Анализ и извлечение данных из диаграмм
41:53 Obfuscare
54:46 Deep Learning for Retail
Книга Python Data Analytics
📝 Python Data Analytics, 2nd Edition.epub - 💾15 317 805
📝 Python Data Analytics, 2nd Edition.pdf - 💾14 645 490
📝 Python Data Analytics, 2nd Edition.epub - 💾15 317 805
📝 Python Data Analytics, 2nd Edition.pdf - 💾14 645 490
Data used to train #AI can contain implicit racial, gender, or ideological biases. How can we champion processes to remove bias from AI?
https://www.anaconda.com/machine-learning-bias-fairness/
🔗 What Can AI Teach Us about Bias and Fairness? - Anaconda
While it’s true machine learning has had problems with biased outcomes, one thing is for certain: humans are the reason for that. Here are five ways we can improve.
https://www.anaconda.com/machine-learning-bias-fairness/
🔗 What Can AI Teach Us about Bias and Fairness? - Anaconda
While it’s true machine learning has had problems with biased outcomes, one thing is for certain: humans are the reason for that. Here are five ways we can improve.
Anaconda
Anaconda | What Can AI Teach Us about Bias and Fairness?
By: Peter Wang & Natalie Parra-Novosad As researchers, journalists, and many others have discovered, machine learning algorithms can deliver biased results. One notorious example is ProPublica’s discovery of bias in a software called COMPAS used by the U.S.…