Neural Networks | Нейронные сети
11.6K subscribers
805 photos
184 videos
170 files
9.46K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification

Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020)

code: https://github.com/dongliangchang/Mutual-Channel-Loss
paper: https://arxiv.org/abs/2002.04264v1
Наш телеграм канал - tglink.me/ai_machinelearning_big_data

🔗 dongliangchang/Mutual-Channel-Loss
Code release for The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification (TIP 2020) - dongliangchang/Mutual-Channel-Loss
​Мифы о больших данных и цифровая культура

Мы продолжаем публиковать самые интересные доклады RAIF. Сегодня хотим поделиться рассказом доктора физико-математических наук, профессора департамента информатики НИУ ВШЭ Бориса Асеновича Новикова.

🔗 Мифы о больших данных и цифровая культура
Мы продолжаем публиковать самые интересные доклады RAIF. Сегодня хотим поделиться рассказом доктора физико-математических наук, профессора департамента информа...
​Классификация с многими метками
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов», посвященный классификации.

Для описания изображения на рисунке можно использовать одновременно несколько меток: «хвойный лес», «горы», «дорога». Если число возможных значений для меток велико, но все они имеют одинаковую природу, как теги, каждый размеченный образец можно преобразовать в несколько размеченных данных, по одному для каждой метки. Все эти новые данные будут иметь одинаковые векторы признаков и только одну метку. В результате задача превращается в задачу многоклассовой классификации. Решить ее можно, используя стратегию «один против всех». Единственное отличие от обычной задачи многоклассовой классификации заключается в появлении нового гиперпараметра: порога. Если оценка подобия для какой-то метки выше порогового значения, эта метка присваивается входному вектору признаков. В этом сценарии одному вектору признаков может быть присвоено несколько меток. Значение порога выбирается с использованием контрольного набора.

🔗 Классификация с многими метками
Привет, Хаброжители! Мы решили привести опубликовать отрывок из книги Андрея Буркова «Машинное обучение без лишних слов», посвященный классификации. Для описан...
📚Natural Language Processing with PyTorch

📝 [Delip_Rao,_Brian_McMahan]_Natural_Language_Proces.pdf - 💾16 896 401
🎥 Bridging Game Theory and Deep Learning Opening and Motivation
👁 1 раз 640 сек.
Bridging Game Theory and Deep Learning Opening and Motivation

This video reposted for educational purposes

Workshop URL: https://sgo-workshop.github.io/
Video URL: https://slideslive.com/38922020/bridging-game-theory-and-deep-learning-1

Overview:
Advances in generative modeling and adversarial learning have given rise to renewed interest in differentiable two-players games, with much of the attention falling on generative adversarial networks (GANs). Solving these games introduces distinct challenges com
https://www.youtube.com/watch?v=bQa7hpUpMzM

🔗 Vladimir Vapnik: Predicates, Invariants, and the Essence of Intelligence | AI Podcast
Vladimir Vapnik is the co-inventor of support vector machines, support vector clustering, VC theory, and many foundational ideas in statistical learning. He was born in the Soviet Union, worked at the Institute of Control Sciences in Moscow, then in the US, worked at AT&T, NEC Labs, Facebook AI Research, and now is a professor at Columbia University. His work has been cited over 200,000 times. This conversation is part of the Artificial Intelligence podcast.

This episode is presented by Cash App. Download
​AAAI 20 / AAAI 2020 Keynotes Turing Award Winners Event / Geoff Hinton, Yann Le Cunn, Yoshua Bengio

🔗 AAAI 20 / AAAI 2020 Keynotes Turing Award Winners Event / Geoff Hinton, Yann Le Cunn, Yoshua Bengio
**Highlighted Topics** 02:52 [Talk: Stacked Capsule Autoencoders by Geoffrey Hinton] 36:04 [Talk: Self-Supervised Learning by Yann LeCun] 1:09:37 [Talk: Deep Learning for System 2 Processing by Yoshua Bengio] 1:41:06 [Panel Discussion] Auto-chaptering powered by VideoKen (https://videoken.com/) For indexed video, https://conftube.com/video/vimeo-390347111 **All Topics** 03:09 Two approaches to object recognition 03:53 Problems with CNNs: Dealing with viewpoint changes 04:42 Equivariance vs Invariance 0
​Subdomains Of AI (Genetic Computing (Automative Design, Encryption and…

🔗 Subdomains Of AI (Genetic Computing (Automative Design, Encryption and…
Subdomains Of AI (Genetic Computing, Neural Network, Machine Learning, Deep Learning, Computer Vision, Robotics, Expert System, Natural Language Process, Semantic Web, ( ( (Knowledge Representation, Production, Image Classification))))