Neural Networks | Нейронные сети
11.6K subscribers
803 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
«Machine learning with Amazon SageMaker», Rinat Gareev, AWS Dev Day Moscow 2019
https://www.youtube.com/watch?v=G6xtmt0HCk0

🎥 «Machine learning with Amazon SageMaker», Rinat Gareev, AWS Dev Day Moscow 2019
👁 1 раз 3497 сек.
Session: Machine learning with Amazon SageMaker
Speaker: Rinat Gareev, Provectus

AWS Dev Day is a free, full-day technical event where new developers will learn about some of the hottest topics in cloud computing, and experienced developers can dive deep on newer AWS services.

Provectus has organized AWS Dev Day Moscow in close collaboration with Amazon Web Services: 250+ participants, 10 sessions, 2 tracks, a really AWSome Day!

Now we're building and nurturing AWS User Group Kazan — join us on Vkontak
Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karauhttps://www.youtube.com/watch?v=sOoo-xQMR4M

🎥 Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
👁 1 раз 1070 сек.
Flink Forward San Francisco, April 2018 #flinkforward

Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau

Tensorflow is all kind of fancy, from helping startups raising their Series A in Silicon Valley to detecting if something is a cat. However, when things start to get “real” you may find yourself no longer dealing with mnist.csv, and instead needing do large scale data prep as well as training. This talk will explore how Tensorflow can be used in conjunction with Apache BEAM, Flink,
Теория вероятностей

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
00 - Теория вероятностей. О курсе
01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
03 - Теория вероятностей. Теорема Байеса. Независимые события
04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
05 - Теория вероятностей. Случайные величины. Математическое ожидание.
06 - Теория вероятностей. Дисперсия
07 - Теория вероятностей. Закон больших чисел
08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.

🎥 00 - Теория вероятностей. О курсе
👁 1 раз 89 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
👁 1 раз 1757 сек.
Лектор: Александр Храбров

1. Вероятностная модель эксперимента
2. Вероятностные пространства

https://stepik.org/3089


🎥 02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
👁 1 раз 1671 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 03 - Теория вероятностей. Теорема Байеса. Независимые события
👁 1 раз 1789 сек.
Лектор: Александр Храбров


https://stepik.org/3089


🎥 04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
👁 1 раз 1327 сек.
Лектор: Александр Храбров


https://stepik.org/3089


🎥 05 - Теория вероятностей. Случайные величины. Математическое ожидание.
👁 1 раз 1514 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 06 - Теория вероятностей. Дисперсия
👁 1 раз 1364 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 07 - Теория вероятностей. Закон больших чисел
👁 1 раз 1280 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.
👁 1 раз 1780 сек.
Лектор: Александр Храбров

https://stepik.org/3089
On the relation between Loss Functions and T-Norms
https://arxiv.org/abs/1907.07904

🔗 On the relation between Loss Functions and T-Norms
Deep learning has been shown to achieve impressive results in several domains like computer vision and natural language processing. A key element of this success has been the development of new loss functions, like the popular cross-entropy loss, which has been shown to provide faster convergence and to reduce the vanishing gradient problem in very deep structures. While the cross-entropy loss is usually justified from a probabilistic perspective, this paper shows an alternative and more direct interpretation of this loss in terms of t-norms and their associated generator functions, and derives a general relation between loss functions and t-norms. In particular, the presented work shows intriguing results leading to the development of a novel class of loss functions. These losses can be exploited in any supervised learning task and which could lead to faster convergence rates that the commonly employed cross-entropy loss.
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July 16, Neuralink's ambitious plans were detailed for the first time, showcasing a future (a very distant future!) technology that could help people deal with brain or spinal cord injuries or controlling 3D digital avatars.
https://www.youtube.com/watch?v=lA77zsJ31nA

🎥 Watch Elon Musk’s Neuralink presentation
👁 1 раз 1109 сек.
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July 16, Neuralink's ambitious plans were detailed for the first time, showcasing a future (a very distant future!) technology that could help people deal with brain or spinal cord injuries or controlling 3D digital avatars.

Subscribe to CNET: https://www.yout
​Как выглядят банки изнутри
#DataMining #BigData

Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией.

В качестве источника данных — главная бухгалтерская книга банка. Используя теорию графов, выделяем всех его клиентов в качестве узлов, а операции по счёту используем как ребра. Сумма операции, в таком случае, будет являться весом ребра.
https://habr.com/ru/post/460687/

🔗 Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
AI Discovers Sentiment By Writing Amazon Reviews
https://www.youtube.com/watch?v=hYWr67i8z5o&feature=youtu.be

🎥 AI Discovers Sentiment By Writing Amazon Reviews
👁 1 раз 246 сек.
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers

📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here:
https://openai.com/blog/unsupervised-sentiment-neuron/
https://arxiv.org/abs/1704.01444

🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible:
313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
​Deep Learning For Real Time Streaming Data With Kafka And Tensorflow
#ODSC #DeepLearning #Tensorflow
https://www.youtube.com/watch?v=HenBuC4ATb0

🔗 Deep Learning For Real Time Streaming Data With Kafka And Tensorflow | YongTang - ODSC East 2019
In mission-critical real time applications, using machine learning to analyze streaming data are gaining momentum. In those applications Apache Kafka is the most widely used framework to process the data streams. It typically works with other machine learning frameworks for model inference and training purposes. In this talk, our focus is to discuss the KafkaDataset module in TensorFlow. KafkaDataset processes Kafka streaming data directly to TensorFlow's graph. As a part of Tensorflow (in `tf.contrib`), t
​AI Discovers Sentiment By Writing Amazon Reviews

🔗 AI Discovers Sentiment By Writing Amazon Reviews
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here: https://openai.com/blog/unsupervised-sentiment-neuron/ https://arxiv.org/abs/1704.01444 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
​Data Exploration with Adversarial Autoencoders
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
https://towardsdatascience.com/data-exploration-with-adversarial-autoencoders-311a4e1f271b?source=collection_home---4------1-----------------------

🔗 Data Exploration with Adversarial Autoencoders - Towards Data Science
Dive into a different approach to Unsupervised Clustering of Multivariate Time-Series Data with Adversarial Autoencoder Models.
#Dataquality #Machinelearning #Datascientist
"Data Quality Check In Machine Learning"
https://www.youtube.com/watch?v=DRGajth6OO4/

🎥 "Data Quality Check In Machine Learning"
👁 1 раз 3348 сек.
The world of data quality check in Machine Learning is expanding at an unimaginable pace. Researchers estimate that by 2020, every human would create 1.7MB of information each second. The true power of data can be unlocked when it is refined and transformed into a high quality state where we can realize its true potential. Many businesses and researchers believe that data quality is one of the primary concerns for data-driven enterprises and associated processes considering the pace of data growth. Most of
Нейронные сети и компьютерное зрение

00 - ML & CV. О курсе
01 - ML & CV. Математическая модель нейрона
02 - ML & CV. Булевы операции в виде нейронов
03 - ML & CV. От нейрона к нейронной сети
04 - ML & CV. Семинар: Базовая работа в PyTorch
05 - ML & CV. Восстановление зависимости нейронной сетью
06 - ML & CV. Компоненты нейронной сети
07 - ML & CV. Алгоритм настройки нейронной сети
08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)

🎥 00 - ML & CV. О курсе
👁 1 раз 242 сек.
Лекторы: Михаил Романов и Игорь Слинько

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 01 - ML & CV. Математическая модель нейрона
👁 1 раз 890 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 02 - ML & CV. Булевы операции в виде нейронов
👁 1 раз 766 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 03 - ML & CV. От нейрона к нейронной сети
👁 1 раз 228 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 04 - ML & CV. Семинар: Базовая работа в PyTorch
👁 1 раз 818 сек.
Лектор: Игорь Слинько

Попробуйте зайти в Google Colaboratory и проимпортировать torch.

Для этого:

1. Зайдите на сайт https://colab.research.goo...


🎥 05 - ML & CV. Восстановление зависимости нейронной сетью
👁 1 раз 226 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 06 - ML & CV. Компоненты нейронной сети
👁 1 раз 816 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 07 - ML & CV. Алгоритм настройки нейронной сети
👁 1 раз 1032 сек.
Лектор: Михаил Романов

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 08 - ML & CV. Семинар: Реализация градиентного спуска (часть 1)
👁 1 раз 259 сек.
Лектор: Игорь Слинько

https://stepik.org/50352

Плейлист https://www.youtube.com/playlist?list=PLwwk4BHih4fj4DyxylZTHcdYk3L2MC2pa


🎥 09 - ML & CV. Семинар: Реализация градиентного спуска (часть 2)
👁 1 раз 760 сек.
Лектор: Игорь Слинько

Код доступен в репозитории курса https://github.com/SlinkoIgor/Neural_Networks_and_CV/blob/master/module02_gradient_descent....
​Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров

Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Adaptive and Array Signal Processing". А именно основами адаптивной фильтрации.

Для кого в первую очередь была написана эта статья:

1) для студенческой братии родной специальности;
2) для преподавателей, которые готовят практические семинары, но ещё не определились с инструментарием — ниже будут примеры на python и Matlab/Octave;
3) для всех, кто интересуется темой фильтрации.

Что можно найти под катом:

1) сведения из теории, которые я постарался оформить максимально сжато, но, как мне кажется, информативно;
2) примеры применения фильтров: в частности, в рамках эквалайзера для антенной решетки;
3) ссылки на базисную литературу и открытые библиотеки (на python), которые могут быть полезны для исследований.

https://habr.com/ru/post/455497/

🔗 Оптимальная линейная фильтрация: от метода градиентного спуска до адаптивных фильтров
Развивая тему конспектов по магистерской специальности "Communication and Signal Processing" (TU Ilmenau), продолжить хотелось бы одной из основных тем курса "Ad...
​Подборка рабочих примеров обработки данных

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами по обработке данных. Ведь ни для кого не секрет, что обучение на хороших примерах проходит эффективнее и быстрее. Посмотрим, что интересного нам смогут показать одни из лучших примеров по обработке данных.

Схема работы с текущим постом унаследуется от моего поста про лучшие блокноты по ML и DS, а именно — сохранил в закладки → передал коллеге.

+ бонус в конце статьи — крутой курс от ФПМИ МФТИ.

image

Итак, давайте приступим.

Подборка датасетов с рабочими примерами обработки данных:

Suicide Rates Overview 1985 to 2016 — сравнение социально-экономической информации с показателями самоубийств по годам и странам.
#Python #DataMining #BigData
#Машинноеобучение
https://habr.com/ru/post/460557/

🔗 Подборка рабочих примеров обработки данных
Привет, читатель. По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами п...