Neural Networks | Нейронные сети
11.6K subscribers
804 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Высшая математика. Дифференциальные уравнения

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Обыкновенные дифференциальные уравнения. Основные понятия
Дифференциальные уравнения 1-го порядка. Основные понятия
Дифференциальные уравнения с разделяющимися переменными, ч.1
Дифференциальные уравнения с разделяющимися переменными, ч.2
Дифференциальные уравнения с разделяющимися переменными, ч.3
Дифференциальные уравнения, не содержащие явно искомой функции, ч.1
Дифференциальные уравнения, не содержащие явно искомой функции, ч.2
Дифференциальные уравнения, не содержащие явно искомой функции, ч.3
Дифференциальные уравнения, не содержащие явно независимой переменной, ч.1
Дифференциальные уравнения, не содержащие явно независимой переменной, ч.2

🎥 Обыкновенные дифференциальные уравнения. Основные понятия. Высшая математика.
👁 1 раз 652 сек.
Обыкновенные дифференциальные уравнения. Основные понятия. Высшая математика.

🎥 Дифференциальные уравнения 1-го порядка. Основные понятия. Высшая математика.
👁 1 раз 1025 сек.
Дифференциальные уравнения 1-го порядка. Основные понятия. Высшая математика.

🎥 Дифференциальные уравнения с разделяющимися переменными (часть 1). Высшая математика.
👁 1 раз 1586 сек.
Дифференциальные уравнения с разделяющимися переменными (часть 1). Высшая математика.

🎥 Дифференциальные уравнения с разделяющимися переменными (часть 2). Высшая математика.
👁 1 раз 807 сек.
Дифференциальные уравнения с разделяющимися переменными (часть 2). Высшая математика.

🎥 Дифференциальные уравнения, не содержащие явно искомой функции (часть 1). Высшая математика.
👁 1 раз 980 сек.
Дифференциальные уравнения, не содержащие явно искомой функции (часть 1). Высшая математика.

🎥 Дифференциальные уравнения, не содержащие явно искомой функции (часть 2). Высшая математика.
👁 1 раз 564 сек.
Дифференциальные уравнения, не содержащие явно искомой функции (часть 2). Высшая математика.

🎥 Дифференциальные уравнения, не содержащие явно искомой функции (часть 3). Высшая математика.
👁 1 раз 649 сек.
Дифференциальные уравнения, не содержащие явно искомой функции (часть 3). Высшая математика.

🎥 Дифференциальные уравнения с разделяющимися переменными (часть 3). Высшая математика.
👁 1 раз 987 сек.


🎥 Дифференциальные уравнения, не содержащие явно независимой переменной (часть 1). Высшая математика.
👁 1 раз 1483 сек.
Дифференциальные уравнения, не содержащие явно независимой переменной (часть 1). Высшая математика.

🎥 Дифференциальные уравнения, не содержащие явно независимой переменной (часть 2). Высшая математика.
👁 1 раз 743 сек.
Дифференциальные уравнения, не содержащие явно независимой переменной (часть 2). Высшая математика.
​Could advances in AI technology re-shape music as we know it?
Music has been big business for a long time, but these days it’s not just record companies, concert promoters and (occasionally)

🔗 Could advances in AI technology re-shape music as we know it?
Music has been big business for a long time, but these days it’s not just record companies, concert promoters and (occasionally) artists…
​Computers Can’t Tell If You’re Happy When You Smile
Emotion recognition is a $20 billion industry, but a new study says the most popular method is deeply flawed

🔗 Computers Can’t Tell If You’re Happy When You Smile
Emotion recognition is a $20 billion industry, but a new study says the most popular method is deeply flawed
​New State of the Art in Semantic Segmentation https://arxiv.org/abs/1907.05740

🔗 Gated-SCNN: Gated Shape CNNs for Semantic Segmentation
Current state-of-the-art methods for image segmentation form a dense image representation where the color, shape and texture information are all processed together inside a deep CNN. This however may not be ideal as they contain very different type of information relevant for recognition. Here, we propose a new two-stream CNN architecture for semantic segmentation that explicitly wires shape information as a separate processing branch, i.e. shape stream, that processes information in parallel to the classical stream. Key to this architecture is a new type of gates that connect the intermediate layers of the two streams. Specifically, we use the higher-level activations in the classical stream to gate the lower-level activations in the shape stream, effectively removing noise and helping the shape stream to only focus on processing the relevant boundary-related information. This enables us to use a very shallow architecture for the shape stream that operates on the image-level resolution. Our experiments show that this leads to a highly effective architecture that produces sharper predictions around object boundaries and significantly boosts performance on thinner and smaller objects. Our method achieves state-of-the-art performance on the Cityscapes benchmark, in terms of both mask (mIoU) and boundary (F-score) quality, improving by 2% and 4% over strong baselines.
Deep Q-Network Training Code - Reinforcement Learning Code Project
https://www.youtube.com/watch?v=ewRw996uevM

🎥 Deep Q-Network Training Code - Reinforcement Learning Code Project
👁 3 раз 1186 сек.
Welcome back to this series on reinforcement learning! In this episode we’ll be bringing together all the classes and functions we’ve developed so far, and incorporating them into our main program to train our deep Q-network for the cart and pole environment. We’ll see the training process live as we watch our agent’s ability to balance the pole on the cart increase as it learns.

💥🦎 DEEPLIZARD COMMUNITY RESOURCES 🦎💥

👀 OUR VLOG:
🔗 https://www.youtube.com/channel/UC9cBIteC3u7Ee6bzeOcl_Og

👉 Check out the b
#Telegram #Бот #OpenCV
Telegram бот с компьютерным зрением на Python. Система охраны из ноутбука.
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
https://www.youtube.com/watch?v=z8o2hfEbMsw

🎥 Telegram бот с компьютерным зрением на Python. Система охраны из ноутбука.
👁 1 раз 624 сек.
Сегодня мы рассмотрим применение компьютерного зрения, а в частности библиотеки OpenCV в связке с Telegram ботом намисанным на языке Python. Для реализации построения бюджетной охранной системы из простого ноутбука.
#Telegram #Бот #OpenCV #Python

Стать спонсором: https://www.donationalerts.ru/r/black_triangle
Bitcoin: 32Lu1fMLmdUrqvaMtuC8qqnHJtFUxSgi5N
Ethereum: 0xaD6E3557fC8C1cf2b4f183F5e92fB2693fd90185
===================================
!!! AliExpress Hacker: @AliExpress_Hacker
!!! Мой Telegram: @black
​Instance Selection: The myth behind Data Sampling
One of the most common and most challenging issues in any Big Data system

🔗 Instance Selection: The myth behind Data Sampling
One of the most common and most challenging issues in any Big Data system is to select stratified samples in a way that it’s…
​Reinforcement Learning: let’s teach a taxi-cab how to drive
Reinforcement Learning is a subfield of Machine Learning whose tasks differ from ‘standard’ ways of learning. Indeed

https://towardsdatascience.com/reinforcement-learning-lets-teach-a-taxi-cab-how-to-drive-4fd1a0d00529?source=collection_home---4------1-----------------------

🔗 Reinforcement Learning: let’s teach a taxi-cab how to drive
Reinforcement Learning is a subfield of Machine Learning whose tasks differ from ‘standard’ ways of learning. Indeed, rather than being…
​Highest Rated ML Projects on Github
It is impossible to follow everything ML. These 5, though, are worth a look.

https://towardsdatascience.com/highest-rated-ml-projects-on-github-694486293512

🔗 Highest Rated ML Projects on Github
It is impossible to follow everything ML. These 5, though, are worth a look.
Выявление мошенничества с помощью машинного обучения: Do It Yourself

https://www.youtube.com/watch?v=_OdH0bz4rEo

🎥 Выявление мошенничества с помощью машинного обучения: Do It Yourself
👁 1 раз 2847 сек.
Вопросами защиты от мошенничества обеспокоены крупнейшие компании мира, такие, как Western Union, Slack, Jaguar, Virgin America, Сбербанк, Miro (Realtimeboard), Xsolla и другие.
На мастер-классе мы разберем одну из техник машинного обучения с учителем — дерево решений (decision tree), позволяющую выявлять факты мошенничества, а также реализуем ее на реальных данных в программной среде R.
​Gustav Soderstrom: Spotify | Artificial Intelligence (AI) Podcast

🔗 Gustav Soderstrom: Spotify | Artificial Intelligence (AI) Podcast
Gustav Soderstrom is the Chief Research & Development Officer at Spotify, leading Product, Design, Data, Technology & Engineering teams. This conversation is part of the Artificial Intelligence podcast. INFO: Podcast website: https://lexfridman.com/ai Course website: https://deeplearning.mit.edu YouTube Playlist: http://bit.ly/2EcbaKf EPISODE LINKS: Aurora: https://aurora.tech/ Aurora Twitter: https://twitter.com/Aurora_inno Chris Urmson Twitter: https://twitter.com/chris_urmson OUTLINE: 0:00 - Introduct
​Пивной интеллект

Пиво — один из старейших ферментированных напитков, известных человеку. Его воспевали ещё в третьем тысячелетии до н. э. в шумерском эпосе о Гильгамеше. У шумеров даже была поговорка: «Не знать пива – не знать радости». Современное пиво отличается от напитка тех времён. Более того, появилось большое количество крафтовых пивоварен, в которых пивные энтузиасты предлагают новые, удивительно вкусные и ароматные сорта.

Однако пивовары, стремясь усовершенствовать свой продукт и предложить рынку нечто новое, не останавливаются на достигнутом, используя всё новые технологические решения. Добрались они и до искусственного интеллекта. Сегодня мы расскажем про наиболее интересные проекты, связанные с внедрением AI в процесс пивоварения и пивопотребления.
https://habr.com/ru/company/cloud4y/blog/461697/

🔗 Пивной интеллект
Пиво — один из старейших ферментированных напитков, известных человеку. Его воспевали ещё в третьем тысячелетии до н. э. в шумерском эпосе о Гильгамеше. У шуме...
🎥 Getting Started with Spacy in Python (11.1)
👁 2 раз 646 сек.
Spacy is one of several Natural Language Processing (NLP) packages that can be used with Python to preprocess textual data before presenting to a neural network framework such as Keras. This video introduces Spacy with the Python language.

Code for This Video:
https://github.com/jeffheaton/t81_558_deep_learning/blob/1f16da595603d04ee86e48b134c62e3f2f6603b2/t81_558_class_11_01_spacy.ipynb

Course Homepage: https://sites.wustl.edu/jeffheaton/t81-558/

Follow Me/Subscribe:
https://www.youtube.com/user/Heato
​Stop experimenting with machine learning and start actually using it!
It turns out there’s a fatal flaw in most companies’ approach to machine learning, the analytical tool of the future: 87% of projects do…

🔗 Stop experimenting with machine learning and start actually using it!
It turns out there’s a fatal flaw in most companies’ approach to machine learning, the analytical tool of the future: 87% of projects do…
Tackling Multiple Ordinal Regression Problems: Sparse and Deep Multi-Task Learning Approaches

Authors: Lu Wang, Dongxiao Zhu

Abstract: Most existing approaches work well for a single ordinal regression task. However, they ignore the task relatedness when there are multiple related tasks. Multi-task learning (MTL) provides a framework to encode task relatedness, to bridge data from all tasks, and to simultaneously
https://arxiv.org/abs/1907.12508

🔗 Tackling Multiple Ordinal Regression Problems: Sparse and Deep Multi-Task Learning Approaches
Many real-world datasets are labeled with natural orders, i.e., ordinal labels. Ordinal regression is a method to predict ordinal labels that finds a wide range of applications in data-rich science domains, such as medical, social and economic sciences. Most existing approaches work well for a single ordinal regression task. However, they ignore the task relatedness when there are multiple related tasks. Multi-task learning (MTL) provides a framework to encode task relatedness, to bridge data from all tasks, and to simultaneously learn multiple related tasks to improve the generalization performance. Even though MTL methods have been extensively studied, there is barely existing work investigating MTL for data with ordinal labels. We tackle multiple ordinal regression problems via sparse and deep multi-task approaches, i.e., two regularized multi-task ordinal regression (RMTOR) models for small datasets and two deep neural networks based multi-task ordinal regression (DMTOR) models for large-scale datasets. T
Теория вероятностей

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
00 - Теория вероятностей. О курсе
01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
03 - Теория вероятностей. Теорема Байеса. Независимые события
04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
05 - Теория вероятностей. Случайные величины. Математическое ожидание.
06 - Теория вероятностей. Дисперсия
07 - Теория вероятностей. Закон больших чисел
08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.

🎥 00 - Теория вероятностей. О курсе
👁 1 раз 89 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
👁 1 раз 1757 сек.
Лектор: Александр Храбров

1. Вероятностная модель эксперимента
2. Вероятностные пространства

https://stepik.org/3089


🎥 02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
👁 1 раз 1671 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 03 - Теория вероятностей. Теорема Байеса. Независимые события
👁 1 раз 1789 сек.
Лектор: Александр Храбров


https://stepik.org/3089


🎥 04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
👁 1 раз 1327 сек.
Лектор: Александр Храбров


https://stepik.org/3089


🎥 05 - Теория вероятностей. Случайные величины. Математическое ожидание.
👁 1 раз 1514 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 06 - Теория вероятностей. Дисперсия
👁 1 раз 1364 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 07 - Теория вероятностей. Закон больших чисел
👁 1 раз 1280 сек.
Лектор: Александр Храбров

https://stepik.org/3089


🎥 08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.
👁 1 раз 1780 сек.
Лектор: Александр Храбров

https://stepik.org/3089
​Тысячи аккаунтов за один вечер – Владислав Шахрай

🔗 Тысячи аккаунтов за один вечер – Владислав Шахрай
Владислав Шахрай рассказывает про то, как он занял одно из первых мест в соревновании по машинному обучению (доклад секции Black ML, Data Fest⁶). Как известно, соревнования на кастомных платформах не всегда заканчиваются для организаторов благополучно. Особенно, если нет никаких правил. Этот доклад про то, на что обратить внимание в такой ситуации и как обеспечить себе победу. Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/ Узнать о новых тренировках и видео можно из групп: ВКонтакт