Neural Networks | Нейронные сети
11.6K subscribers
802 photos
184 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​Facebook Research at Interspeech 2019

https://ai.facebook.com/blog/facebook-research-at-interspeech-2019/

Sequence-to-Sequence Speech Recognition with Time-Depth Separable Convolutions

https://research.fb.com/publications/sequence-to-sequence-speech-recognition-with-time-depth-separable-convolutions/

Unsupervised Singing Voice Conversion

https://research.fb.com/publications/unsupervised-singing-voice-conversion/

🔗 Facebook research at Interspeech 2019
Facebook is at Interspeech 2019! For those attending the conference in Graz, Austria this week, be sure to stop by booth F7 to connect with recruiters, researchers, and software engineers about speech research at Facebook. Learn more about Facebook Research at Interspeech in our blog..
​What Is Probability?
https://machinelearningmastery.com/what-is-probability/

🔗 What Is Probability?
Uncertainty involves making decisions with incomplete information, and this is the way we generally operate in the world. Handling uncertainty is typically described using everyday words like chance, luck, and risk. Probability is a field of mathematics that gives us the language and tools to quantify the uncertainty of events and reason in a principled …
🎥 Модели движения беспилотников — Тимур Идиатуллов / ПостНаука
👁 1 раз 843 сек.
Физик Тимур Идиатуллов о навигации беспилотников, картах движения и проблемах позиционирования автомобиля

Тимур Идиатуллов (https://postnauka.ru/author/idiatullov) — кандидат физико-математических наук, заведующий кафедрой «СМАРТ-технологии» Московского политехнического университета

"Одна из важных проблем, которые стоят перед специалистами по внедрению беспилотных транспортных средств, является понятие модели движения транспортного средства, которая сильно завязана на понимание того, куда в настоящий мом
🎥 Artificial Intelligence Journey — Алексей Натекин, Валентин Малых
👁 1 раз 1694 сек.
Алексей Натекин и Валентин Малых рассказывают про новое и очень интересное соревнование Artificial Intelligence Journey. Задача - разработать алгоритм, который способен успешно ответить на вопросы экзаменационного теста, основываясь на информации из открытых источников.

https://contest.ai-journey.ru/ru/competition
🎥 Искусственный интеллект / Пост2020
👁 3 раз 0 сек.
17 сентября в 19:00 включайте прямой эфир в Рубке ПостНауки. Издатель ПостНауки Ивар Максутов и нейрофизиолог Михаил Бурцев будут говорить об искусственном интеллекте.

Пост2020 — Новый формат прямых эфиров в Радиорубке ПостНауки. Беседа с учеными о будущем — о научных исследованиях и разработках, которые меняют нашу жизнь уже сегодня и постепенно занимают все большее место. Что эти явления представляют собой сейчас? Как они будут развиваться в будущем — после условного 2020 года? Как это изменит нашу жизнь
🎥 Искусственный интеллект в Python Использование алгоритма backtracking для решения Судоку
👁 1 раз 5236 сек.
{ GeekCode | GeekDay | GeekBrains | GeekWeek2019 | MailRu }

Искусственный интеллект — одно из самых интересных и востребованных направлений в программировании.

На вебинаре вы:

Узнаете, что такое искусственный интеллект и где он применяется.

Узнаете, что такое алгоритм backtracking и в каких случаях он полезен.

Создадите программу, которая сможет решать японские головоломки "Судоку".

Техническая информация:
* Python версии не ниже 3.7
* Любая IDE для Python. Новичкам отлично подойдет Thonny, более опыт
​Welcome to the ROCm Platform
We are excited to present ROCm, the first open-source HPC/Hyperscale-class platform for GPU computing that’s also programming-language independent. We are bringing the UNIX philosophy of choice, minimalism and modular software development to GPU computing. The new ROCm foundation lets you choose or even develop tools and a language run time for your application.
https://rocm.github.io

🔗 ROCm, a New Era in GPU Computing
ROCm, a New Era in Open GPU Computing : Platform for GPU Enabled HPC and UltraScale Computing
🎥 [Part4] |Multiple Linear Regression| Machine Learning A-Z: Hands-On Python & R In Data Science 2019
👁 1 раз 8319 сек.
Learn to create Machine Learning Algorithms in Python and R from two Data Science experts. Code templates included.

###############################

Created by Kirill Eremenko, Hadelin de Ponteves, SuperDataScience Team, SuperDataScience Support

###############################

What you'll learn

Master Machine Learning on Python & R

Have a great intuition of many Machine Learning models

Make accurate predictions

Make powerful analysis

Make robust Machine Learning models

Create strong added value to
​Книга «Глубокое обучение с подкреплением на Python. OpenAI Gym и TensorFlow для профи»

#Python
Профессиональная литература
imageПривет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практическое изучение RL на Python поможет освоить не только базовые, но и передовые алгоритмы глубокого обучения с подкреплением. Эта книга предназначена для разработчиков МО и энтузиастов глубокого обучения, интересующихся искусственным интеллектом и желающих освоить метод обучения с подкреплением. Прочитайте эту книгу и станьте экспертом в области обучения с подкреплением, реализуя практические примеры в работе или вне ее. Знания в области линейной алгебры, математического анализа и языка программирования Python помогут вам понять логику изложения материала.
https://habr.com/ru/company/piter/blog/465605/

🔗 Книга «Глубокое обучение с подкреплением на Python. OpenAI Gym и TensorFlow для профи»
Привет, Хаброжители! Глубокое обучение с подкреплением (Reinforcement Learning) — самое популярное и перспективное направление искусственного интеллекта. Практи...
​Как оптимизировать pandas при работе с большими datasetами (очерк)

Когда памяти вагоны и/или dataset небольшой можно смело закидывать его безо всяких оптимизаций. Однако, если данные большие, остро встает вопрос, как их обрабатывать или хотя бы считать.
Предлагается взглянуть на оптимизацию в миниатюре, дабы не вытаскивать из сети гигантские датасеты.
В качестве датасета будем использовать хабрастатистику с комментариями пользователей за 2019 г., которая является общедоступной благодаря одному трудолюбивому пользователю:
dataset

В качестве инфо-основы будет использоваться ранее переведенная статья с Хабра, в которой намешано много интересного.
tglink.me/pythonl - наш телеграм канал
https://habr.com/ru/post/467785/

🔗 Как оптимизировать pandas при работе с большими datasetами (очерк)
Когда памяти вагоны и/или dataset небольшой можно смело закидывать его безо всяких оптимизаций. Однако, если данные большие, остро встает вопрос, как их обрабаты...
​Кластеризуем лучше, чем «метод локтя»

Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой мерой расстояния) точек в облаке данных, определить которые другими средствами было бы трудно.

Однако процесс кластеризации по большей части относится к сфере машинного обучения без учителя, для которой характерен ряд сложностей. Здесь не существует ответов или подсказок, как оптимизировать процесс или оценить успешность обучения. Это неизведанная территория.
https://habr.com/ru/company/jetinfosystems/blog/467745/

🔗 Кластеризуем лучше, чем «метод локтя»
Кластеризация — важная часть конвейера машинного обучения для решения научных и бизнес-задач. Она помогает идентифицировать совокупности тесно связанных (некой...
​Логика нейронных сетей
В этом посте я хочу рассказать о «логике» нейросетей. Я надеюсь, это поможет начинающим лучше понять, что могут нейронные сети. Для этого мы попробуем посмотреть, как они справляются с некоторыми модельными задачами. Примеры кода будут приводиться на python
с использованием библиотеки keras.

Задача 1. Начнём с простого. Построим нейронную сеть, аппроксимирующую синус.

import numpy as np
import matplotlib
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense

def get_X_y(n):
X = np.random.uniform(0, np.pi, n)
y = np.sin(X)
return X, y

n = 40
X, y = get_X_y(n)
print("X shape:", X.shape)

model = Sequential()
model.add(Dense(6, input_dim=1, activation='relu'))
model.add(Dense(4, activation='relu'))
model.add(Dense(1, activation='sigmoid'))

model.compile(loss='mean_squared_error', optimizer='adam', metrics=['mean_squared_error'])

model.fit(X, y, epochs=1000, batch_size=4)

X_test = np.linspace(start=0, stop=np.pi, num=500)
print("X test shape:", X_test.shape)
y_test = model.predict(X_test)

font = {'weight': 'bold',
'size': 25}

matplotlib.rc('font', **font)
axes = plt.gca()
axes.set_ylim(0, 1)
plt.plot(X_test, y_test, c='green', marker='o', markersize=5)
plt.title("Sinus approximated by neural network")
plt.yticks(np.arange(0, 1, 0.1))
plt.grid()
plt.show()

Получаем следующй график:

Как видим, нейронная сеть успешно справилась с задачей аппроксимации несложной функции.

🔗 Логика нейронных сетей
В этом посте я хочу рассказать о «логике» нейросетей. Я надеюсь, это поможет начинающим лучше понять, что могут нейронные сети. Для этого мы попробуем посмотреть...
🎥 Kaggle iMaterialist (Fashion) 2019 at FGVC6 — Илья Денисов
👁 1 раз 1180 сек.
Илья Денисов рассказывает про опыт участия в соревновании Kaggle iMaterialist (Fashion) 2019 at FGVC6, в котором он выиграл золотую медаль.

Из этого видео вы сможете узнать:
- Как детальное изучение метрики дает улучшение на лидерборде
- Как особенности в данных могут помешать хорошо обучить модель
- Как выбор неправильного метода интерполяции может занижать результаты вашей сети

Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/

Узнать о новых тренировках и видео можно из групп:
ВКонт
​Kaggle Reading Group: Weight Agnostic Neural Networks (Part 2) | Kaggle

🔗 Kaggle Reading Group: Weight Agnostic Neural Networks (Part 2) | Kaggle
Today we're continuing with the paper "Weight Agnostic Neural Networks" by Gaier & Ha from NeurIPS 2019. Link to paper: https://arxiv.org/pdf/1906.04358.pdf SUBSCRIBE: https://www.youtube.com/c/kaggle?sub_... About Kaggle: Kaggle is the world's largest community of data scientists. Join us to compete, collaborate, learn, and do your data science work. Kaggle's platform is the fastest way to get started on a new data science project. Spin up a Jupyter notebook with a single click. Build with our huge repo
​Ihmehimmeli
This repository contains code for project Ihmehimmeli. The model is described in the paper:

I.M. Comsa, K. Potempa, L. Versari, T. Fischbacher, A. Gesmundo, J. Alakuijala (2019). “Temporal coding in spiking neural networks with alpha synaptic function”, arXiv:1907.13223, July 2019

https://github.com/google/ihmehimmeli

🔗 google/ihmehimmeli
Contribute to google/ihmehimmeli development by creating an account on GitHub.