Neural Networks | Нейронные сети
11.6K subscribers
801 photos
183 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
🎥 The 2nd Tellus Satellite Challenge, DIUx xView 2018 Detection Challenge — Николай Сергиевский
👁 1 раз 2977 сек.
Николай Сергиевский рассказывает про задачу детектирования объектов на примере двух соревнований: The 2nd Tellus Satellite Challenge (на японской площадке Signate) и xView: Objects in Context in Overhead Imagery. В каждом из них Николай занял первое место.

Узнать о текущих соревнованиях можно на сайте http://mltrainings.ru/

Узнать о новых тренировках и видео можно из групп:
ВКонтакте https://vk.com/mltrainings
Facebook https://www.facebook.com/groups/1413405125598651/
Telegram https://xn--r1a.website/mltrainings
🎥 Python Voice Assistant Tutorial #6 - Google Calendar Events on a Specific Day
👁 1 раз 622 сек.
In this tutorial we start putting everything together and using our previously created functions to get the events we have in our google calendar for any specific day. This involves a bit more work with the python google calendar API.

Text-Based Tutorial: Coming Soon...

*****
Enroll in The Fundamentals of Programming w/ Python
https://tech-with-tim.teachable.com/p/the-fundamentals-of-programming-with-python

Instagram: https://www.instagram.com/tech_with_tim
Website https://techwithtim.net
Twitter: https
​Книга «Data mining. Извлечение информации из Facebook, Twitter, LinkedIn, Instagram, GitHub»

imageПривет, Хаброжители! В недрах популярных социальных сетей — Twitter, Facebook, LinkedIn и Instagram — скрыты богатейшие залежи информации. Из этой книги исследователи, аналитики и разработчики узнают, как извлекать эти уникальные данные, используя код на Python, Jupyter Notebook или контейнеры Docker. Сначала вы познакомитесь с функционалом самых популярных социальных сетей (Twitter, Facebook, LinkedIn, Instagram), веб-страниц, блогов и лент, электронной почты и GitHub. Затем приступите к анализу данных на примере Twitter. Прочитайте эту книгу, чтобы:

Узнать о современном ландшафте социальных сетей;
Научиться использовать Docker, чтобы легко оперировать кодами, приведёнными в книге;
Узнать, как адаптировать и поставлять код в открытый репозиторий GitHub;
Научиться анализировать собираемые данные с использованием возможностей Python 3;
Освоить продвинутые приемы анализа, такие как TFIDF, косинусное сходство, анализ словосочетаний, определение клика и распознавание образов;
Узнать, как создавать красивые визуализации данных с помощью Python и JavaScript.
https://habr.com/ru/company/piter/blog/466729/

🔗 Книга «Data mining. Извлечение информации из Facebook, Twitter, LinkedIn, Instagram, GitHub»
Привет, Хаброжители! В недрах популярных социальных сетей — Twitter, Facebook, LinkedIn и Instagram — скрыты богатейшие залежи информации. Из этой книги исследо...
​Несколько штрихов о работе с идентификаторами bigint в R

Каждый раз, когда начинается разговор об использовании различных БД в качестве источника данных, появляется тема идентификаторов записей, объектов или чего-либо иного. Иногда согласование протокола обмена может рассматриваться участниками несколько месяцев. int-bigint-guid, далее по кругу. Для объемных задач, с учетом того, что нативно в R нет поддержки bigint (емкость ~2^64) выбор правильного представления таких идентификаторов может оказаться критичным в части производительности. Есть ли очевидное и универсальное обходное решение? Ниже несколько практических соображений, которые могут применяться в проектах в качестве лакмусовой бумажки.

Как правило, идентификаторы будут использоваться для трех классов задач:

группировка;
фильтрация;
объединение.

Исходя из этого и оценим различные подходы.

https://habr.com/ru/post/466829/

🔗 Несколько штрихов о работе с идентификаторами bigint в R
Каждый раз, когда начинается разговор об использовании различных БД в качестве источника данных, появляется тема идентификаторов записей, объектов или чего-либо...
​Угадай меня, если сможешь: прогнозирование рейтинга фильма до его выхода

Недавно мне на глаза попался датасет на Kaggle с данными о 45 тысячах фильмов с Full MovieLens Dataset. Данные содержали не только информацию об актерах, съемочной команде, сюжете и т.п., но и оценки, выставленные фильмам пользователями ресурса (26 миллионов оценок от 270 тыс.пользователей).

Стандартная задача для таких данных — это рекомендательная система. Но мне в голову почему-то пришло прогнозирование рейтинга фильма на основе информации, доступной до его выхода. Я не знаток кинематографа, и поэтому обычно ориентируюсь на рецензии, выбирая что посмотреть из новинок. Но ведь рецензенты тоже несколько biased — они-то смотрят гораздо больше разных фильмов, чем рядовой зритель. Поэтому спрогнозировать, как оценит фильм обычная публика, показалось занятным.
https://habr.com/ru/post/466967/

🔗 Угадай меня, если сможешь: прогнозирование рейтинга фильма до его выхода
Недавно мне на глаза попался датасет на Kaggle с данными о 45 тысячах фильмов с Full MovieLens Dataset. Данные содержали не только информацию об актерах, съемочн...
​Угадай меня, если сможешь: прогнозирование рейтинга фильма до его выхода

Машинное обучение
Недавно мне на глаза попался датасет на Kaggle с данными о 45 тысячах фильмов с Full MovieLens Dataset. Данные содержали не только информацию об актерах, съемочной команде, сюжете и т.п., но и оценки, выставленные фильмам пользователями ресурса (26 миллионов оценок от 270 тыс.пользователей).

Стандартная задача для таких данных — это рекомендательная система. Но мне в голову почему-то пришло прогнозирование рейтинга фильма на основе информации, доступной до его выхода. Я не знаток кинематографа, и поэтому обычно ориентируюсь на рецензии, выбирая что посмотреть из новинок. Но ведь рецензенты тоже несколько biased — они-то смотрят гораздо больше разных фильмов, чем рядовой зритель. Поэтому спрогнозировать, как оценит фильм обычная публика, показалось занятным.
https://habr.com/ru/post/466967/

🔗 Угадай меня, если сможешь: прогнозирование рейтинга фильма до его выхода
Недавно мне на глаза попался датасет на Kaggle с данными о 45 тысячах фильмов с Full MovieLens Dataset. Данные содержали не только информацию об актерах, съемочн...
🎥 Introducing convolutional neural networks (ML Zero to Hero, part 3)
👁 1 раз 333 сек.
In part three of Machine Learning Zero to Hero, AI Advocate Laurence Moroney (lmoroney@) discusses convolutional neural networks and why they are so powerful in Computer vision scenarios. A convolution is a filter that passes over an image, processes it, and extracts features that show a commonality in the image. In this video you'll see how they work, by processing an image to see if you can extract features from it!

Codelab: Introduction to Convolutions → http://bit.ly/2lGoC5f

This video is also subtitl
🎥 TEXT TO SPEECH IN PYTHON | Convert Text to Speech in Python
👁 5 раз 686 сек.
code used in this video - https://gist.github.com/pknowledge/dc4ba582623cc3682a62d7d7a69f7887
In this video I will show How To Convert Text to Speech in Python. we are going to use gtts python package to TEXT TO SPEECH IN PYTHON. gTTS stands for Google Text-to-Speech. gTTs is a Python library and Command line tool to interface with Google Translate's text-to-speech API. it Writes text to spoken mp3 data to a file or stdout. So we are going to learn How to Use the Speech Recognition Module GTTS usinng Pytho
Towards Understanding the Importance of Shortcut Connections in Residual Networks

Authors: Tianyi Liu, Minshuo Chen, Mo Zhou, Simon S. Du, Enlu Zhou, Tuo Zhao

Abstract: Residual Network (ResNet) is undoubtedly a milestone in deep learning. ResNet is equipped with shortcut connections between layers, and exhibits efficient training using simple first order algorithms. Despite of the great empirical success, the reason behind is far from being well understood. In this paper, we study a two-layer non-overlapping convolutional ResNet.
https://arxiv.org/abs/1909.04653