Neural Networks | Нейронные сети
11.6K subscribers
801 photos
182 videos
170 files
9.45K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
🎥 How Machine Learning Drives the Deceptive World of Deepfakes
👁 1 раз 452 сек.
Deepfakes are spreading fast, and while some have playful intentions, others can cause serious harm. We stepped inside this deceptive new world to see what experts are doing to catch this altered content.
»Subscribe to Seeker! http://bit.ly/subscribeseeker
»Watch more Focal Point | https://bit.ly/2s0cf7w

Chances are you’ve seen a deepfake; Donald Trump, Barack Obama, and Mark Zuckerberg have all been targets of the computer-generated replications.

A deepfake is a video or an audio clip where deep l
Коллеги, простите что отвлекаю, но правда, неделю уже ищу, схему электрическую для - OpenBCI, подскажите пожалуйста, где можно ее найти?
Deep Learning for Computer Vision with Python Dr Adrian Rosebrock

Наш телеграм канал - tglink.me/ai_machinelearning_big_data

📝 Deep_Learning_for_Computer_Vision_with_Python_Dr_Adrian_Rosebrock_2017_PDF_ENG.pdf - 💾27 660 308
​Few-shot Video-to-Video Synthesis

https://www.youtube.com/watch?v=8AZBuyEuDqc&feature=youtu.be

[Paper] 👉 https://arxiv.org/abs/1910.12713

[Video]👉https://www.youtube.com/watch?v=8AZBuyEuDqc&feature=youtu.be

Code👉https://github.com/NVlabs/few-shot-vid2vid

🔗 Few-shot Video-to-Video Synthesis
Video-to-video synthesis (vid2vid) aims at converting an input semantic video, such as videos of human poses or segmentation masks, to an output photorealistic video. While the state-of-the-art of vid2vid has advanced significantly, existing approaches share two major limitations. First, they are data-hungry. Numerous images of a target human subject or a scene are required for training. Second, a learned model has limited generalization capability. A pose-to-human vid2vid model can only synthesize poses of the single person in the training set. It does not generalize to other humans that are not in the training set. To address the limitations, we propose a few-shot vid2vid framework, which learns to synthesize videos of previously unseen subjects or scenes by leveraging few example images of the target at test time. Our model achieves this few-shot generalization capability via a novel network weight generation module utilizing an attention mechanism. We conduct extensive experimental validations with compar


🎥 Few-Shot Video-to-Video Synthesis (NeurIPS 2019)
👁 1 раз 128 сек.
Few-shot photorealistic video-to-video translation. It can be used for generating human motions from poses, synthesizing people talking from edge maps, or turning semantic label maps into photo-realistic videos. For more details, please visit https://nvlabs.github.io/few-shot-vid2vid/.
​AI Journey: доклады и результаты соревнования
Всем привет! С октября по декабрь проходила серия конференций по искусственному интеллекту – AI Journey. Чуть раньше в ноябре мы подвели итоги международного соревнования по созданию общего или сильного ИИ – artificial general intelligence (AGI). Хотим сразу вас успокоить, что мы не создали сильный ИИ, но приблизились к этому с помощью robot college student test. Участники должны были натренировать свои алгоритмы так, чтобы те смогли сдать выпускной экзамен по русскому языку. В итоге решения победителей получили "четвёрки".

Под катом среди прочих вы найдёте записи выступлений Юргена Шмидхубера — автора работы о LISP; Анны Вероники Дорогуш — руководительницы разработки библиотеки машинного обучения CatBoost; Бена Герцеля, который и ввёл термин robot college student test.

🔗 AI Journey: доклады и результаты соревнования
Всем привет! С октября по декабрь проходила серия конференций по искусственному интеллекту – AI Journey. Чуть раньше в ноябре мы подвели итоги международного сор...
​52 датасета для тренировочных проектов

Mall Customers Dataset — данные посетителей магазина:id, пол, возраст, доход, рейтинг трат. (Вариант применения: Customer Segmentation Project with Machine Learning)
Iris Dataset — датасет для новичков, содержащий размеры чашелистиков и лепестков для различных цветков.
MNIST Dataset — датасет рукописных цифр. 60 000 тренировочных изображений и 10 000 тестовых изображений.
The Boston Housing Dataset — популярный датасет для распознавания паттернов. Содержит информацию о домах в Бостоне: количество квартир, стоимость аренды, индекс преступлений.
Fake News Detection Dataset — содержит 7796 записей с разметкой новостей: правда или ложь. (Вариант применения с исходником на Python: Fake News Detection Python Project )
Wine quality dataset — содержит информацию о вине: 4898 записей с 14 параметрами.

🔗 52 датасета для тренировочных проектов
Mall Customers Dataset — данные посетителей магазина:id, пол, возраст, доход, рейтинг трат. (Вариант применения: Customer Segmentation Project with Machine Lear...
​Как уровень безубыточности майнинга позволяет определить точку разворота биткоина
В последние дни цена биткоина сильно обвалилась, что повлекло за собой уменьшение хэшрэйта сети на 20%. Это говорит об оттоке майнеров из-за начавшихся убытков, что случалось уже не раз. Мы решили исследовать, где находятся точки безубыточности майнинга на самых популярных устройствах и как они коррелируют с ценой.

Уровень безубыточности майнеров

Один из самых известных и распространенных майнеров в мире, Asic S9, имеет самые худшие показатели по безубыточности: чтобы получать прибыль от этого устройства, необходимо, чтобы цена биткоина была выше $7,643.

🔗 Как уровень безубыточности майнинга позволяет определить точку разворота биткоина
В последние дни цена биткоина сильно обвалилась, что повлекло за собой уменьшение хэшрэйта сети на 20%. Это говорит об оттоке майнеров из-за начавшихся убытков,...