Deep Learning for Visual Speech Analysis: A Survey
https://deepai.org/publication/deep-learning-for-visual-speech-analysis-a-survey
https://deepai.org/publication/deep-learning-for-visual-speech-analysis-a-survey
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
این سلسله توئیت برام جالب بود گفتم اینجا بزارم:
1/n (deep belief nets)
16 سال پیش، در سال 2006 بود که جفری هینتون
و همکاران نسخه ی نمایشی خود را از شبکه های باور عمیق منتشر کردند. من به شدت تحت تأثیر قرار گرفتم و متقاعد شدم که یادگیری عمیق راهی است که باید رفت. تقریباً هر روز وبسایت هینتون را رفرش میکردم تا مقالات جدیدش را بررسی کنم...
—————-
2/n (Non-Convex Loss Function)
3/n and 4/n (who uses Neural net?!)
5/n (VAE demo)
6/n (GAN and face images)
7/n (Imagen)
8/n (Compute Trends)
https://twitter.com/dpkingma/status/1530968979333820416
1/n (deep belief nets)
16 سال پیش، در سال 2006 بود که جفری هینتون
و همکاران نسخه ی نمایشی خود را از شبکه های باور عمیق منتشر کردند. من به شدت تحت تأثیر قرار گرفتم و متقاعد شدم که یادگیری عمیق راهی است که باید رفت. تقریباً هر روز وبسایت هینتون را رفرش میکردم تا مقالات جدیدش را بررسی کنم...
—————-
2/n (Non-Convex Loss Function)
3/n and 4/n (who uses Neural net?!)
5/n (VAE demo)
6/n (GAN and face images)
7/n (Imagen)
8/n (Compute Trends)
https://twitter.com/dpkingma/status/1530968979333820416
👍2🔥2❤1
2/n (Non-Convex Loss Function)
تقریباً در همان زمان، شروع به خواندن تمام مقالات و ویدیوهای یان لکان کردم.
سخنرانی سال 2007 اون را با موضوع Who is Afraid of Non-Convex Loss Functions?را دوست داشتم !
لینک ویدیوی این سخنرانی:
https://youtube.com/watch?v=8zdo6cnCW2w
این توئیت:
https://twitter.com/dpkingma/status/1530968985134518274
تقریباً در همان زمان، شروع به خواندن تمام مقالات و ویدیوهای یان لکان کردم.
سخنرانی سال 2007 اون را با موضوع Who is Afraid of Non-Convex Loss Functions?را دوست داشتم !
لینک ویدیوی این سخنرانی:
https://youtube.com/watch?v=8zdo6cnCW2w
این توئیت:
https://twitter.com/dpkingma/status/1530968985134518274
❤1👍1
Tensorflow(@CVision)
2/n (Non-Convex Loss Function) تقریباً در همان زمان، شروع به خواندن تمام مقالات و ویدیوهای یان لکان کردم. سخنرانی سال 2007 اون را با موضوع Who is Afraid of Non-Convex Loss Functions?را دوست داشتم ! لینک ویدیوی این سخنرانی: https://youtube.com/watch?v=8zdo6cnCW2w…
3/n (who uses Neural net?!)
شوخی در ساعت 29:20 در ویدیوی بالا: "من این استدلال را شنیده ام که مشکل شبکه های عصبی این است که "فقط یان می تواند آنها را به کار ببرد." این درست نیست، در واقع یک مرد به نام مایک اونیل وجود دارد که می تواند !! :) "
4/n
"حدس بزنید او کیست؟ ... دانشجوی دکترا در MIT؟ نه، او یک وکیل ثبت اختراع در کالیفرنیای جنوبی است که به عنوان یک سرگرمی برنامه نویسی می کند!"
https://twitter.com/dpkingma/status/1530968989681168385
شوخی در ساعت 29:20 در ویدیوی بالا: "من این استدلال را شنیده ام که مشکل شبکه های عصبی این است که "فقط یان می تواند آنها را به کار ببرد." این درست نیست، در واقع یک مرد به نام مایک اونیل وجود دارد که می تواند !! :) "
4/n
"حدس بزنید او کیست؟ ... دانشجوی دکترا در MIT؟ نه، او یک وکیل ثبت اختراع در کالیفرنیای جنوبی است که به عنوان یک سرگرمی برنامه نویسی می کند!"
https://twitter.com/dpkingma/status/1530968989681168385
Twitter
Durk Kingma
"Guess who he is? ... A PhD student at MIT? No, he's a patent attorney in Southern California who programs as a hobby". 😆 (4/n)
❤2👍2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
5/n (VAE demo)
حدود 8 سال پیش، پس از کار با یان لکان
و شروع دکترا، من یک دمو با الهام از نسخه ی اصلی جفری هینتون ایجاد کردم.
این بار با استفاده از VAE، که امکان آموزش مدلهای مولد عمیق را با استفاده از SGD فراهم میکرد.
demo:
http://dpkingma.com/sgvb_mnist_demo/demo.html
twitt:
https://twitter.com/i/status/1530969013240487941
حدود 8 سال پیش، پس از کار با یان لکان
و شروع دکترا، من یک دمو با الهام از نسخه ی اصلی جفری هینتون ایجاد کردم.
این بار با استفاده از VAE، که امکان آموزش مدلهای مولد عمیق را با استفاده از SGD فراهم میکرد.
demo:
http://dpkingma.com/sgvb_mnist_demo/demo.html
twitt:
https://twitter.com/i/status/1530969013240487941
👍2🔥2
6/n (GAN and face images)
همچنین میتوانیم مدلهای مولد را برای تصاویر رنگی با وضوح بسیار پایین، مانند چهرهها را آموزش دهیم: https://youtube.com/watch?v=nHX7hCeOtFc. این امر در آن زمان چشمگیر تلقی می شد.
https://twitter.com/dpkingma/status/1530969016608489472
همچنین میتوانیم مدلهای مولد را برای تصاویر رنگی با وضوح بسیار پایین، مانند چهرهها را آموزش دهیم: https://youtube.com/watch?v=nHX7hCeOtFc. این امر در آن زمان چشمگیر تلقی می شد.
https://twitter.com/dpkingma/status/1530969016608489472
YouTube
Randomly traversing the manifold of faces (2)
Randomly traversing a learned manifold of faces.
Dataset: Labeled Faces in the Wild (LFW)
Model: Variational Auto-Encoder (VAE) / Deep Latent Gaussian Model (DLGM).
This deep generative model was trained in only ~3 hours on the CPU of my laptop.
Algorithm:…
Dataset: Labeled Faces in the Wild (LFW)
Model: Variational Auto-Encoder (VAE) / Deep Latent Gaussian Model (DLGM).
This deep generative model was trained in only ~3 hours on the CPU of my laptop.
Algorithm:…
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
7/n (Imagen)
اکنون در سال 2022، تنها با گذشت 8 سال مدلهای مولدی داریم که میتوانند تصاویر واقعی 1024x1024 را از توضیحات متن دلخواه (https://imagen.research.google) تولید کنند.
https://twitter.com/dpkingma/status/1530969048988602368
اکنون در سال 2022، تنها با گذشت 8 سال مدلهای مولدی داریم که میتوانند تصاویر واقعی 1024x1024 را از توضیحات متن دلخواه (https://imagen.research.google) تولید کنند.
https://twitter.com/dpkingma/status/1530969048988602368
👍4🔥2
8/n (Compute Trends)
از سال 2010، میزان محاسبات مورد نیاز برای آموزش بزرگترین مدل ها هر 6 ماه دو برابر شده است. [سویا و همکاران، https://arxiv.org/abs/2202.05924]. اندازه مدل و مقدار داده های آموزشی نیز تقریبا متناسب با محاسبه رشد کرده است.
https://twitter.com/dpkingma/status/1530969056114638848
از سال 2010، میزان محاسبات مورد نیاز برای آموزش بزرگترین مدل ها هر 6 ماه دو برابر شده است. [سویا و همکاران، https://arxiv.org/abs/2202.05924]. اندازه مدل و مقدار داده های آموزشی نیز تقریبا متناسب با محاسبه رشد کرده است.
https://twitter.com/dpkingma/status/1530969056114638848
👍2
Attending to Channels Using Keras and TensorFlow
https://pyimagesearch.com/2022/05/30/attending-to-channels-using-keras-and-tensorflow/
https://pyimagesearch.com/2022/05/30/attending-to-channels-using-keras-and-tensorflow/
یه کورس رایگان جالب برای علاقه مندان به نوروساینس:
Processing the environment
Processing the environment
Sensory perceptionhttps://www.khanacademy.org/test-prep/mcat/processing-the-environment
Sight (vision)
Sound (Audition)
Somatosensation
Taste (gustation) and smell (olfaction)
Sleep and consciousness
Drug dependence
Attention
Memory
Cognition
Language
Emotion
Stress
❤8👍7
Aligning point patterns with Kabsch–Umeyama algorithm
https://zpl.fi/aligning-point-patterns-with-kabsch-umeyama-algorithm/
https://zpl.fi/aligning-point-patterns-with-kabsch-umeyama-algorithm/
zpl.fi
Aligning point patterns with Kabsch–Umeyama algorithm
Description and implementation of Kabsch–Umeyama algorithm for finding the optimal translation, rotation and scaling between two paired sets of points.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
یه تست ساده برای Adhd (بیش فعالی)
🔹روی دایره سبز در مرکز تصویر تمرکز کنید بعد مدتی باید سه دایره زرد رنگ متحرک نامرئی میشن.
🔹اگر فقط یک یا دو دایره نامرئی بشه یعنی شما مشکل در تمرکز دارید و به راحتی دچار حواس پرتی میشید که ممکنه بخاطر اختلال Adhd میشه.
▪️ اگر ۳ دایره نامرئی بشن مشکلی ندارید
▪️ اگر از ۵ تا ۱۰ ثانیه تونستید تمرکز کنید جزء کمتر از ۲ درصد افراد با تمرکز بالایید
🔹روی دایره سبز در مرکز تصویر تمرکز کنید بعد مدتی باید سه دایره زرد رنگ متحرک نامرئی میشن.
🔹اگر فقط یک یا دو دایره نامرئی بشه یعنی شما مشکل در تمرکز دارید و به راحتی دچار حواس پرتی میشید که ممکنه بخاطر اختلال Adhd میشه.
▪️ اگر ۳ دایره نامرئی بشن مشکلی ندارید
▪️ اگر از ۵ تا ۱۰ ثانیه تونستید تمرکز کنید جزء کمتر از ۲ درصد افراد با تمرکز بالایید
👎29👍18
Super-Resolution Generative Adversarial Networks (SRGAN)
https://pyimagesearch.com/2022/06/06/super-resolution-generative-adversarial-networks-srgan/
https://pyimagesearch.com/2022/06/06/super-resolution-generative-adversarial-networks-srgan/
😱8👍4🔥4
Enhanced Super-Resolution Generative Adversarial Networks (ESRGAN)
https://pyimagesearch.com/2022/06/13/enhanced-super-resolution-generative-adversarial-networks-esrgan/
https://pyimagesearch.com/2022/06/13/enhanced-super-resolution-generative-adversarial-networks-esrgan/
😱19🔥4👍1
احتمالا هر وقت روش regularization میشنوید روش هایی نظیر
early stopping
l1 & l2
Dropout
و یا Data Augmentation
به ذهنتون میاد،
اما تو خیلی از پیاده سازی ها از نویزی گاوسی که تو کراس و تنسرفلو هم پیاده سازی شده استفاده میشه، حالا یا بین لایه ها یا در ورودی مدلهایی نظیر ASR که صوت ورودی ذاتا نویزیه...
https://keras.io/api/layers/regularization_layers/gaussian_noise/
https://www.tensorflow.org/api_docs/python/tf/keras/layers/GaussianNoise
early stopping
l1 & l2
Dropout
و یا Data Augmentation
به ذهنتون میاد،
اما تو خیلی از پیاده سازی ها از نویزی گاوسی که تو کراس و تنسرفلو هم پیاده سازی شده استفاده میشه، حالا یا بین لایه ها یا در ورودی مدلهایی نظیر ASR که صوت ورودی ذاتا نویزیه...
https://keras.io/api/layers/regularization_layers/gaussian_noise/
https://www.tensorflow.org/api_docs/python/tf/keras/layers/GaussianNoise
👍14🔥2
Understanding Multiple Object Tracking using DeepSORT
https://learnopencv.com/understanding-multiple-object-tracking-using-deepsort/
https://learnopencv.com/understanding-multiple-object-tracking-using-deepsort/
LearnOpenCV – Learn OpenCV, PyTorch, Keras, Tensorflow with code, & tutorials
Understanding Multiple Object Tracking using DeepSORT
Get an overview of Tracking, the different types of object trackers, how tracking works, and what evaluation metrics are used to measure their performance.
👍4