دستاوردهای یادگیری عمیق(InTec)
9.46K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
توی کار دیپ‌لرنینگ وقتی به یک مسئله جدید میرسیم با دیتاست جدید، بطوری که تا بحال مشابه‌ اون حل نشده
اینطور شروع می‌شه که بر اساس سعی و خطا و یا تجربیات یک شبکه ساخته می‌شه و اجرا می‌شه

بعد از اون با سعی و خطا، پارامترها و ... تغییر پیدا می‌کنه تا به بهترین نتیجه برسیم (این فرمول برای تمام مسائل جدید ثابت هست ؛ ی نگاه به کگل کنید و تعداد ثبت نتایج تیم‌ها)

برای خیلی‌ها سوال اینه که چطور این پارامتر‌ها رو باید تغییر داد و چه مقداری بهترین نتیجه رو میده (توی مسائل جدید، سعی و خطا بیشتر لازمه و تجربه می‌تونه کمک کنه)

Keras-Tuner

یکی ازون پیکج‌های عالی هست که یک فضای جستجو براش تعریف می‌شه و چیزهای مختلف رو برای بهبود تارگت تست می‌کنه، فقط باید دقت کنید که این فضا و تعداد پارامتر‌های مورد جستجو رو چقدر بزرگ دارید در نظر می‌گیرید
1
خداکنه ونزوئلا نیروی کار متخصص ایرانی هم قبول کنه،
پ.ن: قیمت دلار بازهم بالاتر رفته
تنسورفلو نسخه ۲.۱ هم منتشر شد، و آخرین نسخه‌ایی هست که از پایتون ۲.۷ پشتیبانی می‌کنه

Github release link
نسخه ۲۰۱۹ دوره آموزش مقدماتی دیپ‌لرنینگ MIT

YouTube link
این گروه خانوم‌ها با توجه به صدا، پرنده‌ها رو دسته بندی کردند ، توضیحات + کد

Link
“PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection”

Link
Best part of Deeplearning.ai weekly news :

Link

با استفاده از یک GPU و ۲۴ ساعت زمان ترین دقت خیلی خوبی گرفته
#CES2020
بیشترین خبری که برای من فروارد شد(البته چک نکردم که چقدر صحت داره) ماشین‌های هوشمند و دیگر تجهیزات هوشمند؛ با پشتیبانی از فرمان صوتی برای مثلاْ باز شدن درها و ... بود؛ خیلی‌ها هیجان زده شدند مخصوصاْ راجب ماشین‌ها و عدم نیاز به همراه داشتن کلید‌ها و ...

ویدئو که لینکش رو آخر متن قرار میدم نشون میده که چطور گروهی از متخصصین تونستن به کمک لیزر به این ابزارها حمله کنند و از فواصل دور بهشون دستور بدند

شاید هنوز وقت استفاده ازین تکنولوژی‌ها نرسیده

Youtube, Link
یکی از جذاب‌ترین گجت‌ها که توی CES امسال معرفی شد؛
Next Mind
هست که بطور RealTime سیگنال مغز رو تیدیل به فرمان برای کنترل چیزهای مختلف (تلویزیون ؛ ضبط و ... ) می‌کنه

شخصاْ فکر می‌کنم از دیپ‌لرنینگ برای پردازش سیگنال‌ها و تغییر اون به دستورات استفاده می‌کنه (شخصاْ موفقیت آمیز بودن این موضوع رو قبلاْ تست کردم؛ اما فقط برای دستورات بسیار بسیار ساده)

https://www.next-mind.com/
1
حذف نویز از تصاویر به کمک AutoEncoder ؛
اصطلاحا این نوع نویز رو که توی تصاویر دوربین‌های مداربسته بسیار دیده می‌شه،
Salt & Pepper
میگن بهش، اینکار برای یک پروژه ثبت اتومات ساعت ورود و خروج و ثبت پلاک در پایگاه داده هست (متاسفانه نمی‌تونم داده‌های پلاک‌هارو قرار بدم، اما مهم نیست)

نویز‌های مختلفی روی تصاویر دریافتی از دوربین‌ها وجود داره توی این پروژه، راهکار قبلی این بوده که دیتارو بصورت تصویر داخل دیتابیس نگهداری میکردند، بخاطر حجم و مشکلات مختلف چیز خوبی نبود و نهایتاً تا ۴ ماه دیتارو نگهداری میکردند.
راهکار : استفاده از دیپ‌لرنینگ و ذخیره شماره پلاک بصورت متن، اما مشکل وجود نویز‌های فراوان بود که دقت مدل رو پایین میاورد و اتوانکودر تونست به راحتی این مشکل رو حل کنه

جالبه که حجم هردو مدل (اتوانکودر و کلسیفیکیشن) باهم کمتر از ۵۰۰ کیلوبایت هست، و هر دو مدل بصورت
RealTime
روی raspberry درحال اجرا هستند (این پروژه برای پارکینگ یک مجتمع فروشگاهی خصوصی زده شده؛ و جنبه امنیتی و تبلیغاتی و ... خواهد داشت)

#پروژه_آخر_هفته
1
دستاوردهای یادگیری عمیق(InTec)
حذف نویز از تصاویر به کمک AutoEncoder ؛ اصطلاحا این نوع نویز رو که توی تصاویر دوربین‌های مداربسته بسیار دیده می‌شه، Salt & Pepper میگن بهش، اینکار برای یک پروژه ثبت اتومات ساعت ورود و خروج و ثبت پلاک در پایگاه داده هست (متاسفانه نمی‌تونم داده‌های پلاک‌هارو…
بخش اول پروژه (حذف نویز) که برای بهبود دسته‌بندی استفاده شد و می‌شه بعنوان مرحله پیش‌پردازش داده در نظر گرفتش رو با opencv هم می‌شد انجام داد، اما روی
Raspberry
اینکار موقع اجرا زمان بیشتری نسبت به AutoEncoder مورد استفاده لازم داره
علاوه بر اون با این روش می‌شه از
Tensorflow.js
برای شعب دیگر این مرکز تجاری نیز استفاده کرد و تمام دیتای مشتریان رو بصورت متمرکز جمع‌آوری کرد ؛ که مورد دوم دلیل اصلی استفاده از
AutoEncoder
بجای روشهای OpenCV بود.
چه بگویم، نگفته‌ام پیداس
غم این دل، مگر یکی و دوتاس ...
Easily host, track, and share your ML experiments for free.



Link
راهکارهای زیادی برای سرعت بخشیدن به کار با پکیج فوق‌العاده Pandas وجود داره، که می‌شه به Dask, Ray بعنوان شناخته شده ترین‌ها اشاره کرد

همه کسانی که با Ray کار کردن احتمالا جذب سادگی اون شدند، اما Dask ، فوق العاده هست چون distributed computing رو راحت می‌کنه

حالا لایبراری Modin این ۲تا ویژگی رو باهم در اختیارتون میذاره، راحتی در این حد که ؛

import modin.pandas as pd

اینو بجای ایمپورت قبلی pandas تو کدهاتون قرار بدید و از سرعت اجرا لذت ببرید.

Github link