دستاوردهای یادگیری عمیق(InTec)
9.54K subscribers
364 photos
40 videos
44 files
676 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
دوره جدید، که بزودی (۱۶ روز) دیگر شروع خواهد شد...
Facebook Has Been Quietly Open Sourcing Some Amazing Deep Learning Capabilities for PyTorch


Link
بررسی Efficient-Det بسیار مفید و ساده :

Link
خبرگذاری صدا و سیما،
خبر نشون داد که یک تیم ۱۱ نفره تونسته، به کمک هوش مصنوعی Covid-19 رو از روی اسکن ریه تشخیص بده، دستشون درد نکنه

ولی ۱۱ نفر، واقعاً !؟

شمارو با این پست، تنها میذارم (بیش از ۱۰۰ پیاده سازی مختلف وجود داره البته)

Link

که فقط ۱ نفر پیاده‌سازی کرده :/ ، امیدوارم بودجه میلیاردی بابت اینکار نداده باشند
Learn_TensorFlow_2_0.pdf
6.2 MB
کتاب آموزش تنسورفلو ورژن ۲
توضیح مختصری از معماری ریکامندر فیسبوک؛ لینک گیت‌هاب و مقاله نیز در همین پست موجود است


Link
ویدئو اول از دوره جدید، شبکه‌های عصبی با پایتون بدون استفاده از هیچ نوع لایبراری اضافی توسط sentdex در یوتیوب به اشتراک گذاشته شده، این دوره کاملاً رایگان هست ، اگر میخواهید جزئیات رو بطور دقیق متوجه بشید و خودتون پیاده سازی کنید، این دوره رو از دست ندید

YouTube Link
ConveRT: Efficient and AccurateConversational Representations from Transformers

یک مدل خیلی سبک و البته با دقت بسیار بالا برای Q&A مقایسه دقتش با مدل‌های برتر این‌ روزها بسیارجالب هست (توجه کنید این مدل General Task نیست)

نکته آخر اینکه، Bert-Base که توی مقاله هم مقایسه شده، هزینه آموزشی حدود 500$ داشته ولی این مدل فقط 50$ که نشون میده چقدر پارامترهای این مدل کمتر هست
موارد بیشتر در مقاله؛

Paper Link

GitHub Deployment (English pretrain only)
خیلی از دوستان nlp کار هستند که با معماری و البته درک نحوه کار، پیاده‌سازی Bert مشکل دارند و خب باید بگم که مشکل از عدم درک درست از
Transformer, Attention
هست، چون Bert چیزی جز این موارد و معماری
Encoder-Decoder
نیست، اما بهترین کار برای درک پیاده سازی هست.

لینک زیر از
Harvard NLP
یکی از بهترین پیاده سازی‌های
Transformer : Attention is all you need

هست که شخصاً برای درک ترنسفورمرها ازون استفاده کردم (پیاده‌سازی در پایتورچ) و بسیار عالی مقاله و کدهای Notebook رو کنار هم قرار داده

امیدوارم مفید باشه
👍1
for all members from other countries (who can't speak/read Farsi)
There is some problem with group robot (on restricting accounts) if your account tagged as spam or deleted from the group

You can send a direct message to @DataEngineer (most group members talk Farsi)

دوستان عزیزی که محدودیت ارسال پیام داشتند، مشکل ازینجا بود که اکانت owner با شماره‌ایی غیر از ایران بود و تلگرام اجازه دسترسی شماره‌های ایران به گروهای عمومی رو بسته‌، با تغییر گروه به حالت خصوصی این مشکل باید رفع شده باشه

اگر همچنان محدودیت ارسال پیام دارید، لطفاً از گروه خارج بشید و مجدد عضو بشید 🌹🌹
بسیاری از کارها با الگوریتم‌های هوش مصنوعی به کمک کتابخونه scikit-learn انجام می‌شه، چندروز پیش در یک وبینار خصوصی روی دیتاهای بسیار زیاد، پیشنهاد بسیاری از دوستان به سمت استفاده از کتابخانه sklearn و ابزار spark برای کار روی دیتا بود

اما تعجب کردم که کسی به Vowpal اشاره نکرد، وقتی دیتای بسیار زیادی دارید بهتره ازین کتابخونه پایتون استفاده کنید.

GitHub Link