Deep Time
3.78K subscribers
101 photos
10 videos
7 files
298 links
Machine Learning 💻 Quantitative Finance💲Time Series 📈 Artificial Intelligence 🤖Data Science 📚 Startup 🚀
Download Telegram
در این رشته استوری توضیح داده شده که فرآیند Gradient Descent در واقع یک مکانیزم Attention (پایه ترنسفورمر) هست. قبلا هم در این پست صحبت شد که Transformer ها در واقع Graph Neural Network هستند و اتفاقا مدلسازی به شکل GNN کم حجم تر و کم خرج تره.

قطعا با نیاز به پردازش بهینه تر و حتی در سطح edge، این نوع نگاه به پایه ریاضی مدل‌های یادگیری ماشین بیشتر مورد توجه قرار میگیره.

@deeptimeai
2
آیا chatGPT واقعا هوش داره؟ قطعا نه! جواب این سوالات رو همیشه از فرانس شولت بپرسید.
میبینیم که یک پازل ساده هم نمیتونه حل کنه.
Thread

@deeptimeai
👍5
Deep Time
Photo
علت این هست که فرانس شولت یکی از بهترین مقالات در مورد سنجش هوش رو نوشته. حداقل یکی از جالب‌ترین مقالاتی که من خوندم و پیشنهاد میکنم ببینید.
On the Measure of Intelligence

و البته میدونیم ایشون سازنده Keras هست.
👍3
علت اینکه خیلی از استارتاپمون نگفتم این بود که از وقتی که شروع شد، یعنی بیش از دو سال پیش، یک قانون نانوشته داشتیم:
درگیر حاشیه‌ها و خودنمایی‌های مرسوم نشیم تا جایی که یک سیستم خوب با حداکثر استقلال بسازیم.
و چیزی که همیشه مارو پرشور نگه میداشت خودِ خودِ بازیِ اصلی بود یعنی این که تا چه حد میشه با تکیه بر علم و خصوصا دیتاساینس بازارهای مالی مختلف رو پیشبینی کرد و البته skeptical باقی موند و تا چه اندازه در عمل میشه از پیشبینی‌ها استفاده کرد.
نتایج بکتست سیستم Smart Money Detection رو اینجا ببینید. نتایجی که در سایت گذاشتیم مربوط به مدل اولیه هست و الان مدل چند سطح ارتقاء پیدا کرده.

@deeptimeai
👍3🔥2
اکسپریمنت ترکینگ مدل‌های ماشین لرنینگ

این مسئله خصوصا وقتی روی یک پروژه و به صورت گروهی کار میکنید اجتناب ناپذیره اما پیشنهاد میکنم حتی اگر تازه واردین و برای یک پروژه ساده دانشگاهی میخواید ماشین لرن کار کنید، از اول با همین روش پیش برید و ابزارشم سادس. معمولا شما در هر پروژه تعداد بالایی ران میگیرید چه برای تست انواع مدل یا تعریف مسئله مختلف، چه به دلیل تنظیم هایپر پارامترهای یک مدل. پس نیاز دارید این تعداد بالای اکسپریمنت رو مدیریت کنید.
1- ما از Weights and Bias استفاده میکنیم (از اینجا یاد بگیرید)
2- صد گیگ فضای رایگان میده که برای ایران گزینه خوبیه گرچه در حد لاگ کردن پارامترها و نتایج اما اگر بخواید دیتاست‌های بزرگتون رو ورژن کنید از Kaggle استفاده کنید.
3- میتونید به صورت تیمی روی پروژه‌ها کار کنید و مشترکا نتایج رو ببینید.
4- ابزار فیلتر نتایج، ریپورت‌ها و ویژوئالیزیشن‌های خیلی خوبی میده خصوصا sweep ها.
5- متاسفانه تو خیلی از نت‌های ایران فیلتره بماند که چه حیف ما خیلی از ابزار مثل AWS رو نمیتونیم مثل آدم اشتراک بخریم
6- اگر تعداد ران زیاد دارید و نمیخواید سیستمتون روشن بمونه از Kaggle برای ران کردن استفاده کنید. خودکار براتون داکرایز میکنه ران میگیره رو سرورهای گوگل. هفته‌ای 40 ساعت با هر اکانت بهتون GPU میده. ما خیلی اوقات بجای اینکه سرور رو سنگین کنیم از Kaggle استفاده میکنیم (متاسفانه Kaggle هم فیلتره!)

@deeptimeai
👍7
اگر برای video call و جلسات آنلاین بخاطر فیلترینگ، سرعت و ... با Zoom، Google Meet، ِDiscord و Skype مشکل دارید میتونید از www.collabnow.ai استفاده کنید. رایگانه، نسبتا رزولوشن خوبی برای screen share میده و در کل آپشنای خوبی داره.
👍7
Forwarded from Deep Time
یکی از مشکلات مهم در آموزش مدل‌ با داده بزرگ بحث استفاده از رم یا memory usage هست.

برای مثال اگر LSTM بخواید ران کنید و داده بزرگی داشته باشید این اصلا منطقی نیست که کل رکوردهای پنجره زمانی رو هم زمان بسازید.
برای داده های بزرگ در هر مسئله دیگه ای هم درست نیست کل داده ها همزمان در مموری لود بشه.

راه حل در Keras:
استفاده از یک کلاس training_batch_generator
و استفاده از fit_generator بجای fit
Link

در Pytorch هم از dataloader استفاده میشه برای این مسئله.
👍52
از پروژه‌های سری زمانی open source پروژه Nixtla به نظرم جالبه نگاهی بندازید.
👍51
میگن هوش مصنوعی هشیاری و احساسات واقعی نداره. اما اگر قیمتای دلار به ریالو بدید پیشبینی کنه گریش درمیاد.

پ.ن : دلار از ۵۶ عبور کرد ما داریم اینجا چی میگیم؟
😢26👍8😁4😱2🤩1
Kaggle Models

حالا علاوه بر دیتاست،مسابقه و ... مدل‌های pretrained هم به Kaggle اضافه شدن. بیش از 2000 مدل از تیم‌های Google و DeepMind و Tensorflow. البته فعلا فقط قابلیت استفاده از مدل‌ها وجود داره و Read-Only هست اما به زودی میشه مدل‌هارو Share کرد.
به نظرم با توجه به کامیونیتی قوی در Kaggle، اینجا میتونه بهترین نقطه شروع برای ایده‌هایی مثل هوش و پردازش توزیع شده و استفاده از Federated Learning به طور گسترده باشه.

@deeptimeai
👍152
به چیزای بد فکر نکنید! هوش مصنوعی تصویری که در ذهنتون هست رو میبینه، البته فعلا با اسکن مغزی fMRI
Link
مقاله‌ای که اخیرا توسط دو محقق ژاپنی منتشر شده نشون میده که با استفاده از Stable Diffusion تونستن تصویر ذهنی افراد رو بازسازی کنن. مقاله فعلا peer review نیست اما در ژورنال معتبر CVPR برای سال 2023 پذیرفته شده.
بعد از Transformerها که حدود 6سال پیش دنیای هوش مصنوعی رو متحول کردند و نتیجش شد چیزی مثل chatGPT، حالا یکی دو سالی هست Diffusion تکنولوژی روز هوش مصنوعی شده و نتایجی مثل DALL-E برای تولید تصاویر از متن با هوش مصنوعی داشته. اما این مقاله نشون میده قدرت این مدل‌ها بیشتر از این حرفاست.

@deeptimeai
👍142😁2😱1
اگر در حوزه‌ای کار میکنید که نیاز به سنجش درست و سخت‌گیرانه از عدم قطعیت دارید (مثل فایننس، پزشکی و ...) یکی از بهترین روش‌ها Conformal Prediction هست.
مزایا:
1- در روش مهم نیست مدل شما چیه و روی هر مدلی سوار میشه.
2- تضمین Exact Coverage از نظر احتمالاتی
3- حتی اگر از قبل یک مدل Quantile Regression داشته باشید، این روش باند بالا و پایینش رو تنظیم میکنه تا دقیق بشه.
4- برای سری زمانی هم این روش وجود داره
بهترین منبع هم این ریپوزیتوری گیتهاب هست. برای شروع یادگیری هم این ویدئو + قلم کاغذ.
#conformal_prediction

@deeptimeai
👍101🤩1
گزارش مسابقات یادگیری ماشین در سال ۲۰۲۲

در گزارش بیش از ۲۰۰ مسابقه و ۶۷ راه حل برنده تحلیل شده. به نظرم راه حل‌های برنده در مسابقات همیشه جلوتر از زمان هستن، خصوصا که میدونیم فرضا مدل XGBoost از دل همچین مسابقاتی بیرون اومده. بنابراین راه‌های برنده در فیلد خودتون رو بررسی کنید. مجموع بیش از ۵ میلیون دلار مسابقه بوده و بیشترین پول در مسابقات Kaggle . نکته جالب اینکه ۵۰ درصد برنده‌های امسال، بار اولی بوده که مسابقه میدادن و ۵۰ درصد برنده‌ها هم تکی مسابقه داده بودن. در گزارش ابزار مورد استفاده هم بررسی شدن.

پیشنهاد میکنم گزارش کامل رو ببینید. اگر هم به طور خاص دنبال تحلیل مسابقات tabular (داده جدولی) هستید این گزارش رو ببیند.

@deeptimeai
👍144🤩1
چطور به عنوان شغل اول ماشین لرنینگ میشه جای عالی با حقوق بالا رفت؟

علتی که در تمام نقشه‌ راه‌ها برای ماشین لرنینگ، درباره شرکت در مسابقات میگم همچین مواردی هست.

هرچند به نظرم اولویت روی پروژه شخصی و کار در استارتاپ هست. به عنوان مثال با شخصی در آمریکا که در یکی از بزرگترین کمپانی‌ها VP هست و تیم ۴۰ نفری داره صحبت میکردم و گفت بعد از فارغ‌التحصیلی یک سالی در یک استارتاپ کار کرده و بعد با توجه به تجربیاتش شغل رده بالا گرفته. حالا اگر ۱۰ سال ریسرچ کنی اون شغلو نمیگیری ولی کار در استارتاپ یعنی یادگیری عمقی بسیار در سطوح مختلف با چالش‌های زیاد.

@deeptimeai
👍232👎2🔥1