Deep Time
3.78K subscribers
101 photos
10 videos
7 files
298 links
Machine Learning 💻 Quantitative Finance💲Time Series 📈 Artificial Intelligence 🤖Data Science 📚 Startup 🚀
Download Telegram
یکی از موارد خیلی مهم در برنامه‌نویس‌ها (و البته تمامی مشاغل)، بحث فرسودگی شغلی یا Burn Out هست. عموما هم افرادی که تلاشگری زیادی دارند دچار این فرسودگی شغلی میشن. دلیل اساسی اون هم طبق بررسی‌های علمی، سختی کار، سختی محیط کار و ... نیست. بلکه بحث پیچیده تری هست که به حساسیت فردی نسبت به عدالت و قفل شدن ربط پیدا میکنه. راه حل این مسئله هم در کتاب "خرد جامعه ستیزان" مطرح شده! بسیار جالبه حتما ببینید.

در ۲۸ دقیقه آخر این لایو اینستاگرامی، دکتر آذرخش مکری، هیئت علمی روانپزشکی دانشگاه علوم پزشکی در این مورد صحبت میکنن.

ایشون مباحث بسیار جالبی در زمینه علوم شناختی، نوروساینس و ... در کانالشون صحبت میکنن و همیشه با تسلط و دقت بالا به منابع معتبر علمی ارجاع میدن. مطالب بسیار با دقت انتخاب میشن و به نظرم برای هر فردی مفید هستند.
کانال اینستاگرام دکتر مکری: AzarakhshMokri
کانال تلگرام دکتر مکری:
https://xn--r1a.website/DrAzarakhshMokri

@deeptimeai
#بالانس_کار_و_زندگی ۱
👍1
تست علیت گرانگر Granger causality
این آزمون علیت، مفید بودن یک سری زمانی برای پیشبینی سری زمانی دیگر را بررسی می‌کند.
قوانین پایه:
۱_ علت، از نظر زمانی، قبل از معلول واقع شود.
۲_ علت حاوی اطلاعات یکتا درباره آینده معلول باشد.

روش:
ابتدا باید سری‌های زمانی به صورت ایستا (stationary) باشند و اگر نبودند از تغییرات مرتبه اول (یا بالاتر) استفاده می‌شود. هر متغیر lagged (برای دوستانی که آشنا نیستند، مثلا اگر میخواهیم میزان مصرف برق در دقیقه ۱۰ را پیشبینی کنیم به متغیرهای مربوط به دقایق ۹ و ۸ و ... متغیر های lagged گفته می‌شود) ، در صورتی برای رگرسیون حفظ می‌شود که: اولا با توجه به t-test معنی دار باشد و ثانیا تمامی متغیر‌های lagged با توجه به F-test توضیح‌ دهنده باشند.
سپس آزمون فرض صفر (null hypothesis) مربوط به نبود علیت گرانگر رد نمی‌شود اگر و فقط اگر هیچ‌کدام از متغیر‌های lagged مربوط به متغیر توضیح دهنده، در رگرسیون حفظ نشده باشند.

اینجا در کتابخانه statsmodel پایتون پیاده شده. البته (همونطور که اینجا هم بحثی بود) نسخه‌های جدیدی که non linear هستند در عمل قوی تر این روابط را ارزیابی میکنند این نسخه ها در گیتهاب وجود دارند.
@deeptimeai
👍1
مدل TabTransformer که یک پیاده‌سازی ترنسفورمر برای tabular data هست که در keras پیاده سازی شده.
با اختلاف نسبت به شبکه عصبی dense عملکرد بهتری داشته و با مدل‌های ensemble بر مبنای درخت رقابت میکنه.
@deeptimeai
👍2
دنبال کردنِ استاد استنفرد، Andrew Huberman و پادکستش Hubermanlab رو خیلی پیشنهاد میکنم.

همچنین گاها در وبسایتش هم خلاصه‌های مهمی قرار میده.
برای مثال این موارد کمک میکنن بهتر بخوابیم.

#بالانس_کار_و_زندگی ۲
@deeptimeai
👍1
این هفته Abhishek Thakur معروف و Konrad Banachewicz (متخصص سری زمانی)، یکسری آموزش سری زمانی به صورت رایگان و لایو رو یوتوب برگزار میکنن که ذخیره هم میشه. مباحث بالا رو پوشش میدن👆
کانال دیسکورد MLSpace
کانال یوتوب

@deeptimeai
👍1
برای برنامه نویس های همیشه پای سیستم

مسئله اصلی خریدن اون صندلی های گرون قیمت و راحت برای برنامه نویسی نیست! مطالعات نشون میدن ضرر "نشستن" در حین کار خیلی بالاست و باید ترکیبی از "نشستن و ایستادن" باشه: نیم ساعت نشسته و نیم ساعت ایستاده. میزهای sit-stand برای همین طراحی خیلی مورد استقبال هستن و البته میشه صرفا با کتاب و کارتن کارو راه انداخت. کاری که خودم هم پیاده کردم.
موارد دیگه مهمی هم huberman اشاره میکنه. مثل اینکه هر ۴۰ دقیقه ۵ دقیقه به دوردست نگاه کنیم برای جلوگیری از نزدیک بینی. و یا هر روز یکی دو بار در حدود ۳۰ دقیقه در فضای بیرون قدم بزنیم برای تقویت بینایی.
1
Deep Time
CoST: Contrastive Learning of Disentangled Seasonal-Trend Representations for Time Series Forecasting
سری زمانی جدولی اصلا جایی نیست که بتونید از این خاصیت دیپ لرنینگ استفاده کنید که میگه:
"فیچر انجینیرینگ نیاز نیست و یک شبکه عمیق با طراحی مناسب میتونه دیتای خام رو مستقیما بگیره و به پیشبینی وصل کنه"

این خاصیت برای nlp و vision اون هم با دیتاست خیلی بزرگ قابل استفاده هست. نه برای tabular time series
حتما این رشته توییت را درباره Generalization و مفهوم Flat Minima ببینید.
بهینه ساز (optimizer) SGD ذاتا به دنبال flat minima میره و ازین نظر generalization بهتری نسبت به Adam داره. ولی دقیق به flat minima نمیرسه که خوب بهینه ساز هایی مثل SAM و SWA ساخته شدن جدیدا. بهینه ساز SWA خیلی قدرتمند عمل کرده و به صورت رسمی در Pytorch نسخه 1.6 وجود داره.

#generalization
👍1
Forwarded from Golem Course
Stop_Starting_Start_Finishing_Justin.pdf
785.2 KB
کتاب شروع کردن را متوقف کنید، تمام کردن را شروع کنید:
این کتاب توسط خانم ریحانه جعفری ترجمه شده است و ترجمه خوبی هم دارد و برای هر فردی که می‌خواهد کارهای خود را مدیریت کند مناسب است.

محتوا
کتاب خیلی کم حجم است و روش کانبان را به ساده‌ترین شکل آموزش می‌دهد. ایده اصلی کانبان این است که حجم کار در جریان را محدود کنیم. یعنی هر فرد به صورت همزمان فقط روی تعداد محدودی از کارها تمرکز کند و تا زمانی که آن‌ کارها تمام نشده است حق شروع کار جدیدی ندارد.

در کانبان کارها را معمولا به سه دسته انجام شده، در حال انجام و باید انجام بشود تقسیم بندی می‌کنند. به طوری که کارهای در حال انجام ظرفیت محدودی دارد (مثلا ۵ تا). از این روش در مدیریت پروژه در شرکت‌های نرم‌افزاری بسیار استفاده می‌شود.

جمع‌بندی
خواندن کتاب نیم ساعت هم وقت نمی‌گیرد اما هم اطلاعات ارزشمندی در اختیارتان قرار می‌دهد و هم نوع نگارش آن جذاب است.
👍1
Deep Time
First session YouTube Kaggle Notebook
کمی عمیق بشیم روی نکات این جلسات.
عیب اصلی stationary کردن در Time Series چیست؟
Final Results
63%
Information loss
21%
Scaling problems
17%
Doesn't compatible with ETS models
0%
It has no disadvantage
This media is not supported in your browser
VIEW IN TELEGRAM
فاکتور Freak Out چیست؟
از زبان Andrew W.Lo استاد فایننس دانشگاه MIT
وقتی بازارها شرایط بحرانی پیدا می‌کنند، سرمایه‌گذاران زیادی پولشان را نقد می‌کنند. اما آیا این به نفعشان است؟

تصمیم اشتباه:
1_ خارج نشدن به موقع از بازار وقتی شرایط بحرانیست.
2_ خیلی مهم تر: بازنگشتن به بازار و نگه داشتن پول نقد.
به خط آبی در هر دو نمودار نگاه کنید.

تصمیم درست:
1_ خروج سریع از بازار وقتی شرایط واقعا بحرانی است. مثال: مرداد 99 در بورس. همه چیز گویا بود که دولت برای جبران کسری بودجه و نفت نفروختن، بازار را باد کرده بود. و بعد همه چیز قرمز.
2_ برگشت به بازار وقتی شرایط مناسب است. مثال: در حال حاظر خیلی از سهام شرکت های خوب در بورس ایران به دید سرمایه گذاری ارزشمند هستند و زیر قیمت. گرچه با این حد از دخالت حکومتی و قوانین بد، بازارهای جهانی امن تر هستند.

این پژوهش روی 650000 پرتفو از سال 2003 تا 2015 انجام شده.
ارائه مربوط به سال 2019 است ولی مقاله 10 روز پیش در The Journal of Financial Data Science چاپ شده.

PDF: When Do Investors Freak Out? Machine Learning Predictions of Panic Selling

@deeptimeai
Deep Time
فاکتور Freak Out چیست؟ از زبان Andrew W.Lo استاد فایننس دانشگاه MIT وقتی بازارها شرایط بحرانی پیدا می‌کنند، سرمایه‌گذاران زیادی پولشان را نقد می‌کنند. اما آیا این به نفعشان است؟ تصمیم اشتباه: 1_ خارج نشدن به موقع از بازار وقتی شرایط بحرانیست. 2_ خیلی مهم…
#تجربه_شخصی

یکی از بهترین تصمیمات سرمایه گذاریم این بود که تابستان ۱۳۹۹ در بهترین روز های بورس (یا شاید اوج جنایت دولت)، سهام فروختم و بیتکوین (با قیمت وقت ۱۰۰۰۰ دلار) و اتریم (با قیمت وقت ۵۰۰ دلار) خریدم.
در حال حاظر بیتکوین ۴۲۰۰۰ دلار و اتریم ۲۸۰۰ دلار است.


این روز ها هم به نظرم همه چیز در کشور گران شده است، جز سهام شرکت های بورسی. سهامی از بورس ایران با p/e پایین و ارزش بنیادی بالا که زیر قیمت هستند می‌توانند به عنوان بخشی از سبد سرمایه‌گذاری بررسی شوند.

عامه مردم همیشه دیر به روندهای شارپ بازارها وارد می‌شوند.
👍1
Deep Time
آیا نیاز هست که حتما از حفظ کردن داده‌های آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟ بخش اول احتمالا یکی از مهم ترین مقالات هوش مصنوعی که اخیرا منتشر شده، مقاله OpenAI در مورد پدیده Grokking باشه. قابلیت تعمیم یا generalization…
آیا نیاز هست که حتما از حفظ کردن داده‌های آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟

بخش دوم

هدف از این نوشته‌ها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه می‌دهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدل‌های پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.

تحقیقات نشان می‌د‌هند مدل‌های معروف NLP مثل BERT و RoBERTa می‌توانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانه‌ای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزن‌ها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکه‌ای به مراتب بزرگ تر نیاز است، در حالی که این شبکه‌ها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدل‌ها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.

بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدل‌ها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی می‌کند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمت‌های توسعه مدل‌های پردازش زبان است، به کار گرفته می‌شود.

اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟

@deeptimeai
1
FourCastNet: A Global Data-driven High-resolution Weather Model using Adaptive Fourier Neural Operators abs: https://arxiv.org/abs/2202.11214
👍1