Deep Time
3.78K subscribers
101 photos
10 videos
7 files
298 links
Machine Learning 💻 Quantitative Finance💲Time Series 📈 Artificial Intelligence 🤖Data Science 📚 Startup 🚀
Download Telegram
آیا برای پیشبینی مجاز به استفاده از اطلاعاتی درباره آینده هستیم؟!
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.

طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
1
کمپانی‌های بزرگ و استارتاپ‌های موفق همیشه از افرادی تشکیل می‌شوند و افرادی را جذب می‌کنند که ماکزیممِ بالا دارند، نه جمعِ بالا. یعنی افرادی مهم هستند که در یک حوزه تخصص بسیار بالایی دارند نه افرادی که در حوزه‌های مختلف، دانش و تخصصی متوسط کسب کرده اند. گرچه این به معنی تشویق به تک بعدی شدن نیست، بلکه تاکید روی قوی بودن در یک تخصص است.

تعیین‌کننده ترین و مهم‌ترین مهارت زمان ما توانایی تمرکز است. در زمانی که جنگ بیزینس‌ها، شبکه‌های اجتماعی یا حتی تولید کننگان محتوای ارزشمند روی جذب توجه است، اگر حواس جمع نباشیم در بهترین حالت به آدم‌هایی تبدیل می‌شویم که در حوزه‌های مختلف تنها مهارت و دیدی سطحی داریم. خواندن مقالات و گذراندن دوره‌های آموزشی مختلف از حوزه‌های متفاوت، در صورتی که توانایی تمرکز روی یک موضوع را از بین ببرد می‌تواند خطرناک باشد.
در هیاهوی محتوا و حوزه‌های مختلف، عمیق شدن و کار و تفکر روی یک موضوع، لذت بالایی را نیز به دنبال دارد. همانطور که دیدن ۱۰۰ کلیپ خیلی عالیِ ۱ دقیقه در اینستاگرام هیچگاه به اندازه دیدن یک فیلم ۱۰۰ دقیقه‌ایِ خوب لذت بخش نیست.
در کتاب صفر به یک اثر پیتر تیل (استاد استنفرد، بنیانگذار پی پال و از مدیران لینکدین) آمده است:
یک فرد معتقد به آینده معین و تعریف شده، به جای تشویق به کسب متوسط‌ها در وجوه مختلف و "خوب رشدیافتگی" خواندن این حالت، بهترین کاری را که می‌توان انجام داد شناسایی می‌کند و آن را انجام می‌دهد. چنین فردی به‌جای کار خستگی ناپذیر برای متمایز شدن، به دنبال فوق‌العاده شدن در یک حوزه اصیل می‌رود تا منحصر به فرد شود.

@deeptimeai
1
Deep Time
ویدئو جلسه در یوتوب از دقیقه 40 به بعد ارائه من هست.
ML4T_S12_II_MohammadTalaei.pptx
2.4 MB
لینک‌هایی که در ارائه معرفی شد در این فایل پاورپوینت هست. فقط باید در حالت پرزنت باشید که بتونید روی لینک ها کلیک کنید.
حتما Darts رو درنظر داشته باشید

سازنده‌های Darts به طور تخصصی روی مدل‌های Time Series فعال هستند. از مدل‌های کلاسیک و یادگیری عمیق تا مدل‌های هایبرید پوشش داده شده و مدل‌های SOTA سری زمانی هم در این کتابخونه دیده میشن. از ARIMA تا Prophet و حتی مدل‌های Transformer برای سری زمانی.

@deeptimeai
خیلی اوقات دوستان میپرسن چطور ماشین لرنینگ یاد بگیرم؟ چطور پایتون یاد بگیرم؟ چطور برنامه نویس بشم؟

قسمت غیر اصلیِ جواب این سوال میشه معرفی منابع و نقشه راه یادگیری ابزار و ریاضی و ... .

قسمت اصلیِ جواب، چرایی یادگیری هست. به چه دلیل میخواید یاد بگیرید؟ برای چه کاربردی؟ برای حل چه مسئله ای؟ اگر چرایی وجود داشته باشه، مثل تانک ابزار و الگوریتم‌ها رو مسلط میشید‌.
برعکس، اگر حتی علاقه زیادی به ذات برنامه نویسی یا ماشین لرنینگ داشته باشید اما کاربردی در ذهن برای اعمالش نداشته باشید(کاربردی که بهش علاقه دارید و همیشه فکر میکنید)، احتمالا یادگیری رو رها می‌کنید. خصوصا در سنین بالاتر.

همیشه از دوستان میپرسم برای چی میخواید یاد بگیرید؟ آیا مسئله بخصوصی که علاقه داشته باشید در ذهنتون هست که اونو با برنامه نویسی و یا هوش مصنوعی حل کنید؟

اگر باشه شما در حین یادگیری الگوریتم‌ها سعی میکنید کاربرد اون الگوریتم یا مبحث مورد تدریس رو با مسئله خودتون تطبیق بدید و اینطور علاوه بر اینکه بهتر مطلب جا میفته، شما سعی میکنید اونو در کار خوتون اعمال کنید و لذت یادگیری بیشتر وجود خواهد داشت.

اما اگر مسئله‌ای در ذهنمون نیست چطور؟ اگر کلا نمیدونیم باید در زندگی حرفه‌ای چه مشکلی رو حل کنیم و چه چیزی بسازیم؟

بهترین چیزی که تا الآن من پیدا کردم سایت زیر هست. که محققین آکسفورد به صورت عام‌المنفعه ساختن. به شما کمک میکنه با کلی از مسائل اساسی و مهم دنیا که شاید بعضا بهشون کم توجهی میشه آشنا بشید. میگه شما کلا ۸۰۰۰۰ ساعت تایم مفید کاری در عمرتون خواهید داشت. میخواید باش چکار کنید؟ چطور با این ۸۰۰۰۰ ساعت یک تأثیر مثبت در دنیا ایجاد کنید؟
80000hours

اما اگر باز حوصله این هم ندارید؛ بهترین محرک برای پاسخ به چرایی یادگیری، شرکت در مسابقات برنامه نویسی و هوش مصنوعی هست.
مسابقه برنامه نویسی:
Advent of code
مسابقات عمومی ماشین لرنینگ:
Kaggle, aicrowd
مسابقات حوزه فایننس و ماشین لرنینگ:
CrunchDAO, Numer.ai

@deeptimeai
👍3
اینجا لارنس ارائه‌های مهم هوش مصنوعی و ماشین لرنینگ Google I/O 2022 رو معرفی میکنه. حتی فرانس شولت (سازنده Keras) هم ارائه تخصصی داشته (همش در یوتوب هست).
Link
@deeptimeai
👍2
احتمالا تا الآن دیگه کُنراد رو با کتاب پرفروش جدیدش Kaggle Book، و ویدئو‌های مدل های سری زمانی میشناسید. جلسه بعدی فردا (جمعه) ساعت ۱۹ با موضوع مدل‌های دیپ لرنینگ برای سری زمانی

YouTube Link
@deeptimeai
👍1
Forwarded from Deep Time
آیا نیاز هست که حتما از حفظ کردن داده‌های آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟

بخش دوم

هدف از این نوشته‌ها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه می‌دهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدل‌های پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.

تحقیقات نشان می‌د‌هند مدل‌های معروف NLP مثل BERT و RoBERTa می‌توانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانه‌ای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزن‌ها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکه‌ای به مراتب بزرگ تر نیاز است، در حالی که این شبکه‌ها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدل‌ها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.

بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدل‌ها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی می‌کند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمت‌های توسعه مدل‌های پردازش زبان است، به کار گرفته می‌شود.

اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟

@deeptimeai
👍1
#توصیه_به_استارتاپ‌ها
بحث پادالگوها

داشتن منتور باسواد و قوی برای هر استارتاپ حیاتیست. قطعا یکی از بهترین منتور‌های استارتاپ‌ ما، دوست خوبم آقای علیرضا آقامحمدی (استاد مدعو دانشکده کامپیوتر دانشگاه شریف. کانال @golemcourse) هستند.
در یک جلسه ایشان بحث anti-patterns (پادالگوها) را برای ما روشن کرد. پادالگوها در واقع رویه‌ها و اعمالی هستند که گاها در طی ایجاد نرم‌افزار انجام می‌شوند اما انجام آنها بسیار اشتباه است و برای ایجاد نرم‌افزار مشکلات فراوانی به‌وجود می‌آورد.
پادالگوها در سه سطح ایجاد، معماری و مدیریت تعریف می‌شوند. علم به پادالگوها و روش‌های مقابله با آن برای مهندسین و مدیران یک استارتاپ بسیا مفید است.

مثال پادالگو سطح Development:
برای مثال بحث پادالگوی Lava Flow و راه حل آن به ما کمک کرد refactoring، بازنگری و مرور مکرر کد را جدی بگیریم و بین functionality کد و maintainability آن تمایز قائل باشیم. بحث refactoring و تمیز کردن کد در متودولوژی‌های چابک به شکل سخت‌گیرانه انجام می‌شود و این حاصل تجربه سال‌های سال ایجاد نرم‌افزار است. داشتن معماری درست مهم‌ترین راه حل برای جلوگیری از بوجود آمدن Dead Code و Lava Flow است. جلوگیری از همین پادالگو می‌تواند کیفیت سیستم و عملکرد تیم را بسیار افزایش دهد‌.

منبع خوبی که ایشان به من معرفی کردند، چند جلسه آخر از درس "الگو‌ها در مهندسی نرم افزار" دکتر رامان رامسین (هیئت علمی دانشکده مهندسی کامپیوتر دانشگاه شریف) است.‌ این درس در مقطع ارشد ارائه می‌شود.
توصیه میکنم چند جلسه آخر این درس که مربوط به پادالگوهاست را ببینید. می‌توانید سرعت ویدئو را روی ۱.۵ تنظیم کنید.
Ocw.sharif Link

@deeptimeai
2
Forwarded from @machinelearningnet (Sasan Barak)
🍀🍀🍀🍀

پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺

زمان: دوشنبه ۱۶ خرداد ساعت ۲۰

Time: 6th June 2022

Topic: Deep Learning for Trading

لینک ورود زوم
Meeting ID: 899 2864 0090

لطفا با پسورد ۱۲۳۴۵ وارد شوید.

برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir

لینک گروه:
https://xn--r1a.website/machinelearningnet
لینک کانال :
https://xn--r1a.website/machinelearningnet2
‎‌‏
————————————————————

لطفا دوستانتان را دعوت کنید...
This media is not supported in your browser
VIEW IN TELEGRAM
نمونه یک کار Data Storytelling قوی برای تغییرات دمای کره زمین و تغییر اقلیم که در کانال انرژی هم اشتراک گذاشتم.
یک قسمت مهم دیتاساینس همین storytelling هست.

Credit NASA
The 'climate spiral' is a visualization designed by climate scientist Ed Hawkins from the National Centre for Atmospheric Science, University of Reading.

@deeptimeai
Time-series Transformer Generative Adversarial Networks

مقاله جالبی برای تولید داده مصنوعی سری زمانی که با ترنسفورمر انجام شده. مدل مشخصا طوری عمل میکنه که توزیع احتمالاتی و روابط پیچیده در داده ها حفظ شن.
کاربرد مهم این مدل‌ها در بازار مالی هست که همیشه نیاز به داده بیشتر برای یادگیری و شبیه سازی هاست که دیشب هم بحثش با آقای دکتر براک بود در جلسه ارائه کتاب.
دو مورد پست دیگه هم در این مورد داشتیم تو کانال اگر دوستان خاطرشون باشه.
این مقاله ادعا میکنه که از مدل‌های SOTA قبلی نتایج بهتری داره.
@deeptimeai
👍1
@machinelearningnet
🍀🍀🍀🍀 پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺 زمان: دوشنبه ۱۶ خرداد ساعت ۲۰ Time: 6th June 2022 Topic: Deep Learning for Trading لینک ورود زوم Meeting ID: 899 2864 0090 لطفا با پسورد ۱۲۳۴۵ وارد شوید. برای اطلاعات…
لینک‌های یوتوب و آپارات
در بخش اول جلسه من در مورد دیپ لرنینگ و شبکه عصبی عصبی مصنوعی حرف زدم. نحوه کار و یادگیری و حتی کد زنی از صفر (بدون کتابخونه کمکی) برای بالا آوردن یک شبکه عصبی بررسی شد و درباره مواردی از دیپ لرنینگ به اندازه وقتی که داشتیم صحبت شد.

در بخش دوم جلسه جناب آقای دکتر جماعت موارد پیاده‌سازی با کمک Keras رو بررسی کردن.

@deeptimeai
یک کار خیلی جالب دیدم که از روش کاهش ابعاد (بر اساس decomposition مقادیر ویژه، همون روشی که در PCA هست) در فرآیند آپدیت وزن‌ها استفاده کرده تا در Few-Shot Learning استفاده کنه. و خوب اتفاقی که افتاده عین PCA اون المان‌های اساسی استخراج شدن از گرادیان.
روند یادگیری خیلی بهینه تر شده. خصوصا مسیر رسیدن به نقطه مینیمم. اسم روش subGD هست.

ایده اصلی البته برای این کار دانشگاه استنفرد هست که به صورت کلی اومده درجه آزادی مورد نیاز برای آموزش یک شبکه عمیق رو بحث کرده. به این روش رسیده که باید از ماتریس autocorrelation مربوط به توالی مقادیر آپدیت وزن، مقادیر ویژه برای کاهش ابعاد استخراج بشه و بر این مبنا آپدیت وزن ها انجام بشه.
Link

@deeptimeai
👍1
دوره Machine Learning Specialization آقای Andrew Ng با همکاری دانشگاه استنفرد و Deeplearning.AI در Coursera با محتوای جدید اخیرا آپدیت شده.

این دوره برای شروع یاد گرفتن ماشین لرنینگ هم قطعا مناسبه و همچنین برای دوستانی که تجربه دارن مطالب جدید داره و میتونه برای سنجش دانش خوب باشه. بر خلاف Deep Learning Specialization، در این Specialization سرفصل‌هایی مثل XGBoost , Random Forest کاور شدن که برای دوستانی که روی داده‌های Tabular کار میکنن واجب هست. البته پایه Deep Learning یعنی شبکه عصبی و gradient decent هم تدریس میشه. همچنین در course سوم Deep Reinforcement Learning، روش‌های Unsupervised و Recommender Systems آورده شده.

برخلاف خیلی شرکت‌ها که ایرانی‌ها رو تحویل نمیگیرند، در کورسرا شما میتونید با ذکر اینکه برای پرداخت‌ها در ایران تحریم هستیم و ارزش پول پایینی داریم یا دانشجو هستیم، دوره رو کاملا برای خودتون رایگان کنید و مدرکش رو بگیرید. البته به نظرم اسم ایران رو نیارید ولی قطعا کلمه sanction یا تحریم رو در درخواست ذکر کنید. در واقع با درخواست financial aid بعد از 15 روز دوره برای شما رایگان باز میشه و 6 ماه فرصت دارید دوره رو بگذرونید. بهتره با فیلترشکن وارد سایت کورسرا بشید.
برای Specialization ها که شامل چند دوره هستند پیشنهاد میشه تک تک هر دوره رو بگذرونید و بعد دوره بعد رو درخواست بدید تا وقت کم نیارید و فرصت 6 ماهه بگذره. البته اگر هم از ددلاین 6 ماهه گذشت میتونید مجدد درخواست بدید. برای آشنایی با نحوه درخواست دادن برای رایگان شدنِ دوره، لینک رو ببینید.

با تجربه‌ای که شخصا از گذروندن 5 دوره Deep Learning Specialization دارم، مطمئنا دوره‌ها Machine Learning Specialization رو پیشنهاد میکنم. کیفیت تدریس بالاست و عمق الگوریتم و ریاضی مدل‌ها ارائه میشه و همچنین تکالیف کد نوشتن هم با کمک کتابخانه‌ها و هم از صفر وجود داره.

@deeptimeai
موسسه ریاضی دانشگاه آکسفورد یکی از قوی ترین موسسات در پیشبرد تحقیقات مربوط به سری زمانی هست. قبلا هم کارهایی از این موسسه که منجر به دریافت جایزه Quant در همکاری با JP Morgan در فعالیت های عظیم بازار مالی شده بود در کانال پست شد.
دوستانی که علاقه به هسته مباحث ریاضی و لبه علم در این حوزه دارن مقاله زیر رو بخونن.
Link
Github

@deeptimeai
👍1