آیا برای پیشبینی مجاز به استفاده از اطلاعاتی درباره آینده هستیم؟!
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.
طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.
طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
❤1
Deep Time
آیا برای پیشبینی مجاز به استفاده از اطلاعاتی درباره آینده هستیم؟! #Future_Covariate بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای…
This media is not supported in your browser
VIEW IN TELEGRAM
این پست هم مربوط به interpretable کردن متغیرهای Future Covariate در سری زمانی بود👇
Interpretable Deep Learning for Time Series Forecasting
@deeptimeai
Interpretable Deep Learning for Time Series Forecasting
@deeptimeai
Deep Time
سلام دوستان امشب من ارائه دهنده دوم هستم (حدود ده دقیقه ۹ احتمالا میام). مباحث خیلی جالبی صحبت میکنیم: ۱_ در مورد متد های Ensembling و سیر تکاملیشون از XGBoost تا Meta-model های موفق در صنعت. روش های Stacking و Blending هم و اون متامدل هارو خارج از کتاب…
ویدئو جلسه در یوتوب
از دقیقه 40 به بعد ارائه من هست.
از دقیقه 40 به بعد ارائه من هست.
YouTube
ML for Trading: Session 12
کمپانیهای بزرگ و استارتاپهای موفق همیشه از افرادی تشکیل میشوند و افرادی را جذب میکنند که ماکزیممِ بالا دارند، نه جمعِ بالا. یعنی افرادی مهم هستند که در یک حوزه تخصص بسیار بالایی دارند نه افرادی که در حوزههای مختلف، دانش و تخصصی متوسط کسب کرده اند. گرچه این به معنی تشویق به تک بعدی شدن نیست، بلکه تاکید روی قوی بودن در یک تخصص است.
تعیینکننده ترین و مهمترین مهارت زمان ما توانایی تمرکز است. در زمانی که جنگ بیزینسها، شبکههای اجتماعی یا حتی تولید کننگان محتوای ارزشمند روی جذب توجه است، اگر حواس جمع نباشیم در بهترین حالت به آدمهایی تبدیل میشویم که در حوزههای مختلف تنها مهارت و دیدی سطحی داریم. خواندن مقالات و گذراندن دورههای آموزشی مختلف از حوزههای متفاوت، در صورتی که توانایی تمرکز روی یک موضوع را از بین ببرد میتواند خطرناک باشد.
در هیاهوی محتوا و حوزههای مختلف، عمیق شدن و کار و تفکر روی یک موضوع، لذت بالایی را نیز به دنبال دارد. همانطور که دیدن ۱۰۰ کلیپ خیلی عالیِ ۱ دقیقه در اینستاگرام هیچگاه به اندازه دیدن یک فیلم ۱۰۰ دقیقهایِ خوب لذت بخش نیست.
در کتاب صفر به یک اثر پیتر تیل (استاد استنفرد، بنیانگذار پی پال و از مدیران لینکدین) آمده است:
یک فرد معتقد به آینده معین و تعریف شده، به جای تشویق به کسب متوسطها در وجوه مختلف و "خوب رشدیافتگی" خواندن این حالت، بهترین کاری را که میتوان انجام داد شناسایی میکند و آن را انجام میدهد. چنین فردی بهجای کار خستگی ناپذیر برای متمایز شدن، به دنبال فوقالعاده شدن در یک حوزه اصیل میرود تا منحصر به فرد شود.
@deeptimeai
تعیینکننده ترین و مهمترین مهارت زمان ما توانایی تمرکز است. در زمانی که جنگ بیزینسها، شبکههای اجتماعی یا حتی تولید کننگان محتوای ارزشمند روی جذب توجه است، اگر حواس جمع نباشیم در بهترین حالت به آدمهایی تبدیل میشویم که در حوزههای مختلف تنها مهارت و دیدی سطحی داریم. خواندن مقالات و گذراندن دورههای آموزشی مختلف از حوزههای متفاوت، در صورتی که توانایی تمرکز روی یک موضوع را از بین ببرد میتواند خطرناک باشد.
در هیاهوی محتوا و حوزههای مختلف، عمیق شدن و کار و تفکر روی یک موضوع، لذت بالایی را نیز به دنبال دارد. همانطور که دیدن ۱۰۰ کلیپ خیلی عالیِ ۱ دقیقه در اینستاگرام هیچگاه به اندازه دیدن یک فیلم ۱۰۰ دقیقهایِ خوب لذت بخش نیست.
در کتاب صفر به یک اثر پیتر تیل (استاد استنفرد، بنیانگذار پی پال و از مدیران لینکدین) آمده است:
یک فرد معتقد به آینده معین و تعریف شده، به جای تشویق به کسب متوسطها در وجوه مختلف و "خوب رشدیافتگی" خواندن این حالت، بهترین کاری را که میتوان انجام داد شناسایی میکند و آن را انجام میدهد. چنین فردی بهجای کار خستگی ناپذیر برای متمایز شدن، به دنبال فوقالعاده شدن در یک حوزه اصیل میرود تا منحصر به فرد شود.
@deeptimeai
❤1
Deep Time
ویدئو جلسه در یوتوب از دقیقه 40 به بعد ارائه من هست.
ML4T_S12_II_MohammadTalaei.pptx
2.4 MB
لینکهایی که در ارائه معرفی شد در این فایل پاورپوینت هست. فقط باید در حالت پرزنت باشید که بتونید روی لینک ها کلیک کنید.
حتما Darts رو درنظر داشته باشید
سازندههای Darts به طور تخصصی روی مدلهای Time Series فعال هستند. از مدلهای کلاسیک و یادگیری عمیق تا مدلهای هایبرید پوشش داده شده و مدلهای SOTA سری زمانی هم در این کتابخونه دیده میشن. از ARIMA تا Prophet و حتی مدلهای Transformer برای سری زمانی.
@deeptimeai
سازندههای Darts به طور تخصصی روی مدلهای Time Series فعال هستند. از مدلهای کلاسیک و یادگیری عمیق تا مدلهای هایبرید پوشش داده شده و مدلهای SOTA سری زمانی هم در این کتابخونه دیده میشن. از ARIMA تا Prophet و حتی مدلهای Transformer برای سری زمانی.
@deeptimeai
خیلی اوقات دوستان میپرسن چطور ماشین لرنینگ یاد بگیرم؟ چطور پایتون یاد بگیرم؟ چطور برنامه نویس بشم؟
قسمت غیر اصلیِ جواب این سوال میشه معرفی منابع و نقشه راه یادگیری ابزار و ریاضی و ... .
قسمت اصلیِ جواب، چرایی یادگیری هست. به چه دلیل میخواید یاد بگیرید؟ برای چه کاربردی؟ برای حل چه مسئله ای؟ اگر چرایی وجود داشته باشه، مثل تانک ابزار و الگوریتمها رو مسلط میشید.
برعکس، اگر حتی علاقه زیادی به ذات برنامه نویسی یا ماشین لرنینگ داشته باشید اما کاربردی در ذهن برای اعمالش نداشته باشید(کاربردی که بهش علاقه دارید و همیشه فکر میکنید)، احتمالا یادگیری رو رها میکنید. خصوصا در سنین بالاتر.
همیشه از دوستان میپرسم برای چی میخواید یاد بگیرید؟ آیا مسئله بخصوصی که علاقه داشته باشید در ذهنتون هست که اونو با برنامه نویسی و یا هوش مصنوعی حل کنید؟
اگر باشه شما در حین یادگیری الگوریتمها سعی میکنید کاربرد اون الگوریتم یا مبحث مورد تدریس رو با مسئله خودتون تطبیق بدید و اینطور علاوه بر اینکه بهتر مطلب جا میفته، شما سعی میکنید اونو در کار خوتون اعمال کنید و لذت یادگیری بیشتر وجود خواهد داشت.
اما اگر مسئلهای در ذهنمون نیست چطور؟ اگر کلا نمیدونیم باید در زندگی حرفهای چه مشکلی رو حل کنیم و چه چیزی بسازیم؟
بهترین چیزی که تا الآن من پیدا کردم سایت زیر هست. که محققین آکسفورد به صورت عامالمنفعه ساختن. به شما کمک میکنه با کلی از مسائل اساسی و مهم دنیا که شاید بعضا بهشون کم توجهی میشه آشنا بشید. میگه شما کلا ۸۰۰۰۰ ساعت تایم مفید کاری در عمرتون خواهید داشت. میخواید باش چکار کنید؟ چطور با این ۸۰۰۰۰ ساعت یک تأثیر مثبت در دنیا ایجاد کنید؟
80000hours
اما اگر باز حوصله این هم ندارید؛ بهترین محرک برای پاسخ به چرایی یادگیری، شرکت در مسابقات برنامه نویسی و هوش مصنوعی هست.
مسابقه برنامه نویسی:
Advent of code
مسابقات عمومی ماشین لرنینگ:
Kaggle, aicrowd
مسابقات حوزه فایننس و ماشین لرنینگ:
CrunchDAO, Numer.ai
@deeptimeai
قسمت غیر اصلیِ جواب این سوال میشه معرفی منابع و نقشه راه یادگیری ابزار و ریاضی و ... .
قسمت اصلیِ جواب، چرایی یادگیری هست. به چه دلیل میخواید یاد بگیرید؟ برای چه کاربردی؟ برای حل چه مسئله ای؟ اگر چرایی وجود داشته باشه، مثل تانک ابزار و الگوریتمها رو مسلط میشید.
برعکس، اگر حتی علاقه زیادی به ذات برنامه نویسی یا ماشین لرنینگ داشته باشید اما کاربردی در ذهن برای اعمالش نداشته باشید(کاربردی که بهش علاقه دارید و همیشه فکر میکنید)، احتمالا یادگیری رو رها میکنید. خصوصا در سنین بالاتر.
همیشه از دوستان میپرسم برای چی میخواید یاد بگیرید؟ آیا مسئله بخصوصی که علاقه داشته باشید در ذهنتون هست که اونو با برنامه نویسی و یا هوش مصنوعی حل کنید؟
اگر باشه شما در حین یادگیری الگوریتمها سعی میکنید کاربرد اون الگوریتم یا مبحث مورد تدریس رو با مسئله خودتون تطبیق بدید و اینطور علاوه بر اینکه بهتر مطلب جا میفته، شما سعی میکنید اونو در کار خوتون اعمال کنید و لذت یادگیری بیشتر وجود خواهد داشت.
اما اگر مسئلهای در ذهنمون نیست چطور؟ اگر کلا نمیدونیم باید در زندگی حرفهای چه مشکلی رو حل کنیم و چه چیزی بسازیم؟
بهترین چیزی که تا الآن من پیدا کردم سایت زیر هست. که محققین آکسفورد به صورت عامالمنفعه ساختن. به شما کمک میکنه با کلی از مسائل اساسی و مهم دنیا که شاید بعضا بهشون کم توجهی میشه آشنا بشید. میگه شما کلا ۸۰۰۰۰ ساعت تایم مفید کاری در عمرتون خواهید داشت. میخواید باش چکار کنید؟ چطور با این ۸۰۰۰۰ ساعت یک تأثیر مثبت در دنیا ایجاد کنید؟
80000hours
اما اگر باز حوصله این هم ندارید؛ بهترین محرک برای پاسخ به چرایی یادگیری، شرکت در مسابقات برنامه نویسی و هوش مصنوعی هست.
مسابقه برنامه نویسی:
Advent of code
مسابقات عمومی ماشین لرنینگ:
Kaggle, aicrowd
مسابقات حوزه فایننس و ماشین لرنینگ:
CrunchDAO, Numer.ai
@deeptimeai
80,000 Hours
You have 80,000 hours in your career.
This makes it your best opportunity to have a positive impact on the world. If you’re fortunate enough to be able to use your career for good, but aren’t sure how, we can help
👍3
اینجا لارنس ارائههای مهم هوش مصنوعی و ماشین لرنینگ Google I/O 2022 رو معرفی میکنه. حتی فرانس شولت (سازنده Keras) هم ارائه تخصصی داشته (همش در یوتوب هست).
Link
@deeptimeai
Link
@deeptimeai
YouTube
Top AI and ML announcements from Google I/O 2022
Catch the top takeaways in AI and ML from Google I/O 2022. Laurence Moroney shares the latest updates, tools, and guidance available for creating and deploying models with TensorFlow tech. From responsible AI to Coral Dev Board Micro, MLOps, TensorFlow.js…
👍2
احتمالا تا الآن دیگه کُنراد رو با کتاب پرفروش جدیدش Kaggle Book، و ویدئوهای مدل های سری زمانی میشناسید. جلسه بعدی فردا (جمعه) ساعت ۱۹ با موضوع مدلهای دیپ لرنینگ برای سری زمانی
YouTube Link
@deeptimeai
YouTube Link
@deeptimeai
YouTube
TS-6: Deep learning for time series - sequences
Abstract: Time series are, first and foremost, sequences - so it's only natural to apply sequence modeling approach from deep learning to such problems. In this episode we present the vintage DL methods (RNN, GRU and LSTM) and show their applications for…
👍1
Forwarded from Deep Time
آیا نیاز هست که حتما از حفظ کردن دادههای آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟
بخش دوم
هدف از این نوشتهها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه میدهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدلهای پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.
تحقیقات نشان میدهند مدلهای معروف NLP مثل BERT و RoBERTa میتوانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانهای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزنها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکهای به مراتب بزرگ تر نیاز است، در حالی که این شبکهها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدلها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.
بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدلها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی میکند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمتهای توسعه مدلهای پردازش زبان است، به کار گرفته میشود.
اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟
@deeptimeai
بخش دوم
هدف از این نوشتهها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه میدهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدلهای پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.
تحقیقات نشان میدهند مدلهای معروف NLP مثل BERT و RoBERTa میتوانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانهای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزنها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکهای به مراتب بزرگ تر نیاز است، در حالی که این شبکهها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدلها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.
بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدلها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی میکند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمتهای توسعه مدلهای پردازش زبان است، به کار گرفته میشود.
اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟
@deeptimeai
research.google
REALM: Integrating Retrieval into Language Representation Models
Posted by Ming-Wei Chang and Kelvin Guu, Research Scientists, Google Research Recent advances in natural language processing have largely built upo...
👍1
آیا ارزش داره مسابقات Kaggle شرکت کنیم؟
این مسئله از نظر شغلی (برای مثال پیدا کردن شغل در کمپانیهای بزرگ مثل گوگل و انودیا) و مهارت در حوزه چقدر اهمیت داره؟
یک استاد Kaggle اینو توضیح میده.
@deeptimeai
این مسئله از نظر شغلی (برای مثال پیدا کردن شغل در کمپانیهای بزرگ مثل گوگل و انودیا) و مهارت در حوزه چقدر اهمیت داره؟
یک استاد Kaggle اینو توضیح میده.
@deeptimeai
Forecastegy
Are Kaggle Competitions Worth It? Ponderings of a Kaggle Grandmaster
I would not have a data science career without Kaggle.
So if you are looking for a blog post bashing Kaggle, this is not the place.
That said, I am not a radical that thinks Kaggle is the ultimate thing that everyone must do in order to become a data scientist.…
So if you are looking for a blog post bashing Kaggle, this is not the place.
That said, I am not a radical that thinks Kaggle is the ultimate thing that everyone must do in order to become a data scientist.…
❤1
#توصیه_به_استارتاپها
بحث پادالگوها
داشتن منتور باسواد و قوی برای هر استارتاپ حیاتیست. قطعا یکی از بهترین منتورهای استارتاپ ما، دوست خوبم آقای علیرضا آقامحمدی (استاد مدعو دانشکده کامپیوتر دانشگاه شریف. کانال @golemcourse) هستند.
در یک جلسه ایشان بحث anti-patterns (پادالگوها) را برای ما روشن کرد. پادالگوها در واقع رویهها و اعمالی هستند که گاها در طی ایجاد نرمافزار انجام میشوند اما انجام آنها بسیار اشتباه است و برای ایجاد نرمافزار مشکلات فراوانی بهوجود میآورد.
پادالگوها در سه سطح ایجاد، معماری و مدیریت تعریف میشوند. علم به پادالگوها و روشهای مقابله با آن برای مهندسین و مدیران یک استارتاپ بسیا مفید است.
مثال پادالگو سطح Development:
برای مثال بحث پادالگوی Lava Flow و راه حل آن به ما کمک کرد refactoring، بازنگری و مرور مکرر کد را جدی بگیریم و بین functionality کد و maintainability آن تمایز قائل باشیم. بحث refactoring و تمیز کردن کد در متودولوژیهای چابک به شکل سختگیرانه انجام میشود و این حاصل تجربه سالهای سال ایجاد نرمافزار است. داشتن معماری درست مهمترین راه حل برای جلوگیری از بوجود آمدن Dead Code و Lava Flow است. جلوگیری از همین پادالگو میتواند کیفیت سیستم و عملکرد تیم را بسیار افزایش دهد.
منبع خوبی که ایشان به من معرفی کردند، چند جلسه آخر از درس "الگوها در مهندسی نرم افزار" دکتر رامان رامسین (هیئت علمی دانشکده مهندسی کامپیوتر دانشگاه شریف) است. این درس در مقطع ارشد ارائه میشود.
توصیه میکنم چند جلسه آخر این درس که مربوط به پادالگوهاست را ببینید. میتوانید سرعت ویدئو را روی ۱.۵ تنظیم کنید.
Ocw.sharif Link
@deeptimeai
بحث پادالگوها
داشتن منتور باسواد و قوی برای هر استارتاپ حیاتیست. قطعا یکی از بهترین منتورهای استارتاپ ما، دوست خوبم آقای علیرضا آقامحمدی (استاد مدعو دانشکده کامپیوتر دانشگاه شریف. کانال @golemcourse) هستند.
در یک جلسه ایشان بحث anti-patterns (پادالگوها) را برای ما روشن کرد. پادالگوها در واقع رویهها و اعمالی هستند که گاها در طی ایجاد نرمافزار انجام میشوند اما انجام آنها بسیار اشتباه است و برای ایجاد نرمافزار مشکلات فراوانی بهوجود میآورد.
پادالگوها در سه سطح ایجاد، معماری و مدیریت تعریف میشوند. علم به پادالگوها و روشهای مقابله با آن برای مهندسین و مدیران یک استارتاپ بسیا مفید است.
مثال پادالگو سطح Development:
برای مثال بحث پادالگوی Lava Flow و راه حل آن به ما کمک کرد refactoring، بازنگری و مرور مکرر کد را جدی بگیریم و بین functionality کد و maintainability آن تمایز قائل باشیم. بحث refactoring و تمیز کردن کد در متودولوژیهای چابک به شکل سختگیرانه انجام میشود و این حاصل تجربه سالهای سال ایجاد نرمافزار است. داشتن معماری درست مهمترین راه حل برای جلوگیری از بوجود آمدن Dead Code و Lava Flow است. جلوگیری از همین پادالگو میتواند کیفیت سیستم و عملکرد تیم را بسیار افزایش دهد.
منبع خوبی که ایشان به من معرفی کردند، چند جلسه آخر از درس "الگوها در مهندسی نرم افزار" دکتر رامان رامسین (هیئت علمی دانشکده مهندسی کامپیوتر دانشگاه شریف) است. این درس در مقطع ارشد ارائه میشود.
توصیه میکنم چند جلسه آخر این درس که مربوط به پادالگوهاست را ببینید. میتوانید سرعت ویدئو را روی ۱.۵ تنظیم کنید.
Ocw.sharif Link
@deeptimeai
ocw.sharif.ir
درس افزار دانشگاه صنعتی شریف
❤2
Forwarded from @machinelearningnet (Sasan Barak)
🍀🍀🍀🍀
پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺
زمان: دوشنبه ۱۶ خرداد ساعت ۲۰
Time: 6th June 2022
Topic: Deep Learning for Trading
لینک ورود زوم
Meeting ID: 899 2864 0090
لطفا با پسورد ۱۲۳۴۵ وارد شوید.
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
لینک گروه:
https://xn--r1a.website/machinelearningnet
لینک کانال :
https://xn--r1a.website/machinelearningnet2
————————————————————
لطفا دوستانتان را دعوت کنید...
پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺
زمان: دوشنبه ۱۶ خرداد ساعت ۲۰
Time: 6th June 2022
Topic: Deep Learning for Trading
لینک ورود زوم
Meeting ID: 899 2864 0090
لطفا با پسورد ۱۲۳۴۵ وارد شوید.
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
لینک گروه:
https://xn--r1a.website/machinelearningnet
لینک کانال :
https://xn--r1a.website/machinelearningnet2
————————————————————
لطفا دوستانتان را دعوت کنید...
@machinelearningnet
🍀🍀🍀🍀 پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺 زمان: دوشنبه ۱۶ خرداد ساعت ۲۰ Time: 6th June 2022 Topic: Deep Learning for Trading لینک ورود زوم Meeting ID: 899 2864 0090 لطفا با پسورد ۱۲۳۴۵ وارد شوید. برای اطلاعات…
امروز ساعت 20 در خدمت دوستان هستم
شبکه عصبی و دیپ لرنینگ رو از پایه صحبت میکنیم و کد میزنیم
شبکه عصبی و دیپ لرنینگ رو از پایه صحبت میکنیم و کد میزنیم
This media is not supported in your browser
VIEW IN TELEGRAM
نمونه یک کار Data Storytelling قوی برای تغییرات دمای کره زمین و تغییر اقلیم که در کانال انرژی هم اشتراک گذاشتم.
یک قسمت مهم دیتاساینس همین storytelling هست.
Credit NASA
The 'climate spiral' is a visualization designed by climate scientist Ed Hawkins from the National Centre for Atmospheric Science, University of Reading.
@deeptimeai
یک قسمت مهم دیتاساینس همین storytelling هست.
Credit NASA
The 'climate spiral' is a visualization designed by climate scientist Ed Hawkins from the National Centre for Atmospheric Science, University of Reading.
@deeptimeai
Time-series Transformer Generative Adversarial Networks
مقاله جالبی برای تولید داده مصنوعی سری زمانی که با ترنسفورمر انجام شده. مدل مشخصا طوری عمل میکنه که توزیع احتمالاتی و روابط پیچیده در داده ها حفظ شن.
کاربرد مهم این مدلها در بازار مالی هست که همیشه نیاز به داده بیشتر برای یادگیری و شبیه سازی هاست که دیشب هم بحثش با آقای دکتر براک بود در جلسه ارائه کتاب.
دو مورد پست دیگه هم در این مورد داشتیم تو کانال اگر دوستان خاطرشون باشه.
این مقاله ادعا میکنه که از مدلهای SOTA قبلی نتایج بهتری داره.
@deeptimeai
مقاله جالبی برای تولید داده مصنوعی سری زمانی که با ترنسفورمر انجام شده. مدل مشخصا طوری عمل میکنه که توزیع احتمالاتی و روابط پیچیده در داده ها حفظ شن.
کاربرد مهم این مدلها در بازار مالی هست که همیشه نیاز به داده بیشتر برای یادگیری و شبیه سازی هاست که دیشب هم بحثش با آقای دکتر براک بود در جلسه ارائه کتاب.
دو مورد پست دیگه هم در این مورد داشتیم تو کانال اگر دوستان خاطرشون باشه.
این مقاله ادعا میکنه که از مدلهای SOTA قبلی نتایج بهتری داره.
@deeptimeai
ar5iv
Time-series Transformer Generative Adversarial Networks
Many real-world tasks are plagued by limitations on data: in some instances very little data is available and in others, data is protected by privacy enforcing regulations (e.g. GDPR). We consider limitations posed spe…
👍1
@machinelearningnet
🍀🍀🍀🍀 پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺 زمان: دوشنبه ۱۶ خرداد ساعت ۲۰ Time: 6th June 2022 Topic: Deep Learning for Trading لینک ورود زوم Meeting ID: 899 2864 0090 لطفا با پسورد ۱۲۳۴۵ وارد شوید. برای اطلاعات…
لینکهای یوتوب و آپارات
در بخش اول جلسه من در مورد دیپ لرنینگ و شبکه عصبی عصبی مصنوعی حرف زدم. نحوه کار و یادگیری و حتی کد زنی از صفر (بدون کتابخونه کمکی) برای بالا آوردن یک شبکه عصبی بررسی شد و درباره مواردی از دیپ لرنینگ به اندازه وقتی که داشتیم صحبت شد.
در بخش دوم جلسه جناب آقای دکتر جماعت موارد پیادهسازی با کمک Keras رو بررسی کردن.
@deeptimeai
در بخش اول جلسه من در مورد دیپ لرنینگ و شبکه عصبی عصبی مصنوعی حرف زدم. نحوه کار و یادگیری و حتی کد زنی از صفر (بدون کتابخونه کمکی) برای بالا آوردن یک شبکه عصبی بررسی شد و درباره مواردی از دیپ لرنینگ به اندازه وقتی که داشتیم صحبت شد.
در بخش دوم جلسه جناب آقای دکتر جماعت موارد پیادهسازی با کمک Keras رو بررسی کردن.
@deeptimeai
YouTube
ML for Trading: Session 17
Deep learning in Trading
یک کار خیلی جالب دیدم که از روش کاهش ابعاد (بر اساس decomposition مقادیر ویژه، همون روشی که در PCA هست) در فرآیند آپدیت وزنها استفاده کرده تا در Few-Shot Learning استفاده کنه. و خوب اتفاقی که افتاده عین PCA اون المانهای اساسی استخراج شدن از گرادیان.
روند یادگیری خیلی بهینه تر شده. خصوصا مسیر رسیدن به نقطه مینیمم. اسم روش subGD هست.
ایده اصلی البته برای این کار دانشگاه استنفرد هست که به صورت کلی اومده درجه آزادی مورد نیاز برای آموزش یک شبکه عمیق رو بحث کرده. به این روش رسیده که باید از ماتریس autocorrelation مربوط به توالی مقادیر آپدیت وزن، مقادیر ویژه برای کاهش ابعاد استخراج بشه و بر این مبنا آپدیت وزن ها انجام بشه.
Link
@deeptimeai
روند یادگیری خیلی بهینه تر شده. خصوصا مسیر رسیدن به نقطه مینیمم. اسم روش subGD هست.
ایده اصلی البته برای این کار دانشگاه استنفرد هست که به صورت کلی اومده درجه آزادی مورد نیاز برای آموزش یک شبکه عمیق رو بحث کرده. به این روش رسیده که باید از ماتریس autocorrelation مربوط به توالی مقادیر آپدیت وزن، مقادیر ویژه برای کاهش ابعاد استخراج بشه و بر این مبنا آپدیت وزن ها انجام بشه.
Link
@deeptimeai
👍1
Deep Time
یک کار خیلی جالب دیدم که از روش کاهش ابعاد (بر اساس decomposition مقادیر ویژه، همون روشی که در PCA هست) در فرآیند آپدیت وزنها استفاده کرده تا در Few-Shot Learning استفاده کنه. و خوب اتفاقی که افتاده عین PCA اون المانهای اساسی استخراج شدن از گرادیان. روند…
This media is not supported in your browser
VIEW IN TELEGRAM
دوره Machine Learning Specialization آقای Andrew Ng با همکاری دانشگاه استنفرد و Deeplearning.AI در Coursera با محتوای جدید اخیرا آپدیت شده.
این دوره برای شروع یاد گرفتن ماشین لرنینگ هم قطعا مناسبه و همچنین برای دوستانی که تجربه دارن مطالب جدید داره و میتونه برای سنجش دانش خوب باشه. بر خلاف Deep Learning Specialization، در این Specialization سرفصلهایی مثل XGBoost , Random Forest کاور شدن که برای دوستانی که روی دادههای Tabular کار میکنن واجب هست. البته پایه Deep Learning یعنی شبکه عصبی و gradient decent هم تدریس میشه. همچنین در course سوم Deep Reinforcement Learning، روشهای Unsupervised و Recommender Systems آورده شده.
برخلاف خیلی شرکتها که ایرانیها رو تحویل نمیگیرند، در کورسرا شما میتونید با ذکر اینکه برای پرداختها در ایران تحریم هستیم و ارزش پول پایینی داریم یا دانشجو هستیم، دوره رو کاملا برای خودتون رایگان کنید و مدرکش رو بگیرید. البته به نظرم اسم ایران رو نیارید ولی قطعا کلمه sanction یا تحریم رو در درخواست ذکر کنید. در واقع با درخواست financial aid بعد از 15 روز دوره برای شما رایگان باز میشه و 6 ماه فرصت دارید دوره رو بگذرونید. بهتره با فیلترشکن وارد سایت کورسرا بشید.
برای Specialization ها که شامل چند دوره هستند پیشنهاد میشه تک تک هر دوره رو بگذرونید و بعد دوره بعد رو درخواست بدید تا وقت کم نیارید و فرصت 6 ماهه بگذره. البته اگر هم از ددلاین 6 ماهه گذشت میتونید مجدد درخواست بدید. برای آشنایی با نحوه درخواست دادن برای رایگان شدنِ دوره، لینک رو ببینید.
با تجربهای که شخصا از گذروندن 5 دوره Deep Learning Specialization دارم، مطمئنا دورهها Machine Learning Specialization رو پیشنهاد میکنم. کیفیت تدریس بالاست و عمق الگوریتم و ریاضی مدلها ارائه میشه و همچنین تکالیف کد نوشتن هم با کمک کتابخانهها و هم از صفر وجود داره.
@deeptimeai
این دوره برای شروع یاد گرفتن ماشین لرنینگ هم قطعا مناسبه و همچنین برای دوستانی که تجربه دارن مطالب جدید داره و میتونه برای سنجش دانش خوب باشه. بر خلاف Deep Learning Specialization، در این Specialization سرفصلهایی مثل XGBoost , Random Forest کاور شدن که برای دوستانی که روی دادههای Tabular کار میکنن واجب هست. البته پایه Deep Learning یعنی شبکه عصبی و gradient decent هم تدریس میشه. همچنین در course سوم Deep Reinforcement Learning، روشهای Unsupervised و Recommender Systems آورده شده.
برخلاف خیلی شرکتها که ایرانیها رو تحویل نمیگیرند، در کورسرا شما میتونید با ذکر اینکه برای پرداختها در ایران تحریم هستیم و ارزش پول پایینی داریم یا دانشجو هستیم، دوره رو کاملا برای خودتون رایگان کنید و مدرکش رو بگیرید. البته به نظرم اسم ایران رو نیارید ولی قطعا کلمه sanction یا تحریم رو در درخواست ذکر کنید. در واقع با درخواست financial aid بعد از 15 روز دوره برای شما رایگان باز میشه و 6 ماه فرصت دارید دوره رو بگذرونید. بهتره با فیلترشکن وارد سایت کورسرا بشید.
برای Specialization ها که شامل چند دوره هستند پیشنهاد میشه تک تک هر دوره رو بگذرونید و بعد دوره بعد رو درخواست بدید تا وقت کم نیارید و فرصت 6 ماهه بگذره. البته اگر هم از ددلاین 6 ماهه گذشت میتونید مجدد درخواست بدید. برای آشنایی با نحوه درخواست دادن برای رایگان شدنِ دوره، لینک رو ببینید.
با تجربهای که شخصا از گذروندن 5 دوره Deep Learning Specialization دارم، مطمئنا دورهها Machine Learning Specialization رو پیشنهاد میکنم. کیفیت تدریس بالاست و عمق الگوریتم و ریاضی مدلها ارائه میشه و همچنین تکالیف کد نوشتن هم با کمک کتابخانهها و هم از صفر وجود داره.
@deeptimeai
موسسه ریاضی دانشگاه آکسفورد یکی از قوی ترین موسسات در پیشبرد تحقیقات مربوط به سری زمانی هست. قبلا هم کارهایی از این موسسه که منجر به دریافت جایزه Quant در همکاری با JP Morgan در فعالیت های عظیم بازار مالی شده بود در کانال پست شد.
دوستانی که علاقه به هسته مباحث ریاضی و لبه علم در این حوزه دارن مقاله زیر رو بخونن.
Link
Github
@deeptimeai
دوستانی که علاقه به هسته مباحث ریاضی و لبه علم در این حوزه دارن مقاله زیر رو بخونن.
Link
Github
@deeptimeai
GitHub
GitHub - tgcsaba/seq2tens: Seq2Tens: An efficient representation of sequences by low-rank tensor projections
Seq2Tens: An efficient representation of sequences by low-rank tensor projections - tgcsaba/seq2tens
👍1