Deep Time
این هفته در خصوص کاربرد علوم کامپیوتر و هوش مصنوعی در بازارهای مالی در دانشگاه ارائه ای دارم. دوستان دانشگاه شریف اگر میخواین در این جلسه شرکت کنید، ایمیل cw.sharif تون رو برای من بفرستید تا در این کلاس اضافه بشید.
YouTube
در مسیر صنعت | کاربرد علوم کامپیوتر و هوش مصنوعی در بازارهای مالی | گفت و گو با محمد طلایی
آیا میتوانیم بازار سهام را پیشبینی کنیم؟
فرق سرمایهگذاری و معاملهگری چیست؟
چگونه از مدلهای آماری میتوانیم در بازارهای مالی استفاده کنیم؟
راههای ارتباط با من در شبکههای اجتماعی:
https://xn--r1a.website/golemcourse
https://github.com/aaghamohammadi
https://…
فرق سرمایهگذاری و معاملهگری چیست؟
چگونه از مدلهای آماری میتوانیم در بازارهای مالی استفاده کنیم؟
راههای ارتباط با من در شبکههای اجتماعی:
https://xn--r1a.website/golemcourse
https://github.com/aaghamohammadi
https://…
👍1
JPX Tokyo Stock Exchange Prediction 63000$
مسابقه بازار سهام توکیو در کگل چند روز پیش شروع شده. تیم ها در آخر باید سهام رو به ترتیب از بهترین (خوب برای خرید) به بدترین (خوب برای فروش) رنک کنند.
#Kaggle
#Quantitative_Finance
@deeptimeai
مسابقه بازار سهام توکیو در کگل چند روز پیش شروع شده. تیم ها در آخر باید سهام رو به ترتیب از بهترین (خوب برای خرید) به بدترین (خوب برای فروش) رنک کنند.
#Kaggle
#Quantitative_Finance
@deeptimeai
Kaggle
JPX Tokyo Stock Exchange Prediction
Explore the Tokyo market with your data science skills
👍1
Deep Time
JPX Tokyo Stock Exchange Prediction 63000$ مسابقه بازار سهام توکیو در کگل چند روز پیش شروع شده. تیم ها در آخر باید سهام رو به ترتیب از بهترین (خوب برای خرید) به بدترین (خوب برای فروش) رنک کنند. #Kaggle #Quantitative_Finance @deeptimeai
Kaggle
【English ver】Easy to understand the competition
Explore and run machine learning code with Kaggle Notebooks | Using data from JPX Tokyo Stock Exchange Prediction
Transfer Learning for Time Series
پیشرفت جالبی در زمینه یادگیری انتقالی در سری زمانی اتفاق افتاده.
Link
@deeptimeai
پیشرفت جالبی در زمینه یادگیری انتقالی در سری زمانی اتفاق افتاده.
Link
@deeptimeai
Arxiv-Vanity
Few-Shot Forecasting of Time-Series with Heterogeneous Channels
Learning complex time series forecasting models usually requires a large amount of data, as each model is trained from scratch for each task/data set.
Leveraging learning experience with similar datasets is a well-established technique for classification…
Leveraging learning experience with similar datasets is a well-established technique for classification…
👍1
Time Series with Konrad session 5
TS-5: Automatic for the people
Abstract: In this episode we focus on the idea of a one stop shop for time series analysis: in the last few years, several packages have appeared that position themselves in such a fashion.We will take them for a test drive and have a look at how close they come to fulfilling the promise.
چهارشنبه 24 فروردین ساعت 19
@deeptimeai
TS-5: Automatic for the people
Abstract: In this episode we focus on the idea of a one stop shop for time series analysis: in the last few years, several packages have appeared that position themselves in such a fashion.We will take them for a test drive and have a look at how close they come to fulfilling the promise.
چهارشنبه 24 فروردین ساعت 19
@deeptimeai
YouTube
TS-5: Automatic for the people
Abstract: In this episode we focus on the idea of a one stop shop for time series analysis: in the last few years, several packages have appeared that positi...
فرض کنید یک مدل خوب برای پیشبینی Stock Market ساختید و Back-Test استراتژی رو هم با ملاحظات فنی انجام دادید و جواب خوب هست. مدل و استراتژی رو در Real Time توسط یک ربات معاملهگر برای معامله کردن اجرا میکنید. اما معاملات طبق پیشبینی شما پیش نمیرن و موفق نیستن.
علتش چیه؟
مدل نکردن پاسخ بازار به سفارشات و معاملات خودتون! شما بازار رو شبیه سازی نکردید و صرفا از داده های گذشته (که شما در اون هیچ معامله یا سفارشی با این مدل اعمال نکردید) به عنوان شبیه سازی محیط معامله استفاده کردید. این یکی از مهم ترین موارد هست. دقت کنید که در بازار شما با بسیاری ربات طرف هستید که به محض اینکه سفارش قرار میدین (هرچند کوچک) واکنش نشون میدن و اون رو سیگنال تلقی میکنن حتی اگر سرخط معامله بزنید.
راه حل:
شبیهسازی بازار با وجود سفارشات و استراتژی معاملات خودتون. اما چطور؟ قبلا عموما با استفاده از مدل های multi-agent بازار شبیه سازی میشده اما این نوع شبیه سازی صرفا تلاشی برای تقلید یک فضای بازار با حضور معامله گرانی با استراتژی های diverse هست و اطلاعات تاریخی سطح agent هم برای عموم (یا حتی خرید) وجود نداره.
برای پاسخ به این مشکل در روش جدید این مقاله، بازار با استفاده از تکنیک Conditional Generative Adversarial Networks شبیه سازی میشه. این مدل به خوبی پاسخ واقعی بازار رو شبیه سازی میکنه و نتایج بهتری نسبت به مدل های قبل داره.
سوال:
مورد مشابه این کار برای تولید دیتای بازار که در پست های کانال هست چی بود؟
@deeptimeai
علتش چیه؟
مدل نکردن پاسخ بازار به سفارشات و معاملات خودتون! شما بازار رو شبیه سازی نکردید و صرفا از داده های گذشته (که شما در اون هیچ معامله یا سفارشی با این مدل اعمال نکردید) به عنوان شبیه سازی محیط معامله استفاده کردید. این یکی از مهم ترین موارد هست. دقت کنید که در بازار شما با بسیاری ربات طرف هستید که به محض اینکه سفارش قرار میدین (هرچند کوچک) واکنش نشون میدن و اون رو سیگنال تلقی میکنن حتی اگر سرخط معامله بزنید.
راه حل:
شبیهسازی بازار با وجود سفارشات و استراتژی معاملات خودتون. اما چطور؟ قبلا عموما با استفاده از مدل های multi-agent بازار شبیه سازی میشده اما این نوع شبیه سازی صرفا تلاشی برای تقلید یک فضای بازار با حضور معامله گرانی با استراتژی های diverse هست و اطلاعات تاریخی سطح agent هم برای عموم (یا حتی خرید) وجود نداره.
برای پاسخ به این مشکل در روش جدید این مقاله، بازار با استفاده از تکنیک Conditional Generative Adversarial Networks شبیه سازی میشه. این مدل به خوبی پاسخ واقعی بازار رو شبیه سازی میکنه و نتایج بهتری نسبت به مدل های قبل داره.
سوال:
مورد مشابه این کار برای تولید دیتای بازار که در پست های کانال هست چی بود؟
@deeptimeai
👍1
این نوشته "سم آلتمن" درباره زندگی رو هر کسی به نظرم باید یه نگاه بندازه.
The days are long but the decades are short
سم آلتمن مدیرعامل OpenAI، یکی از پیشرو ترین شرکتهای هوش مصنوعی دنیاست. قبل از این هم مدیر شتاب دهنده معروف Y Combinator بوده.
The days are long but the decades are short
سم آلتمن مدیرعامل OpenAI، یکی از پیشرو ترین شرکتهای هوش مصنوعی دنیاست. قبل از این هم مدیر شتاب دهنده معروف Y Combinator بوده.
❤6👍2
Audio
همه چیز را پیشبینی نکن!
در این ویس روش مدلسازی ۲ لایه در بازارهای مالی معرفی میشود.
در روشهای پیشبینی سری زمانی و بازار مالی ما عموما سعی میکنیم تمام سری را پیشبینی کنیم. اما بازار در اکثر موارد اساسا قابل پیشبینی نیست و وقتی به مدل هوش مصنوعی تان دادههایی با اکثریت پیشبینی ناپذیر بخورانید، نتیجه لزوما مطلوب نیست.
پس ابتدا با یک مدل یا فیلتر، مناطق پیشبینی پذیر مشخص میشوند و دادههای این منطقه به عنوان دیتاست نهایی به مدلسازی (ماشین لرنینگ) داده میشوند.
لایه ۱: شناسایی مناطق پیشبینی پذیر
لایه ۲: مدل پیشبینی (هوش مصنوعی)
پ.ن ۱: روش گفته شده از هیچ منبع یا کتابی گرفته نشده و به تجربه بدست آمده. این روش در استارتاپ ما عملا مورد استفاده است و نتایج سودسازی دارد.
پ.ن ۲: این روش لزوما بهترین روش برای تمامی تایم فریم ها، مقادیر پول و ... نیست.
@deeptimeai
در این ویس روش مدلسازی ۲ لایه در بازارهای مالی معرفی میشود.
در روشهای پیشبینی سری زمانی و بازار مالی ما عموما سعی میکنیم تمام سری را پیشبینی کنیم. اما بازار در اکثر موارد اساسا قابل پیشبینی نیست و وقتی به مدل هوش مصنوعی تان دادههایی با اکثریت پیشبینی ناپذیر بخورانید، نتیجه لزوما مطلوب نیست.
پس ابتدا با یک مدل یا فیلتر، مناطق پیشبینی پذیر مشخص میشوند و دادههای این منطقه به عنوان دیتاست نهایی به مدلسازی (ماشین لرنینگ) داده میشوند.
لایه ۱: شناسایی مناطق پیشبینی پذیر
لایه ۲: مدل پیشبینی (هوش مصنوعی)
پ.ن ۱: روش گفته شده از هیچ منبع یا کتابی گرفته نشده و به تجربه بدست آمده. این روش در استارتاپ ما عملا مورد استفاده است و نتایج سودسازی دارد.
پ.ن ۲: این روش لزوما بهترین روش برای تمامی تایم فریم ها، مقادیر پول و ... نیست.
@deeptimeai
✍1
Deep Time
همه چیز را پیشبینی نکن! در این ویس روش مدلسازی ۲ لایه در بازارهای مالی معرفی میشود. در روشهای پیشبینی سری زمانی و بازار مالی ما عموما سعی میکنیم تمام سری را پیشبینی کنیم. اما بازار در اکثر موارد اساسا قابل پیشبینی نیست و وقتی به مدل هوش مصنوعی تان دادههایی…
ساختار کلی سیستم از زیرساخت داده تا ترید، ۴ لایه است.
لایه ۱: زیرساخت اطلاعات شامل دیتابیس، کرالینگ و scheduling و ...
لایه ۲: مدلسازی که به انواع روشهای ماشین لرنینگ، آماری، rule-based و یا Meta-model ها
لایه ۳: بهینه سازی استراتژی، بک تست و مدیرت ریسک و پرتفو
لایه ۴: پیاده سازی معاملات خودکار به شکل reliable
در ویس در مورد یک روش در لایه مدلسازی صحبت شد که خودش ۲ بخشی (۲ لایهای) هست.
لایه ۱: زیرساخت اطلاعات شامل دیتابیس، کرالینگ و scheduling و ...
لایه ۲: مدلسازی که به انواع روشهای ماشین لرنینگ، آماری، rule-based و یا Meta-model ها
لایه ۳: بهینه سازی استراتژی، بک تست و مدیرت ریسک و پرتفو
لایه ۴: پیاده سازی معاملات خودکار به شکل reliable
در ویس در مورد یک روش در لایه مدلسازی صحبت شد که خودش ۲ بخشی (۲ لایهای) هست.
👍1
لیست ویسهای کانال🎤💻📊📈
همه رکوردها را پیشبینی نکن! معرفی روش ۲ لایه مبتنی بر دیتاساینس در مدلسازی بازار مالی
همه چیز را همگان دانند اما با کمی بلاکچین و ماشین لرنینگ: معرفی ساختار پیشبینی بازار سهام توسط یکی از موفق ترین شرکتهای سرمایهگذاری NumerAI
چند نکته از مسابقات ماشین لرنینگ برای پیشبینی بازار مالی
بررسی چند کلاهبرداری مرسوم و حرفهای در بازارهای مالی
بررسی یک راه حل برنده مسابقه Kaggle: استفاده از representation learning برای tabular data
در مورد روابط بین متغیرها در سری زمانی و اینکه چرا همبستگی اکثر اوقات بدرد نخور است
بعضی روشهای مدلسازی سری زمانی
@deeptimeai
همه رکوردها را پیشبینی نکن! معرفی روش ۲ لایه مبتنی بر دیتاساینس در مدلسازی بازار مالی
همه چیز را همگان دانند اما با کمی بلاکچین و ماشین لرنینگ: معرفی ساختار پیشبینی بازار سهام توسط یکی از موفق ترین شرکتهای سرمایهگذاری NumerAI
چند نکته از مسابقات ماشین لرنینگ برای پیشبینی بازار مالی
بررسی چند کلاهبرداری مرسوم و حرفهای در بازارهای مالی
بررسی یک راه حل برنده مسابقه Kaggle: استفاده از representation learning برای tabular data
در مورد روابط بین متغیرها در سری زمانی و اینکه چرا همبستگی اکثر اوقات بدرد نخور است
بعضی روشهای مدلسازی سری زمانی
@deeptimeai
Forwarded from Deep Time
آیا نیاز هست که حتما از حفظ کردن دادههای آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟
بخش اول
احتمالا یکی از مهم ترین مقالات هوش مصنوعی که اخیرا منتشر شده، مقاله OpenAI در مورد پدیده Grokking باشه.
قابلیت تعمیم یا generalization یکی از مهم ترین مباحث در هوش مصنوعی هست. این مقاله نشون میده generalization بسیار بعد از overfitting اتفاق میفته و اون هم با تعداد پارامتر خیلی زیاد(overparameterization)! چیزی که همیشه دقیقا برعکسش مورد کاربرد بوده یعنی معمولا یادگیری با دیدن اولین نشانه های overfitting متوقف میشه و ادامه پیدا نمیکنه.
یکم تاریخ:
در گذشته هم ریاضیات و آمار بر این تاکید داشتن که شبکه underparametrized (به طور خاص منظور اینکه تعداد پارامتر ها از تعداد داده ها کمتر باشه) میتونه بجای حفظ کردن داده قوانین رو یاد بگیره. و حتی در یادگیری ماشین کلاسیک هم بحث کاهش ابعاد مهم بود. اما یادگیری عمیق اومد و گفت نیازی به کاهش ابعاد و یا کاهش تعداد پارامتر نیست. شبکه رو با پارامتر خیلی زیاد درست میکنیم اما رگولاریزیشن استفاده میکنیم. که خوب به شدت جواب داد.
اما حالا پدیده ای که مطرح میشه اینه که اجازه بدیم تعداد اپوک خیلی زیادی بعد از overfitting یادگیری ادامه پیدا کنه اما از چیزی مثل weight decay استفاده کنیم. نکته هم در همین weight decay loss هست. پیشنهاد میکنم حتما ویدئو توضیح مقاله را ببینید که بحث ساده سازی و smoothing هم جالب مطرح میشه.
پ.ن 1: دیتاست آزمایشی بوده و خیلی موارد باید بررسی بشه. این پدیده بسیار جای کار داره.
پ.ن 2: کلا داستان این کشف این بوده که یکی از نویسندگان مقاله یادش رفته آموزش مدل رو متوقف کنه و به تعطیلات میره وقتی برمیگرده: دوووبس GENERALIZATION!
@deeptimeai
بخش اول
احتمالا یکی از مهم ترین مقالات هوش مصنوعی که اخیرا منتشر شده، مقاله OpenAI در مورد پدیده Grokking باشه.
قابلیت تعمیم یا generalization یکی از مهم ترین مباحث در هوش مصنوعی هست. این مقاله نشون میده generalization بسیار بعد از overfitting اتفاق میفته و اون هم با تعداد پارامتر خیلی زیاد(overparameterization)! چیزی که همیشه دقیقا برعکسش مورد کاربرد بوده یعنی معمولا یادگیری با دیدن اولین نشانه های overfitting متوقف میشه و ادامه پیدا نمیکنه.
یکم تاریخ:
در گذشته هم ریاضیات و آمار بر این تاکید داشتن که شبکه underparametrized (به طور خاص منظور اینکه تعداد پارامتر ها از تعداد داده ها کمتر باشه) میتونه بجای حفظ کردن داده قوانین رو یاد بگیره. و حتی در یادگیری ماشین کلاسیک هم بحث کاهش ابعاد مهم بود. اما یادگیری عمیق اومد و گفت نیازی به کاهش ابعاد و یا کاهش تعداد پارامتر نیست. شبکه رو با پارامتر خیلی زیاد درست میکنیم اما رگولاریزیشن استفاده میکنیم. که خوب به شدت جواب داد.
اما حالا پدیده ای که مطرح میشه اینه که اجازه بدیم تعداد اپوک خیلی زیادی بعد از overfitting یادگیری ادامه پیدا کنه اما از چیزی مثل weight decay استفاده کنیم. نکته هم در همین weight decay loss هست. پیشنهاد میکنم حتما ویدئو توضیح مقاله را ببینید که بحث ساده سازی و smoothing هم جالب مطرح میشه.
پ.ن 1: دیتاست آزمایشی بوده و خیلی موارد باید بررسی بشه. این پدیده بسیار جای کار داره.
پ.ن 2: کلا داستان این کشف این بوده که یکی از نویسندگان مقاله یادش رفته آموزش مدل رو متوقف کنه و به تعطیلات میره وقتی برمیگرده: دوووبس GENERALIZATION!
@deeptimeai
YouTube
Grokking: Generalization beyond Overfitting on small algorithmic datasets (Paper Explained)
#grokking #openai #deeplearning
Grokking is a phenomenon when a neural network suddenly learns a pattern in the dataset and jumps from random chance generalization to perfect generalization very suddenly. This paper demonstrates grokking on small algorithmic…
Grokking is a phenomenon when a neural network suddenly learns a pattern in the dataset and jumps from random chance generalization to perfect generalization very suddenly. This paper demonstrates grokking on small algorithmic…
👍1
امروز وقتی یک سورس کد دیپ لرنینگ توی گیتهاب مربوط به یکی از محققین دانشگاه هاروارد میخوندم با notation عملیات ضرب تنسور و ماتریس از آلبرت انیشتین مواجه شدم به نام einsum. کد هم برای چند ماه پیش بود بنابراین این روش رایج هست.
به طور خیلی جالب تمامی انواع ضرب و عملیات (ضرب ماتریسی، داخلی، خارجی، trace، ضرب element-wise، جمع سطری، ستونی و ...) و هر نوع ضرب تنسوری و ماتریسی عجیب یا خاصی که مد نظرتون باشه فقط با نیم خط و با یک notation جامع توسط این روش انیشتین ساپورت میشه.
تمام کتابخونه های اصلی پایتون هم این ضرب رو دارن. قبل از اینکه ازش بترسید این ویدئو رو ببینید.
Numpy:
np.einsum
TensorFlow:
tf.einsum
Pytorch:
torch.einsum
مثال:
ضرب ماتریسی دو ماتریس a و b با numpy:
np.einsum("ik,kj->ij", a, b)
ضرب به صورت batch matrix multiplication وقتی a و b تنسور های ۳ بعدی به صورت batch باشن:
np.einsum("ijk,ikl->ijl", a, b)
کاربرد های اساسی این روش در انجام عملیات خاص تنسور و یا انجام مجموعهای از عملیات به صورت یکجاست.
آلبرت انيشتين این notation رو در سال ۱۹۱۶ برای حوزه فیزیک ارائه کرد.
@deeptimeai
به طور خیلی جالب تمامی انواع ضرب و عملیات (ضرب ماتریسی، داخلی، خارجی، trace، ضرب element-wise، جمع سطری، ستونی و ...) و هر نوع ضرب تنسوری و ماتریسی عجیب یا خاصی که مد نظرتون باشه فقط با نیم خط و با یک notation جامع توسط این روش انیشتین ساپورت میشه.
تمام کتابخونه های اصلی پایتون هم این ضرب رو دارن. قبل از اینکه ازش بترسید این ویدئو رو ببینید.
Numpy:
np.einsum
TensorFlow:
tf.einsum
Pytorch:
torch.einsum
مثال:
ضرب ماتریسی دو ماتریس a و b با numpy:
np.einsum("ik,kj->ij", a, b)
ضرب به صورت batch matrix multiplication وقتی a و b تنسور های ۳ بعدی به صورت batch باشن:
np.einsum("ijk,ikl->ijl", a, b)
کاربرد های اساسی این روش در انجام عملیات خاص تنسور و یا انجام مجموعهای از عملیات به صورت یکجاست.
آلبرت انيشتين این notation رو در سال ۱۹۱۶ برای حوزه فیزیک ارائه کرد.
@deeptimeai
YouTube
Einsum Is All You Need: NumPy, PyTorch and TensorFlow
In this video I explain how Einstein Summation (einsum) works and why it is amazing, at the end of the video you too will realize that einsum is all you need. It works similar in all libraries with the following function call: torch.einsum, tf.einsum, numpy.einsum…
دو دلیل برای اینکه کتاب جدید The Kaggle Book رو باید بخونیم (۲ عکس بالا).
یکی از نویسنده های اصلی Konrad هست که از بزرگان Kaggle و متخصص سری زمانی هست که از قبل تو کانال میشناسیم.
@deeptimeai
یکی از نویسنده های اصلی Konrad هست که از بزرگان Kaggle و متخصص سری زمانی هست که از قبل تو کانال میشناسیم.
@deeptimeai
👍1
میدانیم که storytelling مهم ترین مهارت برای بیان ایدهها، طرحها، جذب متخصصین و سرمایهگذاران است.
اما وقتی صحبت از حوزه دیتا و نرم افزار مطرح باشد، data storytelling مهارت اساسی مورد نیاز است.
قسمت اصلی همان بیان پروژه با یک توالی مناسب از مصورسازی ها، علت و معلول ها و ... است که مربوط به خود مهارت storytelling میشود و وارد آن نمیشویم.
اینجا یک ابزار مهم برای data storytelling معرفی میشود:
با ابزار fastpages میتوانید فایلهای notebook را از پروژه گیتهاب تان به بلاگهایی با دامنه github.io. تبدیل کنید. ویدئو و لینک را ببینید. در لینک میتوانید ابزار و مصورسازیهای تعاملی که برای storytelling در قالب notebook مناسب است ببینید.
بلاگ نوشتن با Github.io بسیار محبوب و مرسوم شده (برای مثال بلاگ آندره کارپاتی مدیر هوش مصنوعی تسلا و ...) و خوب نیازی به خرید سرور و دامنه و دانستن CSS و ... نیست.
البته Github pages قبلا هم وجود داشت اما fastbooks، فایل نوتبوک را مستقیما برای بلاگ شما در صفحات مختلف دیپلوی میکند.
#data_storytelling
@deeptimeai
اما وقتی صحبت از حوزه دیتا و نرم افزار مطرح باشد، data storytelling مهارت اساسی مورد نیاز است.
قسمت اصلی همان بیان پروژه با یک توالی مناسب از مصورسازی ها، علت و معلول ها و ... است که مربوط به خود مهارت storytelling میشود و وارد آن نمیشویم.
اینجا یک ابزار مهم برای data storytelling معرفی میشود:
با ابزار fastpages میتوانید فایلهای notebook را از پروژه گیتهاب تان به بلاگهایی با دامنه github.io. تبدیل کنید. ویدئو و لینک را ببینید. در لینک میتوانید ابزار و مصورسازیهای تعاملی که برای storytelling در قالب notebook مناسب است ببینید.
بلاگ نوشتن با Github.io بسیار محبوب و مرسوم شده (برای مثال بلاگ آندره کارپاتی مدیر هوش مصنوعی تسلا و ...) و خوب نیازی به خرید سرور و دامنه و دانستن CSS و ... نیست.
البته Github pages قبلا هم وجود داشت اما fastbooks، فایل نوتبوک را مستقیما برای بلاگ شما در صفحات مختلف دیپلوی میکند.
#data_storytelling
@deeptimeai
YouTube
How to create your Free Data Science Blog on Github with Fastpages from Fastai
Fastpages is a new project from Fastai for making it easier for Data Scientists to blog using their Jupyter Notebooks. Also to avoid the frustrations with some platforms like Medium. This tutorial helps you setup your first data science blog using Fastpages.…
👍1
Forwarded from @machinelearningnet (Sasan Barak)
سلام دوستان.
در ادامه مدلهای پیشبینی بازار و استراتژی های ml برای پیشبینی، اینبار به مدلهای بوستینگ رسیدیم
🍀🍀🍀🍀
این جلسه رو بخاطر ماهیت چالشی اش از دست ندین🌺🌺
زمان: دوشنبه ۱۲ اردیبهشت ساعت ۲۰
Time: 2nd May 2022
لینک ورود: زوم
Meeting ID: 899 2864 0090
درصورت درخواست پسورد، با ۱۲۳۴۵ وارد شوید.
جلسه همچنین رو بصورت لایو در اینستاگرام هم پخش خواهد شد
https://www.instagram.com/sasanbarak
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
————————————————————
لطفا دوستانتان را دعوت کنید...🌺
در ادامه مدلهای پیشبینی بازار و استراتژی های ml برای پیشبینی، اینبار به مدلهای بوستینگ رسیدیم
🍀🍀🍀🍀
این جلسه رو بخاطر ماهیت چالشی اش از دست ندین🌺🌺
زمان: دوشنبه ۱۲ اردیبهشت ساعت ۲۰
Time: 2nd May 2022
لینک ورود: زوم
Meeting ID: 899 2864 0090
درصورت درخواست پسورد، با ۱۲۳۴۵ وارد شوید.
جلسه همچنین رو بصورت لایو در اینستاگرام هم پخش خواهد شد
https://www.instagram.com/sasanbarak
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
————————————————————
لطفا دوستانتان را دعوت کنید...🌺
@machinelearningnet
سلام دوستان. در ادامه مدلهای پیشبینی بازار و استراتژی های ml برای پیشبینی، اینبار به مدلهای بوستینگ رسیدیم 🍀🍀🍀🍀 این جلسه رو بخاطر ماهیت چالشی اش از دست ندین🌺🌺 زمان: دوشنبه ۱۲ اردیبهشت ساعت ۲۰ Time: 2nd May 2022 لینک ورود: زوم Meeting ID: 899…
سلام دوستان امشب من ارائه دهنده دوم هستم (حدود ده دقیقه ۹ احتمالا میام).
مباحث خیلی جالبی صحبت میکنیم:
۱_ در مورد متد های Ensembling و سیر تکاملیشون از XGBoost تا Meta-model های موفق در صنعت. روش های Stacking و Blending هم و اون متامدل هارو خارج از کتاب توضیح میدم.
۲_ در مورد Hyperparameter tuning و اینکه چقدر مهم هست. چه مواردی از این مهم تر هست در توسعه مدل کارا
۳_ در مورد Interpretation در مدل های هوش مصنوعی میگم. روش های Feature Importance من جمله Permutation Importance و بعد Partial Dependence Plot و متد ارزشمند SHAP
۴_ و قسمت آخر (خارج از کتاب) میخوام در مورد چند موضوع مهم برای استارتاپ های حوزه نرم افزار صحبت کنم. بحث پادالگو ها AntiPatterns (ایجاد، معماری، مدیریتی)
و بحث Agile Methodologies
مباحث خیلی جالبی صحبت میکنیم:
۱_ در مورد متد های Ensembling و سیر تکاملیشون از XGBoost تا Meta-model های موفق در صنعت. روش های Stacking و Blending هم و اون متامدل هارو خارج از کتاب توضیح میدم.
۲_ در مورد Hyperparameter tuning و اینکه چقدر مهم هست. چه مواردی از این مهم تر هست در توسعه مدل کارا
۳_ در مورد Interpretation در مدل های هوش مصنوعی میگم. روش های Feature Importance من جمله Permutation Importance و بعد Partial Dependence Plot و متد ارزشمند SHAP
۴_ و قسمت آخر (خارج از کتاب) میخوام در مورد چند موضوع مهم برای استارتاپ های حوزه نرم افزار صحبت کنم. بحث پادالگو ها AntiPatterns (ایجاد، معماری، مدیریتی)
و بحث Agile Methodologies
یکی از مشکلات در مسائل یادگیری ماشین، مدیریت فیچرهای categorical هست. اگر از روش one-hot encoding استفاده کنیم و تعداد فیچر ها و حالات زیاد باشه، آموزش شبکه سخت میشه و ما میمونیم و یکسری فیچر sparse. چند نکته و روش کاربردی:
۱_ ساده ترین روش one-hot encoding هست که وقتی تعداد حالات فیچر های categorical زیاد باشه روش مناسبی نیست. روش مرسوم در این حالات در مسابقات و صنعت، استفاده از Target Encoding هست (که از انواع baysian encoding محسوب میشه). در این روش میانگین مقادیر target با توجه به هر حالت از category به صورت فیچر وارد میشه و البته فقط از داده های train برای این مقدار میانگین استفاده میشه. روش LeaveOneOut هم شبیه همین هست فقط در میانگین گیری، target اون سطر خاص در نظر گرفته نمیشه تا اثر outlier ها از بین بره.
۲_اگر فیچر ordinal هست میتونه integer تبدیل بشه و همون یک بعد باقی بمونه. البته بسته به شرایط مسئله شاید همون dummy کردن بهتر باشه.
۳_ روش frequency encoding که فرکانس هر حالت از کتگوری به عنوان فیچر جایگزین میشه (به شکل integer)
برای دیدن انواع دیگه روش ها این پست لینکدین رو ببینید.
@deeptimeai
۱_ ساده ترین روش one-hot encoding هست که وقتی تعداد حالات فیچر های categorical زیاد باشه روش مناسبی نیست. روش مرسوم در این حالات در مسابقات و صنعت، استفاده از Target Encoding هست (که از انواع baysian encoding محسوب میشه). در این روش میانگین مقادیر target با توجه به هر حالت از category به صورت فیچر وارد میشه و البته فقط از داده های train برای این مقدار میانگین استفاده میشه. روش LeaveOneOut هم شبیه همین هست فقط در میانگین گیری، target اون سطر خاص در نظر گرفته نمیشه تا اثر outlier ها از بین بره.
۲_اگر فیچر ordinal هست میتونه integer تبدیل بشه و همون یک بعد باقی بمونه. البته بسته به شرایط مسئله شاید همون dummy کردن بهتر باشه.
۳_ روش frequency encoding که فرکانس هر حالت از کتگوری به عنوان فیچر جایگزین میشه (به شکل integer)
برای دیدن انواع دیگه روش ها این پست لینکدین رو ببینید.
@deeptimeai
👍1
آیا برای پیشبینی مجاز به استفاده از اطلاعاتی درباره آینده هستیم؟!
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.
طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.
طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
❤1