دو دلیل برای اینکه کتاب جدید The Kaggle Book رو باید بخونیم (۲ عکس بالا).
یکی از نویسنده های اصلی Konrad هست که از بزرگان Kaggle و متخصص سری زمانی هست که از قبل تو کانال میشناسیم.
@deeptimeai
یکی از نویسنده های اصلی Konrad هست که از بزرگان Kaggle و متخصص سری زمانی هست که از قبل تو کانال میشناسیم.
@deeptimeai
👍1
میدانیم که storytelling مهم ترین مهارت برای بیان ایدهها، طرحها، جذب متخصصین و سرمایهگذاران است.
اما وقتی صحبت از حوزه دیتا و نرم افزار مطرح باشد، data storytelling مهارت اساسی مورد نیاز است.
قسمت اصلی همان بیان پروژه با یک توالی مناسب از مصورسازی ها، علت و معلول ها و ... است که مربوط به خود مهارت storytelling میشود و وارد آن نمیشویم.
اینجا یک ابزار مهم برای data storytelling معرفی میشود:
با ابزار fastpages میتوانید فایلهای notebook را از پروژه گیتهاب تان به بلاگهایی با دامنه github.io. تبدیل کنید. ویدئو و لینک را ببینید. در لینک میتوانید ابزار و مصورسازیهای تعاملی که برای storytelling در قالب notebook مناسب است ببینید.
بلاگ نوشتن با Github.io بسیار محبوب و مرسوم شده (برای مثال بلاگ آندره کارپاتی مدیر هوش مصنوعی تسلا و ...) و خوب نیازی به خرید سرور و دامنه و دانستن CSS و ... نیست.
البته Github pages قبلا هم وجود داشت اما fastbooks، فایل نوتبوک را مستقیما برای بلاگ شما در صفحات مختلف دیپلوی میکند.
#data_storytelling
@deeptimeai
اما وقتی صحبت از حوزه دیتا و نرم افزار مطرح باشد، data storytelling مهارت اساسی مورد نیاز است.
قسمت اصلی همان بیان پروژه با یک توالی مناسب از مصورسازی ها، علت و معلول ها و ... است که مربوط به خود مهارت storytelling میشود و وارد آن نمیشویم.
اینجا یک ابزار مهم برای data storytelling معرفی میشود:
با ابزار fastpages میتوانید فایلهای notebook را از پروژه گیتهاب تان به بلاگهایی با دامنه github.io. تبدیل کنید. ویدئو و لینک را ببینید. در لینک میتوانید ابزار و مصورسازیهای تعاملی که برای storytelling در قالب notebook مناسب است ببینید.
بلاگ نوشتن با Github.io بسیار محبوب و مرسوم شده (برای مثال بلاگ آندره کارپاتی مدیر هوش مصنوعی تسلا و ...) و خوب نیازی به خرید سرور و دامنه و دانستن CSS و ... نیست.
البته Github pages قبلا هم وجود داشت اما fastbooks، فایل نوتبوک را مستقیما برای بلاگ شما در صفحات مختلف دیپلوی میکند.
#data_storytelling
@deeptimeai
YouTube
How to create your Free Data Science Blog on Github with Fastpages from Fastai
Fastpages is a new project from Fastai for making it easier for Data Scientists to blog using their Jupyter Notebooks. Also to avoid the frustrations with some platforms like Medium. This tutorial helps you setup your first data science blog using Fastpages.…
👍1
Forwarded from @machinelearningnet (Sasan Barak)
سلام دوستان.
در ادامه مدلهای پیشبینی بازار و استراتژی های ml برای پیشبینی، اینبار به مدلهای بوستینگ رسیدیم
🍀🍀🍀🍀
این جلسه رو بخاطر ماهیت چالشی اش از دست ندین🌺🌺
زمان: دوشنبه ۱۲ اردیبهشت ساعت ۲۰
Time: 2nd May 2022
لینک ورود: زوم
Meeting ID: 899 2864 0090
درصورت درخواست پسورد، با ۱۲۳۴۵ وارد شوید.
جلسه همچنین رو بصورت لایو در اینستاگرام هم پخش خواهد شد
https://www.instagram.com/sasanbarak
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
————————————————————
لطفا دوستانتان را دعوت کنید...🌺
در ادامه مدلهای پیشبینی بازار و استراتژی های ml برای پیشبینی، اینبار به مدلهای بوستینگ رسیدیم
🍀🍀🍀🍀
این جلسه رو بخاطر ماهیت چالشی اش از دست ندین🌺🌺
زمان: دوشنبه ۱۲ اردیبهشت ساعت ۲۰
Time: 2nd May 2022
لینک ورود: زوم
Meeting ID: 899 2864 0090
درصورت درخواست پسورد، با ۱۲۳۴۵ وارد شوید.
جلسه همچنین رو بصورت لایو در اینستاگرام هم پخش خواهد شد
https://www.instagram.com/sasanbarak
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
————————————————————
لطفا دوستانتان را دعوت کنید...🌺
@machinelearningnet
سلام دوستان. در ادامه مدلهای پیشبینی بازار و استراتژی های ml برای پیشبینی، اینبار به مدلهای بوستینگ رسیدیم 🍀🍀🍀🍀 این جلسه رو بخاطر ماهیت چالشی اش از دست ندین🌺🌺 زمان: دوشنبه ۱۲ اردیبهشت ساعت ۲۰ Time: 2nd May 2022 لینک ورود: زوم Meeting ID: 899…
سلام دوستان امشب من ارائه دهنده دوم هستم (حدود ده دقیقه ۹ احتمالا میام).
مباحث خیلی جالبی صحبت میکنیم:
۱_ در مورد متد های Ensembling و سیر تکاملیشون از XGBoost تا Meta-model های موفق در صنعت. روش های Stacking و Blending هم و اون متامدل هارو خارج از کتاب توضیح میدم.
۲_ در مورد Hyperparameter tuning و اینکه چقدر مهم هست. چه مواردی از این مهم تر هست در توسعه مدل کارا
۳_ در مورد Interpretation در مدل های هوش مصنوعی میگم. روش های Feature Importance من جمله Permutation Importance و بعد Partial Dependence Plot و متد ارزشمند SHAP
۴_ و قسمت آخر (خارج از کتاب) میخوام در مورد چند موضوع مهم برای استارتاپ های حوزه نرم افزار صحبت کنم. بحث پادالگو ها AntiPatterns (ایجاد، معماری، مدیریتی)
و بحث Agile Methodologies
مباحث خیلی جالبی صحبت میکنیم:
۱_ در مورد متد های Ensembling و سیر تکاملیشون از XGBoost تا Meta-model های موفق در صنعت. روش های Stacking و Blending هم و اون متامدل هارو خارج از کتاب توضیح میدم.
۲_ در مورد Hyperparameter tuning و اینکه چقدر مهم هست. چه مواردی از این مهم تر هست در توسعه مدل کارا
۳_ در مورد Interpretation در مدل های هوش مصنوعی میگم. روش های Feature Importance من جمله Permutation Importance و بعد Partial Dependence Plot و متد ارزشمند SHAP
۴_ و قسمت آخر (خارج از کتاب) میخوام در مورد چند موضوع مهم برای استارتاپ های حوزه نرم افزار صحبت کنم. بحث پادالگو ها AntiPatterns (ایجاد، معماری، مدیریتی)
و بحث Agile Methodologies
یکی از مشکلات در مسائل یادگیری ماشین، مدیریت فیچرهای categorical هست. اگر از روش one-hot encoding استفاده کنیم و تعداد فیچر ها و حالات زیاد باشه، آموزش شبکه سخت میشه و ما میمونیم و یکسری فیچر sparse. چند نکته و روش کاربردی:
۱_ ساده ترین روش one-hot encoding هست که وقتی تعداد حالات فیچر های categorical زیاد باشه روش مناسبی نیست. روش مرسوم در این حالات در مسابقات و صنعت، استفاده از Target Encoding هست (که از انواع baysian encoding محسوب میشه). در این روش میانگین مقادیر target با توجه به هر حالت از category به صورت فیچر وارد میشه و البته فقط از داده های train برای این مقدار میانگین استفاده میشه. روش LeaveOneOut هم شبیه همین هست فقط در میانگین گیری، target اون سطر خاص در نظر گرفته نمیشه تا اثر outlier ها از بین بره.
۲_اگر فیچر ordinal هست میتونه integer تبدیل بشه و همون یک بعد باقی بمونه. البته بسته به شرایط مسئله شاید همون dummy کردن بهتر باشه.
۳_ روش frequency encoding که فرکانس هر حالت از کتگوری به عنوان فیچر جایگزین میشه (به شکل integer)
برای دیدن انواع دیگه روش ها این پست لینکدین رو ببینید.
@deeptimeai
۱_ ساده ترین روش one-hot encoding هست که وقتی تعداد حالات فیچر های categorical زیاد باشه روش مناسبی نیست. روش مرسوم در این حالات در مسابقات و صنعت، استفاده از Target Encoding هست (که از انواع baysian encoding محسوب میشه). در این روش میانگین مقادیر target با توجه به هر حالت از category به صورت فیچر وارد میشه و البته فقط از داده های train برای این مقدار میانگین استفاده میشه. روش LeaveOneOut هم شبیه همین هست فقط در میانگین گیری، target اون سطر خاص در نظر گرفته نمیشه تا اثر outlier ها از بین بره.
۲_اگر فیچر ordinal هست میتونه integer تبدیل بشه و همون یک بعد باقی بمونه. البته بسته به شرایط مسئله شاید همون dummy کردن بهتر باشه.
۳_ روش frequency encoding که فرکانس هر حالت از کتگوری به عنوان فیچر جایگزین میشه (به شکل integer)
برای دیدن انواع دیگه روش ها این پست لینکدین رو ببینید.
@deeptimeai
👍1
آیا برای پیشبینی مجاز به استفاده از اطلاعاتی درباره آینده هستیم؟!
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.
طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
#Future_Covariate
بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای افزایش دقت پیشبینی استفاده کنیم.
فیچرهایی به نام Future Covariate، فیچر هایی هستن که اطلاعاتی درباره آینده به ما میدن ولی ما اونهارو از الآن داریم.
مثال از حوزه انرژی: برای مثال فرض کنید میخوایم میزان مصرف انرژی ساعت آینده شهر تهران رو پیشبینی کنیم. میتونیم از اطلاعات جدول پخش مسابقات ورزشی ساعت بعد برای این پیشبینی استفاده کنیم که قطعا هم در پیشبینی مصرف انرژی موثر خواهد بود.
مثال از فایننس: فرض کنید میدونیم 3 روز دیگه مجمع سالیانه یک شرکت برگزار میشه، یا موعد تسویه حساب اعتبار کارگزاری هاست. یا در ساعت آینده قرار شده نتیجه مذاکرات اعلام بشه. تمامی این موارد میتونن در مدل لحاظ بشن.
طریقه استفاده: بعضی مدل های جدید سری زمانی این فیچرهارو مستقیم ساپورت میکنن. ولی خودمون هم میتونیم اونهارو در دیتاست لحاظ کنیم.
@deeptimeai
❤1
Deep Time
آیا برای پیشبینی مجاز به استفاده از اطلاعاتی درباره آینده هستیم؟! #Future_Covariate بله، به شرطی که اون اطلاعات رو از حال داشته باشیم! و گاها نقش اساسی در پیشبینی دارن. مثلا ما از الآن میدونیم هفته بعد انتخابات ریاست جمهوری هست، میتونیم از این اطلاعات برای…
This media is not supported in your browser
VIEW IN TELEGRAM
این پست هم مربوط به interpretable کردن متغیرهای Future Covariate در سری زمانی بود👇
Interpretable Deep Learning for Time Series Forecasting
@deeptimeai
Interpretable Deep Learning for Time Series Forecasting
@deeptimeai
Deep Time
سلام دوستان امشب من ارائه دهنده دوم هستم (حدود ده دقیقه ۹ احتمالا میام). مباحث خیلی جالبی صحبت میکنیم: ۱_ در مورد متد های Ensembling و سیر تکاملیشون از XGBoost تا Meta-model های موفق در صنعت. روش های Stacking و Blending هم و اون متامدل هارو خارج از کتاب…
ویدئو جلسه در یوتوب
از دقیقه 40 به بعد ارائه من هست.
از دقیقه 40 به بعد ارائه من هست.
YouTube
ML for Trading: Session 12
کمپانیهای بزرگ و استارتاپهای موفق همیشه از افرادی تشکیل میشوند و افرادی را جذب میکنند که ماکزیممِ بالا دارند، نه جمعِ بالا. یعنی افرادی مهم هستند که در یک حوزه تخصص بسیار بالایی دارند نه افرادی که در حوزههای مختلف، دانش و تخصصی متوسط کسب کرده اند. گرچه این به معنی تشویق به تک بعدی شدن نیست، بلکه تاکید روی قوی بودن در یک تخصص است.
تعیینکننده ترین و مهمترین مهارت زمان ما توانایی تمرکز است. در زمانی که جنگ بیزینسها، شبکههای اجتماعی یا حتی تولید کننگان محتوای ارزشمند روی جذب توجه است، اگر حواس جمع نباشیم در بهترین حالت به آدمهایی تبدیل میشویم که در حوزههای مختلف تنها مهارت و دیدی سطحی داریم. خواندن مقالات و گذراندن دورههای آموزشی مختلف از حوزههای متفاوت، در صورتی که توانایی تمرکز روی یک موضوع را از بین ببرد میتواند خطرناک باشد.
در هیاهوی محتوا و حوزههای مختلف، عمیق شدن و کار و تفکر روی یک موضوع، لذت بالایی را نیز به دنبال دارد. همانطور که دیدن ۱۰۰ کلیپ خیلی عالیِ ۱ دقیقه در اینستاگرام هیچگاه به اندازه دیدن یک فیلم ۱۰۰ دقیقهایِ خوب لذت بخش نیست.
در کتاب صفر به یک اثر پیتر تیل (استاد استنفرد، بنیانگذار پی پال و از مدیران لینکدین) آمده است:
یک فرد معتقد به آینده معین و تعریف شده، به جای تشویق به کسب متوسطها در وجوه مختلف و "خوب رشدیافتگی" خواندن این حالت، بهترین کاری را که میتوان انجام داد شناسایی میکند و آن را انجام میدهد. چنین فردی بهجای کار خستگی ناپذیر برای متمایز شدن، به دنبال فوقالعاده شدن در یک حوزه اصیل میرود تا منحصر به فرد شود.
@deeptimeai
تعیینکننده ترین و مهمترین مهارت زمان ما توانایی تمرکز است. در زمانی که جنگ بیزینسها، شبکههای اجتماعی یا حتی تولید کننگان محتوای ارزشمند روی جذب توجه است، اگر حواس جمع نباشیم در بهترین حالت به آدمهایی تبدیل میشویم که در حوزههای مختلف تنها مهارت و دیدی سطحی داریم. خواندن مقالات و گذراندن دورههای آموزشی مختلف از حوزههای متفاوت، در صورتی که توانایی تمرکز روی یک موضوع را از بین ببرد میتواند خطرناک باشد.
در هیاهوی محتوا و حوزههای مختلف، عمیق شدن و کار و تفکر روی یک موضوع، لذت بالایی را نیز به دنبال دارد. همانطور که دیدن ۱۰۰ کلیپ خیلی عالیِ ۱ دقیقه در اینستاگرام هیچگاه به اندازه دیدن یک فیلم ۱۰۰ دقیقهایِ خوب لذت بخش نیست.
در کتاب صفر به یک اثر پیتر تیل (استاد استنفرد، بنیانگذار پی پال و از مدیران لینکدین) آمده است:
یک فرد معتقد به آینده معین و تعریف شده، به جای تشویق به کسب متوسطها در وجوه مختلف و "خوب رشدیافتگی" خواندن این حالت، بهترین کاری را که میتوان انجام داد شناسایی میکند و آن را انجام میدهد. چنین فردی بهجای کار خستگی ناپذیر برای متمایز شدن، به دنبال فوقالعاده شدن در یک حوزه اصیل میرود تا منحصر به فرد شود.
@deeptimeai
❤1
Deep Time
ویدئو جلسه در یوتوب از دقیقه 40 به بعد ارائه من هست.
ML4T_S12_II_MohammadTalaei.pptx
2.4 MB
لینکهایی که در ارائه معرفی شد در این فایل پاورپوینت هست. فقط باید در حالت پرزنت باشید که بتونید روی لینک ها کلیک کنید.
حتما Darts رو درنظر داشته باشید
سازندههای Darts به طور تخصصی روی مدلهای Time Series فعال هستند. از مدلهای کلاسیک و یادگیری عمیق تا مدلهای هایبرید پوشش داده شده و مدلهای SOTA سری زمانی هم در این کتابخونه دیده میشن. از ARIMA تا Prophet و حتی مدلهای Transformer برای سری زمانی.
@deeptimeai
سازندههای Darts به طور تخصصی روی مدلهای Time Series فعال هستند. از مدلهای کلاسیک و یادگیری عمیق تا مدلهای هایبرید پوشش داده شده و مدلهای SOTA سری زمانی هم در این کتابخونه دیده میشن. از ARIMA تا Prophet و حتی مدلهای Transformer برای سری زمانی.
@deeptimeai
خیلی اوقات دوستان میپرسن چطور ماشین لرنینگ یاد بگیرم؟ چطور پایتون یاد بگیرم؟ چطور برنامه نویس بشم؟
قسمت غیر اصلیِ جواب این سوال میشه معرفی منابع و نقشه راه یادگیری ابزار و ریاضی و ... .
قسمت اصلیِ جواب، چرایی یادگیری هست. به چه دلیل میخواید یاد بگیرید؟ برای چه کاربردی؟ برای حل چه مسئله ای؟ اگر چرایی وجود داشته باشه، مثل تانک ابزار و الگوریتمها رو مسلط میشید.
برعکس، اگر حتی علاقه زیادی به ذات برنامه نویسی یا ماشین لرنینگ داشته باشید اما کاربردی در ذهن برای اعمالش نداشته باشید(کاربردی که بهش علاقه دارید و همیشه فکر میکنید)، احتمالا یادگیری رو رها میکنید. خصوصا در سنین بالاتر.
همیشه از دوستان میپرسم برای چی میخواید یاد بگیرید؟ آیا مسئله بخصوصی که علاقه داشته باشید در ذهنتون هست که اونو با برنامه نویسی و یا هوش مصنوعی حل کنید؟
اگر باشه شما در حین یادگیری الگوریتمها سعی میکنید کاربرد اون الگوریتم یا مبحث مورد تدریس رو با مسئله خودتون تطبیق بدید و اینطور علاوه بر اینکه بهتر مطلب جا میفته، شما سعی میکنید اونو در کار خوتون اعمال کنید و لذت یادگیری بیشتر وجود خواهد داشت.
اما اگر مسئلهای در ذهنمون نیست چطور؟ اگر کلا نمیدونیم باید در زندگی حرفهای چه مشکلی رو حل کنیم و چه چیزی بسازیم؟
بهترین چیزی که تا الآن من پیدا کردم سایت زیر هست. که محققین آکسفورد به صورت عامالمنفعه ساختن. به شما کمک میکنه با کلی از مسائل اساسی و مهم دنیا که شاید بعضا بهشون کم توجهی میشه آشنا بشید. میگه شما کلا ۸۰۰۰۰ ساعت تایم مفید کاری در عمرتون خواهید داشت. میخواید باش چکار کنید؟ چطور با این ۸۰۰۰۰ ساعت یک تأثیر مثبت در دنیا ایجاد کنید؟
80000hours
اما اگر باز حوصله این هم ندارید؛ بهترین محرک برای پاسخ به چرایی یادگیری، شرکت در مسابقات برنامه نویسی و هوش مصنوعی هست.
مسابقه برنامه نویسی:
Advent of code
مسابقات عمومی ماشین لرنینگ:
Kaggle, aicrowd
مسابقات حوزه فایننس و ماشین لرنینگ:
CrunchDAO, Numer.ai
@deeptimeai
قسمت غیر اصلیِ جواب این سوال میشه معرفی منابع و نقشه راه یادگیری ابزار و ریاضی و ... .
قسمت اصلیِ جواب، چرایی یادگیری هست. به چه دلیل میخواید یاد بگیرید؟ برای چه کاربردی؟ برای حل چه مسئله ای؟ اگر چرایی وجود داشته باشه، مثل تانک ابزار و الگوریتمها رو مسلط میشید.
برعکس، اگر حتی علاقه زیادی به ذات برنامه نویسی یا ماشین لرنینگ داشته باشید اما کاربردی در ذهن برای اعمالش نداشته باشید(کاربردی که بهش علاقه دارید و همیشه فکر میکنید)، احتمالا یادگیری رو رها میکنید. خصوصا در سنین بالاتر.
همیشه از دوستان میپرسم برای چی میخواید یاد بگیرید؟ آیا مسئله بخصوصی که علاقه داشته باشید در ذهنتون هست که اونو با برنامه نویسی و یا هوش مصنوعی حل کنید؟
اگر باشه شما در حین یادگیری الگوریتمها سعی میکنید کاربرد اون الگوریتم یا مبحث مورد تدریس رو با مسئله خودتون تطبیق بدید و اینطور علاوه بر اینکه بهتر مطلب جا میفته، شما سعی میکنید اونو در کار خوتون اعمال کنید و لذت یادگیری بیشتر وجود خواهد داشت.
اما اگر مسئلهای در ذهنمون نیست چطور؟ اگر کلا نمیدونیم باید در زندگی حرفهای چه مشکلی رو حل کنیم و چه چیزی بسازیم؟
بهترین چیزی که تا الآن من پیدا کردم سایت زیر هست. که محققین آکسفورد به صورت عامالمنفعه ساختن. به شما کمک میکنه با کلی از مسائل اساسی و مهم دنیا که شاید بعضا بهشون کم توجهی میشه آشنا بشید. میگه شما کلا ۸۰۰۰۰ ساعت تایم مفید کاری در عمرتون خواهید داشت. میخواید باش چکار کنید؟ چطور با این ۸۰۰۰۰ ساعت یک تأثیر مثبت در دنیا ایجاد کنید؟
80000hours
اما اگر باز حوصله این هم ندارید؛ بهترین محرک برای پاسخ به چرایی یادگیری، شرکت در مسابقات برنامه نویسی و هوش مصنوعی هست.
مسابقه برنامه نویسی:
Advent of code
مسابقات عمومی ماشین لرنینگ:
Kaggle, aicrowd
مسابقات حوزه فایننس و ماشین لرنینگ:
CrunchDAO, Numer.ai
@deeptimeai
80,000 Hours
You have 80,000 hours in your career.
This makes it your best opportunity to have a positive impact on the world. If you’re fortunate enough to be able to use your career for good, but aren’t sure how, we can help
👍3
اینجا لارنس ارائههای مهم هوش مصنوعی و ماشین لرنینگ Google I/O 2022 رو معرفی میکنه. حتی فرانس شولت (سازنده Keras) هم ارائه تخصصی داشته (همش در یوتوب هست).
Link
@deeptimeai
Link
@deeptimeai
YouTube
Top AI and ML announcements from Google I/O 2022
Catch the top takeaways in AI and ML from Google I/O 2022. Laurence Moroney shares the latest updates, tools, and guidance available for creating and deploying models with TensorFlow tech. From responsible AI to Coral Dev Board Micro, MLOps, TensorFlow.js…
👍2
احتمالا تا الآن دیگه کُنراد رو با کتاب پرفروش جدیدش Kaggle Book، و ویدئوهای مدل های سری زمانی میشناسید. جلسه بعدی فردا (جمعه) ساعت ۱۹ با موضوع مدلهای دیپ لرنینگ برای سری زمانی
YouTube Link
@deeptimeai
YouTube Link
@deeptimeai
YouTube
TS-6: Deep learning for time series - sequences
Abstract: Time series are, first and foremost, sequences - so it's only natural to apply sequence modeling approach from deep learning to such problems. In this episode we present the vintage DL methods (RNN, GRU and LSTM) and show their applications for…
👍1
Forwarded from Deep Time
آیا نیاز هست که حتما از حفظ کردن دادههای آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟
بخش دوم
هدف از این نوشتهها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه میدهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدلهای پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.
تحقیقات نشان میدهند مدلهای معروف NLP مثل BERT و RoBERTa میتوانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانهای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزنها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکهای به مراتب بزرگ تر نیاز است، در حالی که این شبکهها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدلها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.
بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدلها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی میکند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمتهای توسعه مدلهای پردازش زبان است، به کار گرفته میشود.
اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟
@deeptimeai
بخش دوم
هدف از این نوشتهها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه میدهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدلهای پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.
تحقیقات نشان میدهند مدلهای معروف NLP مثل BERT و RoBERTa میتوانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانهای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزنها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکهای به مراتب بزرگ تر نیاز است، در حالی که این شبکهها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدلها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.
بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدلها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی میکند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمتهای توسعه مدلهای پردازش زبان است، به کار گرفته میشود.
اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟
@deeptimeai
research.google
REALM: Integrating Retrieval into Language Representation Models
Posted by Ming-Wei Chang and Kelvin Guu, Research Scientists, Google Research Recent advances in natural language processing have largely built upo...
👍1
آیا ارزش داره مسابقات Kaggle شرکت کنیم؟
این مسئله از نظر شغلی (برای مثال پیدا کردن شغل در کمپانیهای بزرگ مثل گوگل و انودیا) و مهارت در حوزه چقدر اهمیت داره؟
یک استاد Kaggle اینو توضیح میده.
@deeptimeai
این مسئله از نظر شغلی (برای مثال پیدا کردن شغل در کمپانیهای بزرگ مثل گوگل و انودیا) و مهارت در حوزه چقدر اهمیت داره؟
یک استاد Kaggle اینو توضیح میده.
@deeptimeai
Forecastegy
Are Kaggle Competitions Worth It? Ponderings of a Kaggle Grandmaster
I would not have a data science career without Kaggle.
So if you are looking for a blog post bashing Kaggle, this is not the place.
That said, I am not a radical that thinks Kaggle is the ultimate thing that everyone must do in order to become a data scientist.…
So if you are looking for a blog post bashing Kaggle, this is not the place.
That said, I am not a radical that thinks Kaggle is the ultimate thing that everyone must do in order to become a data scientist.…
❤1
#توصیه_به_استارتاپها
بحث پادالگوها
داشتن منتور باسواد و قوی برای هر استارتاپ حیاتیست. قطعا یکی از بهترین منتورهای استارتاپ ما، دوست خوبم آقای علیرضا آقامحمدی (استاد مدعو دانشکده کامپیوتر دانشگاه شریف. کانال @golemcourse) هستند.
در یک جلسه ایشان بحث anti-patterns (پادالگوها) را برای ما روشن کرد. پادالگوها در واقع رویهها و اعمالی هستند که گاها در طی ایجاد نرمافزار انجام میشوند اما انجام آنها بسیار اشتباه است و برای ایجاد نرمافزار مشکلات فراوانی بهوجود میآورد.
پادالگوها در سه سطح ایجاد، معماری و مدیریت تعریف میشوند. علم به پادالگوها و روشهای مقابله با آن برای مهندسین و مدیران یک استارتاپ بسیا مفید است.
مثال پادالگو سطح Development:
برای مثال بحث پادالگوی Lava Flow و راه حل آن به ما کمک کرد refactoring، بازنگری و مرور مکرر کد را جدی بگیریم و بین functionality کد و maintainability آن تمایز قائل باشیم. بحث refactoring و تمیز کردن کد در متودولوژیهای چابک به شکل سختگیرانه انجام میشود و این حاصل تجربه سالهای سال ایجاد نرمافزار است. داشتن معماری درست مهمترین راه حل برای جلوگیری از بوجود آمدن Dead Code و Lava Flow است. جلوگیری از همین پادالگو میتواند کیفیت سیستم و عملکرد تیم را بسیار افزایش دهد.
منبع خوبی که ایشان به من معرفی کردند، چند جلسه آخر از درس "الگوها در مهندسی نرم افزار" دکتر رامان رامسین (هیئت علمی دانشکده مهندسی کامپیوتر دانشگاه شریف) است. این درس در مقطع ارشد ارائه میشود.
توصیه میکنم چند جلسه آخر این درس که مربوط به پادالگوهاست را ببینید. میتوانید سرعت ویدئو را روی ۱.۵ تنظیم کنید.
Ocw.sharif Link
@deeptimeai
بحث پادالگوها
داشتن منتور باسواد و قوی برای هر استارتاپ حیاتیست. قطعا یکی از بهترین منتورهای استارتاپ ما، دوست خوبم آقای علیرضا آقامحمدی (استاد مدعو دانشکده کامپیوتر دانشگاه شریف. کانال @golemcourse) هستند.
در یک جلسه ایشان بحث anti-patterns (پادالگوها) را برای ما روشن کرد. پادالگوها در واقع رویهها و اعمالی هستند که گاها در طی ایجاد نرمافزار انجام میشوند اما انجام آنها بسیار اشتباه است و برای ایجاد نرمافزار مشکلات فراوانی بهوجود میآورد.
پادالگوها در سه سطح ایجاد، معماری و مدیریت تعریف میشوند. علم به پادالگوها و روشهای مقابله با آن برای مهندسین و مدیران یک استارتاپ بسیا مفید است.
مثال پادالگو سطح Development:
برای مثال بحث پادالگوی Lava Flow و راه حل آن به ما کمک کرد refactoring، بازنگری و مرور مکرر کد را جدی بگیریم و بین functionality کد و maintainability آن تمایز قائل باشیم. بحث refactoring و تمیز کردن کد در متودولوژیهای چابک به شکل سختگیرانه انجام میشود و این حاصل تجربه سالهای سال ایجاد نرمافزار است. داشتن معماری درست مهمترین راه حل برای جلوگیری از بوجود آمدن Dead Code و Lava Flow است. جلوگیری از همین پادالگو میتواند کیفیت سیستم و عملکرد تیم را بسیار افزایش دهد.
منبع خوبی که ایشان به من معرفی کردند، چند جلسه آخر از درس "الگوها در مهندسی نرم افزار" دکتر رامان رامسین (هیئت علمی دانشکده مهندسی کامپیوتر دانشگاه شریف) است. این درس در مقطع ارشد ارائه میشود.
توصیه میکنم چند جلسه آخر این درس که مربوط به پادالگوهاست را ببینید. میتوانید سرعت ویدئو را روی ۱.۵ تنظیم کنید.
Ocw.sharif Link
@deeptimeai
ocw.sharif.ir
درس افزار دانشگاه صنعتی شریف
❤2
Forwarded from @machinelearningnet (Sasan Barak)
🍀🍀🍀🍀
پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺
زمان: دوشنبه ۱۶ خرداد ساعت ۲۰
Time: 6th June 2022
Topic: Deep Learning for Trading
لینک ورود زوم
Meeting ID: 899 2864 0090
لطفا با پسورد ۱۲۳۴۵ وارد شوید.
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
لینک گروه:
https://xn--r1a.website/machinelearningnet
لینک کانال :
https://xn--r1a.website/machinelearningnet2
————————————————————
لطفا دوستانتان را دعوت کنید...
پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺
زمان: دوشنبه ۱۶ خرداد ساعت ۲۰
Time: 6th June 2022
Topic: Deep Learning for Trading
لینک ورود زوم
Meeting ID: 899 2864 0090
لطفا با پسورد ۱۲۳۴۵ وارد شوید.
برای اطلاعات بیشتر به وبسایت مراجعه کنید.
Ml4trading.ir
لینک گروه:
https://xn--r1a.website/machinelearningnet
لینک کانال :
https://xn--r1a.website/machinelearningnet2
————————————————————
لطفا دوستانتان را دعوت کنید...
@machinelearningnet
🍀🍀🍀🍀 پرزنت فصل ۱۷ به استفاده ار مدلهای دیپ لرنینگ در ترید خواهد پرداخت 🌺🌺 زمان: دوشنبه ۱۶ خرداد ساعت ۲۰ Time: 6th June 2022 Topic: Deep Learning for Trading لینک ورود زوم Meeting ID: 899 2864 0090 لطفا با پسورد ۱۲۳۴۵ وارد شوید. برای اطلاعات…
امروز ساعت 20 در خدمت دوستان هستم
شبکه عصبی و دیپ لرنینگ رو از پایه صحبت میکنیم و کد میزنیم
شبکه عصبی و دیپ لرنینگ رو از پایه صحبت میکنیم و کد میزنیم