Forwarded from دانشگاه صنعتی شریف
#فراخوان
مسابقه Optimizer2022
◀️مسابقه Optimizer !هر سال با تمرکز بر موضوع بهینهسازی توسط آزمایشگاه SOAL در هسته پژوهشی بهینهسازی و کاربردهای دانشکده علوم ریاضی در دانشگاه صنعتی شریف برگزار میشود و توانایی تشکیل تیم مناسبی که بتواند از جنبههای مختلف علمی، نظیر دانش نظری، طراحی الگوریتم و توسعه نرمافزار با همافزایی و هماهنگی مناسب در این مسابقه به موفقیت دست یابد، از جنبههای کلیدی در این مسابقه است. این مسابقه در مرزهای علم بهینهسازی و معمولا با نگاه خاص به کاربردها برگزار میشود.
📆زمان برگزاری: مرداد ماه ۱۴۰۱
برای مشاهده اطلاعات بیشتر به وبسایت مسابقه مراجعه کنید.
http://optimizer.math.sharif.edu
🆔@sharif_prm
مسابقه Optimizer2022
◀️مسابقه Optimizer !هر سال با تمرکز بر موضوع بهینهسازی توسط آزمایشگاه SOAL در هسته پژوهشی بهینهسازی و کاربردهای دانشکده علوم ریاضی در دانشگاه صنعتی شریف برگزار میشود و توانایی تشکیل تیم مناسبی که بتواند از جنبههای مختلف علمی، نظیر دانش نظری، طراحی الگوریتم و توسعه نرمافزار با همافزایی و هماهنگی مناسب در این مسابقه به موفقیت دست یابد، از جنبههای کلیدی در این مسابقه است. این مسابقه در مرزهای علم بهینهسازی و معمولا با نگاه خاص به کاربردها برگزار میشود.
📆زمان برگزاری: مرداد ماه ۱۴۰۱
برای مشاهده اطلاعات بیشتر به وبسایت مسابقه مراجعه کنید.
http://optimizer.math.sharif.edu
🆔@sharif_prm
Deep Time
Time Series Models for Finance لایو ۲ ساعت دیگه ارائه دهنده، Konrad، متخصص سری زمانی
کدام گزینه درباره مدل GARCH درست است؟
مدل GARCH یک مدل کلاسیک برای پیشبینی نوسانات (مثل Volatility در فایننس) در سری زمانی مورد استفاده است.
مدل GARCH یک مدل کلاسیک برای پیشبینی نوسانات (مثل Volatility در فایننس) در سری زمانی مورد استفاده است.
Anonymous Poll
40%
برای پیشبینی واریانس در سری زمانی استفاده میشود و مقادیر خطای سری زمانی را از یک مدل دیگر میگیرد
24%
برای پیشبینی واریانس در سری زمانی استفاده میشود و مقادیر خطای سری زمانی را نیز خودش مدل میکند
16%
برای پیشبینی مقادیر خطا در سری زمانی استفاده میشود و واریانس سری زمانی را نیز خودش مدل میکند
20%
برای پیشبینی مقادیر خطا در سری زمانی استفاده میشود و واریانس سری زمانی را از یک مدل دیگر میگیرد
Audio
همه چیز را همگان دانند! اما با کمی بلاکچین و ماشین لرنینگ
داستان شرکتی که یکی از بهترین ترکیبهارو از دو تکنولوژی بلاکچین (قرارداد هوشمند) و هوش مصنوعی ساخته تا بازار سهام رو پیشبینی کنه.
تو این پست در این مورد صحبت میکنیم که شرکت Numer.ai که اخیرا بسیار رشد کرده، چطور از قرارداد هوشمند بر مبنای staking و مفهوم پوست در بازی (skin in the game) در کنار هوش مصنوعی و کامیونیتی استفاده کرده تا انقلابی در شرکتهای سرمایهگذاری و پیشبینی بازار سهام بوجود بیاره.
@deeptimeai
داستان شرکتی که یکی از بهترین ترکیبهارو از دو تکنولوژی بلاکچین (قرارداد هوشمند) و هوش مصنوعی ساخته تا بازار سهام رو پیشبینی کنه.
تو این پست در این مورد صحبت میکنیم که شرکت Numer.ai که اخیرا بسیار رشد کرده، چطور از قرارداد هوشمند بر مبنای staking و مفهوم پوست در بازی (skin in the game) در کنار هوش مصنوعی و کامیونیتی استفاده کرده تا انقلابی در شرکتهای سرمایهگذاری و پیشبینی بازار سهام بوجود بیاره.
@deeptimeai
Deep Time
همه چیز را همگان دانند! اما با کمی بلاکچین و ماشین لرنینگ داستان شرکتی که یکی از بهترین ترکیبهارو از دو تکنولوژی بلاکچین (قرارداد هوشمند) و هوش مصنوعی ساخته تا بازار سهام رو پیشبینی کنه. تو این پست در این مورد صحبت میکنیم که شرکت Numer.ai که اخیرا بسیار…
روش پیشبینی نهایی در meta-Model:
Stake Weighted Ensembling
Stake Weighted Ensembling
یادگیری ماشین برای کمک به گرمایش جهانی و مشکلات زیستمحیطی
نسخه اصلی مقاله پر استناد و کامل
Tackling Climate Change With Machine Learning
در ژورنال ACM به چاپ رسیده و به طور کامل در دسترس هست.
LINK
@deeptimeai
نسخه اصلی مقاله پر استناد و کامل
Tackling Climate Change With Machine Learning
در ژورنال ACM به چاپ رسیده و به طور کامل در دسترس هست.
LINK
@deeptimeai
👍1
تحقیقات اخیر MetaAI نشون میدن مدلهای Self-Supervised مرزهای یادگیری عمیق رو جابهجا میکنه.
https://arxiv.org/abs/2202.08360
https://arxiv.org/abs/2202.08360
👍1
Deep Time
تحقیقات اخیر MetaAI نشون میدن مدلهای Self-Supervised مرزهای یادگیری عمیق رو جابهجا میکنه. https://arxiv.org/abs/2202.08360
این حوزه در کنار RL احتمالا مهمترین امید ها برای رسیدن به یک ورژن بهتر از "هوش مصنوعی واقعی"! یا AGI
Artificial General Intelligence
هستن.
اگر به این مباحث و کمی موارد فلسفی در مورد اینکه چرا ما هنوز به "هوش مصنوعی" به اون معنی مد نظر نرسیدیم علاقه دارید، مقاله زیر رو بخونید، بسیار جالبه:
Why AI is harder than we think?
Artificial General Intelligence
هستن.
اگر به این مباحث و کمی موارد فلسفی در مورد اینکه چرا ما هنوز به "هوش مصنوعی" به اون معنی مد نظر نرسیدیم علاقه دارید، مقاله زیر رو بخونید، بسیار جالبه:
Why AI is harder than we think?
arXiv.org
Why AI is Harder Than We Think
Since its beginning in the 1950s, the field of artificial intelligence has cycled several times between periods of optimistic predictions and massive investment ("AI spring") and periods of...
Deep Time
این حوزه در کنار RL احتمالا مهمترین امید ها برای رسیدن به یک ورژن بهتر از "هوش مصنوعی واقعی"! یا AGI Artificial General Intelligence هستن. اگر به این مباحث و کمی موارد فلسفی در مورد اینکه چرا ما هنوز به "هوش مصنوعی" به اون معنی مد نظر نرسیدیم علاقه دارید،…
چند وقت پیش که با یکی از دوستان در مورد بحث امکان "هوشمند شدن" و "آگاهی" ماشین ها صحبت میکردم، یک آزمایش بسیار جالب به نام اتاق چینی رو معرفی کرد که هوش مصنوعی قوی و هوش مصنوعی ضعیف رو معرفی میکنه و نتیجه میگیره هوش مصنوعی قوی وجود نداره!
Wikipedia
اتاق چینی
سیستم پردازش هوشمصنوعی بر اساس الگوریتم خاص که نشان میدهد هوشمصنوعی از روابط اشیاء و مفاهیم درکی ندارد
👍1
Forwarded from Golem Course
Forwarded from Golem Course
چگونه این مشکل را بر طرف کنیم؟
در برنامههای پایتون اکثر مواقع نیازی نداریم که مقدار دقیق جمع چند عدد اعشاری را چک کنیم. اما اگر به آن نیاز پیدا کردیم دو رویکرد وجود دارد:
۱. رویکرد اول: با استفاده از تابع isclose چک کنیم که دو عدد اعشاری با یکدیگر برابرند یا خیر. مثلا دو عدد اعشاری اگر تا ۱۰ رقم اعشار با یکدیگر برابر باشند، میتوانیم بگوییم که با یکدیگر مساوی هستند. از این رویکرد حتی در کتابخانههای یادگیری ماشین مانند sklearn نیز استفاده شده است. به عکس ضمیمه نکاه کنید که چطور بررسی میکند که آیا مجموع احتمالات برابر با یک میشود یا خیر.
۲. رویکرد دوم: برای کارهای بانکی یا مالی دیگر تقریب زدن راه حل نیست. بلکه باید دقیق باشیم. هر یک سنت اهمیت دارد! برای این کار میتوانید از ماژول decimal استفاده کنید. کلاس Decimal از این ماژول بخش صحیح و اعشاری را جداگانه به مبنای دو میبرد و سپس به یکدیگر میچسباند.
در برنامههای پایتون اکثر مواقع نیازی نداریم که مقدار دقیق جمع چند عدد اعشاری را چک کنیم. اما اگر به آن نیاز پیدا کردیم دو رویکرد وجود دارد:
۱. رویکرد اول: با استفاده از تابع isclose چک کنیم که دو عدد اعشاری با یکدیگر برابرند یا خیر. مثلا دو عدد اعشاری اگر تا ۱۰ رقم اعشار با یکدیگر برابر باشند، میتوانیم بگوییم که با یکدیگر مساوی هستند. از این رویکرد حتی در کتابخانههای یادگیری ماشین مانند sklearn نیز استفاده شده است. به عکس ضمیمه نکاه کنید که چطور بررسی میکند که آیا مجموع احتمالات برابر با یک میشود یا خیر.
۲. رویکرد دوم: برای کارهای بانکی یا مالی دیگر تقریب زدن راه حل نیست. بلکه باید دقیق باشیم. هر یک سنت اهمیت دارد! برای این کار میتوانید از ماژول decimal استفاده کنید. کلاس Decimal از این ماژول بخش صحیح و اعشاری را جداگانه به مبنای دو میبرد و سپس به یکدیگر میچسباند.
Deep Time
خیلی جالبه که ببینیم برنده جایزه Quant سال از چه تکنولوژی برای JP Morgan استفاده کرده تا این سیستم قدرتمند رو توسعه داده؟ از ابزاری که پاتریک کیدگر و کریسوفر سلوی و استادشون تری لایونز در موسسه تورنگ دانشگاه آکسفورد برای دینامیکهای سنگین سری زمانی با تئوری…
نوتبوک برای یادگیری Signature ها
همونطور که اینجا گفتم، Signature ها متدهای جدیدی برای مدلسازی و فیچرسازی در سری زمانی با دینامیک سخت هستن که توسط محققهای آکسفورد توسعه داده شدن.
کاربرد مهمی هم در دادههای فایننس دارن که در پست قبلی بهش اشاره شد که چطور JP Morgan استفاده کرده ازش.
یک تئوری ریاضی به نام Rough Path Theory پشتش هست که اگر نوتبوک رو ببینید خیلی خوب توضیح میده.
پیشنهاد میکنم clone یا دانلود کنید و کد هارو خودتون اجرا کنید چون بعضی تصاویر در گیتهاب بالا نیومدن.
در این سایت هم میتونید پیگیر این گروه تحقیقاتی و مقالات و کارهای جالبشون باشید.
@deeptimeai
همونطور که اینجا گفتم، Signature ها متدهای جدیدی برای مدلسازی و فیچرسازی در سری زمانی با دینامیک سخت هستن که توسط محققهای آکسفورد توسعه داده شدن.
کاربرد مهمی هم در دادههای فایننس دارن که در پست قبلی بهش اشاره شد که چطور JP Morgan استفاده کرده ازش.
یک تئوری ریاضی به نام Rough Path Theory پشتش هست که اگر نوتبوک رو ببینید خیلی خوب توضیح میده.
پیشنهاد میکنم clone یا دانلود کنید و کد هارو خودتون اجرا کنید چون بعضی تصاویر در گیتهاب بالا نیومدن.
در این سایت هم میتونید پیگیر این گروه تحقیقاتی و مقالات و کارهای جالبشون باشید.
@deeptimeai
GitHub
GitHub - pafoster/path_signatures_introduction: A Brief Introduction to Path Signatures for Machine Learning Practitioners
A Brief Introduction to Path Signatures for Machine Learning Practitioners - pafoster/path_signatures_introduction
👍1
Forwarded from دستاوردهای یادگیری عمیق(InTec)
چقدر خوب توضیح داده،
اجرای پایتورچ روی
RaspberryPi
و تفاوت سرعت مدل، وقتی Quantize, Jit استفاده میشه
اولین بار (۴ سال شایدم ۵ سال پیش) که میخواستیم اینکار رو برای یک پروژهای انجام بدیم واقعاً پیر شدیم
اونوقتا هیچکدوم از فریمورکهای مطرح
Raspberry Pi
رو پشتیبانی نمیکرد، ی کامیونیتی گوگل - گیتهاب راه افتاده بود که
Tensorflow
رو از source build میکرد برای همین مدل دیوایسها (همیشه ۲ تا ورژن عقب بود و ما برای مدل اول این رو نمیدونستیم، تنها راهکار retrain بود)
چقدر همه چیز راحت شده (شکر)
RealTime Inference on RaspberryPi with Pytorch
اجرای پایتورچ روی
RaspberryPi
و تفاوت سرعت مدل، وقتی Quantize, Jit استفاده میشه
اولین بار (۴ سال شایدم ۵ سال پیش) که میخواستیم اینکار رو برای یک پروژهای انجام بدیم واقعاً پیر شدیم
اونوقتا هیچکدوم از فریمورکهای مطرح
Raspberry Pi
رو پشتیبانی نمیکرد، ی کامیونیتی گوگل - گیتهاب راه افتاده بود که
Tensorflow
رو از source build میکرد برای همین مدل دیوایسها (همیشه ۲ تا ورژن عقب بود و ما برای مدل اول این رو نمیدونستیم، تنها راهکار retrain بود)
چقدر همه چیز راحت شده (شکر)
RealTime Inference on RaspberryPi with Pytorch
👍1
عیدی کانال دیپ تایم🤩😎
عیدی کانال دیپ تایم معرفی یک مرجع عالی برای توسعه مهارتهای مهم هست.
در این زمان کلا محتوا به شدت زیاد هست اما محتوای علمی، مستند، مستدل و یکپارچه کمتر دیده میشه چون تولیدش به شدت سخته. خصوصا در مواردی مثل مدیریت، مذاکره، استراتژی، خود بحث یادگیری، زبان و ... با نقشه راه کامل.
بنیانگذار این وبسایت آقای محمدرضا شعبانعلی هست که یک مدیر و نویسنده موفق هستن و از قدیمی های مکانیک شریف و بعد هم ارشد مدیریت از شریف گرفتن. سابقه زیادی در بیزینسهای موفق بینالمللی و مشاوره داشتن. احتمال خیلی زیاد ایشون رو یک جایی دیدیدن!
اگر هم آشنا نیستید اینجا ببینید
در این وبسایت به یکسری محتوا بعد از ثبت نام رایگان دسترسی دارید و اگر حق عضویت بدید به ۹۰ درصد محتوا دسترسی پیدا میکنید. اگر پروژه مربوط به اون مطلب انجام بدید و در کامنت ها مشارکت کنید: ۱۰۰ درصد محتوا مثل فرآیند یادگیری در دانشگاه یا کورسرا.
حق عضویت ماهانه حدود ۷۰ تومن هست و سالانه ۵۸۰ (الان تخفیف زده).
میتونه سرمایهگذاری خیلی خوبی برای سال جدید باشه این مرجع علمی که یک کامیونیتی عالی هم دورش هست.
پ.ن.: این پست تبلیغ نیست و صرفا معرفی هست و اصلا متمم معروفتر و بزرگتر از این حرف هاست که یک کانال کوچیک بخواد تبلیغش کنه.
یک چرخ توش بزنید کیفیت محتوا شاخصه
وبسایت متمم www.motamem.org
@deeptimeai
عیدی کانال دیپ تایم معرفی یک مرجع عالی برای توسعه مهارتهای مهم هست.
در این زمان کلا محتوا به شدت زیاد هست اما محتوای علمی، مستند، مستدل و یکپارچه کمتر دیده میشه چون تولیدش به شدت سخته. خصوصا در مواردی مثل مدیریت، مذاکره، استراتژی، خود بحث یادگیری، زبان و ... با نقشه راه کامل.
بنیانگذار این وبسایت آقای محمدرضا شعبانعلی هست که یک مدیر و نویسنده موفق هستن و از قدیمی های مکانیک شریف و بعد هم ارشد مدیریت از شریف گرفتن. سابقه زیادی در بیزینسهای موفق بینالمللی و مشاوره داشتن. احتمال خیلی زیاد ایشون رو یک جایی دیدیدن!
اگر هم آشنا نیستید اینجا ببینید
در این وبسایت به یکسری محتوا بعد از ثبت نام رایگان دسترسی دارید و اگر حق عضویت بدید به ۹۰ درصد محتوا دسترسی پیدا میکنید. اگر پروژه مربوط به اون مطلب انجام بدید و در کامنت ها مشارکت کنید: ۱۰۰ درصد محتوا مثل فرآیند یادگیری در دانشگاه یا کورسرا.
حق عضویت ماهانه حدود ۷۰ تومن هست و سالانه ۵۸۰ (الان تخفیف زده).
میتونه سرمایهگذاری خیلی خوبی برای سال جدید باشه این مرجع علمی که یک کامیونیتی عالی هم دورش هست.
پ.ن.: این پست تبلیغ نیست و صرفا معرفی هست و اصلا متمم معروفتر و بزرگتر از این حرف هاست که یک کانال کوچیک بخواد تبلیغش کنه.
یک چرخ توش بزنید کیفیت محتوا شاخصه
وبسایت متمم www.motamem.org
@deeptimeai
👍1
#سریع_تر
سریعترین روش Mergre در Pandas
قراره یکسری پست کوتاه در رابطه با سرعت، اردر محاسباتی و ... اشتراک بذارم.
مرج کردن یکی از پایههای ثابت مهندسی داده هست و اینکه با سرعت بالا انجام بشه اهمیت داره.
خیلی ساده: اون ستونی که قراره بر اساسش مرج انجام بشه رو به index تبدیل کنید.
البته باز هم میشه سریع ترش کرد:
Link
@deeptimeai
سریعترین روش Mergre در Pandas
قراره یکسری پست کوتاه در رابطه با سرعت، اردر محاسباتی و ... اشتراک بذارم.
مرج کردن یکی از پایههای ثابت مهندسی داده هست و اینکه با سرعت بالا انجام بشه اهمیت داره.
خیلی ساده: اون ستونی که قراره بر اساسش مرج انجام بشه رو به index تبدیل کنید.
البته باز هم میشه سریع ترش کرد:
Link
@deeptimeai
Medium
I Have Been Merging Pandas Dataframes Completely Wrong
And why almost everyone is writing them inefficiently
👍1
Forwarded from Deep Time
یکی از مشکلات مهم در آموزش مدل با داده بزرگ بحث استفاده از رم یا memory usage هست.
برای مثال اگر LSTM بخواید ران کنید و داده بزرگی داشته باشید این اصلا منطقی نیست که کل رکوردهای پنجره زمانی رو هم زمان بسازید.
برای داده های بزرگ در هر مسئله دیگه ای هم درست نیست کل داده ها همزمان در مموری لود بشه.
راه حل در Keras:
استفاده از یک کلاس training_batch_generator
و استفاده از fit_generator بجای fit
Link
در Pytorch هم از dataloader استفاده میشه برای این مسئله.
برای مثال اگر LSTM بخواید ران کنید و داده بزرگی داشته باشید این اصلا منطقی نیست که کل رکوردهای پنجره زمانی رو هم زمان بسازید.
برای داده های بزرگ در هر مسئله دیگه ای هم درست نیست کل داده ها همزمان در مموری لود بشه.
راه حل در Keras:
استفاده از یک کلاس training_batch_generator
و استفاده از fit_generator بجای fit
Link
در Pytorch هم از dataloader استفاده میشه برای این مسئله.
Medium
Training on Large Datasets That Don’t Fit In Memory in Keras
Training your Deep Learning algorithms on a huge dataset that is too large to fit in memory? If yes, this article will be of great help to…
👍1
Media is too big
VIEW IN TELEGRAM
تا حالا شده به یک هدفی که خیلی منتظرش بودید برسید اما بعدش احساس پوچی کنید؟ و بپرسید که چی؟ یا کلا بعد از هر دستاوردی چنین حسی کنید؟
خوب این یک اتفاق خیلی جالبه در مورد هورمون دوپامین هست. و راه حلش اینه که اولا:
به صورت رندوم برای بعضی دستاوردها خوشحالی نکنید و جشن نگیرید و خیلی اعلام نکنید.
مثلا اگر ۲ تا قرارداد کاری خوب رو جلو بردید، برای سومی خوشحالی نکنید. شاید فکر کنید عدم ابرازش بد باشه اما به نوعی مثل یک شارژ در درون میمونه خوشحالیش.
ثانیا:
بیشتر از خود کار و مسیر لذت ببرید.
منبع: اپیزود مربوط به انگیزه از استاد علوم اعصاب و چشم پزشکی دانشگاه استنفرد، اندرو هیوبرمن
اینجا این استاد استفرد خاطره ای از دوران ارشدش میگه که استادش این تکنیکو عملا بهش یاد داده و اجازه نداده برای یک مقاله عالی که چاپ کردن هیچ خوشحالی کنه و جشن بگیره.
@deeptimeai
خوب این یک اتفاق خیلی جالبه در مورد هورمون دوپامین هست. و راه حلش اینه که اولا:
به صورت رندوم برای بعضی دستاوردها خوشحالی نکنید و جشن نگیرید و خیلی اعلام نکنید.
مثلا اگر ۲ تا قرارداد کاری خوب رو جلو بردید، برای سومی خوشحالی نکنید. شاید فکر کنید عدم ابرازش بد باشه اما به نوعی مثل یک شارژ در درون میمونه خوشحالیش.
ثانیا:
بیشتر از خود کار و مسیر لذت ببرید.
منبع: اپیزود مربوط به انگیزه از استاد علوم اعصاب و چشم پزشکی دانشگاه استنفرد، اندرو هیوبرمن
اینجا این استاد استفرد خاطره ای از دوران ارشدش میگه که استادش این تکنیکو عملا بهش یاد داده و اجازه نداده برای یک مقاله عالی که چاپ کردن هیچ خوشحالی کنه و جشن بگیره.
@deeptimeai
👍1