مروری بر شغلهای دیتاساینس و مهارتهای مورد نیاز
دکتر مهدی حبیب زاده
سینیور دیتاساینتیست در شرکت PSL کانادا
مدرس دانشگاه مکگیل
@deeptimeai
دکتر مهدی حبیب زاده
سینیور دیتاساینتیست در شرکت PSL کانادا
مدرس دانشگاه مکگیل
@deeptimeai
YouTube
Review on Data science Jobs in Persian مرور بر شغل های دیتاساینس ...
Video from Mehdi Habibzadeh - Motlag
👍1
یکی از موارد خیلی مهم در برنامهنویسها (و البته تمامی مشاغل)، بحث فرسودگی شغلی یا Burn Out هست. عموما هم افرادی که تلاشگری زیادی دارند دچار این فرسودگی شغلی میشن. دلیل اساسی اون هم طبق بررسیهای علمی، سختی کار، سختی محیط کار و ... نیست. بلکه بحث پیچیده تری هست که به حساسیت فردی نسبت به عدالت و قفل شدن ربط پیدا میکنه. راه حل این مسئله هم در کتاب "خرد جامعه ستیزان" مطرح شده! بسیار جالبه حتما ببینید.
در ۲۸ دقیقه آخر این لایو اینستاگرامی، دکتر آذرخش مکری، هیئت علمی روانپزشکی دانشگاه علوم پزشکی در این مورد صحبت میکنن.
ایشون مباحث بسیار جالبی در زمینه علوم شناختی، نوروساینس و ... در کانالشون صحبت میکنن و همیشه با تسلط و دقت بالا به منابع معتبر علمی ارجاع میدن. مطالب بسیار با دقت انتخاب میشن و به نظرم برای هر فردی مفید هستند.
کانال اینستاگرام دکتر مکری: AzarakhshMokri
کانال تلگرام دکتر مکری:
https://xn--r1a.website/DrAzarakhshMokri
@deeptimeai
#بالانس_کار_و_زندگی ۱
در ۲۸ دقیقه آخر این لایو اینستاگرامی، دکتر آذرخش مکری، هیئت علمی روانپزشکی دانشگاه علوم پزشکی در این مورد صحبت میکنن.
ایشون مباحث بسیار جالبی در زمینه علوم شناختی، نوروساینس و ... در کانالشون صحبت میکنن و همیشه با تسلط و دقت بالا به منابع معتبر علمی ارجاع میدن. مطالب بسیار با دقت انتخاب میشن و به نظرم برای هر فردی مفید هستند.
کانال اینستاگرام دکتر مکری: AzarakhshMokri
کانال تلگرام دکتر مکری:
https://xn--r1a.website/DrAzarakhshMokri
@deeptimeai
#بالانس_کار_و_زندگی ۱
👍1
تست علیت گرانگر Granger causality
این آزمون علیت، مفید بودن یک سری زمانی برای پیشبینی سری زمانی دیگر را بررسی میکند.
قوانین پایه:
۱_ علت، از نظر زمانی، قبل از معلول واقع شود.
۲_ علت حاوی اطلاعات یکتا درباره آینده معلول باشد.
روش:
ابتدا باید سریهای زمانی به صورت ایستا (stationary) باشند و اگر نبودند از تغییرات مرتبه اول (یا بالاتر) استفاده میشود. هر متغیر lagged (برای دوستانی که آشنا نیستند، مثلا اگر میخواهیم میزان مصرف برق در دقیقه ۱۰ را پیشبینی کنیم به متغیرهای مربوط به دقایق ۹ و ۸ و ... متغیر های lagged گفته میشود) ، در صورتی برای رگرسیون حفظ میشود که: اولا با توجه به t-test معنی دار باشد و ثانیا تمامی متغیرهای lagged با توجه به F-test توضیح دهنده باشند.
سپس آزمون فرض صفر (null hypothesis) مربوط به نبود علیت گرانگر رد نمیشود اگر و فقط اگر هیچکدام از متغیرهای lagged مربوط به متغیر توضیح دهنده، در رگرسیون حفظ نشده باشند.
اینجا در کتابخانه statsmodel پایتون پیاده شده. البته (همونطور که اینجا هم بحثی بود) نسخههای جدیدی که non linear هستند در عمل قوی تر این روابط را ارزیابی میکنند این نسخه ها در گیتهاب وجود دارند.
@deeptimeai
این آزمون علیت، مفید بودن یک سری زمانی برای پیشبینی سری زمانی دیگر را بررسی میکند.
قوانین پایه:
۱_ علت، از نظر زمانی، قبل از معلول واقع شود.
۲_ علت حاوی اطلاعات یکتا درباره آینده معلول باشد.
روش:
ابتدا باید سریهای زمانی به صورت ایستا (stationary) باشند و اگر نبودند از تغییرات مرتبه اول (یا بالاتر) استفاده میشود. هر متغیر lagged (برای دوستانی که آشنا نیستند، مثلا اگر میخواهیم میزان مصرف برق در دقیقه ۱۰ را پیشبینی کنیم به متغیرهای مربوط به دقایق ۹ و ۸ و ... متغیر های lagged گفته میشود) ، در صورتی برای رگرسیون حفظ میشود که: اولا با توجه به t-test معنی دار باشد و ثانیا تمامی متغیرهای lagged با توجه به F-test توضیح دهنده باشند.
سپس آزمون فرض صفر (null hypothesis) مربوط به نبود علیت گرانگر رد نمیشود اگر و فقط اگر هیچکدام از متغیرهای lagged مربوط به متغیر توضیح دهنده، در رگرسیون حفظ نشده باشند.
اینجا در کتابخانه statsmodel پایتون پیاده شده. البته (همونطور که اینجا هم بحثی بود) نسخههای جدیدی که non linear هستند در عمل قوی تر این روابط را ارزیابی میکنند این نسخه ها در گیتهاب وجود دارند.
@deeptimeai
👍1
مدل TabTransformer که یک پیادهسازی ترنسفورمر برای tabular data هست که در keras پیاده سازی شده.
با اختلاف نسبت به شبکه عصبی dense عملکرد بهتری داشته و با مدلهای ensemble بر مبنای درخت رقابت میکنه.
@deeptimeai
با اختلاف نسبت به شبکه عصبی dense عملکرد بهتری داشته و با مدلهای ensemble بر مبنای درخت رقابت میکنه.
@deeptimeai
keras.io
Keras documentation: Structured data learning with TabTransformer
👍2
دنبال کردنِ استاد استنفرد، Andrew Huberman و پادکستش Hubermanlab رو خیلی پیشنهاد میکنم.
همچنین گاها در وبسایتش هم خلاصههای مهمی قرار میده.
برای مثال این موارد کمک میکنن بهتر بخوابیم.
#بالانس_کار_و_زندگی ۲
@deeptimeai
همچنین گاها در وبسایتش هم خلاصههای مهمی قرار میده.
برای مثال این موارد کمک میکنن بهتر بخوابیم.
#بالانس_کار_و_زندگی ۲
@deeptimeai
Hubermanlab
Toolkit for Sleep
The first Neural Network newsletter provides actionable tools, including a 12 step guide, to improve sleep.
👍1
این هفته Abhishek Thakur معروف و Konrad Banachewicz (متخصص سری زمانی)، یکسری آموزش سری زمانی به صورت رایگان و لایو رو یوتوب برگزار میکنن که ذخیره هم میشه. مباحث بالا رو پوشش میدن👆
کانال دیسکورد MLSpace
کانال یوتوب
@deeptimeai
کانال دیسکورد MLSpace
کانال یوتوب
@deeptimeai
👍1
برای برنامه نویس های همیشه پای سیستم
مسئله اصلی خریدن اون صندلی های گرون قیمت و راحت برای برنامه نویسی نیست! مطالعات نشون میدن ضرر "نشستن" در حین کار خیلی بالاست و باید ترکیبی از "نشستن و ایستادن" باشه: نیم ساعت نشسته و نیم ساعت ایستاده. میزهای sit-stand برای همین طراحی خیلی مورد استقبال هستن و البته میشه صرفا با کتاب و کارتن کارو راه انداخت. کاری که خودم هم پیاده کردم.
موارد دیگه مهمی هم huberman اشاره میکنه. مثل اینکه هر ۴۰ دقیقه ۵ دقیقه به دوردست نگاه کنیم برای جلوگیری از نزدیک بینی. و یا هر روز یکی دو بار در حدود ۳۰ دقیقه در فضای بیرون قدم بزنیم برای تقویت بینایی.
مسئله اصلی خریدن اون صندلی های گرون قیمت و راحت برای برنامه نویسی نیست! مطالعات نشون میدن ضرر "نشستن" در حین کار خیلی بالاست و باید ترکیبی از "نشستن و ایستادن" باشه: نیم ساعت نشسته و نیم ساعت ایستاده. میزهای sit-stand برای همین طراحی خیلی مورد استقبال هستن و البته میشه صرفا با کتاب و کارتن کارو راه انداخت. کاری که خودم هم پیاده کردم.
موارد دیگه مهمی هم huberman اشاره میکنه. مثل اینکه هر ۴۰ دقیقه ۵ دقیقه به دوردست نگاه کنیم برای جلوگیری از نزدیک بینی. و یا هر روز یکی دو بار در حدود ۳۰ دقیقه در فضای بیرون قدم بزنیم برای تقویت بینایی.
❤1
Deep Time
CoST: Contrastive Learning of Disentangled Seasonal-Trend Representations for Time Series Forecasting
سری زمانی جدولی اصلا جایی نیست که بتونید از این خاصیت دیپ لرنینگ استفاده کنید که میگه:
"فیچر انجینیرینگ نیاز نیست و یک شبکه عمیق با طراحی مناسب میتونه دیتای خام رو مستقیما بگیره و به پیشبینی وصل کنه"
این خاصیت برای nlp و vision اون هم با دیتاست خیلی بزرگ قابل استفاده هست. نه برای tabular time series
"فیچر انجینیرینگ نیاز نیست و یک شبکه عمیق با طراحی مناسب میتونه دیتای خام رو مستقیما بگیره و به پیشبینی وصل کنه"
این خاصیت برای nlp و vision اون هم با دیتاست خیلی بزرگ قابل استفاده هست. نه برای tabular time series
حتما این رشته توییت را درباره Generalization و مفهوم Flat Minima ببینید.
بهینه ساز (optimizer) SGD ذاتا به دنبال flat minima میره و ازین نظر generalization بهتری نسبت به Adam داره. ولی دقیق به flat minima نمیرسه که خوب بهینه ساز هایی مثل SAM و SWA ساخته شدن جدیدا. بهینه ساز SWA خیلی قدرتمند عمل کرده و به صورت رسمی در Pytorch نسخه 1.6 وجود داره.
#generalization
بهینه ساز (optimizer) SGD ذاتا به دنبال flat minima میره و ازین نظر generalization بهتری نسبت به Adam داره. ولی دقیق به flat minima نمیرسه که خوب بهینه ساز هایی مثل SAM و SWA ساخته شدن جدیدا. بهینه ساز SWA خیلی قدرتمند عمل کرده و به صورت رسمی در Pytorch نسخه 1.6 وجود داره.
#generalization
Twitter
Tanishq Mathew Abraham
What matters most when training a neural network is how well it generalizes to unseen data. For neural networks, it turns out there's a simple principle that can allow you to understand model generalization. (1/18) A thread ↓
👍1
Forwarded from Golem Course
Stop_Starting_Start_Finishing_Justin.pdf
785.2 KB
کتاب شروع کردن را متوقف کنید، تمام کردن را شروع کنید:
این کتاب توسط خانم ریحانه جعفری ترجمه شده است و ترجمه خوبی هم دارد و برای هر فردی که میخواهد کارهای خود را مدیریت کند مناسب است.
محتوا
کتاب خیلی کم حجم است و روش کانبان را به سادهترین شکل آموزش میدهد. ایده اصلی کانبان این است که حجم کار در جریان را محدود کنیم. یعنی هر فرد به صورت همزمان فقط روی تعداد محدودی از کارها تمرکز کند و تا زمانی که آن کارها تمام نشده است حق شروع کار جدیدی ندارد.
در کانبان کارها را معمولا به سه دسته انجام شده، در حال انجام و باید انجام بشود تقسیم بندی میکنند. به طوری که کارهای در حال انجام ظرفیت محدودی دارد (مثلا ۵ تا). از این روش در مدیریت پروژه در شرکتهای نرمافزاری بسیار استفاده میشود.
جمعبندی
خواندن کتاب نیم ساعت هم وقت نمیگیرد اما هم اطلاعات ارزشمندی در اختیارتان قرار میدهد و هم نوع نگارش آن جذاب است.
این کتاب توسط خانم ریحانه جعفری ترجمه شده است و ترجمه خوبی هم دارد و برای هر فردی که میخواهد کارهای خود را مدیریت کند مناسب است.
محتوا
کتاب خیلی کم حجم است و روش کانبان را به سادهترین شکل آموزش میدهد. ایده اصلی کانبان این است که حجم کار در جریان را محدود کنیم. یعنی هر فرد به صورت همزمان فقط روی تعداد محدودی از کارها تمرکز کند و تا زمانی که آن کارها تمام نشده است حق شروع کار جدیدی ندارد.
در کانبان کارها را معمولا به سه دسته انجام شده، در حال انجام و باید انجام بشود تقسیم بندی میکنند. به طوری که کارهای در حال انجام ظرفیت محدودی دارد (مثلا ۵ تا). از این روش در مدیریت پروژه در شرکتهای نرمافزاری بسیار استفاده میشود.
جمعبندی
خواندن کتاب نیم ساعت هم وقت نمیگیرد اما هم اطلاعات ارزشمندی در اختیارتان قرار میدهد و هم نوع نگارش آن جذاب است.
👍1
Deep Time
این هفته Abhishek Thakur معروف و Konrad Banachewicz (متخصص سری زمانی)، یکسری آموزش سری زمانی به صورت رایگان و لایو رو یوتوب برگزار میکنن که ذخیره هم میشه. مباحث بالا رو پوشش میدن👆 کانال دیسکورد MLSpace کانال یوتوب @deeptimeai
YouTube
TS-1: Curve fitting is (almost) all you need
In this first tutorial on time series analysis, we will discuss the basic methods that require no actual statistics - the classic (exponential smoothing) and the modern (Prophet). By learning these techniques, you can quickly reach a level that allows you…
👍1
Deep Time
First session YouTube Kaggle Notebook
کمی عمیق بشیم روی نکات این جلسات.
عیب اصلی stationary کردن در Time Series چیست؟
عیب اصلی stationary کردن در Time Series چیست؟
Final Results
63%
Information loss
21%
Scaling problems
17%
Doesn't compatible with ETS models
0%
It has no disadvantage
This media is not supported in your browser
VIEW IN TELEGRAM
فاکتور Freak Out چیست؟
از زبان Andrew W.Lo استاد فایننس دانشگاه MIT
وقتی بازارها شرایط بحرانی پیدا میکنند، سرمایهگذاران زیادی پولشان را نقد میکنند. اما آیا این به نفعشان است؟
تصمیم اشتباه:
1_ خارج نشدن به موقع از بازار وقتی شرایط بحرانیست.
2_ خیلی مهم تر: بازنگشتن به بازار و نگه داشتن پول نقد.
به خط آبی در هر دو نمودار نگاه کنید.
تصمیم درست:
1_ خروج سریع از بازار وقتی شرایط واقعا بحرانی است. مثال: مرداد 99 در بورس. همه چیز گویا بود که دولت برای جبران کسری بودجه و نفت نفروختن، بازار را باد کرده بود. و بعد همه چیز قرمز.
2_ برگشت به بازار وقتی شرایط مناسب است. مثال: در حال حاظر خیلی از سهام شرکت های خوب در بورس ایران به دید سرمایه گذاری ارزشمند هستند و زیر قیمت. گرچه با این حد از دخالت حکومتی و قوانین بد، بازارهای جهانی امن تر هستند.
این پژوهش روی 650000 پرتفو از سال 2003 تا 2015 انجام شده.
ارائه مربوط به سال 2019 است ولی مقاله 10 روز پیش در The Journal of Financial Data Science چاپ شده.
PDF: When Do Investors Freak Out? Machine Learning Predictions of Panic Selling
@deeptimeai
از زبان Andrew W.Lo استاد فایننس دانشگاه MIT
وقتی بازارها شرایط بحرانی پیدا میکنند، سرمایهگذاران زیادی پولشان را نقد میکنند. اما آیا این به نفعشان است؟
تصمیم اشتباه:
1_ خارج نشدن به موقع از بازار وقتی شرایط بحرانیست.
2_ خیلی مهم تر: بازنگشتن به بازار و نگه داشتن پول نقد.
به خط آبی در هر دو نمودار نگاه کنید.
تصمیم درست:
1_ خروج سریع از بازار وقتی شرایط واقعا بحرانی است. مثال: مرداد 99 در بورس. همه چیز گویا بود که دولت برای جبران کسری بودجه و نفت نفروختن، بازار را باد کرده بود. و بعد همه چیز قرمز.
2_ برگشت به بازار وقتی شرایط مناسب است. مثال: در حال حاظر خیلی از سهام شرکت های خوب در بورس ایران به دید سرمایه گذاری ارزشمند هستند و زیر قیمت. گرچه با این حد از دخالت حکومتی و قوانین بد، بازارهای جهانی امن تر هستند.
این پژوهش روی 650000 پرتفو از سال 2003 تا 2015 انجام شده.
ارائه مربوط به سال 2019 است ولی مقاله 10 روز پیش در The Journal of Financial Data Science چاپ شده.
PDF: When Do Investors Freak Out? Machine Learning Predictions of Panic Selling
@deeptimeai
Deep Time
فاکتور Freak Out چیست؟ از زبان Andrew W.Lo استاد فایننس دانشگاه MIT وقتی بازارها شرایط بحرانی پیدا میکنند، سرمایهگذاران زیادی پولشان را نقد میکنند. اما آیا این به نفعشان است؟ تصمیم اشتباه: 1_ خارج نشدن به موقع از بازار وقتی شرایط بحرانیست. 2_ خیلی مهم…
#تجربه_شخصی
یکی از بهترین تصمیمات سرمایه گذاریم این بود که تابستان ۱۳۹۹ در بهترین روز های بورس (یا شاید اوج جنایت دولت)، سهام فروختم و بیتکوین (با قیمت وقت ۱۰۰۰۰ دلار) و اتریم (با قیمت وقت ۵۰۰ دلار) خریدم.
در حال حاظر بیتکوین ۴۲۰۰۰ دلار و اتریم ۲۸۰۰ دلار است.
این روز ها هم به نظرم همه چیز در کشور گران شده است، جز سهام شرکت های بورسی. سهامی از بورس ایران با p/e پایین و ارزش بنیادی بالا که زیر قیمت هستند میتوانند به عنوان بخشی از سبد سرمایهگذاری بررسی شوند.
عامه مردم همیشه دیر به روندهای شارپ بازارها وارد میشوند.
یکی از بهترین تصمیمات سرمایه گذاریم این بود که تابستان ۱۳۹۹ در بهترین روز های بورس (یا شاید اوج جنایت دولت)، سهام فروختم و بیتکوین (با قیمت وقت ۱۰۰۰۰ دلار) و اتریم (با قیمت وقت ۵۰۰ دلار) خریدم.
در حال حاظر بیتکوین ۴۲۰۰۰ دلار و اتریم ۲۸۰۰ دلار است.
این روز ها هم به نظرم همه چیز در کشور گران شده است، جز سهام شرکت های بورسی. سهامی از بورس ایران با p/e پایین و ارزش بنیادی بالا که زیر قیمت هستند میتوانند به عنوان بخشی از سبد سرمایهگذاری بررسی شوند.
عامه مردم همیشه دیر به روندهای شارپ بازارها وارد میشوند.
👍1
Deep Time
آیا نیاز هست که حتما از حفظ کردن دادههای آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟ بخش اول احتمالا یکی از مهم ترین مقالات هوش مصنوعی که اخیرا منتشر شده، مقاله OpenAI در مورد پدیده Grokking باشه. قابلیت تعمیم یا generalization…
آیا نیاز هست که حتما از حفظ کردن دادههای آموزشی و overfitting دوری کنیم تا یادگیری واقعی و generalization به وجود بیاد؟
بخش دوم
هدف از این نوشتهها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه میدهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدلهای پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.
تحقیقات نشان میدهند مدلهای معروف NLP مثل BERT و RoBERTa میتوانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانهای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزنها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکهای به مراتب بزرگ تر نیاز است، در حالی که این شبکهها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدلها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.
بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدلها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی میکند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمتهای توسعه مدلهای پردازش زبان است، به کار گرفته میشود.
اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟
@deeptimeai
بخش دوم
هدف از این نوشتهها این است که به تحقیقاتی اشاره کنیم که بعضی باورهای رایج در مورد deep learning را به چالش میکشد و راه حل متفاوتی ارائه میدهد. یکی از تلاش های مهم دانشمندان برای پدید آوردن "هوش مصنوعی جامع" در ده ها سال اخیر، توسعه مدلهای پردازش زبان طبیعی بوده است، چرا که زبان یک خواستگاه (یا نمایش) اساسی از هوش انسان است.
تحقیقات نشان میدهند مدلهای معروف NLP مثل BERT و RoBERTa میتوانند محل تولد یک شخص معروف یا نام صاحب یک شرکت رسانهای را به خاطر بسپارند. اما این اطلاعات به صورت abstract و ضمنی (غیر صریح) در قالب وزنها و پارامترهای شبکه وجود دارند. اما آیا این روش برای به خاطر سپردن اطلاعات بهینه است؟ از طرفی اگر نیاز به اطلاعات بیشتری باشد به شبکهای به مراتب بزرگ تر نیاز است، در حالی که این شبکهها در حالت عادی هم بسیار بسیار سنگین هستند. همچنین در این مدلها تعیین اینکه چه دانشی وجود دارد و در کجا ذخیره شده است بسیار سخت است.
بنابراین سوالی که مطرح شد این بود که آیا بهتر نیست مدلها اطلاعات را حفظ کنند؟ یعنی برخلاف روش ضمنی، اطلاعات به صورت صریح برای مدال های زبانی حفظ شوند؟
این سوالات منجر به توسعه مدل REALM: Retrieval-Augmented Language Model Pre-Training توسط تیم GoogleAI شد. این مدل بجای اجبار برای حفظ کردن تمام دانش در پارامترها، دانش را را از متون و مستندات خام به صورت صریح بازیابی میکند. دقت کنید که این مدل به منظور Pre-Training، که یکی از مهم ترین قسمتهای توسعه مدلهای پردازش زبان است، به کار گرفته میشود.
اما مغز انسان چگونه یاد میگیرد؟ آیا همه یادگیری، یادگیری به صورت قوانین abstract است؟ یا حفظ و بازیابی برخی اطلاعات و دانش نیز در هوش نقش اساسی داشته است؟ سهم هر یک از این دو چگونه است و چه مکانیزیمی وجود دارد؟
@deeptimeai
research.google
REALM: Integrating Retrieval into Language Representation Models
Posted by Ming-Wei Chang and Kelvin Guu, Research Scientists, Google Research Recent advances in natural language processing have largely built upo...
❤1
"In the last decade, the biggest shift in AI was a shift to deep learning. I think it’s quite possible that in this decade the biggest shift will be to data-centric AI"
Andrew Ng, IEEE Q&A
https://datacentricai.org/
Andrew Ng, IEEE Q&A
https://datacentricai.org/
IEEE Spectrum
Andrew Ng: Farewell, Big Data
Google Brain co-founder and Landing AI founder Andrew Ng has become an evangelist for what he calls the data-centric AI movement. “Collecting more data often helps," he says. "But if you try to collect more data for everything, that can be a very expensive…
Deep Time
"In the last decade, the biggest shift in AI was a shift to deep learning. I think it’s quite possible that in this decade the biggest shift will be to data-centric AI" Andrew Ng, IEEE Q&A https://datacentricai.org/
ویرگول
نیمنگاهی به هوش مصنوعی دادهمحور: یکی دیتای خوب به از صد هزار
ماجرا چیست؟در مطلبی که با موضوع روندهای هوش مصنوعی در سال نوشته بودم، پیشبینی کردم که رویکرد هوش مصنوعی دادهمحور کمکم جای خودش رو د…
👍1
FourCastNet: A Global Data-driven High-resolution Weather Model using Adaptive Fourier Neural Operators abs: https://arxiv.org/abs/2202.11214
👍1