School of AI
10.6K subscribers
290 photos
94 videos
11 files
612 links
هدف ما در این اجتماع کوچک، آموزش و ترویج هوش مصنوعی و افزایش سطح آگاهی و تخصص نسبت به آن است.
باشد که دست در دست هم، آینده‌ی این صنعت را در میهن‌مان ایران بسازیم.

https://www.aparat.com/v/Pmrs8
Download Telegram
The machine learning test is one of six standardized tests that were developed by a team of AI and assessment experts at Workera to evaluate the skills of people working as a Machine Learning Engineer (MLE), Data Scientist (DS), Machine Learning Researcher (MLR) or Software Engineer-Machine Learning (SE-ML). It is comprised of multiple choice questions selected from a large database, so that different test takers get different questions, and takes 17 minutes to complete.

https://www.workera.ai/resources/practicing-for-the-machine-learning-test/
Plot a customizable confusion matrix in scikit-learn
Everything you need to know to use Keras & TF 2.0 for deep learning research, a Google Colab notebook by François Chollet.

https://colab.research.google.com/drive/1qKPITTI879YHTxbTgYW_MAWMHFkbOBIk#scrollTo=s7bPeUh9ittG

توضیحات تکمیلی: François Chollet طراح و توسعه دهنده Keras است که در این نوت‌بوک به پیاده سازی مدل های یادگیری ماشین از Linear Classifier تا Autoencoder با استفاده از Tensorflow 2 و API های Keras میپردازد که بسیار آموزنده است.
A tiny micro-framework for AutoGrad and Neural Networks by Andrej Karpathy.

https://github.com/karpathy/micrograd

Jupyter Notebook:
https://github.com/karpathy/randomfun/blob/master/MicroGrad.ipynb

توضیحات تکمیلی: AutoGrad معروف‌ترین پیاده‌سازی از الگوریتم AutoDiff است که در Pytorch از آن استفاده شده است. (پیاده‌سازی جدیدتر و سریعتر آن Google JAX است) از این الگوریتم به جای الگوریتم Backprop برای محاسبه گرادیان توابع چند‌متغیره استفاده می‌شود.
الگوریتم Backprop برای محاسبه گرادیان های میانی در یک Computation Graph نیاز به مرحله feed-forward و ذخیره مقادیر Tensor ها در حافظه دارد که فضای زیادی را برای گراف های بزرگ اشغال میکند. همچنین در این روش امکان محاسبه مشتقات بالاتر (مشتق دوم و ...) وجود ندارد. اما AutoDiff در واقع گراف محاسباتی تابع مشتق را به صورت ضمنی ایجاد میکند و بنابراین نیاز به ذخیره سازی مقادیر تنسور های میانی ندارد و میتوان مشتق های بالاتر را نیز برای آنها محاسبه کرد.
نوت‌بوک بالا یک پیاده سازی ساده و آموزنده از AutoDiff است که توسط Andrej Karpathy سرپرست تیم هوش مصنوعی Tesla و مدرس دوره محبوب CS231n 2016 پیاده سازی شده است.
در هنگام توسعه محصولات مرتبط با AI، بسیار پیش می‌آید که می‌خواهید میزان مشابهت (Similarity) یا فاصله (Distance) تعداد زیادی بردار (مثلا مقایسه feature map یک محصول با تمام محصولات موجود در سایت شما) را به کمک روش هایی مثل L2 Distance یا Dot-product بدست آورده و یا به جستجو برای یافتن شبیه ترین بردار ها به یک بردار بپردازید.
تفاوت ذاتی یک محیط عملیاتی حقیقی با یک محیط اکادمیک آزمایشگاهی ممکن است مشکلاتی را در این زمینه برای شما ایجاد کند. مثلا بسیار پیش می‌آید که بردار شما حتی به راحتی در حافظه RAM یک کامپیوتر جا نمی‌شود. یا به دلیل زیاد بودن تعداد بردار ها، جستجو در آنها بسیار کند اتفاق می‌افتد.
برای مقابله با این‌گونه محدودیت ها می‌توانید از کتابخانه faiss که توسط تیم مهندسی Facebook توسعه داده شده است استفاده کرده و در کسری از ثانیه به جستجوی بردار های مشابه در یک فضای برداری بزرگ بپردازید.

https://github.com/facebookresearch/faiss

اطلاعات بیشتر:
https://engineering.fb.com/data-infrastructure/faiss-a-library-for-efficient-similarity-search/
OpenAI Microscope, a collection of visualizations of every significant layer and neuron of eight vision “model organisms” which are often studied in interpretability.

https://openai.com/blog/microscope/
This media is not supported in your browser
VIEW IN TELEGRAM
علاقه مندان به تحقیق در زمینه اتوموبیل های خودران (Self-driving cars) می‌توانند از Colab Notebook زیر برای کار با دیتاست Waymo استفاده کنند.

https://colab.sandbox.google.com/github/waymo-research/waymo-open-dataset/blob/master/tutorial/tutorial.ipynb

همینطور در صورت علاقه می‌توانید در یکی از ۵ چالش Waymo Open Dataset شرکت کرده و علاوه بر جوایز نقدی امکان شرکت و ارایه کار خود در CVPR 2020 را داشته باشید!
https://blog.waymo.com/2020/03/announcing-waymos-open-dataset-challenges.html
Implementing GAN in Keras by François Chollet.
👆👆👆
You can call compile() & fit(). It handles callbacks, it has built-in distribution support, etc. It does everything fit() usually does.
But with your own low-level training algorithm.
XABY, a fun project for functional machine learning:

https://github.com/mcleonard/xaby

Demo Notebook:
https://github.com/mcleonard/xaby/blob/master/examples/MNIST.ipynb
این بلاگ‌پست با زبانی ساده و جذاب به توضیح مفاهیم پایه Deep RL به ویژه DQN (مدلی که برای اولین بار بازی های Atari رو در سطح انسان بازی کرد) پرداخته و آن را با Tensorflow 2 پیاده سازی می‌کند.

https://medium.com/analytics-vidhya/building-a-powerful-dqn-in-tensorflow-2-0-explanation-tutorial-d48ea8f3177a
A new approach for evaluating a #ReinforcementLearning policy entirely from offline data, with demonstrated performance on a number of classical control benchmarks by Ali Mousavi, et al.

https://ai.googleblog.com/2020/04/off-policy-estimation-for-infinite.html?m=1