چرا نرمافزار/اپلیکیشن ایرانی، نصب نکنیم ؟
راجب اتفاقی که توی روبیکا افتاده همگی خبر داریم، ساخت اکانتهای جعلی برای افراد مختلف.
بخشی که بعنوان یک برنامهنویس برای من مهم هست از بین بردن اعتماد به برنامهنویسان و اپلیکیشن های ایرانی هست
کاری که چندماه پیش هم یکی از اپلیکیشنهای ایرانی مسیریابی انجام داد.
سکوت مقامهای مسئول و نبود قوانین درست باعث این موضوع میشه، بعنوان ی برنامه نویس این موضوع رو خواستم گوشزد کنم و بگم که این کار روبیکا و اپ های مشابه چه ضرر سنگینی به همهی استارتاپهای حال حاضر و آینده کشور میزنه.
پ.ن :
۱- روبیکا ادعا کرده اکانت آدمای مشهور رو دیگران ساختند، که حرف مفت هست چون برای هرکسی با بیش از ۵۰۰ تا فالوور اکانت وجود داره
۲- به اکانتهای مشهور تیک آبی (تایید) داده شده
۳- اگر میخواهید اکانت شما حذف بشه، باید توی روبیکا اکانت بسازید و احراز هویت کنید بعد درخواست حذف بدید
چرا سازنده اکانت جعلی احراز هویت نمیشه اینم مسئلهی دیگریست
راجب اتفاقی که توی روبیکا افتاده همگی خبر داریم، ساخت اکانتهای جعلی برای افراد مختلف.
بخشی که بعنوان یک برنامهنویس برای من مهم هست از بین بردن اعتماد به برنامهنویسان و اپلیکیشن های ایرانی هست
کاری که چندماه پیش هم یکی از اپلیکیشنهای ایرانی مسیریابی انجام داد.
سکوت مقامهای مسئول و نبود قوانین درست باعث این موضوع میشه، بعنوان ی برنامه نویس این موضوع رو خواستم گوشزد کنم و بگم که این کار روبیکا و اپ های مشابه چه ضرر سنگینی به همهی استارتاپهای حال حاضر و آینده کشور میزنه.
پ.ن :
۱- روبیکا ادعا کرده اکانت آدمای مشهور رو دیگران ساختند، که حرف مفت هست چون برای هرکسی با بیش از ۵۰۰ تا فالوور اکانت وجود داره
۲- به اکانتهای مشهور تیک آبی (تایید) داده شده
۳- اگر میخواهید اکانت شما حذف بشه، باید توی روبیکا اکانت بسازید و احراز هویت کنید بعد درخواست حذف بدید
چرا سازنده اکانت جعلی احراز هویت نمیشه اینم مسئلهی دیگریست
This media is not supported in your browser
VIEW IN TELEGRAM
نمونه خروجی
SuperResolution
مدل SR3، واقعاً 🤯🤯🤯
Google ai blog
اشاره کنم که خروجی خیلی خیلی بهتر از
Generative
مدلها هست
SuperResolution
مدل SR3، واقعاً 🤯🤯🤯
Google ai blog
اشاره کنم که خروجی خیلی خیلی بهتر از
Generative
مدلها هست
دستاوردهای یادگیری عمیق(InTec)
نمونه خروجی SuperResolution مدل SR3، واقعاً 🤯🤯🤯 Google ai blog اشاره کنم که خروجی خیلی خیلی بهتر از Generative مدلها هست
شاید مسئله
Super Resolution
رو تقریباً حل شده بدونیم، با توجه به خروجی های شرکتهایی مثل
Nvidia, twitch, google , ...
اما همین سیستمها توی بخشهای مهمتری مثل تصاویر پزشکی و البته بازسازی صدا و حتی noise reduction (پروژهای که خودم دارم روش کار میکنم، حذف نویز از صدا) بسیار میتونه مفید باشه
Super Resolution
رو تقریباً حل شده بدونیم، با توجه به خروجی های شرکتهایی مثل
Nvidia, twitch, google , ...
اما همین سیستمها توی بخشهای مهمتری مثل تصاویر پزشکی و البته بازسازی صدا و حتی noise reduction (پروژهای که خودم دارم روش کار میکنم، حذف نویز از صدا) بسیار میتونه مفید باشه
ی استاد داشتیم همیشه میگفت فکر کردن یاد بگیرید؛ کد رو همه میتونن حفظ کنن
https://openai.com/blog/openai-codex/
حالا قشنگ میشه به این نتایج رسید؛ بنظر من coder های روزمره بزودی کنار میرن؛ این خروجی فقط ۳۷٪ به هدف رسیده و انقدر فوقالعادهاس
https://openai.com/blog/openai-codex/
حالا قشنگ میشه به این نتایج رسید؛ بنظر من coder های روزمره بزودی کنار میرن؛ این خروجی فقط ۳۷٪ به هدف رسیده و انقدر فوقالعادهاس
Openai
OpenAI Codex
We’ve created an improved version of OpenAI Codex, our AI system that translates natural language to code, and we are releasing it through our API in private beta starting today.
Link
مربوط به بورسیه
حتی کمک هزینه پرواز دانشجویان،
متن تصویر رو من ننوشتم ♦️
خیلی وقت هست که شرکتها وقتی میگن نیروی تخصصی معرفی کن، هیچ کسی رو ندارم.
این ی وضعیت جدی هست، من ی فایل اکسل داشتم از آدمای متخصص که باهاشون توی پروژههای مختلف آشنا شدم اونقدر متخصص که توی کار خودشون خدا بودن
ولی حالا، ۱ سال هست که اصلاً به اون لیست نیازی ندارم، همه رفتن و هیچ کس نمونده (ماها هم دیگه فرقی به حالمون نداره موندن یا رفتن)
ولی وقتی میبینم اونایی که رفتن استرس، دردشون کم شده، وقتی می بینم هدف میزارن برای هدف تلاش میکنن و میرسند بهش دلم میخواد به باقی استعدادها هم واسه رفتن کمک کنم، فقط همین
مربوط به بورسیه
حتی کمک هزینه پرواز دانشجویان،
متن تصویر رو من ننوشتم ♦️
خیلی وقت هست که شرکتها وقتی میگن نیروی تخصصی معرفی کن، هیچ کسی رو ندارم.
این ی وضعیت جدی هست، من ی فایل اکسل داشتم از آدمای متخصص که باهاشون توی پروژههای مختلف آشنا شدم اونقدر متخصص که توی کار خودشون خدا بودن
ولی حالا، ۱ سال هست که اصلاً به اون لیست نیازی ندارم، همه رفتن و هیچ کس نمونده (ماها هم دیگه فرقی به حالمون نداره موندن یا رفتن)
ولی وقتی میبینم اونایی که رفتن استرس، دردشون کم شده، وقتی می بینم هدف میزارن برای هدف تلاش میکنن و میرسند بهش دلم میخواد به باقی استعدادها هم واسه رفتن کمک کنم، فقط همین
این کورس یودمی تا ۲ روز دیگر رایگان هست
قطعاً بهترین کورس مربوط به
Plotly
نیست، اما ۱۰ تا از مهمترین نمودارهایی که توی کارهای روزمره با دیتا لازم هست رو آموزش میده.
Udemy Course Link
قطعاً بهترین کورس مربوط به
Plotly
نیست، اما ۱۰ تا از مهمترین نمودارهایی که توی کارهای روزمره با دیتا لازم هست رو آموزش میده.
Udemy Course Link
Udemy
Plotly library Tips exploratory data analysis
Get a kick start on exploratory data analysis using plotly library
برای همهی اعضای کانال
این سایت رو قطعاً و حتماً باید بوکمارک کنید و روزی چندبار شاید بهش سر بزنید
AI Research Navigator (Paper, Github, ...)
از هردو گوگل و paperwithcode نتایج رو بهتر و دقیقتر میاره.
.
این سایت رو قطعاً و حتماً باید بوکمارک کنید و روزی چندبار شاید بهش سر بزنید
AI Research Navigator (Paper, Github, ...)
از هردو گوگل و paperwithcode نتایج رو بهتر و دقیقتر میاره.
.
Zeta Alpha
Zeta Alpha - AI Research Navigator
The Zeta Alpha Neural Discovery Platform is a smarter way to discover and organize knowledge in AI and beyond, using Generative LLMs and advanced Neural Search.
چرا چیپهای D1 Dojo از تسلا انقدر اهمیت داره !؟
اول از همه اینکه این چیپها مختص
AI Training
ساخته شده، بر اساس گذارش تسلا هر
Training Tile
دارای :
9 PFLOPs
قدرت پردازش (دقت کنید پتافلاپ هست)
36TB/s IO bandwidth
سرعت انتقال داده هست، درحالی که
Nvidia A100
یکی از بهترینهای موجود، دارای :
312 TFLOPS
قدرت پردازش و
1.6TB/s Memory Bandwidth
هست.
لینک ویدیو مربوط به معرفی D1 در Tesla AI Day
پ.ن : با ادغام Training Tile ها تسلا به ExaPOD میرسه با قدرت
1 ExaFLOPS 😑😑😑
و از همین حالا برای نسل بعدی
10X Performance
قل داده شد :/
اول از همه اینکه این چیپها مختص
AI Training
ساخته شده، بر اساس گذارش تسلا هر
Training Tile
دارای :
9 PFLOPs
قدرت پردازش (دقت کنید پتافلاپ هست)
36TB/s IO bandwidth
سرعت انتقال داده هست، درحالی که
Nvidia A100
یکی از بهترینهای موجود، دارای :
312 TFLOPS
قدرت پردازش و
1.6TB/s Memory Bandwidth
هست.
لینک ویدیو مربوط به معرفی D1 در Tesla AI Day
پ.ن : با ادغام Training Tile ها تسلا به ExaPOD میرسه با قدرت
1 ExaFLOPS 😑😑😑
و از همین حالا برای نسل بعدی
10X Performance
قل داده شد :/
با 2.5K استار، یکی از بهترین فریمورکها برای کار روی بازار بورس به کمک
Reinforcement Learning
FinRL Github
این هم یک بلاگ پست آموزشی. بسیار عالی از این فریمورک
Medium Link
.
Reinforcement Learning
FinRL Github
این هم یک بلاگ پست آموزشی. بسیار عالی از این فریمورک
Medium Link
.
GitHub
GitHub - AI4Finance-Foundation/FinRL: FinRL®: Financial Reinforcement Learning. 🔥
FinRL®: Financial Reinforcement Learning. 🔥. Contribute to AI4Finance-Foundation/FinRL development by creating an account on GitHub.
دستاوردهای یادگیری عمیق(InTec)
شاید مسئله Super Resolution رو تقریباً حل شده بدونیم، با توجه به خروجی های شرکتهایی مثل Nvidia, twitch, google , ... اما همین سیستمها توی بخشهای مهمتری مثل تصاویر پزشکی و البته بازسازی صدا و حتی noise reduction (پروژهای که خودم دارم روش کار میکنم،…
GFPGAN (CVPR 2021)
ی مدل فوقالعاده، با خروجی فوقالعاده (نتایج تست شده) برای تعمیر و بازسازی بسیار عالی تصاویر قدیمی مختص چهره
شاید تسک برای شما خیلی جذاب نباشه، اما همونطور که قبلتر گفتم برای تسکهای دیگه بسیار کاربردی میتونه باشه
البته منتظر اپلیکیشن موبایلش هم هستیم 😉
Code Available on GitHub
ی مدل فوقالعاده، با خروجی فوقالعاده (نتایج تست شده) برای تعمیر و بازسازی بسیار عالی تصاویر قدیمی مختص چهره
شاید تسک برای شما خیلی جذاب نباشه، اما همونطور که قبلتر گفتم برای تسکهای دیگه بسیار کاربردی میتونه باشه
البته منتظر اپلیکیشن موبایلش هم هستیم 😉
Code Available on GitHub
GitHub
GitHub - TencentARC/GFPGAN: GFPGAN aims at developing Practical Algorithms for Real-world Face Restoration.
GFPGAN aims at developing Practical Algorithms for Real-world Face Restoration. - TencentARC/GFPGAN
ی مقاله فوقالعاده دیگه از
deepmind
توی این روش دیتای ورودی فرقی نداره دیگه چی باشه، قبل از این هر مدل طراحی میشد برای یک ورودی خاص و تسک خاص(مثلاً تصویر، متن، ویدئو) مدلهایی که هم متن و هم تصویر بعنوان ورودی بگیره برای یک تسک خاص هم وجود داره (Transformers base) اما سربار محاسباتی و مموری زیادی لازم داشت
این مشکلات توی این روش برطرف شده
کدهای این مقاله هم توی گیتهاب بصورت پابلیک در دسترس قرار گرفت :
Github : Preceiver IO
.
deepmind
توی این روش دیتای ورودی فرقی نداره دیگه چی باشه، قبل از این هر مدل طراحی میشد برای یک ورودی خاص و تسک خاص(مثلاً تصویر، متن، ویدئو) مدلهایی که هم متن و هم تصویر بعنوان ورودی بگیره برای یک تسک خاص هم وجود داره (Transformers base) اما سربار محاسباتی و مموری زیادی لازم داشت
این مشکلات توی این روش برطرف شده
کدهای این مقاله هم توی گیتهاب بصورت پابلیک در دسترس قرار گرفت :
Github : Preceiver IO
.