دستاوردهای یادگیری عمیق(InTec)
9.53K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت‌ درموردش.

بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفاده‌اش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترن‌ها) و جزئیات عملکرد.

این پرامپت رو روی chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس می‌نویسم و چندروزی هست که برای یادگیری دقیق‌تر رفتم سراغ لایه‌های مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمق‌تر می‌شه!

اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!

دیگه حتی برای کارهای کوچیک هم نمی‌شه از chatGpt استفاده کرد، Duck.ai فعلا همچنان 4o-mini رو ارائه میده.
اما این آپدیت chatGpt دقیقاً مثل لحظه‌ی Llama4 برای Meta بود.


اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده می‌کنم
Meta Llama4 Moment



پی‌نوشت‌؛
اگر دوست داشتید بر اساس توضیحات می‌تونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر‌
فقط بخش مثال زدنش رو یادتون نره
41👍20
اگر nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمی‌شه)

دیگه خیلی‌ها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازی‌هاش) هم از توییتر می‌تونه حذف بشه.

تنها جایی که می‌تونید مدل رو تست کنید؛
https://lmarena.ai/

فقط همینجا هست؛ و حتما هم باید روی Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.


شخصا احتمال میدم مدل از DeepMind باشه!
👍1610
دستاوردهای یادگیری عمیق(InTec)
Channel photo updated
#موقت
لوگو جدید رو Gemini2.5 Flash Image برامون ساخت با ساده ترین پرامپت ممکن!
23🤣6
یک فیلد داریم به اسم
Malware Data Science

با تکنیک‌هایی که هرروز داریم کار می‌کنیم لاگ - عملکرد سیستم - لود شبکه - لود سخت‌افزار و ... رو بررسی می‌کنند.

خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلی‌ها نمی‌دونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.

با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت می‌کردم (البته بحث راجب Rust بود و متوجه شدیم هردو با Data رابطه خوبی هم داریم) و توی صحبت متوجه شدم فیلد کاری ایشون Malware, ... هست.

چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمی‌دونم و با توجه به صحبت‌ها گفتم.
28👍12
Intel Arc B50-B60 Pro

گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته بودم) ولی از نظر قیمت و مصرف برق خیلی نظرم رو جلب کرد:

بنظر میاد قیمت‌ها قراره اینطور باشه

نسخه B60 Pro با ۲۴ گیگ حافظه و قیمت ۵۰۰ دلار هست.
نسخه B50 Pro با ۱۶ گیگ حافظه و قیمت ۳۵۰ دلار هست

البته قیمت‌ها حدودی هست؛ و مهمترین بخش اینکه می‌تونید GPU رو بین چندتا virtual machine تقسیم کنید (بچه‌هایی که پروداکشن کار کردند می‌دونند چقدر مهم می‌تونه بشه این نکته)

بهترین بخشش؛ B50 PRo که ضعیفتر هست توی بنچمارک اولیه روی مدل ۲۰ میلیارد پارامتری openai تعداد ۱۵ توکن تولید می‌کنه (میگم اولیه چون نه درایور نهایی اومده؛ نه دست دولوپرها رفته و ... اپتیمایز نشده این تعداد هست.)


شخصا البته دارم روی نسخه‌ی معرفی شده شرکت MaxSun تحقیق می‌کنم که ۲ تا از B60Pro هارو روی یک برد سوار کرده و ۴۸ گیگ حافظه در اختیار میذاره که قیمت رسمی ۱۲۰۰ دلار هست (مثل اینکه فروشنده‌ها چون کمبود داره گرونتر میدن ولی خب اندکی صبر)

MS-Intel ARC Pro B60 Dual 48G Turbo

این GPU ها قرار نیست کار A6000 انویدیا رو براتون انجام بده که منطقی هم هست چون ۶۰۰۰ دلار قیمتش نیست؛ با توجه به مصرف برق و سایز و قیمت و محدودیت‌های کمی که داره شخصا دارم به این گزینه بجای DGX Spark فکر می‌کنم (البته برای پروژه شرکت)
14👍10
#خبر

ساختمان سازمان ملی هوش مصنوعی اجاره داده می‌شود.


خلاصه‌ای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض می‌نوشتم.
🤣67👍163
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته…
Nvidia invest 5 Billion on Intel stocks, to jointly develop AI Infrastructure and Personal computing


تیم‌ آبی، بالاخره داره میوه سرمایه‌گذاری‌هاش روی GPU رو برداشت می‌کنه مثل اینکه، البته اوضاع هنوز روی CPU‌هاش به این خوبی نیست.

البته من بیشتر به یک همکاری فکر می‌کنم؛ cpu مخصوص gpu های انویدیا؛ رقابت بهتر با m4, ...
👍10
چندروز هست دارم به یکی از دوستان نزدیکم روی ایده‌اش کمک می‌کنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست.

یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحله‌اش اینه که خروجی رو Text to Speech بخونه) خب رفتیم سراغ Groq که سرعت خوبی داشت ولی مدل‌هایی که میخواستیم رو نداشت و برای اضافه کردن هم هزینه بالایی می‌گرفت.
بهترین مدل بعدی که جایگزین می‌شد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سی‌ری‌براس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
Qwen 3 235B Instruct
قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)

داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدل‌های این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه می‌ندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپ‌کردن خودم از سرعت response مدل‌ها بیشتره)

خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
Qwen3-480B (Coder) 
GPT-OSS-120B

چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای Qwen3-480B توی چندتا تست‌های من بین 2000-2050 توکن بر ثانیه هست.

داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.

خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!

ولی پیشنهاد می‌کنم حتما برای کارها؛ ایده‌ها و ... از API هاش استفاده کنید بصورت دیوانه‌وار سریع و ارزون قیمت هست.

Get 200K+ token daily for free (Qwen3-480B Coder)
25👍9
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایده‌اش کمک می‌کنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحله‌اش اینه که خروجی رو Text to Speech…
واقعا این سرعت توی بازار الان و ابزارهای LLM یک کد تقلب (cheat code) هست برای ایده‌هایی که بتونند ازش استفاده کنند.
رقبا رو به راحتی می‌تونه کنار بزنه بنظرم.

2016 Token/Seconds 
Qwen3-480B (Coder)



دوستان توی بخش limit محدودیت‌هاش رو بخونید حتما
مثلا برای auto complete حتما از مدل‌های ساده‌تر استفاده کنید مثل gpt-oss-120b یا qwen-3-32b که میزان درخواست روزانه / دقیقه یا میزان token های روزانه رو سریع مصرف نکنید (بعضی از ابزارها بصورت خودکار قویترین مدل رو انتخاب می‌کنند که ضرر هست)
👍194
Qwen3-VL

بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.

من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.
قطعا بیشتر تست می‌کنم چون سلسله‌ای از ایده‌ها تو ذهنم هست.

اگر فرصت داشتید بنظرم ارزش تست کردن داره!
👍252
چندین بار اومدم از تجربم روی راه‌اندازی H200 بگم و Sync کردن و تست‌های مختلف که چندروز درگیرش بودم.

ولی واقعاً انگیزه‌ای نیست!

بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!

چیزی که متوجه شدم:
سفارش‌ها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
27👍10
یک عنوان شغلی هم داریم
Content Writer
من از ۹۰٪ اینا فرار می‌کنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟

چون اینا دقیقاً Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص می‌نویسه.

مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!

تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!

جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم می‌داد ایراداش رو می‌گرفت براش.

بدترین بخشش اینه که ۱۵ تا از کانکشن‌های بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلی‌ها من وقتی کانکشن‌هام چیزی رو لایک یا کامنت می‌ذارند وقت می‌ذارم و می‌خونم.)
👍557
#ایده #تجربه

برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.

من از همه‌ی این سایت‌ها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایت‌ها این فیلترها رو توی بخش Advance خودشون فراهم میکردند ولی بیش از ۴۰-۵۰ فیلتر مختلف داشتند.

مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو می‌خواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سه‌راهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایت‌ها چون تخصصی هست دقیقا همه‌ی این تنظیمات فیلترها رو ارائه میده)

۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید می‌شدم و به این فکر میکردم که api های رایگان رو پول بدم و از یک شرکت واسط بخرم که :
۱- فیلتر‌ها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این API و این سایت بهترین ارائه دهنده هست.

یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به LLM بدم + سورس کد سایت‌ها یا لینک صفحه فیلترها و ازش بخوام یک url کامل با فیلترها بهم بده.

واقعا باورم نمیشه؛ ۱ ساعت طول کشید prompt نوشتم و درنهایت فقط و فقط Grok تونست کار رو برام انجام بده هر ۵۰ وبسایت (هربار پرامپت را با ۱۰ تا از سایت‌ها بهش میدادم)
الان من ۵۰ تا url دارم که دقیق فیلتر شده و فقط کافیه هر ۳۰ دقیقه یکبار request بدم و آپدیتش کنم!

هم ۵۰۰۰ دلار هزینه سالیانه api رو از رو دوشم برداشت؛ هم قوانین سایت رو پیدا کرد (هر ۳۰ دقیقه آپدیت میشه) هم تاخیر‌ها رو حذف کرد و در نهایت کدش رو برام نوشت (یک مقدار اشتباه داشت ولی خب بازم عالی بود)

این تسک رو هیچکدوم از مدل‌های دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تست‌هایی که ازین به بعد انجام خواهم داد برای ارزیابی مدل‌ها؛ خلاصه خواستم بگم این توانایی‌هارو هم دارند مدل‌های LLM خیلی چیز جالبی هست.
👍4618
اینو می‌گم که دیگه اتفاق نیوفته؛
روی کدهای LLM توی بکند و فرانت long polling جواب نیستا!
باید از SSE استفاده کنید.

واقعا فکر نمی‌کردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره long poll استفاده می‌کنه بجای SSE توی سرویس‌های LLM اش.

قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.

پیونشت (شما گفتید) :
روزای اول بعضی شرکت‌ها رفته بودن سراغ web-socket برای سرویس دهی.
👍264
امروز رو با تست دوتا مدل جدید شروع کنیم :

۱) خانواده Granite 4.0 از IBM
۲) برای این یکی هیجان دارم NeuTTS Air که رقیب درخوری برای مدل‌های Eleven Labs بنظر میاد.
12👍7
GLM-4.6

بدون شک باید تستش کنید؛ امروز روی یک پروژه کار می‌کردم که به مشکلات زیادی خورد توی refactor و البته اکثرا هم logic بود.
تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.

الان که دارم این متن رو می‌نویسم refactor اصلی تموم شده و منطق درست هست؛ حالا هدف بعدی بهینه سازی هست که باید روش کار کنم!

چون به مشکلات منطقی زیادی خوردم؛ از تموم مدل‌های موجود گمک گرفتم؛
Gemini
همون ابتدا از دور خارج شد چون vpn هام رو شناسایی میکرد و وقت نداشتم که بخوام مشکل رو حل کنم
Qwen
از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمی‌شد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که ast رو استفاده می‌کنه و قدم به قدم سورس کد رو واکشی می‌کنه و توضیح میده و... بگذریم الان جاش نیست)

مواردی که تست کردم
GLM-4.5, GLM4.6 - Claude - Grok Expert - ChatGPT, Deepseek
برای تمام مدل‌ها اگر قابلیت deep think روی بهترین ورژن‌هاشون وجود داشت ازون استفاده کردم.

مدل‌های Deepseek, Claude همون اول حذف شدند؛ شروع خیلی خوبی داشتند ولی بعدش توی logic مربوط به async, multi-thread همه چیز رو گم کردند و افتادند روی loop که همون کد اشتباه رو به حالت‌های مختلف هی تکرار می‌کردند.
اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگ‌ها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص Claude که این موضوع رو بدون کمک پیدا کرد؛ اما نتونست حلش کنه.


مدل Grok خیلی جالب بود؛ اول راحت‌ترین راه حل رو پیشنهاد داد بعد که بهش گفتم دارم refactor می‌کنم پس راه حل بهتر رو پیشنهاد بده روشش رو عوض کرد؛ اما ۲ تا مشکل داشت :
۱- اگر من خطایی رو داشتم؛ مثلا یک import اشتباه متوجه نمی‌شد و توی loop بی‌نهایت میوفتاد.
۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ می‌کنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن می‌گه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا می‌دونید چی می‌خواید و چرا این مدل خیلی کم خرف هست.

مدل ChatGPT بر خلاف Grok توضیح میده و تیکه تیکه جواب میده و میشه باهاش کنار اومد؛ یک تکنیک async اشتباه رو می‌خواستم تست کنم برای دیباگ نیاز داشتم. روی Grok هرچقدر توضیح دادم اینکار رو نکرد و کد رو تحویلم نداد؛ درنهایت هم چیزی که تحویل داد اشتباه بود. همینکار رو با ChatGPT انجام دادم؛ چون فکر میکردم اینم مقاومت کنه براش توضیح دادم که روی Debug لازم دارم و ... (پرامپت آخری که به Grok دادم تا کار کنه) و خروجی داد ولی بطور کلی نتونست بهترین راه حل رو پیشنهاد بده (چیزی که Grok انجام داده بود)

درنهایت اومدم سراغ GLM4.6 توضیحات اولیه مختصر و ادیت کد (برای توضیحات بیشتر گفته مجدد پرامپت بده که بنظرم خیلی رفتار درست و خوبیه)
مشکل رو پیدا کرد مثل Grok و راه حل خوبی رو هم پیشنهاد داد مهمترین بخشش سرعتش هست بسیار بسیار سریع توکن‌ها رو خروجی میده و باهاش میشه راحت کد توسعه داد.
یک مشکل من با LLM ها همینه سرعت توسعه خودم از کل‌کل با اونها بیشتره.
یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درست‌کردن Logic اشتباه (چندتا پرامپت طول کشید ولی مسیر درست رو داشت می‌رفت) وقتی راهکار آخر رو داشت تایپ می‌کرد در انتها چندتا فایل و بخش دیگه رو پیشنهاد داد؛ چرا؟ چون فکر میکنه این تغییرات refactor رو تمیزتر می‌کنه و واقعا هم درست فکر می‌کنه!

درنهایت یک بخش‌هایی از کد رو درحال منتقل کردن به Rust هستم چون این بخش‌ها bottleneck شده برامون و Rust خیلی می‌تونه کمک کنه threading, async, ... سنگینی داره.
Grok, ChatGpt, GLM-4.6 

رو برای اینکار ازشون کمک گرفتم که توی مرور سریع GLM-4.6 بنظر کد درستی رو فقط داده؛ توی نگاه اول روی Grok, ChatGPT دارم خطا می‌بینم ( از نوع channel اشتباه استفاده کردند)

خلاصه:
بنظرم بد نیست به آپدیت جدید z.ai هم سری بزنید و با GLM-4.6 هم تست انجام بدبد؛ سرعت و دقت فوق‌العاده!
توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی firefox هم می‌تونید از Dark Reader Addons استفاده کنید یکم تنظیمش کنید Dark mode خوبی برای z.ai بهتون میده (دلیلی که خودم ازین مدل کم استفاده می‌کنم همین بود)
👍3216
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته…
B50 Pro

بنچمارک‌های کاربری روش منتشر میشه و مدل 20B پارامتری openai رو با 42t/s داره اجرا می‌کنه
مصرف برق: ۷۰ وات
قیمت: آپدیت خورده بخاطر تعرفه‌ها و شده ۳۵۰ دلار

اگر برای inference و llm نیاز به GPU دارید این مدل رو حتما بهش نگاه کنید یا داداش بزرگش B60 Pro رو
12👍4