دستاوردهای یادگیری عمیق(InTec)
9.54K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا می‌شه.

GitHub
👍224
#تجربه

وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتری‌هاش یک سری سایت‌‌های خاص رو کرال می‌کرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه می‌داد.

برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت می‌گرفت از یوزرهاش؛ یکی از شرکت‌هایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون ساده‌تر می‌شه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.

بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک می‌تونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:

۱- جایی که دامنه عوض می‌شد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.

۲- صفحات کرال شده رو دیگه کرال نکنیم

۳- صفحات عمومی سایت‌ها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرال‌های بعدی دیگه سراغشون نریم.

۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)

دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضی‌ها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پست‌های قبلی هست) رو روی اونها finetune کردیم شد چیزی که می‌خوایم
Named Entity Recognition

دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجی‌ها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه می‌کرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتری‌ها این فیچر رو لانچ کردیم.

همه راضی بودند؛ چون :

۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبک‌های منفی رو برای بهبود مدل استفاده می‌کنیم.

درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!

ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.

شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژه‌‌اش گذاشته که فقط هزینه‌هاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.

هوش مصنوعی رو فقط وقتی استفاده می‌کنیم که ارزش ایجاد می‌کنه.

پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمی‌زنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
👍6721🤣6
RandRng
Message
#موقت

این شرکت‌هایی که برای تبلیغ مدل‌های frontend خودشون که کدهای
html, css, react, ...

میزنه میان از clone یک سایت استفاده می‌کنند هم همین داستان رو می‌دونند؛ ۹۹٪ مدل‌های LLM امروزی توی clone کردن فوق‌العاده هستند.

گول مدل‌های این شرکت‌ها رو هم نخورید؛ خودتون تستش کنید روی ایده‌های خودتون بگید سایت طراحی کنه یا ...
👍218
یک تصمیم خوبی گرفته شد توی تیم یک سری سرویس کوچیک داشتیم که فکر می‌کردیم اگر پروژه بزرگ بشه؛ قطعاً خفت مارو خواهد گرفت چون bottleneck می‌شه ولی هر کدوم به تنهایی سرویس کوچیکی محسوب می‌شد!

توی همین وادی که داشتیم کدهاشون رو می‌زدیم یک تصمیم مغرورانه گرفتم؛ به بچه‌های سنیور تیم گفتم این‌ها رو با Rust کد بزنیم چون مطمئنم این پروژه قراره بترکونه (هیچ اطمینانی نبود، فقط خواستم انرژی تیم بالا بره، دلمم نمی‌خواست این سرویس‌های کوچولو باعث شکست پروژه‌‌های اصلی باشه)

بچه‌های سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و deploy های مربوط به tensorflow یاد گرفتم که gRPC واسه ارتباطات بین سرویس‌ها خیلی بهتر هست؛ همین کارو هم کردیم.

الان که ۱-۲ ماه گذشته؛ نتایج رو می‌بینم و لذت می‌برم.

حتماً یک مقدار که سرم خلوت بشه زیر load test نتایجش رو می‌ذارم؛ شاید بخش کد نویسی با Rust بدرد تیم شما یا ۹۰٪ کارهای شما نخوره اما استفاده از gRPC برای ارتباط بین سرویس‌های خودتون رو جدی بگیرید.
👍43🤣223
دستاوردهای یادگیری عمیق(InTec)
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا می‌شه. GitHub
Whisper farsi

منتشر شده (شخصاً هنوز تستش نکردم)

ولی این یعنی؛ راه برای خیلی کارها باز می‌شه اگر نتایجش خوب باشه!

حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
KittenTTS
رو برای فارسی بزنه!
👍154
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت‌ درموردش.

بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفاده‌اش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترن‌ها) و جزئیات عملکرد.

این پرامپت رو روی chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس می‌نویسم و چندروزی هست که برای یادگیری دقیق‌تر رفتم سراغ لایه‌های مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمق‌تر می‌شه!

اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!

دیگه حتی برای کارهای کوچیک هم نمی‌شه از chatGpt استفاده کرد، Duck.ai فعلا همچنان 4o-mini رو ارائه میده.
اما این آپدیت chatGpt دقیقاً مثل لحظه‌ی Llama4 برای Meta بود.


اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده می‌کنم
Meta Llama4 Moment



پی‌نوشت‌؛
اگر دوست داشتید بر اساس توضیحات می‌تونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر‌
فقط بخش مثال زدنش رو یادتون نره
41👍20
اگر nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمی‌شه)

دیگه خیلی‌ها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازی‌هاش) هم از توییتر می‌تونه حذف بشه.

تنها جایی که می‌تونید مدل رو تست کنید؛
https://lmarena.ai/

فقط همینجا هست؛ و حتما هم باید روی Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.


شخصا احتمال میدم مدل از DeepMind باشه!
👍1610
دستاوردهای یادگیری عمیق(InTec)
Channel photo updated
#موقت
لوگو جدید رو Gemini2.5 Flash Image برامون ساخت با ساده ترین پرامپت ممکن!
23🤣6
یک فیلد داریم به اسم
Malware Data Science

با تکنیک‌هایی که هرروز داریم کار می‌کنیم لاگ - عملکرد سیستم - لود شبکه - لود سخت‌افزار و ... رو بررسی می‌کنند.

خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلی‌ها نمی‌دونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.

با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت می‌کردم (البته بحث راجب Rust بود و متوجه شدیم هردو با Data رابطه خوبی هم داریم) و توی صحبت متوجه شدم فیلد کاری ایشون Malware, ... هست.

چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمی‌دونم و با توجه به صحبت‌ها گفتم.
28👍12
Intel Arc B50-B60 Pro

گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته بودم) ولی از نظر قیمت و مصرف برق خیلی نظرم رو جلب کرد:

بنظر میاد قیمت‌ها قراره اینطور باشه

نسخه B60 Pro با ۲۴ گیگ حافظه و قیمت ۵۰۰ دلار هست.
نسخه B50 Pro با ۱۶ گیگ حافظه و قیمت ۳۵۰ دلار هست

البته قیمت‌ها حدودی هست؛ و مهمترین بخش اینکه می‌تونید GPU رو بین چندتا virtual machine تقسیم کنید (بچه‌هایی که پروداکشن کار کردند می‌دونند چقدر مهم می‌تونه بشه این نکته)

بهترین بخشش؛ B50 PRo که ضعیفتر هست توی بنچمارک اولیه روی مدل ۲۰ میلیارد پارامتری openai تعداد ۱۵ توکن تولید می‌کنه (میگم اولیه چون نه درایور نهایی اومده؛ نه دست دولوپرها رفته و ... اپتیمایز نشده این تعداد هست.)


شخصا البته دارم روی نسخه‌ی معرفی شده شرکت MaxSun تحقیق می‌کنم که ۲ تا از B60Pro هارو روی یک برد سوار کرده و ۴۸ گیگ حافظه در اختیار میذاره که قیمت رسمی ۱۲۰۰ دلار هست (مثل اینکه فروشنده‌ها چون کمبود داره گرونتر میدن ولی خب اندکی صبر)

MS-Intel ARC Pro B60 Dual 48G Turbo

این GPU ها قرار نیست کار A6000 انویدیا رو براتون انجام بده که منطقی هم هست چون ۶۰۰۰ دلار قیمتش نیست؛ با توجه به مصرف برق و سایز و قیمت و محدودیت‌های کمی که داره شخصا دارم به این گزینه بجای DGX Spark فکر می‌کنم (البته برای پروژه شرکت)
14👍10
#خبر

ساختمان سازمان ملی هوش مصنوعی اجاره داده می‌شود.


خلاصه‌ای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض می‌نوشتم.
🤣67👍163
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته…
Nvidia invest 5 Billion on Intel stocks, to jointly develop AI Infrastructure and Personal computing


تیم‌ آبی، بالاخره داره میوه سرمایه‌گذاری‌هاش روی GPU رو برداشت می‌کنه مثل اینکه، البته اوضاع هنوز روی CPU‌هاش به این خوبی نیست.

البته من بیشتر به یک همکاری فکر می‌کنم؛ cpu مخصوص gpu های انویدیا؛ رقابت بهتر با m4, ...
👍10
چندروز هست دارم به یکی از دوستان نزدیکم روی ایده‌اش کمک می‌کنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست.

یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحله‌اش اینه که خروجی رو Text to Speech بخونه) خب رفتیم سراغ Groq که سرعت خوبی داشت ولی مدل‌هایی که میخواستیم رو نداشت و برای اضافه کردن هم هزینه بالایی می‌گرفت.
بهترین مدل بعدی که جایگزین می‌شد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سی‌ری‌براس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
Qwen 3 235B Instruct
قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)

داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدل‌های این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه می‌ندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپ‌کردن خودم از سرعت response مدل‌ها بیشتره)

خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
Qwen3-480B (Coder) 
GPT-OSS-120B

چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای Qwen3-480B توی چندتا تست‌های من بین 2000-2050 توکن بر ثانیه هست.

داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.

خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!

ولی پیشنهاد می‌کنم حتما برای کارها؛ ایده‌ها و ... از API هاش استفاده کنید بصورت دیوانه‌وار سریع و ارزون قیمت هست.

Get 200K+ token daily for free (Qwen3-480B Coder)
25👍9
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایده‌اش کمک می‌کنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحله‌اش اینه که خروجی رو Text to Speech…
واقعا این سرعت توی بازار الان و ابزارهای LLM یک کد تقلب (cheat code) هست برای ایده‌هایی که بتونند ازش استفاده کنند.
رقبا رو به راحتی می‌تونه کنار بزنه بنظرم.

2016 Token/Seconds 
Qwen3-480B (Coder)



دوستان توی بخش limit محدودیت‌هاش رو بخونید حتما
مثلا برای auto complete حتما از مدل‌های ساده‌تر استفاده کنید مثل gpt-oss-120b یا qwen-3-32b که میزان درخواست روزانه / دقیقه یا میزان token های روزانه رو سریع مصرف نکنید (بعضی از ابزارها بصورت خودکار قویترین مدل رو انتخاب می‌کنند که ضرر هست)
👍194
Qwen3-VL

بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.

من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.
قطعا بیشتر تست می‌کنم چون سلسله‌ای از ایده‌ها تو ذهنم هست.

اگر فرصت داشتید بنظرم ارزش تست کردن داره!
👍252
چندین بار اومدم از تجربم روی راه‌اندازی H200 بگم و Sync کردن و تست‌های مختلف که چندروز درگیرش بودم.

ولی واقعاً انگیزه‌ای نیست!

بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!

چیزی که متوجه شدم:
سفارش‌ها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
27👍10
یک عنوان شغلی هم داریم
Content Writer
من از ۹۰٪ اینا فرار می‌کنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟

چون اینا دقیقاً Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص می‌نویسه.

مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!

تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!

جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم می‌داد ایراداش رو می‌گرفت براش.

بدترین بخشش اینه که ۱۵ تا از کانکشن‌های بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلی‌ها من وقتی کانکشن‌هام چیزی رو لایک یا کامنت می‌ذارند وقت می‌ذارم و می‌خونم.)
👍557