دستاوردهای یادگیری عمیق(InTec)
9.53K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
مدل‌های جدید openai که opensource هم هست روی groq دپلوی شده !


تست کنید متوجه می‌شید؛ دنیای open source توی این سایز از مدل‌ها خیلی از openai جلوتر هست!

برای تست :

من روی دیتاست تست خودم تست میگیرم، مشکلاتی که توی این مدت داشتم و مدل‌های بزرگ نتونستند حل کنند ولی توی ورژن‌های بعدی حل شده!
حالا یک فایل csv بزرگ شده که دسته بندی هم داره؛
برای مدل‌های ۳۰ میلیاردی و کمتر
برای مدل‌های ۳۰-۷۰ میلیاردی
برای مدل‌های ۷۰ تا ۱۵۰ میلیاردی
برای مدل‌های ۱۵۰ تا ۲۵۰ میلیاردی
برای مدل‌های ۲۵۰ تا ۳۵۰ میلیاردی
و درنهایت مدل‌های بالای ۳۵۰ میلیارد پارامتر

و اینجوری هست که سوالی که بنظرم چالشی بوده رو انتخاب کردم از مدل‌های کوچیک شروع کردم تا بزرگ و اولین کوچکترین مدلی که تونسته به سوالم جواب درست بده رو علامت زدم!

پیشنهاد می‌کنم شماهم اینکارو بکنید و دوتا دلیل هم دارم :

۱- دیگه اکثر بنچمارک‌ها بی‌معنی شدند
۲- نحوه استفاده شما از مدل‌ بسیار تعیین کننده هست.

مثلاً برای یک نویسنده، هیچوقت مدلی که بهترین نتایج روی SWE یا LMSYS داره شاید مهم نباشه ولی یک مدل که بهترین کلمات جایگزین رو پیشنهاد می‌ده بهترین مدل بشه.


Groq chat
👍225
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد.

فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟!

یا اینکه چجوری 30.8% با 69.1% هم اندازه می‌شه ؟!

😂😂😂😂

از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبت‌نام کردند
که از تعداد ۲ میلیون و ۸۰۰ هزار و خورده‌ای
شاید تا الان که صحبت می‌کنیم به ۳۰ میلیون هم رسیده باشه دیگه!
🤣1004
دستاوردهای یادگیری عمیق(InTec)
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد. فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟! یا اینکه چجوری 30.8% با 69.1% هم اندازه می‌شه ؟! 😂😂😂😂 از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبت‌نام کردند که از تعداد ۲ میلیون و ۸۰۰…
برای کد نویسی واقعاً این ترکیب برنده‌اس :

Gemini 2.5 Pro (Math & Coding)
Qwen3-coder


برای بحث‌های روزمره و یادگیری زبان و ...
Grok4

البته Claude 4.1 هم ادعا کرده که مشکل code base بزرگ رو کمتر کرده ولی هنوز نتونستم تست کنم؛ اگر این باشه گزینه خوبی میشه اینم.
👍413
این پیام رو محراب عزیز برام فرستاد:

با فعال کردن Github Student هر کسی که دانشجو هست
میتونه از همه مدل‌های OpenAI، Google و Anthropic رایگان استفاده کنه. که gpt5 رو هم شامل میشه.



البته من دیدم غیر دانشجوها هم با جعل کارت دانشجویی قدیمی خودشون و تغییر تاریخش دسترسی گرفتن ولی خب.
🤣547👍7
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا می‌شه.

GitHub
👍224
#تجربه

وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتری‌هاش یک سری سایت‌‌های خاص رو کرال می‌کرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه می‌داد.

برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت می‌گرفت از یوزرهاش؛ یکی از شرکت‌هایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون ساده‌تر می‌شه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.

بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک می‌تونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:

۱- جایی که دامنه عوض می‌شد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.

۲- صفحات کرال شده رو دیگه کرال نکنیم

۳- صفحات عمومی سایت‌ها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرال‌های بعدی دیگه سراغشون نریم.

۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)

دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضی‌ها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پست‌های قبلی هست) رو روی اونها finetune کردیم شد چیزی که می‌خوایم
Named Entity Recognition

دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجی‌ها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه می‌کرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتری‌ها این فیچر رو لانچ کردیم.

همه راضی بودند؛ چون :

۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبک‌های منفی رو برای بهبود مدل استفاده می‌کنیم.

درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!

ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.

شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژه‌‌اش گذاشته که فقط هزینه‌هاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.

هوش مصنوعی رو فقط وقتی استفاده می‌کنیم که ارزش ایجاد می‌کنه.

پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمی‌زنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
👍6721🤣6
RandRng
Message
#موقت

این شرکت‌هایی که برای تبلیغ مدل‌های frontend خودشون که کدهای
html, css, react, ...

میزنه میان از clone یک سایت استفاده می‌کنند هم همین داستان رو می‌دونند؛ ۹۹٪ مدل‌های LLM امروزی توی clone کردن فوق‌العاده هستند.

گول مدل‌های این شرکت‌ها رو هم نخورید؛ خودتون تستش کنید روی ایده‌های خودتون بگید سایت طراحی کنه یا ...
👍218
یک تصمیم خوبی گرفته شد توی تیم یک سری سرویس کوچیک داشتیم که فکر می‌کردیم اگر پروژه بزرگ بشه؛ قطعاً خفت مارو خواهد گرفت چون bottleneck می‌شه ولی هر کدوم به تنهایی سرویس کوچیکی محسوب می‌شد!

توی همین وادی که داشتیم کدهاشون رو می‌زدیم یک تصمیم مغرورانه گرفتم؛ به بچه‌های سنیور تیم گفتم این‌ها رو با Rust کد بزنیم چون مطمئنم این پروژه قراره بترکونه (هیچ اطمینانی نبود، فقط خواستم انرژی تیم بالا بره، دلمم نمی‌خواست این سرویس‌های کوچولو باعث شکست پروژه‌‌های اصلی باشه)

بچه‌های سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و deploy های مربوط به tensorflow یاد گرفتم که gRPC واسه ارتباطات بین سرویس‌ها خیلی بهتر هست؛ همین کارو هم کردیم.

الان که ۱-۲ ماه گذشته؛ نتایج رو می‌بینم و لذت می‌برم.

حتماً یک مقدار که سرم خلوت بشه زیر load test نتایجش رو می‌ذارم؛ شاید بخش کد نویسی با Rust بدرد تیم شما یا ۹۰٪ کارهای شما نخوره اما استفاده از gRPC برای ارتباط بین سرویس‌های خودتون رو جدی بگیرید.
👍43🤣223
دستاوردهای یادگیری عمیق(InTec)
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا می‌شه. GitHub
Whisper farsi

منتشر شده (شخصاً هنوز تستش نکردم)

ولی این یعنی؛ راه برای خیلی کارها باز می‌شه اگر نتایجش خوب باشه!

حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
KittenTTS
رو برای فارسی بزنه!
👍154
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت‌ درموردش.

بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفاده‌اش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترن‌ها) و جزئیات عملکرد.

این پرامپت رو روی chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس می‌نویسم و چندروزی هست که برای یادگیری دقیق‌تر رفتم سراغ لایه‌های مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمق‌تر می‌شه!

اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!

دیگه حتی برای کارهای کوچیک هم نمی‌شه از chatGpt استفاده کرد، Duck.ai فعلا همچنان 4o-mini رو ارائه میده.
اما این آپدیت chatGpt دقیقاً مثل لحظه‌ی Llama4 برای Meta بود.


اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده می‌کنم
Meta Llama4 Moment



پی‌نوشت‌؛
اگر دوست داشتید بر اساس توضیحات می‌تونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر‌
فقط بخش مثال زدنش رو یادتون نره
41👍20
اگر nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمی‌شه)

دیگه خیلی‌ها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازی‌هاش) هم از توییتر می‌تونه حذف بشه.

تنها جایی که می‌تونید مدل رو تست کنید؛
https://lmarena.ai/

فقط همینجا هست؛ و حتما هم باید روی Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.


شخصا احتمال میدم مدل از DeepMind باشه!
👍1610
دستاوردهای یادگیری عمیق(InTec)
Channel photo updated
#موقت
لوگو جدید رو Gemini2.5 Flash Image برامون ساخت با ساده ترین پرامپت ممکن!
23🤣6
یک فیلد داریم به اسم
Malware Data Science

با تکنیک‌هایی که هرروز داریم کار می‌کنیم لاگ - عملکرد سیستم - لود شبکه - لود سخت‌افزار و ... رو بررسی می‌کنند.

خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلی‌ها نمی‌دونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.

با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت می‌کردم (البته بحث راجب Rust بود و متوجه شدیم هردو با Data رابطه خوبی هم داریم) و توی صحبت متوجه شدم فیلد کاری ایشون Malware, ... هست.

چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمی‌دونم و با توجه به صحبت‌ها گفتم.
28👍12
Intel Arc B50-B60 Pro

گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته بودم) ولی از نظر قیمت و مصرف برق خیلی نظرم رو جلب کرد:

بنظر میاد قیمت‌ها قراره اینطور باشه

نسخه B60 Pro با ۲۴ گیگ حافظه و قیمت ۵۰۰ دلار هست.
نسخه B50 Pro با ۱۶ گیگ حافظه و قیمت ۳۵۰ دلار هست

البته قیمت‌ها حدودی هست؛ و مهمترین بخش اینکه می‌تونید GPU رو بین چندتا virtual machine تقسیم کنید (بچه‌هایی که پروداکشن کار کردند می‌دونند چقدر مهم می‌تونه بشه این نکته)

بهترین بخشش؛ B50 PRo که ضعیفتر هست توی بنچمارک اولیه روی مدل ۲۰ میلیارد پارامتری openai تعداد ۱۵ توکن تولید می‌کنه (میگم اولیه چون نه درایور نهایی اومده؛ نه دست دولوپرها رفته و ... اپتیمایز نشده این تعداد هست.)


شخصا البته دارم روی نسخه‌ی معرفی شده شرکت MaxSun تحقیق می‌کنم که ۲ تا از B60Pro هارو روی یک برد سوار کرده و ۴۸ گیگ حافظه در اختیار میذاره که قیمت رسمی ۱۲۰۰ دلار هست (مثل اینکه فروشنده‌ها چون کمبود داره گرونتر میدن ولی خب اندکی صبر)

MS-Intel ARC Pro B60 Dual 48G Turbo

این GPU ها قرار نیست کار A6000 انویدیا رو براتون انجام بده که منطقی هم هست چون ۶۰۰۰ دلار قیمتش نیست؛ با توجه به مصرف برق و سایز و قیمت و محدودیت‌های کمی که داره شخصا دارم به این گزینه بجای DGX Spark فکر می‌کنم (البته برای پروژه شرکت)
14👍10
#خبر

ساختمان سازمان ملی هوش مصنوعی اجاره داده می‌شود.


خلاصه‌ای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض می‌نوشتم.
🤣67👍163
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینه‌های خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار می‌گیره ولی برا خلاف مدل‌های Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق می‌کنم (قبلتر توی معرفی راجبش پست گذاشته…
Nvidia invest 5 Billion on Intel stocks, to jointly develop AI Infrastructure and Personal computing


تیم‌ آبی، بالاخره داره میوه سرمایه‌گذاری‌هاش روی GPU رو برداشت می‌کنه مثل اینکه، البته اوضاع هنوز روی CPU‌هاش به این خوبی نیست.

البته من بیشتر به یک همکاری فکر می‌کنم؛ cpu مخصوص gpu های انویدیا؛ رقابت بهتر با m4, ...
👍10