۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
اما این آپدیت
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس مینویسم و چندروزی هست که برای یادگیری دقیقتر رفتم سراغ لایههای مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمقتر میشه! اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
Duck.ai فعلا همچنان 4o-mini رو ارائه میده.اما این آپدیت
chatGpt دقیقاً مثل لحظهی Llama4 برای Meta بود.اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده میکنم
Meta Llama4 Moment
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
❤41👍20
اگر
دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
شخصا احتمال میدم مدل از
nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمیشه)دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.شخصا احتمال میدم مدل از
DeepMind باشه!LMArena | Benchmark & Compare the Best AI Models
Chat with multiple AI models side-by-side. Compare ChatGPT, Claude, Gemini, and other top LLMs. Crowdsourced benchmarks and leaderboards.
👍16❤10
دستاوردهای یادگیری عمیق(InTec)
اگر nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمیشه) دیگه خیلیها سراغ فوتوشاپ نخواهند رفت. این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه. تنها جایی که میتونید مدل رو تست کنید؛ https://lmarena.ai/ فقط همینجا هست؛…
Gemini2.5 Flash Image == Nano Banana
منتشر شد!
من بر اساس خروجیهایی که از
Genie 3 دیدم به این نتیجه رسیدم که این مدل قطعا باید کار DeepMind باشه. منتظر مدل بزرگتر این خانواده رو تست کنم!
👍12❤5
یک فیلد داریم به اسم
Malware Data Science
با تکنیکهایی که هرروز داریم کار میکنیم لاگ - عملکرد سیستم - لود شبکه - لود سختافزار و ... رو بررسی میکنند.
خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلیها نمیدونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.
با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت میکردم (البته بحث راجب
چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمیدونم و با توجه به صحبتها گفتم.
Malware Data Science
با تکنیکهایی که هرروز داریم کار میکنیم لاگ - عملکرد سیستم - لود شبکه - لود سختافزار و ... رو بررسی میکنند.
خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلیها نمیدونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.
با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت میکردم (البته بحث راجب
Rust بود و متوجه شدیم هردو با Data رابطه خوبی هم داریم) و توی صحبت متوجه شدم فیلد کاری ایشون Malware, ... هست.چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمیدونم و با توجه به صحبتها گفتم.
❤28👍12
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی
mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته بودم) ولی از نظر قیمت و مصرف برق خیلی نظرم رو جلب کرد:بنظر میاد قیمتها قراره اینطور باشه
نسخه
B60 Pro با ۲۴ گیگ حافظه و قیمت ۵۰۰ دلار هست.نسخه
B50 Pro با ۱۶ گیگ حافظه و قیمت ۳۵۰ دلار هستالبته قیمتها حدودی هست؛ و مهمترین بخش اینکه میتونید
GPU رو بین چندتا virtual machine تقسیم کنید (بچههایی که پروداکشن کار کردند میدونند چقدر مهم میتونه بشه این نکته)بهترین بخشش؛
B50 PRo که ضعیفتر هست توی بنچمارک اولیه روی مدل ۲۰ میلیارد پارامتری openai تعداد ۱۵ توکن تولید میکنه (میگم اولیه چون نه درایور نهایی اومده؛ نه دست دولوپرها رفته و ... اپتیمایز نشده این تعداد هست.)شخصا البته دارم روی نسخهی معرفی شده شرکت
MaxSun تحقیق میکنم که ۲ تا از B60Pro هارو روی یک برد سوار کرده و ۴۸ گیگ حافظه در اختیار میذاره که قیمت رسمی ۱۲۰۰ دلار هست (مثل اینکه فروشندهها چون کمبود داره گرونتر میدن ولی خب اندکی صبر)MS-Intel ARC Pro B60 Dual 48G Turbo
این
GPU ها قرار نیست کار A6000 انویدیا رو براتون انجام بده که منطقی هم هست چون ۶۰۰۰ دلار قیمتش نیست؛ با توجه به مصرف برق و سایز و قیمت و محدودیتهای کمی که داره شخصا دارم به این گزینه بجای DGX Spark فکر میکنم (البته برای پروژه شرکت)MAXSUN
MS-Intel ARC Pro B60 Dual 48G Turbo
Dual-GPU DesignTwice the horsepower, double the trouble shotting—to your enemies, not your frame rate.
48GB GDDR MemoryBecause 48GB is for spreadsheets, feed your rendering beast with a buffet of VRAM.
Dual-Slot Form FactorPowerful, but still fits like it’s…
48GB GDDR MemoryBecause 48GB is for spreadsheets, feed your rendering beast with a buffet of VRAM.
Dual-Slot Form FactorPowerful, but still fits like it’s…
❤14👍10
#خبر
خلاصهای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض مینوشتم.
ساختمان سازمان ملی هوش مصنوعی اجاره داده میشود.
خلاصهای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض مینوشتم.
🤣67👍16❤3
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته…
Nvidia invest 5 Billion on Intel stocks, to jointly develop AI Infrastructure and Personal computing
تیم آبی، بالاخره داره میوه سرمایهگذاریهاش روی
GPU رو برداشت میکنه مثل اینکه، البته اوضاع هنوز روی CPUهاش به این خوبی نیست.البته من بیشتر به یک همکاری فکر میکنم؛ cpu مخصوص gpu های انویدیا؛ رقابت بهتر با m4, ...
👍10
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به
یکی از مواردی که توی
بهترین مدل بعدی که جایگزین میشد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سیریبراس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)
داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدلهای این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه میندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپکردن خودم از سرعت
خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای
داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.
خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!
ولی پیشنهاد میکنم حتما برای کارها؛ ایدهها و ... از API هاش استفاده کنید بصورت دیوانهوار سریع و ارزون قیمت هست.
Get 200K+ token daily for free (Qwen3-480B Coder)
AI اش با من هست.یکی از مواردی که توی
MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech بخونه) خب رفتیم سراغ Groq که سرعت خوبی داشت ولی مدلهایی که میخواستیم رو نداشت و برای اضافه کردن هم هزینه بالایی میگرفت.بهترین مدل بعدی که جایگزین میشد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سیریبراس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
Qwen 3 235B Instruct قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)
داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدلهای این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه میندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپکردن خودم از سرعت
response مدلها بیشتره)خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
Qwen3-480B (Coder)
GPT-OSS-120B
چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای
Qwen3-480B توی چندتا تستهای من بین 2000-2050 توکن بر ثانیه هست.داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.
خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!
ولی پیشنهاد میکنم حتما برای کارها؛ ایدهها و ... از API هاش استفاده کنید بصورت دیوانهوار سریع و ارزون قیمت هست.
Get 200K+ token daily for free (Qwen3-480B Coder)
Cerebras Cloud
Cerebras Inference AI is the fastest in the world.
❤25👍9
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech…
واقعا این سرعت توی بازار الان و ابزارهای
رقبا رو به راحتی میتونه کنار بزنه بنظرم.
دوستان توی بخش
مثلا برای
LLM یک کد تقلب (cheat code) هست برای ایدههایی که بتونند ازش استفاده کنند.رقبا رو به راحتی میتونه کنار بزنه بنظرم.
2016 Token/Seconds
Qwen3-480B (Coder)
دوستان توی بخش
limit محدودیتهاش رو بخونید حتمامثلا برای
auto complete حتما از مدلهای سادهتر استفاده کنید مثل gpt-oss-120b یا qwen-3-32b که میزان درخواست روزانه / دقیقه یا میزان token های روزانه رو سریع مصرف نکنید (بعضی از ابزارها بصورت خودکار قویترین مدل رو انتخاب میکنند که ضرر هست)👍19❤4
Qwen3-VL
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
GitHub
GitHub - QwenLM/Qwen3-VL: Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud.
Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud. - QwenLM/Qwen3-VL
👍25❤2
چندین بار اومدم از تجربم روی راهاندازی
ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
H200 بگم و Sync کردن و تستهای مختلف که چندروز درگیرش بودم.ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
❤27👍10
یک عنوان شغلی هم داریم
من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
Content Writer من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص مینویسه.مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم میداد ایراداش رو میگرفت براش.بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
👍55❤7
#ایده #تجربه
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
واقعا باورم نمیشه؛ ۱ ساعت طول کشید
الان من ۵۰ تا
هم ۵۰۰۰ دلار هزینه سالیانه
این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
Advance خودشون فراهم میکردند ولی بیش از ۴۰-۵۰ فیلتر مختلف داشتند.مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
api های رایگان رو پول بدم و از یک شرکت واسط بخرم که :۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
API و این سایت بهترین ارائه دهنده هست.یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
LLM بدم + سورس کد سایتها یا لینک صفحه فیلترها و ازش بخوام یک url کامل با فیلترها بهم بده.واقعا باورم نمیشه؛ ۱ ساعت طول کشید
prompt نوشتم و درنهایت فقط و فقط Grok تونست کار رو برام انجام بده هر ۵۰ وبسایت (هربار پرامپت را با ۱۰ تا از سایتها بهش میدادم)الان من ۵۰ تا
url دارم که دقیق فیلتر شده و فقط کافیه هر ۳۰ دقیقه یکبار request بدم و آپدیتش کنم!هم ۵۰۰۰ دلار هزینه سالیانه
api رو از رو دوشم برداشت؛ هم قوانین سایت رو پیدا کرد (هر ۳۰ دقیقه آپدیت میشه) هم تاخیرها رو حذف کرد و در نهایت کدش رو برام نوشت (یک مقدار اشتباه داشت ولی خب بازم عالی بود)این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
LLM خیلی چیز جالبی هست.👍46❤18
اینو میگم که دیگه اتفاق نیوفته؛
روی کدهای
باید از
واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
روی کدهای
LLM توی بکند و فرانت long polling جواب نیستا!باید از
SSE استفاده کنید.واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
long poll استفاده میکنه بجای SSE توی سرویسهای LLM اش.قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
web-socket برای سرویس دهی.👍26❤4
امروز رو با تست دوتا مدل جدید شروع کنیم :
۱) خانواده
۲) برای این یکی هیجان دارم
۱) خانواده
Granite 4.0 از IBM۲) برای این یکی هیجان دارم
NeuTTS Air که رقیب درخوری برای مدلهای Eleven Labs بنظر میاد.❤12👍7
GLM-4.6
بدون شک باید تستش کنید؛ امروز روی یک پروژه کار میکردم که به مشکلات زیادی خورد توی
تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.
الان که دارم این متن رو مینویسم
چون به مشکلات منطقی زیادی خوردم؛ از تموم مدلهای موجود گمک گرفتم؛
همون ابتدا از دور خارج شد چون
از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمیشد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که
مواردی که تست کردم
برای تمام مدلها اگر قابلیت
مدلهای
اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص
مدل
۱- اگر من خطایی رو داشتم؛ مثلا یک
۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ میکنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن میگه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا میدونید چی میخواید و چرا این مدل خیلی کم خرف هست.
مدل
درنهایت اومدم سراغ
مشکل رو پیدا کرد مثل
یک مشکل من با
یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درستکردن
درنهایت یک بخشهایی از کد رو درحال منتقل کردن به
رو برای اینکار ازشون کمک گرفتم که توی مرور سریع
خلاصه:
بنظرم بد نیست به آپدیت جدید
توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی
بدون شک باید تستش کنید؛ امروز روی یک پروژه کار میکردم که به مشکلات زیادی خورد توی
refactor و البته اکثرا هم logic بود.تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.
الان که دارم این متن رو مینویسم
refactor اصلی تموم شده و منطق درست هست؛ حالا هدف بعدی بهینه سازی هست که باید روش کار کنم!چون به مشکلات منطقی زیادی خوردم؛ از تموم مدلهای موجود گمک گرفتم؛
Geminiهمون ابتدا از دور خارج شد چون
vpn هام رو شناسایی میکرد و وقت نداشتم که بخوام مشکل رو حل کنم Qwen از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمیشد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که
ast رو استفاده میکنه و قدم به قدم سورس کد رو واکشی میکنه و توضیح میده و... بگذریم الان جاش نیست)مواردی که تست کردم
GLM-4.5, GLM4.6 - Claude - Grok Expert - ChatGPT, Deepseekبرای تمام مدلها اگر قابلیت
deep think روی بهترین ورژنهاشون وجود داشت ازون استفاده کردم.مدلهای
Deepseek, Claude همون اول حذف شدند؛ شروع خیلی خوبی داشتند ولی بعدش توی logic مربوط به async, multi-thread همه چیز رو گم کردند و افتادند روی loop که همون کد اشتباه رو به حالتهای مختلف هی تکرار میکردند.اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص
Claude که این موضوع رو بدون کمک پیدا کرد؛ اما نتونست حلش کنه.مدل
Grok خیلی جالب بود؛ اول راحتترین راه حل رو پیشنهاد داد بعد که بهش گفتم دارم refactor میکنم پس راه حل بهتر رو پیشنهاد بده روشش رو عوض کرد؛ اما ۲ تا مشکل داشت :۱- اگر من خطایی رو داشتم؛ مثلا یک
import اشتباه متوجه نمیشد و توی loop بینهایت میوفتاد. ۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ میکنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن میگه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا میدونید چی میخواید و چرا این مدل خیلی کم خرف هست.
مدل
ChatGPT بر خلاف Grok توضیح میده و تیکه تیکه جواب میده و میشه باهاش کنار اومد؛ یک تکنیک async اشتباه رو میخواستم تست کنم برای دیباگ نیاز داشتم. روی Grok هرچقدر توضیح دادم اینکار رو نکرد و کد رو تحویلم نداد؛ درنهایت هم چیزی که تحویل داد اشتباه بود. همینکار رو با ChatGPT انجام دادم؛ چون فکر میکردم اینم مقاومت کنه براش توضیح دادم که روی Debug لازم دارم و ... (پرامپت آخری که به Grok دادم تا کار کنه) و خروجی داد ولی بطور کلی نتونست بهترین راه حل رو پیشنهاد بده (چیزی که Grok انجام داده بود)درنهایت اومدم سراغ
GLM4.6 توضیحات اولیه مختصر و ادیت کد (برای توضیحات بیشتر گفته مجدد پرامپت بده که بنظرم خیلی رفتار درست و خوبیه)مشکل رو پیدا کرد مثل
Grok و راه حل خوبی رو هم پیشنهاد داد مهمترین بخشش سرعتش هست بسیار بسیار سریع توکنها رو خروجی میده و باهاش میشه راحت کد توسعه داد.یک مشکل من با
LLM ها همینه سرعت توسعه خودم از کلکل با اونها بیشتره.یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درستکردن
Logic اشتباه (چندتا پرامپت طول کشید ولی مسیر درست رو داشت میرفت) وقتی راهکار آخر رو داشت تایپ میکرد در انتها چندتا فایل و بخش دیگه رو پیشنهاد داد؛ چرا؟ چون فکر میکنه این تغییرات refactor رو تمیزتر میکنه و واقعا هم درست فکر میکنه!درنهایت یک بخشهایی از کد رو درحال منتقل کردن به
Rust هستم چون این بخشها bottleneck شده برامون و Rust خیلی میتونه کمک کنه threading, async, ... سنگینی داره.Grok, ChatGpt, GLM-4.6
رو برای اینکار ازشون کمک گرفتم که توی مرور سریع
GLM-4.6 بنظر کد درستی رو فقط داده؛ توی نگاه اول روی Grok, ChatGPT دارم خطا میبینم ( از نوع channel اشتباه استفاده کردند)خلاصه:
بنظرم بد نیست به آپدیت جدید
z.ai هم سری بزنید و با GLM-4.6 هم تست انجام بدبد؛ سرعت و دقت فوقالعاده!توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی
firefox هم میتونید از Dark Reader Addons استفاده کنید یکم تنظیمش کنید Dark mode خوبی برای z.ai بهتون میده (دلیلی که خودم ازین مدل کم استفاده میکنم همین بود)chat.z.ai
Z.ai Chat - Free AI powered by GLM-4.7 & GLM-4.6
Chat with Z.ai's free AI to build websites, create presentations, and write professionally. Fast, smart, and reliable, powered by GLM-4.7.
👍32❤16
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته…
B50 Pro
بنچمارکهای کاربری روش منتشر میشه و مدل
20B پارامتری openai رو با 42t/s داره اجرا میکنه مصرف برق: ۷۰ وات
قیمت: آپدیت خورده بخاطر تعرفهها و شده ۳۵۰ دلار
اگر برای
inference و llm نیاز به GPU دارید این مدل رو حتما بهش نگاه کنید یا داداش بزرگش B60 Pro رو❤12👍4
