#ایده #تجربه
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
واقعا باورم نمیشه؛ ۱ ساعت طول کشید
الان من ۵۰ تا
هم ۵۰۰۰ دلار هزینه سالیانه
این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
Advance خودشون فراهم میکردند ولی بیش از ۴۰-۵۰ فیلتر مختلف داشتند.مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
api های رایگان رو پول بدم و از یک شرکت واسط بخرم که :۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
API و این سایت بهترین ارائه دهنده هست.یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
LLM بدم + سورس کد سایتها یا لینک صفحه فیلترها و ازش بخوام یک url کامل با فیلترها بهم بده.واقعا باورم نمیشه؛ ۱ ساعت طول کشید
prompt نوشتم و درنهایت فقط و فقط Grok تونست کار رو برام انجام بده هر ۵۰ وبسایت (هربار پرامپت را با ۱۰ تا از سایتها بهش میدادم)الان من ۵۰ تا
url دارم که دقیق فیلتر شده و فقط کافیه هر ۳۰ دقیقه یکبار request بدم و آپدیتش کنم!هم ۵۰۰۰ دلار هزینه سالیانه
api رو از رو دوشم برداشت؛ هم قوانین سایت رو پیدا کرد (هر ۳۰ دقیقه آپدیت میشه) هم تاخیرها رو حذف کرد و در نهایت کدش رو برام نوشت (یک مقدار اشتباه داشت ولی خب بازم عالی بود)این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
LLM خیلی چیز جالبی هست.👍46❤18
اینو میگم که دیگه اتفاق نیوفته؛
روی کدهای
باید از
واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
روی کدهای
LLM توی بکند و فرانت long polling جواب نیستا!باید از
SSE استفاده کنید.واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
long poll استفاده میکنه بجای SSE توی سرویسهای LLM اش.قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
web-socket برای سرویس دهی.👍26❤4
امروز رو با تست دوتا مدل جدید شروع کنیم :
۱) خانواده
۲) برای این یکی هیجان دارم
۱) خانواده
Granite 4.0 از IBM۲) برای این یکی هیجان دارم
NeuTTS Air که رقیب درخوری برای مدلهای Eleven Labs بنظر میاد.❤12👍7
GLM-4.6
بدون شک باید تستش کنید؛ امروز روی یک پروژه کار میکردم که به مشکلات زیادی خورد توی
تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.
الان که دارم این متن رو مینویسم
چون به مشکلات منطقی زیادی خوردم؛ از تموم مدلهای موجود گمک گرفتم؛
همون ابتدا از دور خارج شد چون
از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمیشد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که
مواردی که تست کردم
برای تمام مدلها اگر قابلیت
مدلهای
اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص
مدل
۱- اگر من خطایی رو داشتم؛ مثلا یک
۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ میکنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن میگه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا میدونید چی میخواید و چرا این مدل خیلی کم خرف هست.
مدل
درنهایت اومدم سراغ
مشکل رو پیدا کرد مثل
یک مشکل من با
یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درستکردن
درنهایت یک بخشهایی از کد رو درحال منتقل کردن به
رو برای اینکار ازشون کمک گرفتم که توی مرور سریع
خلاصه:
بنظرم بد نیست به آپدیت جدید
توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی
بدون شک باید تستش کنید؛ امروز روی یک پروژه کار میکردم که به مشکلات زیادی خورد توی
refactor و البته اکثرا هم logic بود.تقصیر منم نبود کدی که دستم اومد انقدر کثیف بود که هرجاش رو دست میزدم ۲-۳ جای دیگه بهم میریخت.
الان که دارم این متن رو مینویسم
refactor اصلی تموم شده و منطق درست هست؛ حالا هدف بعدی بهینه سازی هست که باید روش کار کنم!چون به مشکلات منطقی زیادی خوردم؛ از تموم مدلهای موجود گمک گرفتم؛
Geminiهمون ابتدا از دور خارج شد چون
vpn هام رو شناسایی میکرد و وقت نداشتم که بخوام مشکل رو حل کنم Qwen از دور خارج شد؛ چون کدها انقدر زیاد بود که توی یک درخواست جا نمیشد؛ با اینکه هربار فقط کدهای مربوط به یک بخش رو بهش میدادم (راستی برای این موضوع هم یک پروژه شخصی دارم که
ast رو استفاده میکنه و قدم به قدم سورس کد رو واکشی میکنه و توضیح میده و... بگذریم الان جاش نیست)مواردی که تست کردم
GLM-4.5, GLM4.6 - Claude - Grok Expert - ChatGPT, Deepseekبرای تمام مدلها اگر قابلیت
deep think روی بهترین ورژنهاشون وجود داشت ازون استفاده کردم.مدلهای
Deepseek, Claude همون اول حذف شدند؛ شروع خیلی خوبی داشتند ولی بعدش توی logic مربوط به async, multi-thread همه چیز رو گم کردند و افتادند روی loop که همون کد اشتباه رو به حالتهای مختلف هی تکرار میکردند.اما خیلی جالب بود که توی اولین تلاش هر دو مورد یک سری از باگها رو پیدا کردند و فهمیدند از کجا باید شروع کنند بخصوص
Claude که این موضوع رو بدون کمک پیدا کرد؛ اما نتونست حلش کنه.مدل
Grok خیلی جالب بود؛ اول راحتترین راه حل رو پیشنهاد داد بعد که بهش گفتم دارم refactor میکنم پس راه حل بهتر رو پیشنهاد بده روشش رو عوض کرد؛ اما ۲ تا مشکل داشت :۱- اگر من خطایی رو داشتم؛ مثلا یک
import اشتباه متوجه نمیشد و توی loop بینهایت میوفتاد. ۲- هیچ توضیحی نمیده و هربار کل کد رو تایپ میکنه!
حتی وقتی ازش خواستم توضیح بده؛ توضیحاتش رو همرو یا قبل از کد زدن میگه یا بعدش که خب رفتار خوبی نیست ولی اگر دقیقا میدونید چی میخواید و چرا این مدل خیلی کم خرف هست.
مدل
ChatGPT بر خلاف Grok توضیح میده و تیکه تیکه جواب میده و میشه باهاش کنار اومد؛ یک تکنیک async اشتباه رو میخواستم تست کنم برای دیباگ نیاز داشتم. روی Grok هرچقدر توضیح دادم اینکار رو نکرد و کد رو تحویلم نداد؛ درنهایت هم چیزی که تحویل داد اشتباه بود. همینکار رو با ChatGPT انجام دادم؛ چون فکر میکردم اینم مقاومت کنه براش توضیح دادم که روی Debug لازم دارم و ... (پرامپت آخری که به Grok دادم تا کار کنه) و خروجی داد ولی بطور کلی نتونست بهترین راه حل رو پیشنهاد بده (چیزی که Grok انجام داده بود)درنهایت اومدم سراغ
GLM4.6 توضیحات اولیه مختصر و ادیت کد (برای توضیحات بیشتر گفته مجدد پرامپت بده که بنظرم خیلی رفتار درست و خوبیه)مشکل رو پیدا کرد مثل
Grok و راه حل خوبی رو هم پیشنهاد داد مهمترین بخشش سرعتش هست بسیار بسیار سریع توکنها رو خروجی میده و باهاش میشه راحت کد توسعه داد.یک مشکل من با
LLM ها همینه سرعت توسعه خودم از کلکل با اونها بیشتره.یک چیز جالبتر اینکه تنها مدلی بود که توی کدها بعد از درستکردن
Logic اشتباه (چندتا پرامپت طول کشید ولی مسیر درست رو داشت میرفت) وقتی راهکار آخر رو داشت تایپ میکرد در انتها چندتا فایل و بخش دیگه رو پیشنهاد داد؛ چرا؟ چون فکر میکنه این تغییرات refactor رو تمیزتر میکنه و واقعا هم درست فکر میکنه!درنهایت یک بخشهایی از کد رو درحال منتقل کردن به
Rust هستم چون این بخشها bottleneck شده برامون و Rust خیلی میتونه کمک کنه threading, async, ... سنگینی داره.Grok, ChatGpt, GLM-4.6
رو برای اینکار ازشون کمک گرفتم که توی مرور سریع
GLM-4.6 بنظر کد درستی رو فقط داده؛ توی نگاه اول روی Grok, ChatGPT دارم خطا میبینم ( از نوع channel اشتباه استفاده کردند)خلاصه:
بنظرم بد نیست به آپدیت جدید
z.ai هم سری بزنید و با GLM-4.6 هم تست انجام بدبد؛ سرعت و دقت فوقالعاده!توی این تعداد پارامتر و دقت؛ این سرعت خیلی خیلی جذاب هست.
روی
firefox هم میتونید از Dark Reader Addons استفاده کنید یکم تنظیمش کنید Dark mode خوبی برای z.ai بهتون میده (دلیلی که خودم ازین مدل کم استفاده میکنم همین بود)chat.z.ai
Z.ai - Free AI Chatbot & Agent powered by GLM-5 & GLM-4.7
Meet Z.ai, your free AI-powered assistant. Build websites, create slides, analyze data, and get instant answers. Fast, smart, and reliable, powered by GLM-5.
👍32❤16
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته…
B50 Pro
بنچمارکهای کاربری روش منتشر میشه و مدل
20B پارامتری openai رو با 42t/s داره اجرا میکنه مصرف برق: ۷۰ وات
قیمت: آپدیت خورده بخاطر تعرفهها و شده ۳۵۰ دلار
اگر برای
inference و llm نیاز به GPU دارید این مدل رو حتما بهش نگاه کنید یا داداش بزرگش B60 Pro رو❤12👍4
متا یک ابزار جدید منتشر کرده (شاید خیلی ساکت شخصا اتفاقی دیدم) به اسم OpenZL که برای compress کردن دیتا استفاده میشه که Format Aware هم هست.
compression path
های متفاوت میتونید بهش بدید (براساس نوع داده) ولی همهی موارد با یک decompressor به حالت عادی بر میگردند.
مهم سرعت خیلی بالا توی اینکار هست.
درحال حاضر:
بنظرم بدرد تیمهای توسعه ماژولهای دیتابیس یا تیمهایی که دیتا پایپلاین سنگین دارند هم میخوره قطعا!
مثلا بعنوان نمونه؛ یک سمپل دیدم که طرف لاگهای سرورهای شرکت رو داشت با این تست میکرد! لاگ خیلی خیلی سنگین میشه توی شرکتهای بزرگ.
Introducing OpenZL: An Open Source Format-Aware Compression Framework
compression path
های متفاوت میتونید بهش بدید (براساس نوع داده) ولی همهی موارد با یک decompressor به حالت عادی بر میگردند.
مهم سرعت خیلی بالا توی اینکار هست.
درحال حاضر:
well-suited to compressing vector, tabular, or tree-structured data, and can be expected to perform well with numeric, string, or binary data. Common examples include timeseries datasets, ML tensors, and database tables.
بنظرم بدرد تیمهای توسعه ماژولهای دیتابیس یا تیمهایی که دیتا پایپلاین سنگین دارند هم میخوره قطعا!
مثلا بعنوان نمونه؛ یک سمپل دیدم که طرف لاگهای سرورهای شرکت رو داشت با این تست میکرد! لاگ خیلی خیلی سنگین میشه توی شرکتهای بزرگ.
Introducing OpenZL: An Open Source Format-Aware Compression Framework
Engineering at Meta
Introducing OpenZL: An Open Source Format-Aware Compression Framework
OpenZL is a new open source data compression framework that offers lossless compression for structured data. OpenZL is designed to offer the performance of a format-specific compressor with the eas…
👍15❤3
بنظرم اینکه نتونم یک مدل رو روی سیستم لود کنم خیلی خیلی بهتر از اینه که بتونم لود کنم و ۳-۴ تا توکن در ثانیه خروجی بگیرم.
خب بالاخره
تنها نکته مثبت این محصول؛ قابل حمل بودن و البته مصرف برق کم هست!
برای مصرف برق کم گزینههای دیگه و سریعتر هم هست؛
قابل حمل بودنش اما؛ کمی شک دارم کسی بخواد دستگاه 4000$ دلاری که موقع استفاده هم شدیدا داغ میشه رو توی کیفش بذاره و با خودش جابجا کنه (ی سوال همینجا برام پیش اومد؟ چرا ماژول
اکثر کسایی که خرید کردند و تست کردند؛ میگن باید توی خونه بذاری با یک خنک کننده خوب و دسترسی
موارد جایگزین چی میتونه باشه ؟
از شرکت اینتل میتونید برید سراغ GPUهای سری Arc B50, B60 با توجه به قیمتها میشه با کمی حوصله سیستمی با قمیت
بعضی مدلهایی که روی
جایگزینهای دیگه خرید
اما اگر هر دو این موارد برای شما قابل قبول نیست؛ حتی خرید یک سیستم با ۴ تا
تنها نکته مصرف برق هست؛ دو مورد اول مصرف برق زیادی ندارند مثلا
خلاصه که
شخصا برای آپگیرید سیستم چشم به
پ.ن:
۱- هزینه سیستم با ۴ تا 3090 حدودا:
۲- این لینک هم ببینید اگر ۴ تا 3090 خواستید ببندید.
Local Ai Home Server Build at High End $5000 Price
خب بالاخره
DGX Spark هم اومد و این انتشار دیرهنگام و قیمت 4000$ و عملکرد ضعیفش باعث شده هیچکس بهش علاقمند نباشه! برخلاف باقی محصولات nvidia که نسخه founder edition به زور پیدا میشه این محصول رو به راحتی میتونید پیدا کنید.تنها نکته مثبت این محصول؛ قابل حمل بودن و البته مصرف برق کم هست!
برای مصرف برق کم گزینههای دیگه و سریعتر هم هست؛
AMD و شرکتهای دیگه کارهای جالبی در این زمینه کردند؛ چند موردی رو توی کانالهای دیگه معرفی کردم (تست هم کردم)قابل حمل بودنش اما؛ کمی شک دارم کسی بخواد دستگاه 4000$ دلاری که موقع استفاده هم شدیدا داغ میشه رو توی کیفش بذاره و با خودش جابجا کنه (ی سوال همینجا برام پیش اومد؟ چرا ماژول
wifi اش زیر دستگاه هست بخشی که قراره روی میز قرار بگیره؟)اکثر کسایی که خرید کردند و تست کردند؛ میگن باید توی خونه بذاری با یک خنک کننده خوب و دسترسی
remote بهش بگیری!موارد جایگزین چی میتونه باشه ؟
از شرکت اینتل میتونید برید سراغ GPUهای سری Arc B50, B60 با توجه به قیمتها میشه با کمی حوصله سیستمی با قمیت
5000-6000$ خرید کرد که 256GB رم و 96GB هم حافظه گرافیک داشته باشه با سرعت انتقال داده سریعتر BUS منظورم هست. شخصا با قیمتهایی که گفته شد؛ قطعات رو کنار هم گذاشتم حدود 5200$ میشد البته هارد ۲ برابر و ماژولار بودن و گیم و کارهای دیگه انجام دادن روی این سیستم مواردی هست که با پرداخت ۱۲۰۰ دلار بیشتر به دست میارید! مهمترین نکته پرفورمنس حداقل ۱۰ برابر برای خیلی از مدلها هست! بعضی مدلهایی که روی
DGX Spark طبق گزارشات 3-5 t/s بیشتر نمیده روی این دستگاه بالای 30t/s بهتون میده مثلا مدلهای خانواده Qwen3 جایگزینهای دیگه خرید
mini-pc های شرکتهای رغیب که از AI chip های AMD استفاده میکنند؛ با اینکه توی Inference عملکرد خوبی دارند مشکل این دستگاها عملکرد ضعیف موقع Finetune کردن هست برای همین گزینه Intel رو بیشتر پیشنهاد میدم!اما اگر هر دو این موارد برای شما قابل قبول نیست؛ حتی خرید یک سیستم با ۴ تا
Nvidia 3090 خوش قیمتتر و به مراتب سریعتر از DGX Spark هست.تنها نکته مصرف برق هست؛ دو مورد اول مصرف برق زیادی ندارند مثلا
B50 های اینتل 70W مصرف دارند؛ اما حتی سیستمی با ۴ تا 3090 که مصرف بالایی هم داره خیلی بصرفه تر از DGX Spark خواهد بود؟ چرا ؟ میزان زمانی که دولوپرهای شما بر اساس کند بودن token/second از دست نمیدند میزان زمانی هست که کار شما سریعتر پیشرفت میکنه و خب این خودش تاثیر مستقیم روی درآمد داره!خلاصه که
DGX Spark به معنای واقعی یک سختافزار بدرد نخور ولی بسیار خوشگل هست!شخصا برای آپگیرید سیستم چشم به
Arc B60 دارم و البته قیمتی هم که بالاتر گفتم با فرض قیمتهایی هست که اینتل گفت + هاردهای اضافه و water cooling, ...پ.ن:
۱- هزینه سیستم با ۴ تا 3090 حدودا:
3800-5200 دلار هست بستگی به مادربرد و ...۲- این لینک هم ببینید اگر ۴ تا 3090 خواستید ببندید.
Local Ai Home Server Build at High End $5000 Price
👍15❤6
دستاوردهای یادگیری عمیق(InTec)
بنظرم اینکه نتونم یک مدل رو روی سیستم لود کنم خیلی خیلی بهتر از اینه که بتونم لود کنم و ۳-۴ تا توکن در ثانیه خروجی بگیرم. خب بالاخره DGX Spark هم اومد و این انتشار دیرهنگام و قیمت 4000$ و عملکرد ضعیفش باعث شده هیچکس بهش علاقمند نباشه! برخلاف باقی محصولات…
چندتا از دوستان پیام دادند بنا به دلایلی مجبور به خرید
قطعا این مشکل توسط پارتنرهای انویدیا حل خواهد شد ولی خب خود دستگاه همونطوری که گفتم ارزش خرید نداره!
جایگزین اگر نیاز دارید:
EVO-X2 AI Mini PC
با تخفیفهای جدیدی که
نکته مهمتر با این
اگر بازم چیز بهتری خواستید (بهتر از نظر من) نسخه اینتل به تازگی معرفی شده
EVO-T1 AI Mini PC
نسخه ۹۶ گیگ رم و ۲ ترابایت هارد این ورژن ۱۱۷۰ دلار هست که با باقی اختلافش با
دوستان اگر دارید ویدئو از
miniPC هستند؛ علاوه بر مواردی که من اشاٰره کردم یک مشکلی هم که داره دیده میشه با نسخه اصلی DGX Spark گرما بیش از حد زیر درخواستهای زیاد هست؛ انویدیا اینطوری تبلیغ کرده که ۱ دونه ازین دستگاه بگیر؛ ۳-۴ تا مدل لود کن و بذار چندتا دولوپر استفاده کنند ولی زیر لود سنگین سریعا داغ میکنه!قطعا این مشکل توسط پارتنرهای انویدیا حل خواهد شد ولی خب خود دستگاه همونطوری که گفتم ارزش خرید نداره!
جایگزین اگر نیاز دارید:
EVO-X2 AI Mini PC
با تخفیفهای جدیدی که
GMKtec داره میده برای نسخه ۱۲۸ گیگ رم و ۲ ترابایت حافظه فقط ۲۰۰۰ دلار هست و البته تعداد توکن بیشتری میده طبق گزارش خود GMKtec چندتا از عددها این هست :Qwen3: 235B ——> 11 t/s
Qwen3: 30B ——> 55 t/s
GPT-OSS: 120B ——> 19 t/s
GPT-OSS: 20B ——> 57 t/s
نکته مهمتر با این
miniPC میتونه به راحتی نقش سیستم اصلی شمارو هم داشته باشه؛ 16-core, 32-thread, 64MB L3 Cache
اگر بازم چیز بهتری خواستید (بهتر از نظر من) نسخه اینتل به تازگی معرفی شده
EVO-T1 AI Mini PC
نسخه ۹۶ گیگ رم و ۲ ترابایت هارد این ورژن ۱۱۷۰ دلار هست که با باقی اختلافش با
DGX Spark میتونید یک Nvidia 5090 هم بخرید و بهش متصل کنید؛ به کمک OCuLink میتونید GPU بهش وصل کنید برای گیمینگ و کارهای جدی AI دوستان اگر دارید ویدئو از
DGX Spark میبینید؛ ویدئو های اسپانسر و کسایی که دستگاه براشون ارسال شده رو نبینید! خیلیهاشون صادق نیستند و فقط مزیتها رو میگن (۹۹٪ هم دستگاه رو با مدلهای دیگه مقایسه نمیکنند؛ مثل همین دو مدل GMKtech که به راحتی DGX Spark رو قورت میده)GMKtec
AMD Ryzen™ AI Max+ 395 --EVO-X2 AI Mini PC
EVO-X2 AMD Ryzen™ Al Max+ 395 Mini PC, the World’s First Windows 11 AI+ PC APU Supporting 70B LLM, Experience relentless power with the AMD Ryzen™ AI Max+ 395. With 16 cores and 32 threads built on the groundbreaking Zen 5 architecture, it clocks up to 5.1GHz.…
👍9❤7
برای
بخش OCR توی مقاله کمترین جذابیت رو داره؛ چرا
کاری که
بخش
حالا چرا
Deepseek OCR پیشنهاد میکنم، برید سراغ مقالهاش.بخش OCR توی مقاله کمترین جذابیت رو داره؛ چرا
A picture is worth a thousand words
کاری که
deepseek کرده این هست؛ میشه گفت یک تکنیک compression ایجاد کرده که context بیشتری به LLM بده بخش
Encoder چیزی هست که لازم دارید، بیشتر بخونید.حالا چرا
OCR ؟ برای اثبات اینکه تکنیکی که حرفش رو زدن قابل انجام هست👍18❤4
#توضیح
توی خیلی از صحبتها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟
انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم!
من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل از اون ۱ سال روش کار کرده بودم توی یک همکاری دیگر)
دلیل اصلی اینکه وارد این فیلد کاری شدم جدابیتهای حل مسئلهاش بود؛ اینکه یک سری جالشهای سخت رو با ترکیب چند راهکار یا پیشنهاد راهکاری جدید حل میکردند برام خیلی جذاب بود چالشهایی که بعضا با برنامهنویسی قابل حل نبود.
مثل همون
و اکثرا هم از فیلدهایی اومده بودند (شغل اصلیشون) که بقول خودشون دیگه چالش بزرگی براشون نداشت.
توی ۲-۳ سال اخیر و البته شاید ۱ سال گذشته (توی ایران) اما این فیلد دیگه مثل قبل نیست.
برای من این موضوع که با کسی صحبت میکنم و متوجه میشم
اکثرا
اگر یا عنوان تخصصی مثل
خلاصه که چون توی چندسال اخیر فیلد ما خیلی رفته سمت کار با ابزار ترجیح دادم وارد فیلدهای دیگه بشم و اکثر وقت و کارم رو توی اونها بگذرونم تا چالشهای واقعی رو خودم حل کنم؛ (دیدید ۹۸-۹۹٪ پروژههای
همهی اینا باعث شده من جز یک پروژه اصلی که قرارداد دارم؛ بیشتر وقتم رو روی
درنهایت برگردم به سوال اصلی؛
هدف از این کانال هیچوقت دیده شدن و معرفی خودم نبوده. فقط خواستم کنار دوستانم رشد کنیم (هرچند دوستان بسیاری هم پیدا کردم) همین هدف باعث شده وقتی چیز جذابی برای گفتن ندارم و وقتی چیز جذابی نمیبینم چیزی هم ننویسم و سکوت کنم.
توی خیلی از صحبتها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟
انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم!
من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل از اون ۱ سال روش کار کرده بودم توی یک همکاری دیگر)
دلیل اصلی اینکه وارد این فیلد کاری شدم جدابیتهای حل مسئلهاش بود؛ اینکه یک سری جالشهای سخت رو با ترکیب چند راهکار یا پیشنهاد راهکاری جدید حل میکردند برام خیلی جذاب بود چالشهایی که بعضا با برنامهنویسی قابل حل نبود.
مثل همون
image classification, segmentation, ... بهترین بخش این موضوع اما اینجا بود که با آدمهایی آشنا میشدم که هم علاقه بسیار به کاری که میکردند داشتند (پول کافی توش نبود واقعا) هم خیلی nerd بودند.و اکثرا هم از فیلدهایی اومده بودند (شغل اصلیشون) که بقول خودشون دیگه چالش بزرگی براشون نداشت.
توی ۲-۳ سال اخیر و البته شاید ۱ سال گذشته (توی ایران) اما این فیلد دیگه مثل قبل نیست.
برای من این موضوع که با کسی صحبت میکنم و متوجه میشم
ML Engineer, Deep learning, ... هست خیلی جذابیت داره واقعا با ذوق و شوق راجب کارم (برنامهنویسی بطورکلیتر) با آدمها صحبت میکنم اما اینکه بعد متوجه میشم هیچ درک درستی از مفاهیم نداره بدتر خیلی انرژیم رو میگیره؛ اینکه نمیدونه python, embedding, transformer, ... چطور کار میکنه یا چه قابلیتهایی داره ولی به خودش تایتل میده و میگه با Agent, LLM, ... کار میکنه واقعا تاثیر منفی روی من داره.اکثرا
n8n, langchain, openai api یا کارهایی ازین دست انجام میدند و فکر میکنند دیگه تبدیل به متخصص هوش مصنوعی شدند درحالی که فقط یاد گرفت بین هزاران ابزار موجود برای برنامهنویسها با ۲-۳ مورد از سادهترینهاش کار کنه.اگر یا عنوان تخصصی مثل
ML Engineer, Data-scientist , ... بدون درک مفاهیم فقط یادگرفتی از این ابزارها استفاده کنی؛ هیج جذابتی برای من نداره کاری که میکنی اما اگر یک Software engineer هستی که برای آپدیت بودن سراغ این ابزارها رفتی برات بسیار احترام قائلم که وقت گذاشتی و ابزارهایی که فکر کردی به کارت میاد رو یاد گرفتی. خلاصه که چون توی چندسال اخیر فیلد ما خیلی رفته سمت کار با ابزار ترجیح دادم وارد فیلدهای دیگه بشم و اکثر وقت و کارم رو توی اونها بگذرونم تا چالشهای واقعی رو خودم حل کنم؛ (دیدید ۹۸-۹۹٪ پروژههای
AI رفته سمت اینکه ی api wrapper بنویسیم دور chatgpt, gemini یا ... اگرم جواب نداد بگیم شدنی نیست؛ نه کسی دیتا جمع میکنه نه کسی راهکار میده حتی دیتا کلین کردن هم دیگه خیلی جاها نمیدونن چیه همرو میده به chatgpt تا انجام بده.)همهی اینا باعث شده من جز یک پروژه اصلی که قرارداد دارم؛ بیشتر وقتم رو روی
Rust, Python, Backend Development و یادگیری درمورد چالشهایی مسائلی مثل Distributed processing؛ System Architecture, ... بگذرونم و در زمینه AI فعلا سعی میکتم بیشتر مقالاتی که راهکارهای جذاب ارائه میدند رو بخونم فقط و تا اطلاع ثانوی فقط خودم رو Software Engineer معرفی کنم.درنهایت برگردم به سوال اصلی؛
چرا فعالیت نمیکنم روی کانال ؟
هدف از این کانال هیچوقت دیده شدن و معرفی خودم نبوده. فقط خواستم کنار دوستانم رشد کنیم (هرچند دوستان بسیاری هم پیدا کردم) همین هدف باعث شده وقتی چیز جذابی برای گفتن ندارم و وقتی چیز جذابی نمیبینم چیزی هم ننویسم و سکوت کنم.
❤52👍17
یکی از بهترین نویسندهها در زمینه Machine Learning بالاخره کتابش رو روی Pytorch هم منتشر کرد.
البته نسخه کامل کتاب فعلا فقط روی
یک نگاهی به مباحث بخش
خلاصه پترن پترن چندسال اخیر و نسخههای تنسورفلو و کراس کتاب هست.
Aurelien Geron البته نسخه کامل کتاب فعلا فقط روی
Oreilly Media در دسترس هست ولی حدودا ۲ هفته دیگه از همهی پلتفرمها میتونید خرید کنید.یک نگاهی به مباحث بخش
pytorch انداختم؛ بنظر میاد خیلی از مباحث مهم رو قراره از بیس کد بزنید اما فقط بخشهای مهم رو و وقتی به درک خوبی از کلیت عملکرد رسیدید از پکیجهای آماده مثل transformers و ... استفاده بشه.خلاصه پترن پترن چندسال اخیر و نسخههای تنسورفلو و کراس کتاب هست.
❤37
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech…
#Quick
۱۰ سال زمان برده تا به این دستاورد رسیدند تا
یادمه توی یک مصاحبه؛ از ایلان ماسک راجب انفجارها و فرودهای ناموفق راکتها سوال پرسیدند گفتند خسته نمیشی انقدر پول خرج میکنی و موفق نمیشی ؟
جواب داد قرار نیست فرود موفق ببینیم روی این سری؛ هدف اینه که اشتباهات رو پیدا کنیم هربار که این تستها انجام میشه برای این هست که سیستم رو امنتر کنیم (یعنی یک سری از انفجارها و ... از قبل برنامهریزی شده بود) و اگر انفجار انجام نشه باید نگران باشیم.
البته با ایران مقایسه نشهها؛ اینا شرکتهای خصوصی هستند.
ما شرکتهای خصوصیمون هیچ ریسکی نمیکنند؛
دولتیها ریسک میکنند که خب البته بیشتر هدف دزدی هست نه یادگیری و پیشرفت.
۱۰ سال زمان برده تا به این دستاورد رسیدند تا
250x سریعتر از رقبا و توی همین بازه هم تو زمان ساخت حدود ۱۸ ماه هیچ پیشرفت خاصی نداشتند (هزینه هرماه حدود ۸ میلیون دلار) جز fail کردن و یادگرفتن؛ این چیزیه که مدیرعامل شرکت میگه این دید قشنگی هست برای ساخت.یادمه توی یک مصاحبه؛ از ایلان ماسک راجب انفجارها و فرودهای ناموفق راکتها سوال پرسیدند گفتند خسته نمیشی انقدر پول خرج میکنی و موفق نمیشی ؟
جواب داد قرار نیست فرود موفق ببینیم روی این سری؛ هدف اینه که اشتباهات رو پیدا کنیم هربار که این تستها انجام میشه برای این هست که سیستم رو امنتر کنیم (یعنی یک سری از انفجارها و ... از قبل برنامهریزی شده بود) و اگر انفجار انجام نشه باید نگران باشیم.
البته با ایران مقایسه نشهها؛ اینا شرکتهای خصوصی هستند.
ما شرکتهای خصوصیمون هیچ ریسکی نمیکنند؛
دولتیها ریسک میکنند که خب البته بیشتر هدف دزدی هست نه یادگیری و پیشرفت.
👍30❤6
بهترین نکته در مورد
ChatGpt Atlas
که بمیرم هم نصب نمیکنم بعنوان کسی که هم AI کار کرده هم امنیت.
از مشکلات، privacy و امنیتش بگذرم این بود که!
اینا از chromium دارند استفاده میکنند و یک تیم هم برای توسعه این موضوع تشکیل شده!
جانم؟
مگه سمآلتمن و ... نبودند گفتند با این نسخه میشه کارهای software engineer هارو انجام داد؟
خب الان دوتا سوال دارم:
۱- برای توسعه ۴ تا فیچر احمقانه که نمونه کدهای ورژن سادهاش همه جا هست، چرا تیم توسعه دهنده تشکیل دادید؟
۲- اگر انقدر نتایج روی آنچه خود تیم openai تسکهای واقعی
چرا یک
شارلاتان تر از سم آلتمن دنیا به خودش ندیده؛ آدمای درست رو دنبال کنید که
و تورو به اعتقاداتتون دست بردارید از این سوالا که من تازه برنامهنویسی رو شروع کنم، بنچمارک جدید مدل فلان شده ۹۰٪ نمیدونم ....
ازین پیاما به من ندید!
بکشید بیرون از اینستاگرام!
ChatGpt Atlas
که بمیرم هم نصب نمیکنم بعنوان کسی که هم AI کار کرده هم امنیت.
از مشکلات، privacy و امنیتش بگذرم این بود که!
اینا از chromium دارند استفاده میکنند و یک تیم هم برای توسعه این موضوع تشکیل شده!
جانم؟
مگه سمآلتمن و ... نبودند گفتند با این نسخه میشه کارهای software engineer هارو انجام داد؟
خب الان دوتا سوال دارم:
۱- برای توسعه ۴ تا فیچر احمقانه که نمونه کدهای ورژن سادهاش همه جا هست، چرا تیم توسعه دهنده تشکیل دادید؟
۲- اگر انقدر نتایج روی آنچه خود تیم openai تسکهای واقعی
software engineering اسم میذاره خوب هست! چرا یک
fork از chromium گرفتید که حالا به هر دلیلی بدنامی chrome رو دنبال خودش داره ؟ آها شاید openai پول کافی برای شارژ تعداد توکن مورد نیاز جهت توسعه این محصول رو نداره، بازم زود قضاوت کردم.
شارلاتان تر از سم آلتمن دنیا به خودش ندیده؛ آدمای درست رو دنبال کنید که
openai رو ساختند : John Schulman, Ilya Sutskever, Dario Amodei, ...و تورو به اعتقاداتتون دست بردارید از این سوالا که من تازه برنامهنویسی رو شروع کنم، بنچمارک جدید مدل فلان شده ۹۰٪ نمیدونم ....
ازین پیاما به من ندید!
بکشید بیرون از اینستاگرام!
👍31❤14
دستاوردهای یادگیری عمیق(InTec)
یکی از بهترین نویسندهها در زمینه Machine Learning بالاخره کتابش رو روی Pytorch هم منتشر کرد. Aurelien Geron البته نسخه کامل کتاب فعلا فقط روی Oreilly Media در دسترس هست ولی حدودا ۲ هفته دیگه از همهی پلتفرمها میتونید خرید کنید. یک نگاهی به مباحث بخش…
نسخه نهایی منتشر شد.
Kindle, Epub
Kindle, Epub
❤34👍6
وقتی
یکی از مشکلات اصلی برای
اینکه هرکدوم ازین براکتها هم توکن حساب میشوند هم یک ضرر مالی جداس.
همین دوتا دلیل باعث شد؛ من برای:
۱- دقت بالاتر
۲- کم کردن هزینهها
دنبال روشهای دیگه توی تولید و
توی این گشت و گذار به یک پروژه روی گیتهاب رسیدم
Token Oriented Object Notation
توی تستهای من (یک سری از لاگهای چتهای گذشته رو بهش دادم؛ بصورت رندم) به راحتی حداقل ۲۰٪ توکن کمتر استفاده میکنه توی بهترین حالت به ۶۴٪ هم رسید (ولی خیلی کم پیش اومد توی دیتاهای من) برای خروجی
و البته دقتش هم بهتر شد؛ تقریبا توی ۱۰ مورد چالشی که اکثر وقتا
نمونه از داکیومنت خودش :
خلاصه که اگر شما هم با این دوتا چالش سرکار دارید یا اگر توی شرکت هزینهی بخصوص بالای 10,000 دلار ماهیانه روی مدلهای هوش مصنوعی دارید و اکثرا هم خروجی رو بصورت
JSON معرفی شد؛ یکی از اهدافش خوانایی بهتر برای آدمها بود ولی خب هممه میدونیم که این موضوع باعث سربار هم میشه برای محاسبات و ... یکی از مشکلات اصلی برای
LLM ها هم رعایت استانداردهای مربوط به JSON هست و اینکه وضعیت تعداد براکتهای باز و بسته رو نگه داره!اینکه هرکدوم ازین براکتها هم توکن حساب میشوند هم یک ضرر مالی جداس.
همین دوتا دلیل باعث شد؛ من برای:
۱- دقت بالاتر
۲- کم کردن هزینهها
دنبال روشهای دیگه توی تولید و
parse کردن دیتاها بگردم تقریبا چیزی حدود ۱۰٪ مواقع توی پرامپتهای بزرگ و تسکهای سنگین خروجی JSON هام valid نبود؛ هم یوزر رو کلافه میکرد هم هزینههای من رو اضافه (این کار برای خودم هست؛ شرکتی درکار نیست)توی این گشت و گذار به یک پروژه روی گیتهاب رسیدم
Token Oriented Object Notation
توی تستهای من (یک سری از لاگهای چتهای گذشته رو بهش دادم؛ بصورت رندم) به راحتی حداقل ۲۰٪ توکن کمتر استفاده میکنه توی بهترین حالت به ۶۴٪ هم رسید (ولی خیلی کم پیش اومد توی دیتاهای من) برای خروجی
LLM هاو البته دقتش هم بهتر شد؛ تقریبا توی ۱۰ مورد چالشی که اکثر وقتا
JSON invalid میداد فقط ۱ مورد دیتا رو اشتباه کرد؛ که اون مورد هم با پرامپت بهتر قابل حل هست.نمونه از داکیومنت خودش :
{
"users": [
{ "id": 1, "name": "Alice", "role": "admin" },
{ "id": 2, "name": "Bob", "role": "user" }
]
}users[2]{id,name,role}:
1,Alice,admin
2,Bob,userخلاصه که اگر شما هم با این دوتا چالش سرکار دارید یا اگر توی شرکت هزینهی بخصوص بالای 10,000 دلار ماهیانه روی مدلهای هوش مصنوعی دارید و اکثرا هم خروجی رو بصورت
structured نیاز دارید؛ بنظرم حتما ازین تکنیک استفاده کنید.GitHub
GitHub - toon-format/toon: 🎒 Token-Oriented Object Notation (TOON) – Compact, human-readable, schema-aware JSON for LLM prompts.…
🎒 Token-Oriented Object Notation (TOON) – Compact, human-readable, schema-aware JSON for LLM prompts. Spec, benchmarks, TypeScript SDK. - toon-format/toon
👍33❤22
دستاوردهای یادگیری عمیق(InTec)
#توضیح توی خیلی از صحبتها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟ انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم! من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل…
#خارج_از_بحث
این متن مخصوص کسایی هست که به برنامهنویسی واقعا علاقه دارند و ارائه پروژه استاندارد و بهینه براشون مهم هست؛ خودمونی تر
اگر این موضوع براتون اهمیتی نداره؛ وقتتون رو با خوندن این متن تلف نکنید.
اول این ویدئو رو ببینید بعدش باقی متن رو بخونید:
Youtube Video
اگر اشتباه نکنم سال 2020 بود که صحبتها درباره LLM بالا گرفت و 2021 وقتی بود که برای اولین بار خیلی جدیتر گفته شد این ابزارها دیگه کم کم میتونند نرمافزار تولید کنند ( از همون موقع هم ما کلی صحبت داشتیم که عمرا و فقط میتونند جای کدرها رو بگیرند و مهندسین نرمافزار رو بهشون کمک کنند)
همین اولم بگم که رسما میتونم اعلام کنم بیشترین درآمد دقیقهای و سریعترین درآمدم هم به لطف همین
اما همین موارد هم باعث شده خیلی از ذوق و شوقم رو برای AI از دست بدم (میگم AI چون برای تمام فیلدهاش ذوق دارم) چندتا ازین موارد:
۱- موردی که راحتترین درآمد رو بهم میده؛ تیمهایی متشکل از تعداد زیادی
شخصا بخوام به قضیه نگاه کنم دستمزد این کار خیلی بالاس؛ خیلی خیلی بالا.
فرض کنید یک تیم ۶ماه وقت گذاشته یک نرمافزاری رو توسعه داده و حالا بعد از یک سری موفقیت و درآمدزایی کوچیک به بنبست و مشکلاتی خورده که نمیدونه از کجاس؛ تو این شرایط پول زیادی خرج میشه (تاحالا با درد شدید دکتر رفتی؟ شرایط یکسان هست)
۲- کامیونیتیهای ضعیف و مطالب کمی درست و کلی غلط:(کاملا واضحه با
زمانی بود که وارد یک کامیونیتی معمولی مثلا پایتون هم که میشدی ممکنه بود یک روزی متوجه بشی اونی که گوشه کامیونیتی دیروز ازت درمورد فرق
خیلیها توی این کانال هستند و من هربار که باهاشون صجبت میکنم کلی چیز جدید یاد میگیرم.
۳- پروژههای تکراری و ضعیف با بدترین پیادهسازی ممکن.
خیلی از پروژههایی که این روزا بهم پیشنهاد میشه و رد میکنم؛ توی این دسته بندی قرار میگیره اگر آشنا نباشه درجا رد میکنم اگر هم نتونم اینکار رو بکنم و یا توقع انجام ۱۰۰ تا کار ازم باشه؛ از تکنیک دستمزد بالا استفاده میکنم (کلا دستمزدم زیاد هست شما ببین اینجا چی میشه دیگه)
یکی از بیشترین پروژههایی که میومد:
بیا یک
هزینهاش هم هرچی
تازه همین مورد هم اگر برید ببینید انقدر ضعیف پیادهسازی شده که دائم باهاشون جنگ خواهید داشت.
۴- همین مورد توقع قبول ۱۰۰ تا وظیفه یا توقع تحویل کار توی ۱/۵ زمان نرمال.
موقع پول دادن ما یک دولوپر هستیم که با کمک
موقع پاسخگویی؛ ماها سنیوری هستیم که توقع میره هوای جونیورها رو داشته باشیم و پروژه رو بهتر و استاندارد تحویل بدیم.
موقع زمانبندی؛ مگه چیکار میخوای بکنی بیا ی اکانت ۱۰ دلاری برات بخرم بده
(یکی نیست بگه خب الاغ اگر اینه خود خرت بشین نرمافزارتو توسعه بده؛ دیگه لازمم نیست ۸ ساعت در روز کار کنی ۱۶ ساعت کار کن پول بیشتری ذخیره کنی)
توی اینترنت هم روزی ۱ بار دورهی جدید میاد برای
ی سری آدم نشستن از اینور صفحه؛ ی کامپوننت رو میگرین میندازن وسط صفحه؛ بعد اینا رو بهم وصل میکنند؛ یک کلید هم این وسطا از سرویس دهنده میگیرن و خر کیف اعلام میکنند که
هستند و این موقعیت شغلی رو در یک دوره ۱۰ ساعته به شما آموزش خواهند داد.
یک مشت گوسفند هم دنبال اینا که با خرید این دوره تبدیل به
اوضاع چقدر بده ؟ اونقدری که من یک
(همین کد رو برای کتابها هم دارم)
چندروز پیش خاموشش کردم؛ واقعا حیف اینترنت که صرف کرال کردن اینا بشه؛ حیف برق کشور که صرف پردازش و تمیز کردن خروجی این کرالرها بشه؛ به تازگی چندتا شرکت هم دارم میبینم توی ایران تخصصی برای
این متن مخصوص کسایی هست که به برنامهنویسی واقعا علاقه دارند و ارائه پروژه استاندارد و بهینه براشون مهم هست؛ خودمونی تر
you worship well thought out software
اگر این موضوع براتون اهمیتی نداره؛ وقتتون رو با خوندن این متن تلف نکنید.
اول این ویدئو رو ببینید بعدش باقی متن رو بخونید:
Youtube Video
اگر اشتباه نکنم سال 2020 بود که صحبتها درباره LLM بالا گرفت و 2021 وقتی بود که برای اولین بار خیلی جدیتر گفته شد این ابزارها دیگه کم کم میتونند نرمافزار تولید کنند ( از همون موقع هم ما کلی صحبت داشتیم که عمرا و فقط میتونند جای کدرها رو بگیرند و مهندسین نرمافزار رو بهشون کمک کنند)
همین اولم بگم که رسما میتونم اعلام کنم بیشترین درآمد دقیقهای و سریعترین درآمدم هم به لطف همین
LLMها بوده (توی کانال رندرنج درموردش گفتم و هنوزم هرازگاهی گیرم میاد؛ اسپویل مربوط به حل مشکلات بوده)اما همین موارد هم باعث شده خیلی از ذوق و شوقم رو برای AI از دست بدم (میگم AI چون برای تمام فیلدهاش ذوق دارم) چندتا ازین موارد:
۱- موردی که راحتترین درآمد رو بهم میده؛ تیمهایی متشکل از تعداد زیادی
Vibe Coder و نیروی Junior که کل پروژه رو LLM چیده و تا دلتون بخواد توش ایرادات فنی و طراحی وجود داره و وظیفه من Troubleshoot کردن پروژه هست.شخصا بخوام به قضیه نگاه کنم دستمزد این کار خیلی بالاس؛ خیلی خیلی بالا.
فرض کنید یک تیم ۶ماه وقت گذاشته یک نرمافزاری رو توسعه داده و حالا بعد از یک سری موفقیت و درآمدزایی کوچیک به بنبست و مشکلاتی خورده که نمیدونه از کجاس؛ تو این شرایط پول زیادی خرج میشه (تاحالا با درد شدید دکتر رفتی؟ شرایط یکسان هست)
۲- کامیونیتیهای ضعیف و مطالب کمی درست و کلی غلط:(کاملا واضحه با
LLM بررسی شده)زمانی بود که وارد یک کامیونیتی معمولی مثلا پایتون هم که میشدی ممکنه بود یک روزی متوجه بشی اونی که گوشه کامیونیتی دیروز ازت درمورد فرق
f-string, fromat داشت سوال میکرد خودش مثلا نصف core-banking رو نوشته و حالا تو وقت ناهارش داره پایتون تمرین میکنه؛ من خیلی از دوستانم رو اینطوری باهاشون آشنا شدم.خیلیها توی این کانال هستند و من هربار که باهاشون صجبت میکنم کلی چیز جدید یاد میگیرم.
۳- پروژههای تکراری و ضعیف با بدترین پیادهسازی ممکن.
خیلی از پروژههایی که این روزا بهم پیشنهاد میشه و رد میکنم؛ توی این دسته بندی قرار میگیره اگر آشنا نباشه درجا رد میکنم اگر هم نتونم اینکار رو بکنم و یا توقع انجام ۱۰۰ تا کار ازم باشه؛ از تکنیک دستمزد بالا استفاده میکنم (کلا دستمزدم زیاد هست شما ببین اینجا چی میشه دیگه)
یکی از بیشترین پروژههایی که میومد:
بیا یک
api بزنیم؛ chatgpt رو ارائه بدیم نه در حد openrouter و ... ها اونا چالشش زیاده ما فقط chatgpt رو بگیریم جوابش رو بدیم به کاربر این وسطم دیتاهای چتها رو ذخیره کنیم اگر شد واسه تبلیغات بفروشیم.هزینهاش هم هرچی
chatgpt از ما گرفتم ما ۱۵٪ میذاریم روش همون رو برای کاربر فاکتور میکنیم.تازه همین مورد هم اگر برید ببینید انقدر ضعیف پیادهسازی شده که دائم باهاشون جنگ خواهید داشت.
۴- همین مورد توقع قبول ۱۰۰ تا وظیفه یا توقع تحویل کار توی ۱/۵ زمان نرمال.
موقع پول دادن ما یک دولوپر هستیم که با کمک
LLM کار رو پیش میبریم و توسعه میدیم.موقع پاسخگویی؛ ماها سنیوری هستیم که توقع میره هوای جونیورها رو داشته باشیم و پروژه رو بهتر و استاندارد تحویل بدیم.
موقع زمانبندی؛ مگه چیکار میخوای بکنی بیا ی اکانت ۱۰ دلاری برات بخرم بده
LLM بزنه تو فقط تستش کن(یکی نیست بگه خب الاغ اگر اینه خود خرت بشین نرمافزارتو توسعه بده؛ دیگه لازمم نیست ۸ ساعت در روز کار کنی ۱۶ ساعت کار کن پول بیشتری ذخیره کنی)
توی اینترنت هم روزی ۱ بار دورهی جدید میاد برای
LLM Agent ها ی سری آدم نشستن از اینور صفحه؛ ی کامپوننت رو میگرین میندازن وسط صفحه؛ بعد اینا رو بهم وصل میکنند؛ یک کلید هم این وسطا از سرویس دهنده میگیرن و خر کیف اعلام میکنند که
ML Engineer هستند و این موقعیت شغلی رو در یک دوره ۱۰ ساعته به شما آموزش خواهند داد.
یک مشت گوسفند هم دنبال اینا که با خرید این دوره تبدیل به
ML Engineer بشوند.اوضاع چقدر بده ؟ اونقدری که من یک
notifier نوشته بودم برای یک سری سایت مثل udemy, xda, ... هر شب ساعت ۱۱:۵۹ اجرا میشد و صبح بهم اطلاع میداد چه دورههایی ترند شده یا معرفی شده(همین کد رو برای کتابها هم دارم)
چندروز پیش خاموشش کردم؛ واقعا حیف اینترنت که صرف کرال کردن اینا بشه؛ حیف برق کشور که صرف پردازش و تمیز کردن خروجی این کرالرها بشه؛ به تازگی چندتا شرکت هم دارم میبینم توی ایران تخصصی برای
prompt engineering داره ایجاد میشه که امیدوارم یک شوخی کثیف از دوستان نزدیکم باشه برای اذیت کردن بنده.❤32👍10
دستاوردهای یادگیری عمیق(InTec)
#توضیح توی خیلی از صحبتها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟ انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم! من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل…
خلاصه وضعیت رو بخوام بگم:
شده زمانی که کامپیوتر شخصی تازه مد شده بود؛ هرکسی برنامهنویس میدید دنبال رایت
شخصا برای فرار از این وضعیت نشستم و روی
کار میکنم؛روی ابزارهایی که روی پروداکشن زیاد استفاده میشه و باقی وقتم رو صرف خوندن سورس کد پروژههای معروف میکنم.
توی زمینههای مربوط به هوش مصنوعی هم هفته گذشته یک موضوع جدید برای خودم پیدا کردم (بیشتر از تجربههای کوچیک و اتوماسیون کارهای کوچیک خودم) اونم
همهی اینارو گفتم؛ تهش هم یک خواهش دارم!
من فقط میتونم بهتون
شده زمانی که کامپیوتر شخصی تازه مد شده بود؛ هرکسی برنامهنویس میدید دنبال رایت
CD, نصب ویندوز و البته گرفتن فیلمهای روز دنیا بود (مهندس فیلم میلم جدید چی داری ؟ همه هم ی فلش ۸ گیگ تو جیبشون یا به جاسوییچیشون وصل بود)شخصا برای فرار از این وضعیت نشستم و روی
home lab, clustring, software engineering, ...
کار میکنم؛روی ابزارهایی که روی پروداکشن زیاد استفاده میشه و باقی وقتم رو صرف خوندن سورس کد پروژههای معروف میکنم.
توی زمینههای مربوط به هوش مصنوعی هم هفته گذشته یک موضوع جدید برای خودم پیدا کردم (بیشتر از تجربههای کوچیک و اتوماسیون کارهای کوچیک خودم) اونم
distributed inference هست البته بدون استفاده از فریمورک و ... برای درک و یادگیری بهتر و ممکنه بعدش مثل قدیم برگردم سراغ پیادهسازی مقالات و چالشهای اپتیمایز و دپلوی و ...همهی اینارو گفتم؛ تهش هم یک خواهش دارم!
اگر دارید روی پروژه جذابی که نمیخواید بفروشید برای یادگیری هست یا ... کار میکنید که چالشهای فنی بدرد بخور و تکنیکهای جذاب روش زدید کار میکنید و دوس داشتید یکی دیگه کدهاتون رو ریویو کنه!
شخصا پایه هستم؛ اگر برام بفرستید.
اما قطعا همهی کدها بنظرم جذاب نمیاد (شاید پروژه خفنی باشه ولی من قبلا کار کرده باشم یا دانش بیزینس خاصی رو بخواد که به کار من نمیاد و ...) از این پروژهها میگذرم.
به پروژههای دانشگاهی و مقالات و ... که ازم بخواد همکاری کنم هم علاقهای ندارم؛ اما مشکلی ندارم اگر شما بخواید دستارود خودتون رو مقاله هم کنید.
من فقط میتونم بهتون
review رایگان روی کدهای شخصی رو ارائه بدم؛ اما اجازه به اشتراک گذاری با ذکر منبع اسم و اطلاعات شما باید بهم داده بشه یا کدهاتون متنباز باشه.YouTube
How Modern Game Engines Degraded — And Who’s to Blame?
Unreal Engine 5 has been around for many years. A lot of projects have been made on it, but developers still can't master it.
Even five years after the release of this engine, we still get unoptimized games that don't work well even on top-of-the-line PCs.…
Even five years after the release of this engine, we still get unoptimized games that don't work well even on top-of-the-line PCs.…
❤34👍6
آپدیت از وضعیت مدلها بدم چون نمیدونم چرا اما این چندروز خیلی ازم سوال شد:
شخصا اینطوری با مدلها کار میکنم:
GLM-4.6
برای توسعه کد؛ خوبی این مدل
برای
مدلهای مهمی هم که بهتون میده :
برای من انقدر زیاد هست که تمام
grok.com
برای چتهای کلی و یادگیری و
این مورد هم برای سرچهای سریع هست؛ مثلا این مدت که دارم
وقتی از مدل درست برای کار درست استفاده میکنم به هیچ مشکلی نمیخورم؛ توی ۱ ماه گذشته اصلا نشده به این قضیه بخورم که فکر کنم به مدل قویتر نیاز دارم برای کارهایی که دارم انجام میدم.
پینوشت:
پرسیدید برای
این مورد برای من خیلی کاربرد نداره حقیقتش؛ خیلی کم بهش نیاز پیدا میکنم و قطعا سراغ
ولی بطور کلی چون کارهام بدون
شخصا اینطوری با مدلها کار میکنم:
GLM-4.6
برای توسعه کد؛ خوبی این مدل
context بزرگ و رایگان بودنش هست و نتایج خیلی خوبی هم میده (بیش از ۱ ماه هست دارم ازش استفاده میکنم) شخصا برای Python, Rust, Javascript دارم ازش استفاده میکنم و نتابجش از همه مدلهای معروف دیگه بهتره حتی از Gemini2.5 Pro فقط بعضی وقتا ممکنه احمق بشه که کافی با آپدیت پرامپت کمی راهنماییش کنید (پیشنهاد میدم پیام قبلی رو پاک کنید یا همون رو آپدیت کنید که context تمیز بمونه)cerebras برای
api و اتومات کردن بعضی از کارهام روی لوکال خودم؛ سرعت فوقالعاده بالا (توی پیامهای قبلی لینک دادم اگر از اون استفاده کنید برای ثبتنام سقف رایگان روزانه براتون افزایش پیدا میکنه که بیش از حد هم هست مدلهای مهمی هم که بهتون میده :
zai-glm-4.6 (context: 132000)
gpt-oss-120b (context: 65000)
qwen3-235b thinking (context: 65000)
برای من انقدر زیاد هست که تمام
api های پولیم رو حذف کردم و خروجی بهتر و با سرعت بیشتر میگیرم.grok.com
برای چتهای کلی و یادگیری و
factcheck بهترین موردش برای یادگیری مفاهیم هست خیلی دقیق و عالی جواب میده؛ بخصوص وقتی روی حالت expert هست و بهش میگی بهم رفرنس صحبتهات رو هم بده؛ میتونی بهش بگی بعضی سایتها رو هم رفرنس نکنه (مثلا من wikipedia رو بهش میگم قبول ندارم)duck.ai این مورد هم برای سرچهای سریع هست؛ مثلا این مدت که دارم
Javascript کار میکنم چون کار هرروزم نبوده و بعضی مباحث یادم رفته بجای سرچ کردن تو این چت میپرسم بعنوان نمونه: how to use prototype for inheritance instead of class in JS? وقتی از مدل درست برای کار درست استفاده میکنم به هیچ مشکلی نمیخورم؛ توی ۱ ماه گذشته اصلا نشده به این قضیه بخورم که فکر کنم به مدل قویتر نیاز دارم برای کارهایی که دارم انجام میدم.
پینوشت:
پرسیدید برای
DeepResearch چطور ؟این مورد برای من خیلی کاربرد نداره حقیقتش؛ خیلی کم بهش نیاز پیدا میکنم و قطعا سراغ
z.ai هم نمیرم (اگر به یک جوابی نرسه توی لوپ بینهایت میوفته) برای اینکار Grok خوب کار میکنه (من موارد خیلی خیلی سخت رو فقط تست کردم) و یا Deepseek البته به تازگی Kimi k2 هم آپدیت گرفته که اگر مورد دیگری پیش بیاد تست میکنم.ولی بطور کلی چون کارهام بدون
DeepResearch و با همون قابلیتهای مدلهای قبلی حل میشه خیلی تجربهای ازین قابلیت ندارم؛ برای همین پیشنهاد دقیقی ندادم.chat.z.ai
Z.ai - Free AI Chatbot & Agent powered by GLM-5 & GLM-4.7
Meet Z.ai, your free AI-powered assistant. Build websites, create slides, analyze data, and get instant answers. Fast, smart, and reliable, powered by GLM-5.
❤28👍15
شاید مدلهام رو ببرم روی
دارم با قیمت و ... شروع میکنم؛ بنچمارکهای سرعت و هزینه و تعداد کاربر و ... که خیلی خوب بوده
با
اگر کسی توی scale بالا تست کرده بهم بگه
من سراغ قیمتهای
vultr cloud gpu
AMD GPU ها دارم با قیمت و ... شروع میکنم؛ بنچمارکهای سرعت و هزینه و تعداد کاربر و ... که خیلی خوب بوده
با
vultr اول شروع کردم چون یادمه ۱-۲ سال پیش بعنوان پارتنر Amd معرفی شدند.اگر کسی توی scale بالا تست کرده بهم بگه
AMD MI300X - MI325X - MI355Xمن سراغ قیمتهای
MI355X دارم میرم.vultr cloud gpu
Vultr
High Performance, High Frequency, Bare Metal, Affordable Cloud Computing
We are simplifying the cloud. One Login, 19 Countries, 32 Cities, Infinite Possibilities.
❤11👍5