دستاوردهای یادگیری عمیق(InTec)
9.54K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
وقتی JSON معرفی شد؛ یکی از اهدافش خوانایی بهتر برای آدمها بود ولی خب هممه می‌دونیم که این موضوع باعث سربار هم می‌شه برای محاسبات و ...
یکی از مشکلات اصلی برای LLM ها هم رعایت استانداردهای مربوط به JSON هست و اینکه وضعیت تعداد براکت‌های باز و بسته رو نگه داره!
اینکه هرکدوم ازین براکت‌ها هم توکن حساب می‌شوند هم یک ضرر مالی جداس.

همین دوتا دلیل باعث شد؛ من برای:
۱- دقت بالاتر
۲- کم کردن هزینه‌ها

دنبال روش‌های دیگه توی تولید و parse کردن دیتاها بگردم تقریبا چیزی حدود ۱۰٪ مواقع توی پرامپت‌های بزرگ و تسک‌های سنگین خروجی JSON هام valid نبود؛ هم یوزر رو کلافه می‌کرد هم هزینه‌های من رو اضافه (این کار برای خودم هست؛ شرکتی درکار نیست)

توی این گشت و گذار به یک پروژه روی گیت‌هاب رسیدم
Token Oriented Object Notation

توی تست‌های من (یک سری از لاگ‌های چت‌های گذشته رو بهش دادم؛ بصورت رندم) به راحتی حداقل ۲۰٪ توکن کمتر استفاده می‌کنه توی بهترین حالت به ۶۴٪ هم رسید (ولی خیلی کم پیش اومد توی دیتاهای من) برای خروجی LLM ها
و البته دقتش هم بهتر شد؛ تقریبا توی ۱۰ مورد چالشی که اکثر وقتا JSON invalid میداد فقط ۱ مورد دیتا رو اشتباه کرد؛ که اون مورد هم با پرامپت بهتر قابل حل هست.

نمونه از داکیومنت خودش :
{
"users": [
{ "id": 1, "name": "Alice", "role": "admin" },
{ "id": 2, "name": "Bob", "role": "user" }
]
}


users[2]{id,name,role}:
1,Alice,admin
2,Bob,user


خلاصه که اگر شما هم با این دوتا چالش سرکار دارید یا اگر توی شرکت هزینه‌ی بخصوص بالای 10,000 دلار ماهیانه روی مدل‌های هوش مصنوعی دارید و اکثرا هم خروجی رو بصورت structured نیاز دارید؛ بنظرم حتما ازین تکنیک استفاده کنید.
👍3321
دستاوردهای یادگیری عمیق(InTec)
#توضیح توی خیلی از صحبت‌ها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟ انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم! من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل…
#خارج_از_بحث
این متن مخصوص کسایی هست که به برنامه‌نویسی واقعا علاقه دارند و ارائه پروژه استاندارد و بهینه براشون مهم هست؛ خودمونی تر
you worship well thought out software

اگر این موضوع براتون اهمیتی نداره؛ وقتتون رو با خوندن این متن تلف نکنید.

اول این ویدئو رو ببینید بعدش باقی متن رو بخونید:

Youtube Video

اگر اشتباه نکنم سال 2020 بود که صحبت‌ها درباره LLM بالا گرفت و 2021 وقتی بود که برای اولین بار خیلی جدی‌تر گفته شد این ابزارها دیگه کم کم می‌تونند نرم‌افزار تولید کنند ( از همون موقع هم ما کلی صحبت داشتیم که عمرا و فقط می‌تونند جای کدر‌ها رو بگیرند و مهندسین نرم‌افزار رو بهشون کمک کنند)

همین اولم بگم که رسما می‌تونم اعلام کنم بیشترین درآمد دقیقه‌ای و سریعترین درآمدم هم به لطف همین LLMها بوده (توی کانال رندرنج درموردش گفتم و هنوزم هرازگاهی گیرم میاد؛ اسپویل مربوط به حل مشکلات بوده)

اما همین موارد هم باعث شده خیلی از ذوق و شوقم رو برای AI از دست بدم (میگم AI چون برای تمام فیلدهاش ذوق دارم) چندتا ازین موارد:

۱- موردی که راحت‌ترین درآمد رو بهم میده؛ تیم‌هایی متشکل از تعداد زیادی Vibe Coder و نیروی Junior که کل پروژه رو LLM چیده و تا دلتون بخواد توش ایرادات فنی و طراحی وجود داره و وظیفه من Troubleshoot کردن پروژه هست.
شخصا بخوام به قضیه نگاه کنم دستمزد این کار خیلی بالاس؛ خیلی خیلی بالا.
فرض کنید یک تیم ۶ماه وقت گذاشته یک نرم‌افزاری رو توسعه داده و حالا بعد از یک سری موفقیت و درآمدزایی کوچیک به بن‌بست و مشکلاتی خورده که نمی‌دونه از کجاس؛ تو این شرایط پول زیادی خرج میشه (تاحالا با درد شدید دکتر رفتی؟ شرایط یکسان هست)

۲- کامیونیتی‌های ضعیف و مطالب کمی درست و کلی غلط:(کاملا واضحه با LLM بررسی شده)
زمانی بود که وارد یک کامیونیتی معمولی مثلا پایتون هم که می‌شدی ممکنه بود یک روزی متوجه بشی اونی که گوشه کامیونیتی دیروز ازت درمورد فرق f-string, fromat داشت سوال می‌کرد خودش مثلا نصف core-banking رو نوشته و حالا تو وقت ناهارش داره پایتون تمرین می‌کنه؛ من خیلی از دوستانم رو اینطوری باهاشون آشنا شدم.
خیلی‌ها توی این کانال هستند و من هربار که باهاشون صجبت می‌کنم کلی چیز جدید یاد میگیرم.

۳- پروژه‌های تکراری و ضعیف با بدترین پیاده‌سازی ممکن.
خیلی از پروژه‌هایی که این روزا بهم پیشنهاد میشه و رد می‌کنم؛ توی این دسته بندی قرار می‌گیره اگر آشنا نباشه درجا رد می‌کنم اگر هم نتونم اینکار رو بکنم و یا توقع انجام ۱۰۰ تا کار ازم باشه؛ از تکنیک دستمزد بالا استفاده می‌کنم (کلا دستمزدم زیاد هست شما ببین اینجا چی می‌شه دیگه)
یکی از بیشترین پروژه‌هایی که میومد:‌
بیا یک api بزنیم؛ chatgpt رو ارائه بدیم نه در حد openrouter و ... ها اونا چالشش زیاده ما فقط chatgpt رو بگیریم جوابش رو بدیم به کاربر این وسطم دیتاهای چت‌ها رو ذخیره کنیم اگر شد واسه تبلیغات بفروشیم.
هزینه‌اش هم هرچی chatgpt از ما گرفتم ما ۱۵٪ میذاریم روش همون رو برای کاربر فاکتور می‌کنیم.
تازه همین مورد هم اگر برید ببینید انقدر ضعیف پیاده‌سازی شده که دائم باهاشون جنگ خواهید داشت.

۴- همین مورد توقع قبول ۱۰۰ تا وظیفه یا توقع تحویل کار توی ۱/۵ زمان نرمال.
موقع پول دادن ما یک دولوپر هستیم که با کمک LLM کار رو پیش می‌بریم و توسعه میدیم.
موقع پاسخگویی؛ ماها سنیوری هستیم که توقع میره هوای جونیورها رو داشته باشیم و پروژه رو بهتر و استاندارد تحویل بدیم.
موقع زمانبندی؛ مگه چیکار می‌خوای بکنی بیا ی اکانت ۱۰ دلاری برات بخرم بده LLM بزنه تو فقط تستش کن
(یکی نیست بگه خب الاغ اگر اینه خود خرت بشین نرم‌افزارتو توسعه بده؛ دیگه لازمم نیست ۸ ساعت در روز کار کنی ۱۶ ساعت کار کن پول بیشتری ذخیره کنی)

توی اینترنت هم روزی ۱ بار دوره‌ی جدید میاد برای LLM Agent ها
ی سری آدم نشستن از اینور صفحه؛ ی کامپوننت رو میگرین میندازن وسط صفحه؛ بعد اینا رو بهم وصل می‌کنند؛ یک کلید هم این وسطا از سرویس دهنده میگیرن و خر کیف اعلام می‌کنند که
ML Engineer
هستند و این موقعیت شغلی رو در یک دوره ۱۰ ساعته به شما آموزش خواهند داد.
یک مشت گوسفند هم دنبال اینا که با خرید این دوره تبدیل به ML Engineer بشوند.

اوضاع چقدر بده ؟ اونقدری که من یک notifier نوشته بودم برای یک سری سایت مثل udemy, xda, ... هر شب ساعت ۱۱:۵۹ اجرا می‌شد و صبح بهم اطلاع میداد چه دوره‌هایی ترند شده یا معرفی شده
(همین کد رو برای کتاب‌ها هم دارم)
چندروز پیش خاموشش کردم؛ واقعا حیف اینترنت که صرف کرال کردن اینا بشه؛ حیف برق کشور که صرف پردازش و تمیز کردن خروجی این کرالرها بشه؛ به تازگی چندتا شرکت هم دارم می‌بینم توی ایران تخصصی برای prompt engineering داره ایجاد می‌شه که امیدوارم یک شوخی کثیف از دوستان نزدیکم باشه برای اذیت کردن بنده.
32👍10
دستاوردهای یادگیری عمیق(InTec)
#توضیح توی خیلی از صحبت‌ها به اینجا میرسیم که؛ چرا دیگه روی @pytens فعالیت نداری ؟ انقدر این صحبت زیاد شده که تصمیم گرفتم یکبار توضیح بدم! من اولین بار بیش از ۱۰ سال قبل با هوش مصنوعی آشنا شدم و وارد این فیلد شدم (پروژه کارشناسیم بخشی از موضوعی بود که قبل…
خلاصه وضعیت رو بخوام بگم:
شده زمانی که کامپیوتر شخصی تازه مد شده بود؛ هرکسی برنامه‌نویس می‌دید دنبال رایت CD, نصب ویندوز و البته گرفتن فیلم‌های روز دنیا بود (مهندس فیلم میلم جدید چی داری ؟ همه هم ی فلش ۸ گیگ تو جیبشون یا به جاسوییچیشون وصل بود)
شخصا برای فرار از این وضعیت نشستم و روی
home lab, clustring, software engineering, ...

کار می‌کنم؛‌روی ابزارهایی که روی پروداکشن زیاد استفاده می‌شه و باقی وقتم رو صرف خوندن سورس کد پروژه‌های معروف می‌کنم.
توی زمینه‌های مربوط به هوش مصنوعی هم هفته گذشته یک موضوع جدید برای خودم پیدا کردم (بیشتر از تجربه‌های کوچیک و اتوماسیون کارهای کوچیک خودم) اونم distributed inference هست البته بدون استفاده از فریمورک و ... برای درک و یادگیری بهتر و ممکنه بعدش مثل قدیم برگردم سراغ پیاده‌سازی مقالات و چالش‌های اپتیمایز و دپلوی و ...


همه‌ی اینارو گفتم؛ تهش هم یک خواهش دارم!
اگر دارید روی پروژه جذابی که نمی‌خواید بفروشید برای یادگیری هست یا ... کار می‌کنید که چالش‌های فنی بدرد بخور و تکنیک‌های جذاب روش زدید کار می‌کنید و دوس داشتید یکی دیگه کدهاتون رو ریویو کنه!
شخصا پایه هستم؛ اگر برام بفرستید.

اما قطعا همه‌ی کدها بنظرم جذاب نمیاد (شاید پروژه خفنی باشه ولی من قبلا کار کرده باشم یا دانش بیزینس خاصی رو بخواد که به کار من نمیاد و ...) از این پروژه‌ها می‌گذرم.
به پروژه‌های دانشگاهی و مقالات و ... که ازم بخواد همکاری کنم هم علاقه‌ای ندارم؛ اما مشکلی ندارم اگر شما بخواید دستارود خودتون رو مقاله هم کنید.


من فقط می‌تونم بهتون review رایگان روی کدهای شخصی رو ارائه بدم؛ اما اجازه به اشتراک گذاری با ذکر منبع اسم و اطلاعات شما باید بهم داده بشه یا کدهاتون متن‌باز باشه.
34👍6
آپدیت از وضعیت مدل‌ها بدم چون نمی‌دونم چرا اما این چندروز خیلی ازم سوال شد:

شخصا اینطوری با مدل‌ها کار می‌کنم:‌
GLM-4.6
برای توسعه کد؛ خوبی این مدل context بزرگ و رایگان بودنش هست و نتایج خیلی خوبی هم میده (بیش از ۱ ماه هست دارم ازش استفاده می‌کنم) شخصا برای Python, Rust, Javascript دارم ازش استفاده می‌کنم و نتابجش از همه مدل‌های معروف دیگه بهتره حتی از Gemini2.5 Pro فقط بعضی وقتا ممکنه احمق بشه که کافی با آپدیت پرامپت کمی راهنماییش کنید (پیشنهاد می‌دم پیام قبلی رو پاک کنید یا همون رو آپدیت کنید که context تمیز بمونه)

cerebras
برای api و اتومات کردن بعضی از کارهام روی لوکال خودم؛ سرعت فوق‌العاده بالا (توی پیام‌های قبلی لینک دادم اگر از اون استفاده کنید برای ثبت‌نام سقف رایگان روزانه براتون افزایش پیدا می‌کنه که بیش از حد هم هست
مدل‌های مهمی هم که بهتون میده :
zai-glm-4.6 (context: 132000)
gpt-oss-120b (context: 65000)
qwen3-235b thinking (context: 65000)

برای من انقدر زیاد هست که تمام api های پولیم رو حذف کردم و خروجی بهتر و با سرعت بیشتر می‌گیرم.

grok.com
برای چت‌های کلی و یادگیری و factcheck بهترین موردش برای یادگیری مفاهیم هست خیلی دقیق و عالی جواب میده؛ بخصوص وقتی روی حالت expert هست و بهش می‌گی بهم رفرنس صحبت‌هات رو هم بده؛ می‌تونی بهش بگی بعضی سایت‌ها رو هم رفرنس نکنه (مثلا من wikipedia رو بهش می‌گم قبول ندارم)
duck.ai

این مورد هم برای سرچ‌های سریع هست؛ مثلا این مدت که دارم Javascript کار می‌کنم چون کار هرروزم نبوده و بعضی مباحث یادم رفته بجای سرچ کردن تو این چت می‌پرسم بعنوان نمونه:
how to use prototype for inheritance instead of class in JS?

وقتی از مدل درست برای کار درست استفاده می‌کنم به هیچ مشکلی نمیخورم؛ توی ۱ ماه گذشته اصلا نشده به این قضیه بخورم که فکر کنم به مدل قوی‌تر نیاز دارم برای کارهایی که دارم انجام میدم.

پینوشت:
پرسیدید برای DeepResearch چطور ؟
این مورد برای من خیلی کاربرد نداره حقیقتش؛ خیلی کم بهش نیاز پیدا می‌کنم و قطعا سراغ z.ai هم نمیرم (اگر به یک جوابی نرسه توی لوپ بی‌نهایت میوفته) برای اینکار Grok خوب کار می‌کنه (من موارد خیلی خیلی سخت رو فقط تست کردم) و یا Deepseek البته به تازگی Kimi k2 هم آپدیت گرفته که اگر مورد دیگری پیش بیاد تست می‌کنم.
ولی بطور کلی چون کارهام بدون DeepResearch و با همون قابلیت‌های مدل‌های قبلی حل می‌شه خیلی تجربه‌ای ازین قابلیت ندارم؛ برای همین پیشنهاد دقیقی ندادم.
28👍15
شاید مدل‌هام رو ببرم روی AMD GPU ها
دارم با قیمت و ... شروع می‌کنم؛ بنچمارک‌های سرعت و هزینه و تعداد کاربر و ... که خیلی خوب بوده
با vultr اول شروع کردم چون یادمه ۱-۲ سال پیش بعنوان پارتنر Amd معرفی شدند.
اگر کسی توی scale بالا تست کرده بهم بگه
AMD MI300X - MI325X - MI355X
من سراغ قیمت‌های MI355X دارم میرم.

vultr cloud gpu
11👍5
اگر سراغ Kimi k2 رفتید؛ سایتش : kimi.com تنها چیزی که روی این مورد لازم دارید قابلیت researcher هست.
بسته به کاری که بهش می‌گید انجام بده به زمان نیاز داره مثلا من یک سری تسک که معمولا باید ۵-۶ نفر رو می‌گفتم سایت‌ها و ... رو بگردند و گزارش آماده کنند بهش دادم (همرو توی ۱ مورد بهش بدید و اطلاعات کامل چون فقط ۱ مورد رایگان دارید؛ نمی‌دونم محدودیتش تا چه زمانی هست)
گزارش نهاییش؛ از خروجی بچه‌ها بهتر بود.
کلی تایپ کرد؛ داشتم به این فکر می‌کردم عمرا حال ندارم اینو بخونم بعد همرو تبدیل به یک گزارش html, css, js کرد که راحت میشه دنبال کرد؛ گرافیک و ... خوب و قابل ذخیره!

این بهترین فیچری بود که توی ۱ سال اخیر دیدم؛ تنها مشکلم اینه که برای تسک من حدود ۲ ساعت طول کشید تا کار رو انجام داد؛ البته بچه‌ها هم ۳-۴ ساعت طول کشید تا گزارش رو آماده کردند.


در نهایت:
توجه کنید من برای این تسک از دانشجوهای لیسانس استخدام کردم؛ که خب دانش تخصصی بالایی ندارند!
نرید توی تسک‌های تخصصی که دانشمندان عزیز توش موندن رو بهش بدید بعد بگید خوب کار نکردا!
30👍14
Forwarded from Python Hints
اگر از uv استفاده می‌کنید حتما اون رو آپدیت کنید یک باگ
RCE: Remote Code Execution
توی یکی از کتابخونه‌ها پیدا شده که البته uv هم ازون کتابخونه استفاده می‌کرده.

چون موضوع مربوط به Rust هست توضیحات بیشترش رو داخل کانال Rust می‌نویسم ولی خواستم اعلام کنم که حتما آپدیت کنید uv رو
@pyrust
14👍3
اینکه راجب این مدل و دیتاست اون (هردو رایگان منتشر شده) بعد زا ۴ روز هیچ چیزی نشنیدم چیزی هست که آزار دهنده هست.
اینکه ۱۰۰۰ تا پست راجب chatgpt 5.1 دیدم ولی راجب این به سختی ۱ پست تازه همین هم به لطف ابزاری که برای کرال کردن و خلاصه ‌کردن مطالب مفید اجرا دارم دیدم.

داستان چیه ؟
متا یک مدل ASR جدید + دیتاست منتشر کرده که بیش از 1600 زبان رو شناسایی می‌کنه حتی شاید بشه گفت کم استفاده‌ترین زبان‌های موجود رو و مدل‌هاش رو هم توی سایز های مختلف منتشر کرده.
من کدهای دموی خودش رو اجرا کردم نتایجش خوب بود.

خیلی پروژه‌های شخصی و کارهای قشنگی میشه با این مدل‌ها کرد:
Meta OmniLingual
👍155
Antigravity

یک مقدار باگ داره ولی اذیت نمی‌کنه (روی لپ‌تاپ تست اولیه زدم ولی چیز خوبیه!)

تازه که کرسر اومده بود همچین وضعیتی داشت ولی با توجه به اینکه گوگل پشت این قضیه هست فکر نمی‌کنم فیکس کردنش خیلی طولانی باشه.

من با اکانت تمیز + vpn تست کردم؛ کارم تموم شد روی این سیستم هم تست می‌کنم اگر محدودیت داشت اطلاع میدم!

درنهایت اینکه ؛ برای استفاده شخصی رایگان هست ولی احتمال ۹۹٪ از دیتاها برای ترین مدل‌هاش استفاده می‌کنه (اینم جک خواهم کرد)

Download Link
👍153
دستاوردهای یادگیری عمیق(InTec)
Antigravity یک مقدار باگ داره ولی اذیت نمی‌کنه (روی لپ‌تاپ تست اولیه زدم ولی چیز خوبیه!) تازه که کرسر اومده بود همچین وضعیتی داشت ولی با توجه به اینکه گوگل پشت این قضیه هست فکر نمی‌کنم فیکس کردنش خیلی طولانی باشه. من با اکانت تمیز + vpn تست کردم؛ کارم…
Gemini Pro 3

قطعا مدل عالی‌ای هست؛ شکی ندارم.
ولی
Antigravity

آشغال هست؛ تست بیشتر انجام دادم.

Back to neovim + Gemini 3 Pro



https://gemini.google.com/app

مدل دیگه‌ای که معرفی شده :
Grok4.1
هست؛ بدون تعارف Grok4 یکی از بهترین مدل‌هایی بود که ازش استفاده می‌کردم!

پینوشت:
Grok4.1
که اتفاقا دسترسی رایگان هم داره refactor خیلی خوب انجام میده و البته سرعت بهتری هم داره؛ کار امشب در اومد.
تست این دو مدل جدید با بنچمارک کد اختصاصی خودم!
👍2512
دستاوردهای یادگیری عمیق(InTec)
+ Nano Banana Pro
اگر از این مدل بخواید براتون تصاویر واقعی تولید کنید (مثلا تصاویر شهر و خیابون) بسیار عالی اینکار رو انجام می‌ده. این موضوع برای باقی تصاویر تولید شده در سبک واقعی هم صادق هست.

با توجه به اینکه توی مدل‌های قبلی تمرکز گوگل برای مدل‌های تولید عکس روی قابلیت in-painting بوده؛ من فکر می‌کنم از یک تکنیک مشابه استفاده کرده؛ شخصا اینکار رو تست کردم :

قبلتر برای یک پروژه تولید تصویر که اتفاقا واقعی بودنش برامون مهم بود؛ بجای اینکه تصاویر رو از نویز تولید کنم سعی کردم اونها رو از تصاویر mask شده تولید کنم. بطوریکه برای تمام تصاویر تصویر رفرنس به مدل داده می‌شد و تصویری که کاربر درخواست داده بر اساس معمولا ترکیب ۲ تا ازین رفرنس‌ها تولید می‌شد.
اون زمان پروژه خیلی سختی بود اما نتایج قابل قبولی داشت.

توی کار من به کمک Image2Text برای تصاویر رفرنس تگ‌های لازم تولید شده بود؛ چرا فکر می‌کنم nano bana pro هم داره ازین تکنیک استفاده می‌کنه ؟ تجربه!

۱- قبل از تولید تصویر اگر راجب چیزی صحبت کنید که نمی‌دونه؛ سرچ انجام میشه. (می‌تونه عکس رفرنس جدید پیدا کنه)

ادامه پست بعدی ...
👍152
دستاوردهای یادگیری عمیق(InTec)
اگر از این مدل بخواید براتون تصاویر واقعی تولید کنید (مثلا تصاویر شهر و خیابون) بسیار عالی اینکار رو انجام می‌ده. این موضوع برای باقی تصاویر تولید شده در سبک واقعی هم صادق هست. با توجه به اینکه توی مدل‌های قبلی تمرکز گوگل برای مدل‌های تولید عکس روی قابلیت…
۲- بعضی وقتا جزئیات خیلی ریز رو به راحتی و عالی تولید می‌کنه؛ مثلا ازش بخواید یک آدم رو وسط خیابونای تهران ازش عکس تولید کنه.
جزئیاتی مثل برگ درخت و زاویه تابش و ... همگی عالی هستند (بخش کلی رو مدل دست بهش نمیزنه)
تمرکز مدل هم روی آدمی هست که خواستید؛ جزئیات بدن اون آدم توی تصویر هم کاملا درست هست.
اما توی همون راستا به جزئیات نوشته‌های تابلوهای نزدیک به اون آدم (موضوع اصلی Generation دقت کنید) پیکسل‌ها و اطلاعات نزدیک به آبجکتی که تولید شده بهم ریخته میشه.

۳- من هم توی پروژه‌ای که کار کردم همین موارد رو دیدم؛ برای تست بهتر می‌تونید ترکیب دوتا عکسی رو بخواید که پس زمینه شلوغ باشه (عکس هم ازون نقطه کم باشه) + آبجکت مدنظر رو وسط اون شلوغی بخواید.


توی تصویر بالا دقت کنید؛
جزئیات اصیی ساختمون‌ها؛ تابلوهای دوراتر؛ درخت‌ها و ... درست هست اما هرچقدر به درخواست اصلی (۱۰ تا برنامه‌نویس وسط ولیعصر کد بزنند) نزدیک می‌شیم جزئیات بهم ریخته تر میشه: تابلوهارو ببیند؛ یا نوشته روی اتوبوس؛ مانیتور

حتی به صورت این ۱۰ نفر و آدمای اطراف دقت کنید؛ افرادی که نزدیکتر هستند صورتشون بهتر تولید شده و افرادی که فاصله بیشتری دارند انگار صورت‌های بهم ریخته هست.
برید روی گوگل مپ و تصاویر خیابون‌هایی که آدم داخلش هست رو ببینید؛ صورت‌ها روی برای privacy گوگل mask کرده و تقریبا هم افکت مشابهی بهتون میده اگر از Banana بخواید اون ماسک‌ها رو با صورت جایگزین کنه.
این مورد برای پلاک‌های ماشین‌ها هم اتفاق میوفته؛ توی عکس بعدی که تولید می‌کنید خیالون رو شلوغ در نظر نگیرید؛ و به پلاک ماشین‌ها توجه کنید.

خلاصه که شخصا فکر می‌کنم؛ تمرکز گوگل بیشتر روی In-painting هست تا هرچیز دیگری
👍144
ادیت نمی‌زنم؛ یکی از دوستان توی گروه نظرم راجب Deepseek 3.2 رو پرسیدند:

پاسخ بنده :
چند روزه دارم ازش استفاده می‌کنم

درکش راجب مسائلی که دیتا به اندازه کافی روی اینترنت داره خوبه
یا مسائلی که خودتون بهش میدید ولی کانتکست بزرگی داره

خوبیش نسبت به Gemini3 Pro اینه که حتی استفاده رایگانش هم زیاد میاد.

نسبت به باقی موارد مثل z.ai, ... که توی کانال قبلتر گفتم هم :
اینه که متن بیشتری از چت قبلی رو بنظر میاد نگه میداره یا attention بهتری داره

فرض کن توی پیام ۵ام ازش یک راهکاری خواستی
پیام ۶ و ۷ رو فرستادی و به یک راهکار کاربردی رسیدی (چت‌های طولانی)

پیام ۸ به یک راهکار optimize تر رسیدی بر اساس توضیحات چت‌های قبلی و ...

اگر بهش بگی راهکارهای قبلی رو فراموش کن و این راهکار رو دنبال کن و بگو چطوری مسئله رو حل کنم

اینو می‌فهمه، توی چت‌های خیلی طولانی z.ai , grok , chatgpt اگر مباحث چت‌های این وسط خیلی شبیه به هم باشه قاطی می‌کنند

این تا اینجا اینطوری نبوده برای من
36👍6
RandRng
Message
این پست خارج از بحث کانال هست ولی چون این اواخر خیلی بهم پیام داده شده
ترجیح دادم بصورت عمومی توی کانال اعلام کنم!

که حداقل خودتون حواستون رو جمع کنید!
38👍8
خیلی سعی کردم این پست رو نذارم ولی خیلی صحبت‌ها شد.

پزشکیان یک سخنرانی کرده که نتیجه‌اش می‌شه؛ هوش مصنوعی بدرد نمی‌خوره.

این بود که گفتم:
رئیس جمهور گاوتون، ضربه آخر رو به پیکر بی‌جان هوش مصنوعی زد


درسته این آقا انقدر گاو بود که گردنش انداختند تا ضربه آخر رو بزنه.
اما هوش مصنوعی رو قبلتر ازین نابود کردند، گاوهای قبلتری تلاش‌های بسیار کردند و پول‌های کلان رو به اسم هوش مصنوعی به دوستان و همنوعان خودشون رانت دادند.


۹۹٪ این اواخر که دیگه هیچ حرفی نمی‌زنم و اعتراضی ندارم چون امیدی به درست شدن نیست، شما تا وقتی اعتراض می‌کنی که فکر می‌کنی امکان درست شدنش هست شاید کسی ندیده یا نفهمیده.
👍1066
تعداد زیادی مدرس الکی اون بیرون هست که کد زدن با chatgpt رو آموزش میده.

توی مواردی که من دیدم معمولاً ۹۰٪ خودشون هم سواد کافی ندارند و همین باعث یک سری صحبت‌های آبکی و دوزاری میشه توی این دوره‌ها.

کنار این آدم‌ها هم ۲۰-۳۰٪ سنیور الکی داریم که متأسفانه من هم باهاشون برخورد داشتم.
این گروه هم فکر می‌کنند AI تا آخر ۲۰۲۶ جای برنامه‌نویس‌ها رو خواهد گرفت (نظرشون اینه که دیتاسنترهای جدید که بهره‌برداری بشه، کار در میاد)

بدون تعارف بگم، اگر از کسی این رو شنیدید که برنامه‌نویسی با حضور AI جزو مشاغلی هست که حذف میشه؛ شک نکنید طرف سواد کافی نداره.
مدل‌های LLM فقط و فقط می‌تونند جای Junior ها رو بگیرند، اونم جونیورهایی که فقط کد زدن یادگرفتند و نه اون‌هایی که استانداردهای توسعه نرم‌افزار و الگوریتم و ... رو یادگرفتند، چند وقت پیش توی یک جایی مثال زدم:

بهتره LLM رو مثل کارآموزی فرض کنید که ۱-۲ سال کنار ۱۰ تا سنیور نشسته فقط از رو دست اون‌ها کد کپی کرده ولی هیچوقت پشت قضیه رو نخونده


یک چنین کارآموزی می‌تونه کدهای نمونه‌ای به شما تحویل بده که توی سطح سنیور هست اما نمی‌تونه با شما راجبش بحث کنه
می‌تونه کار استاندارد بهتون تحویل بده ولی دلیل استاندارد بودن کارش رو نفهمیده و ...

هیچ نیروی فنی‌ای به این آدم، لقب سنیور نخواهد داد.

یک پستی چند مدت پیش توی کانال Rust گذاشتم:
https://xn--r1a.website/pyrust/187

این ویدئو رو ببینید، مفاهیمی که صحبت می‌شه رو گوش بدید و تلاش کنید از LLM این خروجی رو بگیرید.
هیچکدوم از مدل‌ها حتی سمت این موارد هم نمی‌رند مگر اینکه دقیقاً اشاره کنید که چی می‌خواهید و برای کدوم بخش کد می‌خواید اینکار رو کنید.

بله LLM خوب هست ولی در همون حد کارهای ساده و روزمره، اگر کد یا پروژه جدی‌ای رو دارید توسعه می‌دید.
خیلی روش حساب نکنید.

در نهایت:
فکر می‌کنم متن بالا جواب پرتکرار ترین سوال هم باشه، برنامه‌نویسی یاد بگیریم یا نه ؟
بله؛ حتماً یاد بگیرید الان بهترین زمان هست.
61👍24