یک تصمیم خوبی گرفته شد توی تیم یک سری سرویس کوچیک داشتیم که فکر میکردیم اگر پروژه بزرگ بشه؛ قطعاً خفت مارو خواهد گرفت چون
توی همین وادی که داشتیم کدهاشون رو میزدیم یک تصمیم مغرورانه گرفتم؛ به بچههای سنیور تیم گفتم اینها رو با
بچههای سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و
الان که ۱-۲ ماه گذشته؛ نتایج رو میبینم و لذت میبرم.
حتماً یک مقدار که سرم خلوت بشه زیر
bottleneck میشه ولی هر کدوم به تنهایی سرویس کوچیکی محسوب میشد! توی همین وادی که داشتیم کدهاشون رو میزدیم یک تصمیم مغرورانه گرفتم؛ به بچههای سنیور تیم گفتم اینها رو با
Rust کد بزنیم چون مطمئنم این پروژه قراره بترکونه (هیچ اطمینانی نبود، فقط خواستم انرژی تیم بالا بره، دلمم نمیخواست این سرویسهای کوچولو باعث شکست پروژههای اصلی باشه) بچههای سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و
deploy های مربوط به tensorflow یاد گرفتم که gRPC واسه ارتباطات بین سرویسها خیلی بهتر هست؛ همین کارو هم کردیم.الان که ۱-۲ ماه گذشته؛ نتایج رو میبینم و لذت میبرم.
حتماً یک مقدار که سرم خلوت بشه زیر
load test نتایجش رو میذارم؛ شاید بخش کد نویسی با Rust بدرد تیم شما یا ۹۰٪ کارهای شما نخوره اما استفاده از gRPC برای ارتباط بین سرویسهای خودتون رو جدی بگیرید.👍43🤣22❤3
دستاوردهای یادگیری عمیق(InTec)
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا میشه. GitHub
Whisper farsi
منتشر شده (شخصاً هنوز تستش نکردم)
ولی این یعنی؛ راه برای خیلی کارها باز میشه اگر نتایجش خوب باشه!
حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
رو برای فارسی بزنه!
منتشر شده (شخصاً هنوز تستش نکردم)
ولی این یعنی؛ راه برای خیلی کارها باز میشه اگر نتایجش خوب باشه!
حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
KittenTTS رو برای فارسی بزنه!
👍15❤4
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
اما این آپدیت
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس مینویسم و چندروزی هست که برای یادگیری دقیقتر رفتم سراغ لایههای مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمقتر میشه! اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
Duck.ai فعلا همچنان 4o-mini رو ارائه میده.اما این آپدیت
chatGpt دقیقاً مثل لحظهی Llama4 برای Meta بود.اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده میکنم
Meta Llama4 Moment
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
❤41👍20
اگر
دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
شخصا احتمال میدم مدل از
nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمیشه)دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.شخصا احتمال میدم مدل از
DeepMind باشه!LMArena | Benchmark & Compare the Best AI Models
Chat with multiple AI models side-by-side. Compare ChatGPT, Claude, Gemini, and other top LLMs. Crowdsourced benchmarks and leaderboards.
👍16❤10
دستاوردهای یادگیری عمیق(InTec)
اگر nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمیشه) دیگه خیلیها سراغ فوتوشاپ نخواهند رفت. این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه. تنها جایی که میتونید مدل رو تست کنید؛ https://lmarena.ai/ فقط همینجا هست؛…
Gemini2.5 Flash Image == Nano Banana
منتشر شد!
من بر اساس خروجیهایی که از
Genie 3 دیدم به این نتیجه رسیدم که این مدل قطعا باید کار DeepMind باشه. منتظر مدل بزرگتر این خانواده رو تست کنم!
👍12❤5
یک فیلد داریم به اسم
Malware Data Science
با تکنیکهایی که هرروز داریم کار میکنیم لاگ - عملکرد سیستم - لود شبکه - لود سختافزار و ... رو بررسی میکنند.
خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلیها نمیدونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.
با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت میکردم (البته بحث راجب
چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمیدونم و با توجه به صحبتها گفتم.
Malware Data Science
با تکنیکهایی که هرروز داریم کار میکنیم لاگ - عملکرد سیستم - لود شبکه - لود سختافزار و ... رو بررسی میکنند.
خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلیها نمیدونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.
با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت میکردم (البته بحث راجب
Rust بود و متوجه شدیم هردو با Data رابطه خوبی هم داریم) و توی صحبت متوجه شدم فیلد کاری ایشون Malware, ... هست.چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمیدونم و با توجه به صحبتها گفتم.
❤28👍12
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی
mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته بودم) ولی از نظر قیمت و مصرف برق خیلی نظرم رو جلب کرد:بنظر میاد قیمتها قراره اینطور باشه
نسخه
B60 Pro با ۲۴ گیگ حافظه و قیمت ۵۰۰ دلار هست.نسخه
B50 Pro با ۱۶ گیگ حافظه و قیمت ۳۵۰ دلار هستالبته قیمتها حدودی هست؛ و مهمترین بخش اینکه میتونید
GPU رو بین چندتا virtual machine تقسیم کنید (بچههایی که پروداکشن کار کردند میدونند چقدر مهم میتونه بشه این نکته)بهترین بخشش؛
B50 PRo که ضعیفتر هست توی بنچمارک اولیه روی مدل ۲۰ میلیارد پارامتری openai تعداد ۱۵ توکن تولید میکنه (میگم اولیه چون نه درایور نهایی اومده؛ نه دست دولوپرها رفته و ... اپتیمایز نشده این تعداد هست.)شخصا البته دارم روی نسخهی معرفی شده شرکت
MaxSun تحقیق میکنم که ۲ تا از B60Pro هارو روی یک برد سوار کرده و ۴۸ گیگ حافظه در اختیار میذاره که قیمت رسمی ۱۲۰۰ دلار هست (مثل اینکه فروشندهها چون کمبود داره گرونتر میدن ولی خب اندکی صبر)MS-Intel ARC Pro B60 Dual 48G Turbo
این
GPU ها قرار نیست کار A6000 انویدیا رو براتون انجام بده که منطقی هم هست چون ۶۰۰۰ دلار قیمتش نیست؛ با توجه به مصرف برق و سایز و قیمت و محدودیتهای کمی که داره شخصا دارم به این گزینه بجای DGX Spark فکر میکنم (البته برای پروژه شرکت)MAXSUN
MS-Intel ARC Pro B60 Dual 48G Turbo
Dual-GPU DesignTwice the horsepower, double the trouble shotting—to your enemies, not your frame rate.
48GB GDDR MemoryBecause 48GB is for spreadsheets, feed your rendering beast with a buffet of VRAM.
Dual-Slot Form FactorPowerful, but still fits like it’s…
48GB GDDR MemoryBecause 48GB is for spreadsheets, feed your rendering beast with a buffet of VRAM.
Dual-Slot Form FactorPowerful, but still fits like it’s…
❤14👍10
#خبر
خلاصهای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض مینوشتم.
ساختمان سازمان ملی هوش مصنوعی اجاره داده میشود.
خلاصهای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض مینوشتم.
🤣67👍16❤3
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته…
Nvidia invest 5 Billion on Intel stocks, to jointly develop AI Infrastructure and Personal computing
تیم آبی، بالاخره داره میوه سرمایهگذاریهاش روی
GPU رو برداشت میکنه مثل اینکه، البته اوضاع هنوز روی CPUهاش به این خوبی نیست.البته من بیشتر به یک همکاری فکر میکنم؛ cpu مخصوص gpu های انویدیا؛ رقابت بهتر با m4, ...
👍10
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به
یکی از مواردی که توی
بهترین مدل بعدی که جایگزین میشد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سیریبراس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)
داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدلهای این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه میندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپکردن خودم از سرعت
خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای
داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.
خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!
ولی پیشنهاد میکنم حتما برای کارها؛ ایدهها و ... از API هاش استفاده کنید بصورت دیوانهوار سریع و ارزون قیمت هست.
Get 200K+ token daily for free (Qwen3-480B Coder)
AI اش با من هست.یکی از مواردی که توی
MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech بخونه) خب رفتیم سراغ Groq که سرعت خوبی داشت ولی مدلهایی که میخواستیم رو نداشت و برای اضافه کردن هم هزینه بالایی میگرفت.بهترین مدل بعدی که جایگزین میشد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سیریبراس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
Qwen 3 235B Instruct قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)
داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدلهای این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه میندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپکردن خودم از سرعت
response مدلها بیشتره)خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
Qwen3-480B (Coder)
GPT-OSS-120B
چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای
Qwen3-480B توی چندتا تستهای من بین 2000-2050 توکن بر ثانیه هست.داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.
خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!
ولی پیشنهاد میکنم حتما برای کارها؛ ایدهها و ... از API هاش استفاده کنید بصورت دیوانهوار سریع و ارزون قیمت هست.
Get 200K+ token daily for free (Qwen3-480B Coder)
Cerebras Cloud
Cerebras Inference AI is the fastest in the world.
❤25👍9
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech…
واقعا این سرعت توی بازار الان و ابزارهای
رقبا رو به راحتی میتونه کنار بزنه بنظرم.
دوستان توی بخش
مثلا برای
LLM یک کد تقلب (cheat code) هست برای ایدههایی که بتونند ازش استفاده کنند.رقبا رو به راحتی میتونه کنار بزنه بنظرم.
2016 Token/Seconds
Qwen3-480B (Coder)
دوستان توی بخش
limit محدودیتهاش رو بخونید حتمامثلا برای
auto complete حتما از مدلهای سادهتر استفاده کنید مثل gpt-oss-120b یا qwen-3-32b که میزان درخواست روزانه / دقیقه یا میزان token های روزانه رو سریع مصرف نکنید (بعضی از ابزارها بصورت خودکار قویترین مدل رو انتخاب میکنند که ضرر هست)👍19❤4
Qwen3-VL
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
GitHub
GitHub - QwenLM/Qwen3-VL: Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud.
Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud. - QwenLM/Qwen3-VL
👍25❤2
چندین بار اومدم از تجربم روی راهاندازی
ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
H200 بگم و Sync کردن و تستهای مختلف که چندروز درگیرش بودم.ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
❤27👍10
یک عنوان شغلی هم داریم
من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
Content Writer من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص مینویسه.مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم میداد ایراداش رو میگرفت براش.بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
👍55❤7
#ایده #تجربه
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
واقعا باورم نمیشه؛ ۱ ساعت طول کشید
الان من ۵۰ تا
هم ۵۰۰۰ دلار هزینه سالیانه
این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
برای یک علاقمندی شخصی چندروزی بود که داشتم سرچ میکردم و نهایتا به ۵۰ تا وبسایت رسیدم؛ از این موارد ۲۰ مورد انگلیسی - ۸ مورد فرانسه - ۸ مورد داچ و آلمانی و باقی موارد هم شرق آسیا شامل چین و ژاپن و کره بود.
من از همهی این سایتها و تمام مطالبی که انتشار میدادند به یک سری موارد خاص نیاز داشتم؛ که خب اکثر سایتها این فیلترها رو توی بخش
Advance خودشون فراهم میکردند ولی بیش از ۴۰-۵۰ فیلتر مختلف داشتند.مثلا: فرض کنید ۵۰ تا سایت مثل آمازون که هزاران نوع محصول رو برای فروش دارند و شما هم جدیدترین محصول رو میخواید هم توی دسته بندی و تنظیمات خاص خودتون هم اینکه مثلا اگر دریل فلان رو سفارش دادید بر اساس توضیحاتش دقیقا به مته و سهراهی و کابل و پاور و ... هم برسید. (من مثال ساده زدم ولی این سایتها چون تخصصی هست دقیقا همهی این تنظیمات فیلترها رو ارائه میده)
۵۰ مورد سایت هرکدوم ۵۰ تا تنظیمات و فیلتر - و البته بیش از ۶-۷ زبان زنده دنیا؛ تقریبا داشتم ناامید میشدم و به این فکر میکردم که
api های رایگان رو پول بدم و از یک شرکت واسط بخرم که :۱- فیلترها برام از قبل انجام شده باشه
۲- همه موارد به زبان انگلیسی باشه
۳- دردسری نداشته باشه
اما مشکل اصلی این بود که حداقل ۵ دقیقه و حداکثر ۱۵ دقیقه تاخیر داره این
API و این سایت بهترین ارائه دهنده هست.یکباره به ذهنم زد چیزی که دقیقا میخوام اتفاق بیوفته رو به
LLM بدم + سورس کد سایتها یا لینک صفحه فیلترها و ازش بخوام یک url کامل با فیلترها بهم بده.واقعا باورم نمیشه؛ ۱ ساعت طول کشید
prompt نوشتم و درنهایت فقط و فقط Grok تونست کار رو برام انجام بده هر ۵۰ وبسایت (هربار پرامپت را با ۱۰ تا از سایتها بهش میدادم)الان من ۵۰ تا
url دارم که دقیق فیلتر شده و فقط کافیه هر ۳۰ دقیقه یکبار request بدم و آپدیتش کنم!هم ۵۰۰۰ دلار هزینه سالیانه
api رو از رو دوشم برداشت؛ هم قوانین سایت رو پیدا کرد (هر ۳۰ دقیقه آپدیت میشه) هم تاخیرها رو حذف کرد و در نهایت کدش رو برام نوشت (یک مقدار اشتباه داشت ولی خب بازم عالی بود)این تسک رو هیچکدوم از مدلهای دیگه نتونستند انجام بدند ( حتی ۱۰٪ اش رو)
اینم تبدیل شد به یکی از تستهایی که ازین به بعد انجام خواهم داد برای ارزیابی مدلها؛ خلاصه خواستم بگم این تواناییهارو هم دارند مدلهای
LLM خیلی چیز جالبی هست.👍46❤18
اینو میگم که دیگه اتفاق نیوفته؛
روی کدهای
باید از
واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
روی کدهای
LLM توی بکند و فرانت long polling جواب نیستا!باید از
SSE استفاده کنید.واقعا فکر نمیکردم هیجوقت لازم بشه این نکته رو بگم تا اینکه امروز دیدم یک شرکتی که درآمدش هم تو ایران کم نیست داره
long poll استفاده میکنه بجای SSE توی سرویسهای LLM اش.قبل از اینکه با لقب سنیورتون همرو ... کنید؛ حداقل ۲ تا مطلب طراحی سیستم بخونید.
پیونشت (شما گفتید) :
روزای اول بعضی شرکتها رفته بودن سراغ
web-socket برای سرویس دهی.👍26❤4
امروز رو با تست دوتا مدل جدید شروع کنیم :
۱) خانواده
۲) برای این یکی هیجان دارم
۱) خانواده
Granite 4.0 از IBM۲) برای این یکی هیجان دارم
NeuTTS Air که رقیب درخوری برای مدلهای Eleven Labs بنظر میاد.❤12👍7
