عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا میشه.
GitHub
GitHub
GitHub
GitHub - KittenML/KittenTTS: State-of-the-art TTS model under 25MB 😻
State-of-the-art TTS model under 25MB 😻 . Contribute to KittenML/KittenTTS development by creating an account on GitHub.
👍22❤4
دستاوردهای یادگیری عمیق(InTec)
برای کد نویسی واقعاً این ترکیب برندهاس : Gemini 2.5 Pro (Math & Coding) Qwen3-coder برای بحثهای روزمره و یادگیری زبان و ... Grok4 البته Claude 4.1 هم ادعا کرده که مشکل code base بزرگ رو کمتر کرده ولی هنوز نتونستم تست کنم؛ اگر این باشه گزینه خوبی میشه…
دوستان این Qwen3-coder که گفتم نسخه open source نیستا !!!
برید روی سایت
https://chat.qwen.ai
و از بخش انتخاب مدل، مدل qwen3-coder رو انتخاب کنید.
چون چندتا از دوستان پیام دادند؛ مدل ۳۰ میلیارد هست و نمیشه و ...
خواستم بگم که منظورم نسخه open source نبوده!
برید روی سایت
https://chat.qwen.ai
و از بخش انتخاب مدل، مدل qwen3-coder رو انتخاب کنید.
چون چندتا از دوستان پیام دادند؛ مدل ۳۰ میلیارد هست و نمیشه و ...
خواستم بگم که منظورم نسخه open source نبوده!
chat.qwen.ai
Qwen Chat
Qwen Chat offers comprehensive functionality spanning chatbot, image and video understanding, image generation, document processing, web search integration, tool utilization, and artifacts.
👍21❤3
#تجربه
وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتریهاش یک سری سایتهای خاص رو کرال میکرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه میداد.
برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت میگرفت از یوزرهاش؛ یکی از شرکتهایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون سادهتر میشه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.
بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک میتونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:
۱- جایی که دامنه عوض میشد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.
۲- صفحات کرال شده رو دیگه کرال نکنیم
۳- صفحات عمومی سایتها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرالهای بعدی دیگه سراغشون نریم.
۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)
دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضیها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پستهای قبلی هست) رو روی اونها finetune کردیم شد چیزی که میخوایم
دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجیها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه میکرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتریها این فیچر رو لانچ کردیم.
همه راضی بودند؛ چون :
۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبکهای منفی رو برای بهبود مدل استفاده میکنیم.
درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!
ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.
شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژهاش گذاشته که فقط هزینههاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.
هوش مصنوعی رو فقط وقتی استفاده میکنیم که ارزش ایجاد میکنه.
پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمیزنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتریهاش یک سری سایتهای خاص رو کرال میکرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه میداد.
برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت میگرفت از یوزرهاش؛ یکی از شرکتهایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون سادهتر میشه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.
بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک میتونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:
۱- جایی که دامنه عوض میشد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.
۲- صفحات کرال شده رو دیگه کرال نکنیم
۳- صفحات عمومی سایتها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرالهای بعدی دیگه سراغشون نریم.
۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)
دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضیها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پستهای قبلی هست) رو روی اونها finetune کردیم شد چیزی که میخوایم
Named Entity Recognition دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجیها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه میکرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتریها این فیچر رو لانچ کردیم.
همه راضی بودند؛ چون :
۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبکهای منفی رو برای بهبود مدل استفاده میکنیم.
درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!
ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.
شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژهاش گذاشته که فقط هزینههاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.
هوش مصنوعی رو فقط وقتی استفاده میکنیم که ارزش ایجاد میکنه.
پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمیزنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
👍67❤21🤣6
RandRng
Message
#موقت
این شرکتهایی که برای تبلیغ مدلهای frontend خودشون که کدهای
html, css, react, ...
میزنه میان از clone یک سایت استفاده میکنند هم همین داستان رو میدونند؛ ۹۹٪ مدلهای LLM امروزی توی clone کردن فوقالعاده هستند.
گول مدلهای این شرکتها رو هم نخورید؛ خودتون تستش کنید روی ایدههای خودتون بگید سایت طراحی کنه یا ...
این شرکتهایی که برای تبلیغ مدلهای frontend خودشون که کدهای
html, css, react, ...
میزنه میان از clone یک سایت استفاده میکنند هم همین داستان رو میدونند؛ ۹۹٪ مدلهای LLM امروزی توی clone کردن فوقالعاده هستند.
گول مدلهای این شرکتها رو هم نخورید؛ خودتون تستش کنید روی ایدههای خودتون بگید سایت طراحی کنه یا ...
👍21❤8
یک تصمیم خوبی گرفته شد توی تیم یک سری سرویس کوچیک داشتیم که فکر میکردیم اگر پروژه بزرگ بشه؛ قطعاً خفت مارو خواهد گرفت چون
توی همین وادی که داشتیم کدهاشون رو میزدیم یک تصمیم مغرورانه گرفتم؛ به بچههای سنیور تیم گفتم اینها رو با
بچههای سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و
الان که ۱-۲ ماه گذشته؛ نتایج رو میبینم و لذت میبرم.
حتماً یک مقدار که سرم خلوت بشه زیر
bottleneck میشه ولی هر کدوم به تنهایی سرویس کوچیکی محسوب میشد! توی همین وادی که داشتیم کدهاشون رو میزدیم یک تصمیم مغرورانه گرفتم؛ به بچههای سنیور تیم گفتم اینها رو با
Rust کد بزنیم چون مطمئنم این پروژه قراره بترکونه (هیچ اطمینانی نبود، فقط خواستم انرژی تیم بالا بره، دلمم نمیخواست این سرویسهای کوچولو باعث شکست پروژههای اصلی باشه) بچههای سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و
deploy های مربوط به tensorflow یاد گرفتم که gRPC واسه ارتباطات بین سرویسها خیلی بهتر هست؛ همین کارو هم کردیم.الان که ۱-۲ ماه گذشته؛ نتایج رو میبینم و لذت میبرم.
حتماً یک مقدار که سرم خلوت بشه زیر
load test نتایجش رو میذارم؛ شاید بخش کد نویسی با Rust بدرد تیم شما یا ۹۰٪ کارهای شما نخوره اما استفاده از gRPC برای ارتباط بین سرویسهای خودتون رو جدی بگیرید.👍43🤣22❤3
دستاوردهای یادگیری عمیق(InTec)
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا میشه. GitHub
Whisper farsi
منتشر شده (شخصاً هنوز تستش نکردم)
ولی این یعنی؛ راه برای خیلی کارها باز میشه اگر نتایجش خوب باشه!
حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
رو برای فارسی بزنه!
منتشر شده (شخصاً هنوز تستش نکردم)
ولی این یعنی؛ راه برای خیلی کارها باز میشه اگر نتایجش خوب باشه!
حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
KittenTTS رو برای فارسی بزنه!
👍15❤4
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
اما این آپدیت
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس مینویسم و چندروزی هست که برای یادگیری دقیقتر رفتم سراغ لایههای مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمقتر میشه! اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
Duck.ai فعلا همچنان 4o-mini رو ارائه میده.اما این آپدیت
chatGpt دقیقاً مثل لحظهی Llama4 برای Meta بود.اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده میکنم
Meta Llama4 Moment
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
❤41👍20
اگر
دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
شخصا احتمال میدم مدل از
nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمیشه)دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.شخصا احتمال میدم مدل از
DeepMind باشه!LMArena | Benchmark & Compare the Best AI Models
Chat with multiple AI models side-by-side. Compare ChatGPT, Claude, Gemini, and other top LLMs. Crowdsourced benchmarks and leaderboards.
👍16❤10
دستاوردهای یادگیری عمیق(InTec)
اگر nano-banana به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمیشه) دیگه خیلیها سراغ فوتوشاپ نخواهند رفت. این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه. تنها جایی که میتونید مدل رو تست کنید؛ https://lmarena.ai/ فقط همینجا هست؛…
Gemini2.5 Flash Image == Nano Banana
منتشر شد!
من بر اساس خروجیهایی که از
Genie 3 دیدم به این نتیجه رسیدم که این مدل قطعا باید کار DeepMind باشه. منتظر مدل بزرگتر این خانواده رو تست کنم!
👍12❤5
یک فیلد داریم به اسم
Malware Data Science
با تکنیکهایی که هرروز داریم کار میکنیم لاگ - عملکرد سیستم - لود شبکه - لود سختافزار و ... رو بررسی میکنند.
خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلیها نمیدونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.
با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت میکردم (البته بحث راجب
چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمیدونم و با توجه به صحبتها گفتم.
Malware Data Science
با تکنیکهایی که هرروز داریم کار میکنیم لاگ - عملکرد سیستم - لود شبکه - لود سختافزار و ... رو بررسی میکنند.
خیلی فیلد جالبی هست نه تنها توی ایران که بطورکلی توی دنیا خیلیها نمیدونند این فیلد وجود داره و البته خیلی هم تعریف دقیقی براش وجود نداره.
با یک نفر از یک شرکت امنیتی اروپایی داشتم صحبت میکردم (البته بحث راجب
Rust بود و متوجه شدیم هردو با Data رابطه خوبی هم داریم) و توی صحبت متوجه شدم فیلد کاری ایشون Malware, ... هست.چون برای خودم جالب بود گفتم اینجاهم معرفی کنم؛ البته اسم دقیق فیلدش رو نمیدونم و با توجه به صحبتها گفتم.
❤28👍12
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی
mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته بودم) ولی از نظر قیمت و مصرف برق خیلی نظرم رو جلب کرد:بنظر میاد قیمتها قراره اینطور باشه
نسخه
B60 Pro با ۲۴ گیگ حافظه و قیمت ۵۰۰ دلار هست.نسخه
B50 Pro با ۱۶ گیگ حافظه و قیمت ۳۵۰ دلار هستالبته قیمتها حدودی هست؛ و مهمترین بخش اینکه میتونید
GPU رو بین چندتا virtual machine تقسیم کنید (بچههایی که پروداکشن کار کردند میدونند چقدر مهم میتونه بشه این نکته)بهترین بخشش؛
B50 PRo که ضعیفتر هست توی بنچمارک اولیه روی مدل ۲۰ میلیارد پارامتری openai تعداد ۱۵ توکن تولید میکنه (میگم اولیه چون نه درایور نهایی اومده؛ نه دست دولوپرها رفته و ... اپتیمایز نشده این تعداد هست.)شخصا البته دارم روی نسخهی معرفی شده شرکت
MaxSun تحقیق میکنم که ۲ تا از B60Pro هارو روی یک برد سوار کرده و ۴۸ گیگ حافظه در اختیار میذاره که قیمت رسمی ۱۲۰۰ دلار هست (مثل اینکه فروشندهها چون کمبود داره گرونتر میدن ولی خب اندکی صبر)MS-Intel ARC Pro B60 Dual 48G Turbo
این
GPU ها قرار نیست کار A6000 انویدیا رو براتون انجام بده که منطقی هم هست چون ۶۰۰۰ دلار قیمتش نیست؛ با توجه به مصرف برق و سایز و قیمت و محدودیتهای کمی که داره شخصا دارم به این گزینه بجای DGX Spark فکر میکنم (البته برای پروژه شرکت)MAXSUN
MS-Intel ARC Pro B60 Dual 48G Turbo
Dual-GPU DesignTwice the horsepower, double the trouble shotting—to your enemies, not your frame rate.
48GB GDDR MemoryBecause 48GB is for spreadsheets, feed your rendering beast with a buffet of VRAM.
Dual-Slot Form FactorPowerful, but still fits like it’s…
48GB GDDR MemoryBecause 48GB is for spreadsheets, feed your rendering beast with a buffet of VRAM.
Dual-Slot Form FactorPowerful, but still fits like it’s…
❤14👍10
#خبر
خلاصهای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض مینوشتم.
ساختمان سازمان ملی هوش مصنوعی اجاره داده میشود.
خلاصهای از مدیریت حکومتی در کشور؛
واقعاً دیگه امیدی به بهبود نیست وگرنه چند پاراگراف اعتراض مینوشتم.
🤣67👍16❤3
دستاوردهای یادگیری عمیق(InTec)
Intel Arc B50-B60 Pro گزینههای خوبی برای گرافیک هست؛ هر دو مورد توی دسته بندی mini-gpu قرار میگیره ولی برا خلاف مدلهای Nvidia اجازه هرکاری بهتون میده؛ رندر - بازی و البته مهمتر از همه AI منم تازه دارم راجبش تحقیق میکنم (قبلتر توی معرفی راجبش پست گذاشته…
Nvidia invest 5 Billion on Intel stocks, to jointly develop AI Infrastructure and Personal computing
تیم آبی، بالاخره داره میوه سرمایهگذاریهاش روی
GPU رو برداشت میکنه مثل اینکه، البته اوضاع هنوز روی CPUهاش به این خوبی نیست.البته من بیشتر به یک همکاری فکر میکنم؛ cpu مخصوص gpu های انویدیا؛ رقابت بهتر با m4, ...
👍10
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به
یکی از مواردی که توی
بهترین مدل بعدی که جایگزین میشد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سیریبراس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)
داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدلهای این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه میندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپکردن خودم از سرعت
خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای
داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.
خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!
ولی پیشنهاد میکنم حتما برای کارها؛ ایدهها و ... از API هاش استفاده کنید بصورت دیوانهوار سریع و ارزون قیمت هست.
Get 200K+ token daily for free (Qwen3-480B Coder)
AI اش با من هست.یکی از مواردی که توی
MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech بخونه) خب رفتیم سراغ Groq که سرعت خوبی داشت ولی مدلهایی که میخواستیم رو نداشت و برای اضافه کردن هم هزینه بالایی میگرفت.بهترین مدل بعدی که جایگزین میشد هم کارمون رو خیلی راه ننداخت.
توی همین گشت و گذارها به سیریبراس رسیدم که سرعت تولید توکنش توی بدترین شرایط 2.5x برابر باقی هست و قیمت خیلی خیلی پایینی هم داره برای تعداد بالا؛ مثلا مدل
Qwen 3 235B Instruct قیمتی که داره با GPT-5-nano یکی هست ولی سرعت خروجی توکن این کجا و اون کجا (دقت رو هم نگم دیگه)
داشتم برنامه ریزی میکردم که برای کارهای شخصی خودمم از مدلهای این شرکت استفاده کنم؛ نه بخاطر دقتش که قطعا کار من رو راه میندازه بلکه بخاطر سرعتش (بعضی وقتا سرعت تایپکردن خودم از سرعت
response مدلها بیشتره)خلاصه رفتم توی سایتش و بعد دریافت API دیدم به به
Qwen3-480B (Coder)
GPT-OSS-120B
چیزایی که دوس دارم هم موجود هست؛ تعداد توکن تولیدیش برای
Qwen3-480B توی چندتا تستهای من بین 2000-2050 توکن بر ثانیه هست.داشتم میرفتم توی صفحه پرداخت که دیدم Referrals داره :
1 successful invite equals +200K tokens per day (up to 1M). Your friend also gets +200k tokens when they sign up.
خلاصه که چون به هرکدوم (هم من هم کسی که با لینک من عضو بشه) روزی 200K+ توکن رایگان میده؛ گفتم با لینک خودم دعوتتون کنم!
ولی پیشنهاد میکنم حتما برای کارها؛ ایدهها و ... از API هاش استفاده کنید بصورت دیوانهوار سریع و ارزون قیمت هست.
Get 200K+ token daily for free (Qwen3-480B Coder)
Cerebras Cloud
Cerebras Inference AI is the fastest in the world.
❤25👍9
دستاوردهای یادگیری عمیق(InTec)
چندروز هست دارم به یکی از دوستان نزدیکم روی ایدهاش کمک میکنم؛ بیشتر کدهای بکند و مربوط به AI اش با من هست. یکی از مواردی که توی MVP دیده شد این بود که علاوه بر سرعت توکن هم برامون خیلی مهمه (چندتا فاز داره و مثلا یک مرحلهاش اینه که خروجی رو Text to Speech…
واقعا این سرعت توی بازار الان و ابزارهای
رقبا رو به راحتی میتونه کنار بزنه بنظرم.
دوستان توی بخش
مثلا برای
LLM یک کد تقلب (cheat code) هست برای ایدههایی که بتونند ازش استفاده کنند.رقبا رو به راحتی میتونه کنار بزنه بنظرم.
2016 Token/Seconds
Qwen3-480B (Coder)
دوستان توی بخش
limit محدودیتهاش رو بخونید حتمامثلا برای
auto complete حتما از مدلهای سادهتر استفاده کنید مثل gpt-oss-120b یا qwen-3-32b که میزان درخواست روزانه / دقیقه یا میزان token های روزانه رو سریع مصرف نکنید (بعضی از ابزارها بصورت خودکار قویترین مدل رو انتخاب میکنند که ضرر هست)👍19❤4
Qwen3-VL
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
بعد از Qwen3-Code این تنها مدل ازین خانواده هست که خیلی دوست داشتم تستش کنم و خب با یک توانایی خیلی خفن منتشر شد:
کنترل موبایل و دسکتاپ.
من ازش خواستم سورس کد یک سایت رو بخونه و اطلاعات مربوط به
frontend اش رو برام در بیاره (صفحه main رو البته) و خیلی راحت اینکار رو کرد.قطعا بیشتر تست میکنم چون سلسلهای از ایدهها تو ذهنم هست.
اگر فرصت داشتید بنظرم ارزش تست کردن داره!
GitHub
GitHub - QwenLM/Qwen3-VL: Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud.
Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud. - QwenLM/Qwen3-VL
👍25❤2
چندین بار اومدم از تجربم روی راهاندازی
ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
H200 بگم و Sync کردن و تستهای مختلف که چندروز درگیرش بودم.ولی واقعاً انگیزهای نیست!
بقول صاحب شرکت؛
آقا من ۱۸ میلیارد پول اینارو دادم ولی با این وضعیت دیگه پول متخصص ندارم بدم!
چیزی که متوجه شدم:
سفارشها ۱ روز قبل جنگ انجام شده؛
بعد جنگ شده و کلی عقب افتاد
در نهایت هر قطعه از یک راهی وارد شده (جهت دور زدن تحریم مثل اینکه)
بعد از جنگ یک سری قراردادهاشون لغو شده
الان هم توی این شرایط یک سری دیگر ...
❤27👍10
یک عنوان شغلی هم داریم
من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
Content Writer من از ۹۰٪ اینا فرار میکنم؛ (مخصوصاً اونایی که مثل نونواها هرروز صبح، ظهر و شب پست میذارن) چرا ؟
چون اینا دقیقاً
Halucination دنیای واقعی ما هستند؛ دقیقاً مشخص نیست تخصص طرف چیه و راجب چی حق داره حرف بزنه یا بنویسه ولی راجب همه چیز شبه تخصص مینویسه.مثلاً طرف مواردی راجب ورزش نوشته (تا دلت بخواد غلط داره)
الان یک مطلبی رو خوندم، طرف راجب تراپی و هوش مصنوعی نوشته بود!
تخصص تراپی رو که ندارم و کسی هم کنارم نیست که سوال کنم؛ اما توی هوش مصنوعی فقط کلمات تخصصی رو توی فرمت درست و براساس احتمال قرار گرفتن کنار هم گذاشته!
جدی میگم؛ سر و ته جمله مشخص نیست؛ ۸۰٪ مطلبش راجب
LLM (هوش مصنوعی از نظر اینا) اشتباه هست، یعنی حتی اگر مطلب رو به ChatGpt هم میداد ایراداش رو میگرفت براش.بدترین بخشش اینه که ۱۵ تا از کانکشنهای بنده توی لینکدین، این پست رو لایک کردند (منم آنفالو کردم؛ برخلاف خیلیها من وقتی کانکشنهام چیزی رو لایک یا کامنت میذارند وقت میذارم و میخونم.)
👍55❤7
