دستاوردهای یادگیری عمیق(InTec)
9.54K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
32
مدل‌های جدید :

Gemma 3n full
Qwen VLo
Baidu (a series of open source models)
Tencent Hunyuan A13B


این ۴ تا لیست مدل‌های جدید هفته هست که Tencent Hunyuan توشون خیلی خودنمایی کرده‌ و می‌کنه.
👍176
IBM
سال 2023 نزدیک به ۸۰۰۰ نفر رو اخراج کرد.
چرا چون هوش مصنوعی جاشون رو گرفته بود؛

حالا تقریباً همون تعداد رو استخدام کرده اما نه برای همون مشاغل؛
افرادی که اخراج شدند تو زمینه HR بودند و افرادی که استخدام شدن متخصص در زمینه‌های دیگه

مارکتینگ، فروش و از همه مهمتر مهندسی نرم‌افزار
دقیقاً خبر قبلی رو یادم هست که می‌گفتند AI شغل برنامه‌نویس‌ها رو گرفت و ...

اون زمان گوگل و مایکروسافت و IBM و ... همه اخراج داشتند.
اما توی مدت کوتاهی همشون همون تعداد آدم رو توی زمینه‌های تخصصی‌تر استخدام کردند

این مدت بسیار گفتم، چیزی به اسم جونیور (مدلی که امروز داریم دیگه وجود نخواهد داشت)
👍5118
واقعا نمیشه توی استفاده عادی Gemini CLI رو به limit نسخه رایگان رسوند.
مگر اینکه به عمد بهش درخواست زیاد بزنید
یا چت‌های مسخره باهاش بکنید.

باید به گوگل گفت؛ لعنتی مگه چقدر دیتا لازم داری (یا هزینه کرال و گرفتن دیتا چقدر هست که) به همه داری این دسترسی رو رایگان میدی ؟
👍438
مدل ۷ میلیاردی apple بر اساس Diffusion هارو تست می‌کردم

واقعاً سرعت خوبی داره.
همچنان Diffusion ها توی LLM مشکلات زیادی دارند ولی برای تسک‌های کوچک بسیار سرعت و دقت خوبی داره.

بیزینس البته علاقه‌ای به این تکنیک هنوز نداره؛ ولی برای استفاده شخصی مورد خوبی هست، مقاله اپل رو هم بخونید کار بیشتر تحقیقاتی بنظر می‌رسه (به دلیل همون محدودیت‌هایی که صحبتش شده قبلاً)
👍194
این گراک ۴ واقعا عالیه
Grok4


توی تسک‌های جدیدم یکیش ساخت یک تست برای Multimodal LLM هاست؛ شرکت ۵۰ تا حدودی تسک خاص داره که یکی از قدم‌هامون برای رسیدن به بهترین راهکار ساخت دیتاست تست چند مرحله‌ای هست.

توی مرحله اول؛ به تیمم گفتم با چندتا دوربین از سازه‌های شبیه به هم تصویر بگیرند یا مثل این بازی‌هایی که تغییرات دوتا تصویر رو باید پیدا کنید و ...

تست مرحله‌ اول رو هیچکدوم بیشتر از ۴۰٪ نگرفتند ولی Grok4 رو با اینکه ایلان ماسک و ... گفتند multi modal نقظه ضعف مدل هست بردم و تست کردم

این مدل فوق‌العاده‌اس؛ آره نمی‌تونه عکس تولید کنه یا ازین کارهایی که بدرد هیچکس نمیخوره ولی منطق داخل تصویر و متن رو خیلی راحت متوجه میشه

روی بخشی از دیتا که دست خودم هست بالای ۷۰٪ دقت داده که با اختلاف تا اینجا بهترین خروجی هست (البته هنوز پرامپت مناسب و ... نوشته نشده وگرنه احتمالا همه مدل‌ها بهتر هم خواهند شد)


نکته دوم کد نویسی هست که Grok3 عالی بود و این عالی‌تر واقعا ازین مدل راضی‌ام تا الان به معنای واقعی توی تسک‌هایی که به کار ما بخوره پیشرفت چشمگیر داشته.
👍378
دستاوردهای یادگیری عمیق(InTec)
این گراک ۴ واقعا عالیه Grok4 توی تسک‌های جدیدم یکیش ساخت یک تست برای Multimodal LLM هاست؛ شرکت ۵۰ تا حدودی تسک خاص داره که یکی از قدم‌هامون برای رسیدن به بهترین راهکار ساخت دیتاست تست چند مرحله‌ای هست. توی مرحله اول؛ به تیمم گفتم با چندتا دوربین از سازه‌های…
نکته: من سوال جوابای کلی - چت‌های خاله زنکی و ... رو تست نمی‌کنم کارهایی رو تست می‌کنم که واقعا بدردم میخوره.
نرید با مدل‌های دیگه درد و دل کنید بیاید بگید این مدلا بهترند.
مدل شعور نداره؛ ما باید داشته باشیم.(اینو یادتون نره)

برای تست دوم؛ چند روز پیش درگیر این موضوع بودم و بطور کلی هم یه مینی پروژه واسه خودم زدم به اسم reading companion ( خیلی جای بهتر شدن داره ولی کارمو راه میندازه؛ اصن الان که فکر میکنم شاید محصولش کردم.) توی این لینک هم توضیح دادم چی شد:

https://xn--r1a.website/per3onal/449

اومدم همون پرامپت‌ها رو ازون چت‌ها دادم به این مدل؛ خروجی‌هاش خیلی بهتره بخصوص اینکه حافظه‌اش طولانی تر هست.
و اینکه چت‌ها رو باهم قاطی کردم (گفتم اگر فقط نوشتم fa یا lang:fa همون موضوع رو فارسی بهم توضیح بده و کلمات تخصصی رو ترجمه نکن بلکه توضیحش رو به فارسی بگو و سعی کن این توضیح رو قبل از ترجمه بصورت راهنما بنویسی و بعد ترجمه کنی)

واقعا لذت بردم (chatgpt این کار رو نتونست انجام بده و مجبور شدم چندتا چت مختلف باز کنم)
👍257
moonshot.ai

مدل جدید خودش رو معرفی کرده به اسم kimiK2 (بهترین مدل open source هست)

این مدل non thinking ولی MOE هست :

https://github.com/MoonshotAI/Kimi-K2

تعداد پارامترها : ۱ تریلیون، با تعداد پارامتر فعال ۳۲ میلیاردی.

لایسنس خوبی هم داره (MIT بیس هست البته)
اگر خواستید توی سایتش و بخش پلتفرم می‌تونید api هم ازش بگیرید یا اینکه kimi.com رو وارد بشید و تست کنید.

نتایجش خیلی جالب بود توی تست‌های من و چون thinking هم نیست خیلی سریع جواب رو میده که تعداد پارامترهای زیادش باعث میشه جوابا خیلی هم خوب باشه.
👍216
Forwarded from Omid
This media is not supported in your browser
VIEW IN TELEGRAM
درود و عرض ادب خدمت ایرانیهای عزیز

#payitforward4iran
اپ پاسچر آنالیز ما توی اپ استور آپدیت شد و هوش مصنوعی اپ می تونه پاسچر شما رو آنالیز کنه و در صورت مشاهده نا فرم بودن پاسچر به کاربر ها پلان حرکت اصلاحی بدهد.

برای عزیزان ساکن ایران امکان استفاده رایگان از اپ به مدت ۶ ماه رو فراهم کرده ایم. عزیزان می توانند برای دریافت کد به آیدی اینستای ما پیام بدهند و امکانات پرمیم اپ رو اکتیو کنند. این امکان تا آخر تیرماه اعتبار دارد و بعد منقضی می شود.


لطفا شیر کنید.

اگر کسی به مشکلی برخورد لطفا به آیدی اینستای تیم ما پیام بدهد:
FlexiTrace Developers
IG: Flexitrace

#PostureAnalysis
#AI
#MachineLearning
14👍13
دستاوردهای یادگیری عمیق(InTec)
درود و عرض ادب خدمت ایرانیهای عزیز #payitforward4iran اپ پاسچر آنالیز ما توی اپ استور آپدیت شد و هوش مصنوعی اپ می تونه پاسچر شما رو آنالیز کنه و در صورت مشاهده نا فرم بودن پاسچر به کاربر ها پلان حرکت اصلاحی بدهد. برای عزیزان ساکن ایران امکان استفاده رایگان…
این اپ رو یک تیم از بچه‌های ایرانی توسعه دادند (دوستان نزدیک بنده)

که خب حالا دسترسی رایگان هم برای ایرانی‌ها فراهم شده روش. (فقط نسخه iOS, iPadOS داره)

چون خودم برای آنالیز حرکتی ازش استفاده می‌کردم؛ گفتم اینجا هم معرفی کنم.
هم چون برای آنالیز حرکتی بسیار عالی هست
هم اینکه می‌تونید ازش ایده بگیرید برای پروژه انجام دادند.

درنهایت اینکه روی اینستاگرام بهشون پیام بدید اکانت ۶ ماهه رو رایگان دریافت می‌کنید


نکته مهم:

اپ کاملاً on-device پردازش‌ها رو انجام میده و هیچ دیتایی از دستگاه شما جایی ارسال نخواهد شد (می‌تونید موقع آنالیز، اینترنت رو کامل قطع کنید)

شخصاً افتخار همکاری با این تیم رو (توی نسخه‌های اولیه) داشتم.
👍3014
میسترال اولین مدل voice خودش رو open-source معرفی کرد

https://mistral.ai/news/voxtral
17👍8
The first open-source Knowledge Delivery Network (KDN) that accelerates LLM applications up to 8x faster, at 8x lower cost.



تا ۸ برابر سریعتر؛ من روی دموهای خودشون با دیتاها و نوع استفاده خودمون تست کردم تا ۶-۷ برابر هم دیدم!

Github link
بنظرم پروژه خوبیه
👍19
دستاوردهای یادگیری عمیق(InTec)
moonshot.ai مدل جدید خودش رو معرفی کرده به اسم kimiK2 (بهترین مدل open source هست) این مدل non thinking ولی MOE هست : https://github.com/MoonshotAI/Kimi-K2 تعداد پارامترها : ۱ تریلیون، با تعداد پارامتر فعال ۳۲ میلیاردی. لایسنس خوبی هم داره (MIT بیس…
تیم groq با این پست از Artificial Analysis خبر از انتشار Kimi k2 روی پلتفرم خودش داد

با سرعت 40x؛ اگر مدل رو تست کرده باشید می‌دونید توی تسک‌های کد فوق‌العاده هست با اینکه thinking نیست.
اما مشکل اصلی کند بودنش بود که Groq اون رو حل کرده

۴۰ برابر سرعت بیشتر؛ روی پروژه جدیدم این مدل رو دقیق تست می‌کنم و با Gemini2.5 Pro مقایسه خواهم کرد.

نتایجش رو می‌ذارم حتماً (امیدوارم گراک نسخه بزرگش رو دپلوی کرده باشه)


توی تست mini دقیقاً میشه گفت near-realtime هست 😂😂🤯🤯🤯
👍248
دستاوردهای یادگیری عمیق(InTec)
تیم groq با این پست از Artificial Analysis خبر از انتشار Kimi k2 روی پلتفرم خودش داد با سرعت 40x؛ اگر مدل رو تست کرده باشید می‌دونید توی تسک‌های کد فوق‌العاده هست با اینکه thinking نیست. اما مشکل اصلی کند بودنش بود که Groq اون رو حل کرده ۴۰ برابر سرعت…
این مدل رو کلی تست کردم؛
خیلی مدل خوبیه و خیلی استانداردها رو وقتی بهش می‌گی رعایت می‌کنه.
مثلا استانداردهای امنیتی و ... (مثل همه مدل‌های دیگه هم باید بدونی این استانداردها چی هستند تا دقیق ازش بخوای تا رعایت کنه)


اما من یک مشکل اساسی باهاش دارم؛ استایل کد زدنم رو کامل رعایت نمی‌کنه؛ خیلی عالی هست برای استاندارد کد زدن و وایب کدینگ
ولی
من vibe code اصلا به کارم نمیاد؛ و استانداردها هم باید با استاندارد کدهای خودم باشه (ساده و قابل درک) ولی این مدل زیادی خلاقیت و اپتیمایز و ... میزنه که هیچوقت توی نسخه اولیه پروژه نباید اینطوری کد زد.
(البته خیلی وقتا با پرامپت حل می‌شه ولی خب)

جایگزین ۱۰۰٪ برام نشده توی استفاده از Gemini Pro ولی 70-80% مواقع ازین مدل استفاده می‌کنم بخاطر ریسپانس‌های سریعتر و 20-30% رو میرم روی Gemini Pro بطور کلی رضایت دارم

بخصوص اگر حوصله داشته باشید و یکبار یک System Prompt عالی براش بنویسید با استانداردهای خودتون.


در حال حاضر هم دارم روی نسخه آپدیت شده Qwen3 تست میزنم بخوص برای تسک‌های react پروژه خودم.
تا اینجا راضی‌ام ازین آپدیت.
👍167
Forwarded from Python Hints
هرکسی گوه غزه رو خورد اینو بزنید تو صورتش!

بعد از این‌ همه جنگ و بزرگ‌نمایی، فقط ۲۰٪ کودکان غزه سو تغذیه دارند
ولی از طرفی در ایران
۵۴٪ بچه‌های سیستان و بلوچستان سو تغذیه دارند

اون حرومزاده‌هایی که غزه از دهنشون نمیوفته یک کامنت هم برای بچه‌های سیستان و بلوچستان ندارند!

آره عزیز؛ حتی توی این همدردی هم به فکر وام دولتی و پشتیبانی حکومتی هستید.

لینک خبر رکنا
125👍52
این رو چندباری از چندتا از بچه‌ها شنیدم ؛
تا امروز راجبش چیزی نگفتم چون در مدل‌های دیگه شنیده بودم.

مثلاً اینکه از طرف شما ۴۰۰-۶۰۰ میلیون وام بگیرند بعد شما اقساط اون رو بدید (توی این مورد هم هیچی از پروژه و ... مشخص نبود) یعنی یک دوره هوش مصنوعی برای شما حداقل ۳۰۰ میلیون تومان در میاد!

برای دانشگاه stanford و دوره‌ی پروفسور Manning شما با مبلغ ۱۰,۰۰۰ دلار می‌تونید مدرک معتبر استنفورد رو برای NLP بگیرید
(حداقل ۲ سال پیش که من پرسیدم)

خیلی مراقب این سودجویی ها باشید؛ شاید بهتر باشه مقامات قانونی کشور یک سری هم به این مدل شرکت‌ها بزنند!


پی‌نوشت:
دوستان خواهشاً خودتون مراقب باشید، از متخصص های فعلی مشورت بگیرید، توی گروها بپرسد و ...
با هر شرایطی سراغ کار نرید. هنوز شروع به کار نکرده خودتون رو بدهی بالا نیارید.
👍624
Forwarded from Python Hints
متا دیگه دنبال coder نمی‌گرده
حتی اینکه چندتا leetcode هم حل کردید و حفظ کردید توی متا مهم نیست.

ازین پس، توی مصاحبه‌های شرکت META اجازه استفاده از هوش مصنوعی رو هم دارید.

۱ سال و نیم قبل گفتم، شرکت‌ها قطعاً و حتماً به این سمت خواهند رفت 👌

تعریف جونیور هم بیشتر عوض خواهد شد !
👍508🤣1
نسخه جدید ollama یک اپلیکیشن هم بهت میده
دیگه نیازی به open webui نداری و مهمتر از اون؛ تغییر مسیر دیفالت مدل‌ها دیگه دردسر بزرگ نخواهد بود.

اگر خواستید با:
qwen3:30b-a3b-instruct-2507-q4_K_M

تستش کنید (ورژن جدید qwen3 این هست)
👍212
مدل‌های جدید openai که opensource هم هست روی groq دپلوی شده !


تست کنید متوجه می‌شید؛ دنیای open source توی این سایز از مدل‌ها خیلی از openai جلوتر هست!

برای تست :

من روی دیتاست تست خودم تست میگیرم، مشکلاتی که توی این مدت داشتم و مدل‌های بزرگ نتونستند حل کنند ولی توی ورژن‌های بعدی حل شده!
حالا یک فایل csv بزرگ شده که دسته بندی هم داره؛
برای مدل‌های ۳۰ میلیاردی و کمتر
برای مدل‌های ۳۰-۷۰ میلیاردی
برای مدل‌های ۷۰ تا ۱۵۰ میلیاردی
برای مدل‌های ۱۵۰ تا ۲۵۰ میلیاردی
برای مدل‌های ۲۵۰ تا ۳۵۰ میلیاردی
و درنهایت مدل‌های بالای ۳۵۰ میلیارد پارامتر

و اینجوری هست که سوالی که بنظرم چالشی بوده رو انتخاب کردم از مدل‌های کوچیک شروع کردم تا بزرگ و اولین کوچکترین مدلی که تونسته به سوالم جواب درست بده رو علامت زدم!

پیشنهاد می‌کنم شماهم اینکارو بکنید و دوتا دلیل هم دارم :

۱- دیگه اکثر بنچمارک‌ها بی‌معنی شدند
۲- نحوه استفاده شما از مدل‌ بسیار تعیین کننده هست.

مثلاً برای یک نویسنده، هیچوقت مدلی که بهترین نتایج روی SWE یا LMSYS داره شاید مهم نباشه ولی یک مدل که بهترین کلمات جایگزین رو پیشنهاد می‌ده بهترین مدل بشه.


Groq chat
👍225
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد.

فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟!

یا اینکه چجوری 30.8% با 69.1% هم اندازه می‌شه ؟!

😂😂😂😂

از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبت‌نام کردند
که از تعداد ۲ میلیون و ۸۰۰ هزار و خورده‌ای
شاید تا الان که صحبت می‌کنیم به ۳۰ میلیون هم رسیده باشه دیگه!
🤣1004