سلام. برای بررسی تصویر فاکتور توسط ربات مشکلی پیش آمده که به زودی رفع و اطلاع رسانی خواهد شد
از صبوری شما ممنونیم
از صبوری شما ممنونیم
❤6👍2
دوستانی که مدرک براشون اهمیتی نداره و فقط برای تمرین و کوییز میخوان دوره رو ارتقا بدن، دست نگه دارند،
به زودی همه تمرینها و کوییزها رو داخل هیمن کانال قرار میدم.
به زودی همه تمرینها و کوییزها رو داخل هیمن کانال قرار میدم.
🥰16❤7
بزرگورانی که دوره LLM رو تهیه کردین، خیلی خوب میشه نظرتونو توی سایت ثبت هم بکنین 🌱
این کار هم باعث دلگرمی استاد میشه، هم به بقیهای که مردد هستن کمک میکنه راحتتر تصمیم بگیرن.
https://mktb.me/04dr/
با تشکر
این کار هم باعث دلگرمی استاد میشه، هم به بقیهای که مردد هستن کمک میکنه راحتتر تصمیم بگیرن.
https://mktb.me/04dr/
با تشکر
👍12
انتشار نسخه Qwen3-VL
دوستان به نظرم سریعتر دوره VLM را بخونید بعد سراغ این ریپو جدید برید:
https://github.com/QwenLM/Qwen3-VL
قطعا ارزش تست داره، و اگر زودتر اومده بود تو کورس ازش مثال میزاشتم
https://qwen.ai/blog?id=99f0335c4ad9ff6153e517418d48535ab6d8afef&from=research.latest-advancements-list
دوستان به نظرم سریعتر دوره VLM را بخونید بعد سراغ این ریپو جدید برید:
https://github.com/QwenLM/Qwen3-VL
2025.09.23: We have released the Qwen3-VL-235B-A22B-Instruct and Qwen3-VL-235B-A22B-Thinking. For more details, please check our blog!
قطعا ارزش تست داره، و اگر زودتر اومده بود تو کورس ازش مثال میزاشتم
https://qwen.ai/blog?id=99f0335c4ad9ff6153e517418d48535ab6d8afef&from=research.latest-advancements-list
GitHub
GitHub - QwenLM/Qwen3-VL: Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud.
Qwen3-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud. - QwenLM/Qwen3-VL
❤7🔥3
VLM-proje.pdf
386.3 KB
تمارین+ پروژه های دوره "آموزش مدلهای زبانی-تصویری (VLM): از درک تصویر و ویدیو تا فاینتیون پیشرفته"
❤4🔥3😱1
🚀 نوتبوکهای دوره "آموزش مدلهای زبانی-تصویری (VLM): از درک تصویر و ویدیو تا فاینتیون پیشرفته" :
👈از شماره 20 تا 35
https://github.com/Alireza-Akhavan/LLM
👈از شماره 20 تا 35
https://github.com/Alireza-Akhavan/LLM
🔥4
🎉 دوره جدید منتشر شد:
آموزش مدلهای زبانی-تصویری (VLM): از درک تصویر و ویدیو تا فاینتیون پیشرفته
از درک تصویر و ویدیو تا فاینتیون پیشرفته 🚀
📚 در 4 فصل:
1️⃣ آشنایی با مدلهای مولتیمدال (CLIP تا SigLIP)
2️⃣ کاربرد VLM در درک تصویر و ویدیو
3️⃣ فاینتیون و پروژههای تخصصی
4️⃣ آموزش پیشرفته با DPO، GRPO و MPO
🔑 ویژگیهای کلیدی:
✔️ معرفی روشها و مدلهای جدید مثل MPO و FASTVLM اپل
✔️ استفاده از HuggingFace و Unsloth
✔️ بیش از 15 کد عملی همراه توضیح کامل
🎁 تخفیف ویژه 70٪ با کد زیر:
🔗 تهیه دوره:
https://mktb.me/e3gx/
کانال تلگرامی دوره | کانال تلگرام کلاسویژن | کدهای دوره
اسلایدهای دوره | کوئیزهای دوره | تمرین+پروژه
آموزش مدلهای زبانی-تصویری (VLM): از درک تصویر و ویدیو تا فاینتیون پیشرفته
از درک تصویر و ویدیو تا فاینتیون پیشرفته 🚀
📚 در 4 فصل:
1️⃣ آشنایی با مدلهای مولتیمدال (CLIP تا SigLIP)
2️⃣ کاربرد VLM در درک تصویر و ویدیو
3️⃣ فاینتیون و پروژههای تخصصی
4️⃣ آموزش پیشرفته با DPO، GRPO و MPO
🔑 ویژگیهای کلیدی:
✔️ معرفی روشها و مدلهای جدید مثل MPO و FASTVLM اپل
✔️ استفاده از HuggingFace و Unsloth
✔️ بیش از 15 کد عملی همراه توضیح کامل
🎁 تخفیف ویژه 70٪ با کد زیر:
COUPON-c4cd3
🔗 تهیه دوره:
https://mktb.me/e3gx/
کانال تلگرامی دوره | کانال تلگرام کلاسویژن | کدهای دوره
اسلایدهای دوره | کوئیزهای دوره | تمرین+پروژه
🔥5❤2
Media is too big
VIEW IN TELEGRAM
🎉 دوره جدید منتشر شد:
آموزش مدلهای زبانی-تصویری (VLM):
از درک تصویر و ویدیو تا فاینتیون پیشرفته 🚀
🎁 تخفیف ویژه 70٪ با کد زیر:
🔗 تهیه دوره:
https://mktb.me/e3gx/
~~~~~~~
اطلاعات بیشتر
~~~~~~~
🔥 برای اطلاع از کدهای تخفیف، همین حالا عضو کانال تلگرام ما بشید:
👇👇👇
@llm_huggingface
👆👆👆
🎓ما رو تو اینستاگرام هم دنبال کنید...
https://www.instagram.com/class.vision
آموزش مدلهای زبانی-تصویری (VLM):
از درک تصویر و ویدیو تا فاینتیون پیشرفته 🚀
🎁 تخفیف ویژه 70٪ با کد زیر:
COUPON-c4cd3
🔗 تهیه دوره:
https://mktb.me/e3gx/
~~~~~~~
اطلاعات بیشتر
~~~~~~~
🔥 برای اطلاع از کدهای تخفیف، همین حالا عضو کانال تلگرام ما بشید:
👇👇👇
@llm_huggingface
👆👆👆
🎓ما رو تو اینستاگرام هم دنبال کنید...
https://www.instagram.com/class.vision
❤5
آموزش LLM و VLM
🎉 دوره جدید منتشر شد: آموزش مدلهای زبانی-تصویری (VLM): از درک تصویر و ویدیو تا فاینتیون پیشرفته 🚀 🎁 تخفیف ویژه 70٪ با کد زیر: COUPON-c4cd3 🔗 تهیه دوره: https://mktb.me/e3gx/ ~~~~~~~ اطلاعات بیشتر ~~~~~~~ 🔥 برای اطلاع از کدهای تخفیف، همین حالا عضو کانال…
برای استفاده از کد تخفیف حتما تیک دسترسی کامل را بردارید
کد روی تخفیف دیگه به صورت تجمیعی اعمال نمیشه و فقط یک تخفیف روی دوره کار میکنه
کد روی تخفیف دیگه به صورت تجمیعی اعمال نمیشه و فقط یک تخفیف روی دوره کار میکنه
👍4❤1
Media is too big
VIEW IN TELEGRAM
🌟 آموزش مدلهای زبانی-تصویری (VLM) با تدریس علیرضا اخوانپور منتشر شد🎉
مردادماه دورهی مدلهای زبانی بزرگ (LLM) در مکتبخونه منتشر شد؛ دورهای که توش یاد میگرفتید مدلهایی مثل ChatGPT یا Gemini چطور آموزش میبینن، چطور کار میکنن و چطور میتونن به زبانهای مختلف – حتی فارسی – پاسخ بدن و ...
♨️حالا نوبت یکی از داغترین موضوعات دنیای AI رسیده:
🔹 مدلهای زبانی-تصویری (VLM)
مدلهای زبانی-تصویری (VLM) نسل جدیدی از مدلهای مولد هستن که علاوه بر متن، تصویر رو هم میفهمن. یعنی میتونن عکس رو توصیف کنن، به سوال دربارهی محتواش جواب بدن و حتی بین متن و تصویر ارتباط برقرار کنن.
📚 در این دوره یاد میگیرید:
- ساختار و معماری مدلهای VLM
- کاربردهای جذاب مثل پرسشوپاسخ تصویری و مولتیمودال
- نحوهی آموزش و بهکارگیری این مدلها در پروژههای واقعی
👨🏫 تدریس هر دو دوره توسط مهندس علیرضا اخوانپور انجام شده
🔗 مشاهده دوره:
https://mktb.me/e3gx/
~~~
کانال تلگرامی دوره
@llm_huggingface
مردادماه دورهی مدلهای زبانی بزرگ (LLM) در مکتبخونه منتشر شد؛ دورهای که توش یاد میگرفتید مدلهایی مثل ChatGPT یا Gemini چطور آموزش میبینن، چطور کار میکنن و چطور میتونن به زبانهای مختلف – حتی فارسی – پاسخ بدن و ...
♨️حالا نوبت یکی از داغترین موضوعات دنیای AI رسیده:
🔹 مدلهای زبانی-تصویری (VLM)
مدلهای زبانی-تصویری (VLM) نسل جدیدی از مدلهای مولد هستن که علاوه بر متن، تصویر رو هم میفهمن. یعنی میتونن عکس رو توصیف کنن، به سوال دربارهی محتواش جواب بدن و حتی بین متن و تصویر ارتباط برقرار کنن.
📚 در این دوره یاد میگیرید:
- ساختار و معماری مدلهای VLM
- کاربردهای جذاب مثل پرسشوپاسخ تصویری و مولتیمودال
- نحوهی آموزش و بهکارگیری این مدلها در پروژههای واقعی
👨🏫 تدریس هر دو دوره توسط مهندس علیرضا اخوانپور انجام شده
🔗 مشاهده دوره:
https://mktb.me/e3gx/
~~~
کانال تلگرامی دوره
@llm_huggingface
🔥6
کد تخفیف 70 درصدی تست شده
فقط موقع استفاده حتما تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.
https://mktb.me/e3gx/
فقط موقع استفاده حتما تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.
COUPON-c4cd3
https://mktb.me/e3gx/
❤5
فرق پرامپتنویسی با مهندسی کانتکست؟
✅پرامپت = چی میگی
✅کانتکست = مدل چی میبینه
و چیزی که مدل میبینه مهمتره!
ایجنتهای قوی همهچی رو تو کانتکست نمیریزن. اونها:
✅ فقط چیزای مفید رو نگه میدارن
✅ قدیمیها رو خلاصه میکنن
✅ هر وقت لازمه اطلاعات میارن
✅ یادداشت مینویسن
✅ بعضی کارها رو میسپارن به ساباجنتها
🔑 مهارت آینده برای ساخت ایجنتهای هوش مصنوعی = Context Engineering
منبع:
https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents?trk=public_post_comment-text
✅پرامپت = چی میگی
✅کانتکست = مدل چی میبینه
و چیزی که مدل میبینه مهمتره!
ایجنتهای قوی همهچی رو تو کانتکست نمیریزن. اونها:
✅ فقط چیزای مفید رو نگه میدارن
✅ قدیمیها رو خلاصه میکنن
✅ هر وقت لازمه اطلاعات میارن
✅ یادداشت مینویسن
✅ بعضی کارها رو میسپارن به ساباجنتها
🔑 مهارت آینده برای ساخت ایجنتهای هوش مصنوعی = Context Engineering
منبع:
https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents?trk=public_post_comment-text
❤6👍2🔥1
آینده هوش مصنوعی چندوجهی اینجاست!
مدلهای چندوجهی (Multimodal AI) در سال ۲۰۲۵ دنیا رو متحول کردن. حالا دیگه هوش مصنوعی میتونه تصویر، متن و حتی صدا رو با هم ترکیب کنه و دقیقتر از همیشه جهان رو درک کنه. ✨
مدلهای متن-تصویر متنباز مثل Qwen2.5-VL، Gemini و Llama-4 امروز همهجا هستن: از دستیارهای هوشمند گرفته تا پزشکی، تحلیل اسناد و هزاران کاربرد واقعی.
اما سؤال اینه:
🔹 چطور میشه این مدلها رو یاد گرفت و توی پروژههای واقعی استفاده کرد؟
اینجاست که کورس تخصصی ما وارد میشه! 🎓
در این دورهی Vision-Language Models (VLMs) یاد میگیری:
چطور مدلهای پیشرفته رو با Hugging Face بارگذاری و تست کنی
قابلیتها و محدودیتهای VLMها رو بشناسی
روی پروژههای واقعی ازشون استفاده کنی
این فرصت فوقالعادهایه برای کسایی که میخوان یک قدم جلوتر از بقیه باشن و آیندهی هوش مصنوعی رو بسازن! 🌍
📌 جزئیات دوره و ثبتنام
مدلهای چندوجهی (Multimodal AI) در سال ۲۰۲۵ دنیا رو متحول کردن. حالا دیگه هوش مصنوعی میتونه تصویر، متن و حتی صدا رو با هم ترکیب کنه و دقیقتر از همیشه جهان رو درک کنه. ✨
مدلهای متن-تصویر متنباز مثل Qwen2.5-VL، Gemini و Llama-4 امروز همهجا هستن: از دستیارهای هوشمند گرفته تا پزشکی، تحلیل اسناد و هزاران کاربرد واقعی.
اما سؤال اینه:
🔹 چطور میشه این مدلها رو یاد گرفت و توی پروژههای واقعی استفاده کرد؟
اینجاست که کورس تخصصی ما وارد میشه! 🎓
در این دورهی Vision-Language Models (VLMs) یاد میگیری:
چطور مدلهای پیشرفته رو با Hugging Face بارگذاری و تست کنی
قابلیتها و محدودیتهای VLMها رو بشناسی
روی پروژههای واقعی ازشون استفاده کنی
این فرصت فوقالعادهایه برای کسایی که میخوان یک قدم جلوتر از بقیه باشن و آیندهی هوش مصنوعی رو بسازن! 🌍
📌 جزئیات دوره و ثبتنام
❤11
امروز نسخه سبکتر Qwen3-VL رو منتشر شد!
امروز، ۴ اکتبر ۲۰۲۵، تیم Qwen دو مدل جدید از خانواده Qwen3-VL رو منتشر کرد:
مدل Qwen3-VL-30B-A3B-Instruct
و Qwen3-VL-30B-A3B-Thinking
بههمراه نسخهی FP8 برای هر دو مدل که حجم و مصرف حافظه رو بهطور قابلتوجهی پایین میاره.
تا قبل از این، Qwen3-VL فقط مدلهای خیلی سنگین داشت و عملاً نسخهای سبک یا بهینه برای استفاده عمومی نداشت. حالا با این نسخه FP8 و تنظیمات جدید، بالاخره میشه مدلهای Qwen3-VL رو راحتتر روی GPUهای معمولی هم بالا آورد.
🔹 نسخه Instruct بیشتر برای کارهای گفتوگومحور و دستورمحور طراحی شده.
🔹 نسخه Thinking روی استدلال پیچیده و فهم عمیقتر تصویر و ویدیو تمرکز داره.
هر دو مدل از فهم متن و تصویر پشتیبانی میکنن، OCR قوی دارن (تا ۳۲ زبان)، و حتی میتونن از روی تصویر کد HTML یا JS بسازن!
پشتیبانی از context طولانی (تا ۱ میلیون توکن) هم داره — چیزی که برای پروژههای چندرسانهای واقعاً غنیمته.
📦 https://github.com/QwenLM/Qwen3-VL
امروز، ۴ اکتبر ۲۰۲۵، تیم Qwen دو مدل جدید از خانواده Qwen3-VL رو منتشر کرد:
مدل Qwen3-VL-30B-A3B-Instruct
و Qwen3-VL-30B-A3B-Thinking
بههمراه نسخهی FP8 برای هر دو مدل که حجم و مصرف حافظه رو بهطور قابلتوجهی پایین میاره.
تا قبل از این، Qwen3-VL فقط مدلهای خیلی سنگین داشت و عملاً نسخهای سبک یا بهینه برای استفاده عمومی نداشت. حالا با این نسخه FP8 و تنظیمات جدید، بالاخره میشه مدلهای Qwen3-VL رو راحتتر روی GPUهای معمولی هم بالا آورد.
🔹 نسخه Instruct بیشتر برای کارهای گفتوگومحور و دستورمحور طراحی شده.
🔹 نسخه Thinking روی استدلال پیچیده و فهم عمیقتر تصویر و ویدیو تمرکز داره.
هر دو مدل از فهم متن و تصویر پشتیبانی میکنن، OCR قوی دارن (تا ۳۲ زبان)، و حتی میتونن از روی تصویر کد HTML یا JS بسازن!
پشتیبانی از context طولانی (تا ۱ میلیون توکن) هم داره — چیزی که برای پروژههای چندرسانهای واقعاً غنیمته.
📦 https://github.com/QwenLM/Qwen3-VL
👍6🔥3❤1
Media is too big
VIEW IN TELEGRAM
🌟 مدلهای زبانی-تصویری (VLM)| مدرس: علیرضا اخوانپور
مدلهای زبانی-تصویری (VLM) نسل جدیدی از مدلهای مولد هستن که علاوه بر متن، تصویر رو هم میفهمن. یعنی میتونن عکس رو توصیف کنن، به سوال دربارهی محتواش جواب بدن و حتی بین متن و تصویر ارتباط برقرار کنن.
📚 در این دوره یاد میگیرید:
🔗 مشاهده دوره:
https://mktb.me/e3gx/
کد تخفیف 70 درصدی دوره جدید VLM
——————————————
🎁همچنین به عنوان پیش نیاز با 70 درصد تخفیف ویژه به مدت محدود دوره محبوب و پرفروش LLM را نیز میتوانید با کد زیر تهیه کنید.
https://mktb.me/04dr/
❌ حتما موقع استفاده تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.
~~~
کانال تلگرامی دوره
@llm_huggingface
مدلهای زبانی-تصویری (VLM) نسل جدیدی از مدلهای مولد هستن که علاوه بر متن، تصویر رو هم میفهمن. یعنی میتونن عکس رو توصیف کنن، به سوال دربارهی محتواش جواب بدن و حتی بین متن و تصویر ارتباط برقرار کنن.
📚 در این دوره یاد میگیرید:
- ساختار و معماری مدلهای VLM
- کاربردهای جذاب مثل پرسشوپاسخ تصویری و مولتیمودال
- نحوهی آموزش و بهکارگیری این مدلها در پروژههای واقعی
🔗 مشاهده دوره:
https://mktb.me/e3gx/
کد تخفیف 70 درصدی دوره جدید VLM
COUPON-0db40——————————————
🎁همچنین به عنوان پیش نیاز با 70 درصد تخفیف ویژه به مدت محدود دوره محبوب و پرفروش LLM را نیز میتوانید با کد زیر تهیه کنید.
COUPON-fa527https://mktb.me/04dr/
❌ حتما موقع استفاده تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.
~~~
کانال تلگرامی دوره
@llm_huggingface
😍4
Forwarded from Tensorflow(@CVision)
انقلاب سامسونگ در هوش مصنوعی: مدل ۷ میلیونی که غولها را شکست داد
فرانسیس شوله اینجا، این رو بازنشر کرده بود:
https://fixupx.com/jacksonatkinsx/status/1975556245617512460?s=12
@cvision
@llm_huggingface
فرانسیس شوله اینجا، این رو بازنشر کرده بود:
https://fixupx.com/jacksonatkinsx/status/1975556245617512460?s=12
وقتی این مقاله را خواندم مغزم هنگ کرد.
یک مدل خیلی کوچک با تنها ۷ میلیون پارامتر همین الان در آزمونهای استدلال روی هر دو مجموعه ARG-AGI 1 و ARC-AGI 2، از DeepSeek-R1، Gemini 2.5 pro و o3-mini جلو زد.
اسمش Tiny Recursive Model (TRM) از سامسونگ است.
چطور مدلی که ۱۰٬۰۰۰ برابر کوچکتر است میتواند باهوشتر باشد؟
نحوه کارش اینطور است:
نوشتن یک پاسخ اولیه: برخلاف یک مدل زبان بزرگ (LLM) که کلمهبهکلمه تولید میکند، TRM ابتدا یک «پیشنویس» سریع و کامل از راهحل تولید میکند. این را میتوان اولین حدس خام آن دانست.
خلق یک «اسکراچپد (scratchpad)»: سپس فضایی جداگانه برای افکار درونیاش میسازد — یک «اسکراچپد» استدلال نهفته. اینجا است که جادوی واقعی رخ میدهد.
خودانتقادی شدید: مدل وارد یک حلقهٔ درونی شدید میشود. پیشنویسش را با مسئلهٔ اصلی مقایسه میکند و بارها و بارها (۶ بار پشتسرِ هم) استدلالش را در اسکرچپد تصحیح میکند و از خودش میپرسد «آیا منطق من درست است؟ خطاها کجا هستند؟»
بازنویسی پاسخ: پس از این «تفکر» متمرکز، از منطق بهبود یافتهٔ موجود در اسکرچپد استفاده میکند تا یک پیشنویس کاملاً جدید و بسیار بهتر از پاسخ نهایی بسازد.
تکرار تا رسیدن به اطمینان: کل فرایند — پیشنویس، تفکر، اصلاح — تا ۱۶ بار تکرار میشود. هر چرخه مدل را به حلِ مسئلهای صحیحتر و منطقیتر نزدیکتر میکند.
چرا این مهم است:
رهبران کسبوکار: این همان چیزی است که برتری الگوریتمی (algorithmic advantage) به نظر میرسد. در حالی که رقبا برای مقیاسبندی خام هزینههای عظیمی در فرایند inference میپردازند، یک مدل هوشمندتر و کارآمدتر میتواند عملکرد بهتر را با کسری از هزینه ارائه دهد.
پژوهشگران: این تأیید مهمی برای ایدههای نوروسیمبولیک (neuro-symbolic) است. توانایی مدل در «تفکر» بازگشتی (recursively) پیش از «عمل»، نشان میدهد که معماری، نه صرفاً مقیاس، میتواند محرک اصلی قابلیت استدلال باشد.
عملیکنندگان: استدلال در سطح SOTA (state-of-the-art) دیگر پشت خوشههای GPU میلیارد دلاری قفلشده نیست. این مقاله یک نقشهراه بسیار کارآمد و کمپارامتر برای ساخت سامانههای استدلالی (reasoners) تخصصی فراهم میکند که میتوانند در هر جا اجرا شوند.
این فقط کوچکسازیِ مقیاس نیست؛ این یک روش کاملاً متفاوت و هدفمندتر برای حل مسائل است.
@cvision
@llm_huggingface
🧵 Thread • FixupX
Jackson Atkins (@JacksonAtkinsX)
My brain broke when I read this paper.
A tiny 7 Million parameter model just beat DeepSeek-R1, Gemini 2.5 pro, and o3-mini at reasoning on both ARG-AGI 1 and ARC-AGI 2.
It's called Tiny Recursive Model (TRM) from Samsung.
How can a model 10,000x smaller…
A tiny 7 Million parameter model just beat DeepSeek-R1, Gemini 2.5 pro, and o3-mini at reasoning on both ARG-AGI 1 and ARC-AGI 2.
It's called Tiny Recursive Model (TRM) from Samsung.
How can a model 10,000x smaller…
❤16👍3
Tensorflow(@CVision)
انقلاب سامسونگ در هوش مصنوعی: مدل ۷ میلیونی که غولها را شکست داد فرانسیس شوله اینجا، این رو بازنشر کرده بود: https://fixupx.com/jacksonatkinsx/status/1975556245617512460?s=12 وقتی این مقاله را خواندم مغزم هنگ کرد. یک مدل خیلی کوچک با تنها ۷ میلیون…
مدل TRM سامسونگ:
https://github.com/SamsungSAILMontreal/TinyRecursiveModels
مرتبط با:
https://xn--r1a.website/llm_huggingface/110
https://github.com/SamsungSAILMontreal/TinyRecursiveModels
مرتبط با:
https://xn--r1a.website/llm_huggingface/110
GitHub
GitHub - SamsungSAILMontreal/TinyRecursiveModels
Contribute to SamsungSAILMontreal/TinyRecursiveModels development by creating an account on GitHub.
👍7❤2