Forwarded from آموزش LLM و VLM
🔥 یه انقلاب عجیب تو دنیای وب شروع شده!
تا حالا فکر کردید هوش مصنوعی رو بدون هیچ سرور و هیچ فریمورکی، تنها تو مرورگر اجرا کنید؟ 😱
🎯 قابلیت PromptAPI و مدلهای SLM (LLMهای کوچک) دارن رسماً راه رو برای یه نسل جدید از اپلیکیشنهای هوشمند باز میکنن!
🧠 مرورگرهای جدید مثل Chrome و Edge الآن به صورت نیتیو از مدلهای زبانی پشتیبانی میکنن! یعنی فقط با ۵ خط کد جاوااسکریپت ساده میتونی یه چتبات، مترجم، خلاصهساز، تحلیلگر متن یا هر ابزار هوشمند دیگه بسازی — اونم بدون فرستادن حتی یک بایت به سرور! 😳
چرا باید همین الآن یادش بگیری؟ 👇
⚡️ هیچ دیتایی به هیچ سروری نمیره — همهچی لوکال روی دستگاه خود کاربر
🔐 پرایوسی در اوج — حتی آفلاین هم کار میکنه!
💡 هیچ لایبرری لازم نیست؛ خود JS و مرورگر این قابلیت رو دارن
🌍 استاندارد شده توسط W3C و قرار آینده Web Development رو تغییر بده
🛠 ساخت اپهای هوش مصنوعی فقط با HTML + JS
🤖 خروجیهات رو میتونی قالبدار و قابل کنترل تحویل بگیری
💥 اگه وب دولوپری و اینو بلد نیستی، جدی به فکر یه آپدیت بزرگ باش!
😎 اگه وب کار نیستی هم نیستی هم عاشقش میشی چون به معنی واقعی کلمه فقط با یک فایل index.html میتونی یه مدل زبان داشته باشی 🤯
📚 خبر خوب!
همین هفته یه مینیدورهی ۳ ساعته در مورد همین موضوع منتشر میشه!
📘 حتی اگه جاوااسکریپت بلد نیستی، یه فصل 0 (مقدمه JS) برای مبتدیها داریم
🔁 اگه بلدی — مستقیم میری سراغ ساخت و تجربهاش!
📍 برای شروع فقط لازمه:
یه مرورگر آپدیتشده (Chrome یا Edge)
یه سیستم نسبتا خوب (حتی اگر کارت گرافیک نداری با CPU خوب)
یه فایل index.html
پنج خط کد ساده برای فراخوانی مدل زبانی 🤯
🧪 چی میتونی بسازی؟
چتبات تو بلاگ بدون بکاند
درک تصویر و OCR و تحلیل تصویر فقط تو مرورگر
مترجم، خلاصهساز، 🎭 تحلیلگر احساس
اپهای آفلاین با هوش مصنوعی
ابزارهای آموزشی تعاملی
اگر میخوای جزو اولین کسایی باشی که این قابلیت رو یاد میگیرن، منتظر انتشار دوره باش...
تا حالا فکر کردید هوش مصنوعی رو بدون هیچ سرور و هیچ فریمورکی، تنها تو مرورگر اجرا کنید؟ 😱
🎯 قابلیت PromptAPI و مدلهای SLM (LLMهای کوچک) دارن رسماً راه رو برای یه نسل جدید از اپلیکیشنهای هوشمند باز میکنن!
🧠 مرورگرهای جدید مثل Chrome و Edge الآن به صورت نیتیو از مدلهای زبانی پشتیبانی میکنن! یعنی فقط با ۵ خط کد جاوااسکریپت ساده میتونی یه چتبات، مترجم، خلاصهساز، تحلیلگر متن یا هر ابزار هوشمند دیگه بسازی — اونم بدون فرستادن حتی یک بایت به سرور! 😳
چرا باید همین الآن یادش بگیری؟ 👇
⚡️ هیچ دیتایی به هیچ سروری نمیره — همهچی لوکال روی دستگاه خود کاربر
🔐 پرایوسی در اوج — حتی آفلاین هم کار میکنه!
💡 هیچ لایبرری لازم نیست؛ خود JS و مرورگر این قابلیت رو دارن
🌍 استاندارد شده توسط W3C و قرار آینده Web Development رو تغییر بده
🛠 ساخت اپهای هوش مصنوعی فقط با HTML + JS
🤖 خروجیهات رو میتونی قالبدار و قابل کنترل تحویل بگیری
💥 اگه وب دولوپری و اینو بلد نیستی، جدی به فکر یه آپدیت بزرگ باش!
😎 اگه وب کار نیستی هم نیستی هم عاشقش میشی چون به معنی واقعی کلمه فقط با یک فایل index.html میتونی یه مدل زبان داشته باشی 🤯
📚 خبر خوب!
همین هفته یه مینیدورهی ۳ ساعته در مورد همین موضوع منتشر میشه!
📘 حتی اگه جاوااسکریپت بلد نیستی، یه فصل 0 (مقدمه JS) برای مبتدیها داریم
🔁 اگه بلدی — مستقیم میری سراغ ساخت و تجربهاش!
📍 برای شروع فقط لازمه:
یه مرورگر آپدیتشده (Chrome یا Edge)
یه سیستم نسبتا خوب (حتی اگر کارت گرافیک نداری با CPU خوب)
یه فایل index.html
پنج خط کد ساده برای فراخوانی مدل زبانی 🤯
🧪 چی میتونی بسازی؟
چتبات تو بلاگ بدون بکاند
درک تصویر و OCR و تحلیل تصویر فقط تو مرورگر
مترجم، خلاصهساز، 🎭 تحلیلگر احساس
اپهای آفلاین با هوش مصنوعی
ابزارهای آموزشی تعاملی
اگر میخوای جزو اولین کسایی باشی که این قابلیت رو یاد میگیرن، منتظر انتشار دوره باش...
❤10🔥8
Forwarded from آموزش LLM و VLM
This media is not supported in your browser
VIEW IN TELEGRAM
این یکی از خفنترین دموهای Hugging Face توی این روزهاست: «کنترل دوربین» که با LoRA روی مدل Qwen Image Edit آموزش داده شده 🤯
👀 چی کار میکنه؟
کافیه یه تصویر آپلود کنی، بعد میتونی با چند تا کلیک، زاویه دوربین رو عوض کنی و یه صحنه کاملاً جدید بسازی!
از چرخوندن دوربین به چپ و راست گرفته تا جلو رفتن، زوم کردن، یا حتی تغییر زاویه نگاه از دید پرنده تا دید کرم (bird’s-eye / worm’s-eye) – همهش با یه کلیک!
🎯 این یعنی چی؟
یه ویژگی بینظیر اضافه شده: کنترل کامل زاویه دوربین توی مدلهای ویرایش تصویر.
یه چیزی که حتی Google Nano Banana هنوز نداره!
🔧 تکنیک LoRA چیه؟
همون طور که تو فصل 4 کورس LLM دیدیم LoRA یا Low-Rank Adaptation یه تکنیکیه که فقط بخش کوچیکی از پارامترهای مدل رو آموزش میده، بدون اینکه کل مدل از صفر آموزش داده بشه.
اینجا هم LoRA روی مدل Qwen Image Edit بدون نیاز به آموزش دوباره کل مدل استفاده کردن
⚡️ نکته باحال:
این پروژه از نسخهای بهینه به نام Rapid-AIO استفاده میکنه که سرعت پردازش رو خیلی بالا برده — خروجی رو فقط تو چهار مرحله میگیری!
پست مرتبط در توئیتر | دمو در هاگینگ فیس
👀 چی کار میکنه؟
کافیه یه تصویر آپلود کنی، بعد میتونی با چند تا کلیک، زاویه دوربین رو عوض کنی و یه صحنه کاملاً جدید بسازی!
از چرخوندن دوربین به چپ و راست گرفته تا جلو رفتن، زوم کردن، یا حتی تغییر زاویه نگاه از دید پرنده تا دید کرم (bird’s-eye / worm’s-eye) – همهش با یه کلیک!
🎯 این یعنی چی؟
یه ویژگی بینظیر اضافه شده: کنترل کامل زاویه دوربین توی مدلهای ویرایش تصویر.
یه چیزی که حتی Google Nano Banana هنوز نداره!
🔧 تکنیک LoRA چیه؟
همون طور که تو فصل 4 کورس LLM دیدیم LoRA یا Low-Rank Adaptation یه تکنیکیه که فقط بخش کوچیکی از پارامترهای مدل رو آموزش میده، بدون اینکه کل مدل از صفر آموزش داده بشه.
اینجا هم LoRA روی مدل Qwen Image Edit بدون نیاز به آموزش دوباره کل مدل استفاده کردن
⚡️ نکته باحال:
این پروژه از نسخهای بهینه به نام Rapid-AIO استفاده میکنه که سرعت پردازش رو خیلی بالا برده — خروجی رو فقط تو چهار مرحله میگیری!
پست مرتبط در توئیتر | دمو در هاگینگ فیس
🤯7❤4👍3👀2
اگه تا حالا خبرشو ندیدید، متا یه مدل جدید تشخیص گفتار (ASR) منتشر کرده که واقعاً ترکونده! 🤯
مدل Meta OmniLingual ASR با پشتیبانی از بیش از ۱۶۰۰ زبان، حتی زبانهای خیلی کمیاب، یه چیز خاصه!
تو تست های زبان فارسی هم قابل قبوله،
میتونید باهاش کلی پروژه خفن بسازید: از زیرنویسهای چندزبانه گرفته تا ...
🔗 پروژه : github.com/facebookresearch/omnilingual-asr
🎧 دیتاست هم منتشر کردند...
#Meta #OmniLingualASR #SpeechRecognition #AI
مدل Meta OmniLingual ASR با پشتیبانی از بیش از ۱۶۰۰ زبان، حتی زبانهای خیلی کمیاب، یه چیز خاصه!
تو تست های زبان فارسی هم قابل قبوله،
میتونید باهاش کلی پروژه خفن بسازید: از زیرنویسهای چندزبانه گرفته تا ...
🔗 پروژه : github.com/facebookresearch/omnilingual-asr
🎧 دیتاست هم منتشر کردند...
#Meta #OmniLingualASR #SpeechRecognition #AI
GitHub
GitHub - facebookresearch/omnilingual-asr: Omnilingual ASR Open-Source Multilingual SpeechRecognition for 1600+ Languages
Omnilingual ASR Open-Source Multilingual SpeechRecognition for 1600+ Languages - facebookresearch/omnilingual-asr
🔥8❤7👍1
Tensorflow(@CVision)
اگه تا حالا خبرشو ندیدید، متا یه مدل جدید تشخیص گفتار (ASR) منتشر کرده که واقعاً ترکونده! 🤯 مدل Meta OmniLingual ASR با پشتیبانی از بیش از ۱۶۰۰ زبان، حتی زبانهای خیلی کمیاب، یه چیز خاصه! تو تست های زبان فارسی هم قابل قبوله، میتونید باهاش کلی پروژه خفن بسازید:…
لینک دیتاست در هاگینگ فیس:
https://huggingface.co/datasets/facebook/omnilingual-asr-corpus/viewer/default/train
https://huggingface.co/datasets/facebook/omnilingual-asr-corpus/viewer/default/train
huggingface.co
facebook/omnilingual-asr-corpus · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤9
Forwarded from آموزش LLM و VLM
This media is not supported in your browser
VIEW IN TELEGRAM
🎓 مینی دوره: ساخت هوش مصنوعی شخصی در مرورگر
https://mktb.me/5kkw/
تو این مینی دوره یاد میگیری چطور یک Local LLM و حتی VLM رو مستقیم تو مرورگر اجرا و شخصیسازی کنی—بدون نیاز به سرور، پردازش ابری، فریمورک یا لایبری اضافی!
💡 آنچه یاد میگیرید:
- اصول پایهای جاوااسکریپت برای کار با مدلهای AI در مرورگر
- کار با Prompt API برای مدیریت و کنترل پاسخهای مدل
- شخصیسازی خروجی با Initial Prompts و JSON Schema
- پیادهسازی VLM برای تحلیل تصاویر و OCR
📌 سرفصلها:
🚀 آمادهای مهارتت در ساخت هوش مصنوعی شخصی رو یک پله بالاتر ببری؟
https://mktb.me/5kkw/
کد تخفیف 60 درصدی ویژه انتشار مینی دوره:
سایت دوره:
https://jsai.ir/
https://mktb.me/5kkw/
تو این مینی دوره یاد میگیری چطور یک Local LLM و حتی VLM رو مستقیم تو مرورگر اجرا و شخصیسازی کنی—بدون نیاز به سرور، پردازش ابری، فریمورک یا لایبری اضافی!
💡 آنچه یاد میگیرید:
- اصول پایهای جاوااسکریپت برای کار با مدلهای AI در مرورگر
- کار با Prompt API برای مدیریت و کنترل پاسخهای مدل
- شخصیسازی خروجی با Initial Prompts و JSON Schema
- پیادهسازی VLM برای تحلیل تصاویر و OCR
📌 سرفصلها:
راه اندازی Local LLM در مرورگر
شروع کار با Prompt API
نکات تکمیلی Prompt API
استفاده از Prompt Streaming یا پاسخدهی همزمان Local LLM
متوقف کردن پاسخدهی Local LLM با Aborting
پاک کردن حافظه Local LLM
اختصاصیسازی خروجی با Initial Prompts
اختصاصیسازی خروجی با JSON Schema
پیادهسازی VLM یا تحلیل تصاویر در Google Chrome
سایر APIها و راهنمای ادامه مسیر
🚀 آمادهای مهارتت در ساخت هوش مصنوعی شخصی رو یک پله بالاتر ببری؟
https://mktb.me/5kkw/
کد تخفیف 60 درصدی ویژه انتشار مینی دوره:
COUPON-35715
سایت دوره:
https://jsai.ir/
❤13👍3🔥3🤔1
Forwarded from آموزش LLM و VLM
Media is too big
VIEW IN TELEGRAM
🎓 مینی دوره: ساخت هوش مصنوعی شخصی در مرورگر
https://mktb.me/5kkw/
تو این مینی دوره یاد میگیری چطور یک Local LLM و حتی VLM رو مستقیم تو مرورگر اجرا و شخصیسازی کنی—بدون نیاز به سرور، پردازش ابری، فریمورک یا لایبری اضافی!
💡 آنچه یاد میگیرید:
- اصول پایهای جاوااسکریپت برای کار با مدلهای AI در مرورگر
- کار با Prompt API برای مدیریت و کنترل پاسخهای مدل
- شخصیسازی خروجی با Initial Prompts و JSON Schema
- پیادهسازی VLM برای تحلیل تصاویر و OCR
📌 سرفصلها:
🚀 آمادهای مهارتت در ساخت هوش مصنوعی شخصی رو یک پله بالاتر ببری؟
https://mktb.me/5kkw/
کد تخفیف 60 درصدی ویژه انتشار مینی دوره:
سایت دوره:
https://jsai.ir/
https://mktb.me/5kkw/
تو این مینی دوره یاد میگیری چطور یک Local LLM و حتی VLM رو مستقیم تو مرورگر اجرا و شخصیسازی کنی—بدون نیاز به سرور، پردازش ابری، فریمورک یا لایبری اضافی!
💡 آنچه یاد میگیرید:
- اصول پایهای جاوااسکریپت برای کار با مدلهای AI در مرورگر
- کار با Prompt API برای مدیریت و کنترل پاسخهای مدل
- شخصیسازی خروجی با Initial Prompts و JSON Schema
- پیادهسازی VLM برای تحلیل تصاویر و OCR
📌 سرفصلها:
راه اندازی Local LLM در مرورگر
شروع کار با Prompt API
نکات تکمیلی Prompt API
استفاده از Prompt Streaming یا پاسخدهی همزمان Local LLM
متوقف کردن پاسخدهی Local LLM با Aborting
پاک کردن حافظه Local LLM
اختصاصیسازی خروجی با Initial Prompts
اختصاصیسازی خروجی با JSON Schema
پیادهسازی VLM یا تحلیل تصاویر در Google Chrome
سایر APIها و راهنمای ادامه مسیر
🚀 آمادهای مهارتت در ساخت هوش مصنوعی شخصی رو یک پله بالاتر ببری؟
https://mktb.me/5kkw/
کد تخفیف 60 درصدی ویژه انتشار مینی دوره:
COUPON-35715سایت دوره:
https://jsai.ir/
❤9👍1
دنیایی از منابع برنامهنویسی توی این کانال بصورت دستهبندی شده با هشتگ بصورت روزانه قرار داده میشه.
@pythony
@pythony
👍6🔥1
Forwarded from آموزش LLM و VLM
یه نفر رفته system promptهای پشتپردهٔ کلی ابزار و چتبات معروف رو از طریق یه leak بزرگ پیدا کرده و همشو منتشر کرده!
الان یک ریپو تو گیتهاب هست که عملاً تبدیل شده به آرشیوی از مغزِ واقعی ابزارهای هوش مصنوعی — از Cursor و Devin گرفته تا Claude، Replit، Perplexity و دهها ابزار دیگه.
اگه میخواید ببینید این ابزارها پشت صحنه چه قوانین، چه نقشها و چه پرامپتهایی دارن، این ریپو واقعاً مثل گنج میمونه.
حتی میتونید برای طراحی agent یا پرامپتهاتون ازش ایده بگیرید.
https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools
الان یک ریپو تو گیتهاب هست که عملاً تبدیل شده به آرشیوی از مغزِ واقعی ابزارهای هوش مصنوعی — از Cursor و Devin گرفته تا Claude، Replit، Perplexity و دهها ابزار دیگه.
اگه میخواید ببینید این ابزارها پشت صحنه چه قوانین، چه نقشها و چه پرامپتهایی دارن، این ریپو واقعاً مثل گنج میمونه.
حتی میتونید برای طراحی agent یا پرامپتهاتون ازش ایده بگیرید.
https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools
👏14🔥6❤1
Forwarded from آموزش LLM و VLM
تشخیص اشیا با Qwen3-VL به روش open vocabulary!
پرامپت: «person between albert and marie»
(فرد بین آلبرت و ماری)
مدل باید نامهای «albert» و «marie» را در این عکس به آلبرت اینشتین و ماری کوری نگاشت کند، چهرهها و جایگاه آنها را تشخیص دهد و مفهوم «بین» را درست تفسیر کند تا فرد صحیح را پیدا کند.
کتابخانه Supervision از گروه roboflow کار با مدلهای چندوجهی (VLMها) را به این منظور سادهتر میکند. شما متن را پردازش میکنید، آن را به یک فرمت آشنا مثل باکسهای تشخیص تبدیل میکنید و نتیجه را بهصورت بصری نمایش میدهید.
کتابخانه Supervision از مدلهای دیگر مثل Qwen-VL، Google Gemini و DeepSeek-VL و ... پشتیبانی میکند.
نوت بوک:
https://github.com/Alireza-Akhavan/LLM/blob/main/open_vocabulary_object_detection_with_qwen3_vl.ipynb
همین امروز یادگیری VLM را شروع کنید.
پرامپت: «person between albert and marie»
(فرد بین آلبرت و ماری)
مدل باید نامهای «albert» و «marie» را در این عکس به آلبرت اینشتین و ماری کوری نگاشت کند، چهرهها و جایگاه آنها را تشخیص دهد و مفهوم «بین» را درست تفسیر کند تا فرد صحیح را پیدا کند.
کتابخانه Supervision از گروه roboflow کار با مدلهای چندوجهی (VLMها) را به این منظور سادهتر میکند. شما متن را پردازش میکنید، آن را به یک فرمت آشنا مثل باکسهای تشخیص تبدیل میکنید و نتیجه را بهصورت بصری نمایش میدهید.
TARGET = "person between albert and marie"
image = Image.open(IMAGE).convert("RGB")
response = qwen_detect(image, TARGET)
detections = sv.Detections.from_vlm(
vlm=sv.VLM.QWEN_3_VL,
result=response,
resolution_wh=image.size
)
کتابخانه Supervision از مدلهای دیگر مثل Qwen-VL، Google Gemini و DeepSeek-VL و ... پشتیبانی میکند.
نوت بوک:
https://github.com/Alireza-Akhavan/LLM/blob/main/open_vocabulary_object_detection_with_qwen3_vl.ipynb
همین امروز یادگیری VLM را شروع کنید.
❤11👍7🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
https://www.alphaxiv.org/
اگه زیاد با مقالات علمی سروکار داری، این ابزار واقعاً به کارت میاد:
⭐️ افزونه کروم هم داره
⭐️ هر بخش از مقاله رو فقط هایلایت کن، همونجا ازش سؤال بپرس
⭐️ با نوشتن “@” میتونی سریع به مقالات دیگه ارجاع بدی و کانتکست، مقایسهها و نتایج بنچمارک رو یکجا ببینی
⭐️ پشتیبانی از زبان فارسی هم داره!
⭐️ میتونی LLM پشتشو خودت انتخاب کنی که الان از Gemini 3 pro هم ساپورت میکنه
اگه زیاد با مقالات علمی سروکار داری، این ابزار واقعاً به کارت میاد:
⭐️ افزونه کروم هم داره
⭐️ هر بخش از مقاله رو فقط هایلایت کن، همونجا ازش سؤال بپرس
⭐️ با نوشتن “@” میتونی سریع به مقالات دیگه ارجاع بدی و کانتکست، مقایسهها و نتایج بنچمارک رو یکجا ببینی
⭐️ پشتیبانی از زبان فارسی هم داره!
⭐️ میتونی LLM پشتشو خودت انتخاب کنی که الان از Gemini 3 pro هم ساپورت میکنه
👍17❤5
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 شرکت Meta فقط SAM 3 را معرفی نکرد، بلکه SAM 3D را هم منتشر کرد!
مدل جدید Meta یک جهش بزرگ در بازسازی سهبعدی از روی تصاویر دوبعدی ایجاد کرده است؛ هم برای اشیا و هم برای بدن انسان.
🔹 SAM 3D Objects
این نسخه میتواند فقط از روی یک تصویر، کل ساختار سهبعدی یک شیء شامل شکل، هندسه، بافت (Texture) و چیدمان آن را بازسازی کند.
فرآیند آن دو مرحلهای است:
ابتدا یک مدل Transformer ترکیبی ساختار کلی را تخمین میزند، سپس یک مدل دوم جزئیات دقیق و تکسچر را اضافه میکند.
🔹 SAM 3D Body
این نسخه مخصوص بازسازی مدل سهبعدی کامل بدن انسان از روی یک عکس است.
قابلیت گرفتن پرامپتهای کمکی مثل نقاط کلیدی (Keypoints) و ماسک را دارد، مشابه SAM.
برای آموزش هم از دادههای باکیفیت و یک سیستم برچسبگذاری هوشمند روی سختترین نمونهها استفاده شده.
🔗 لینکها:
📌 دموی رسمی:
https://aidemos.meta.com/segment-anything
📌 مخزن SAM 3D Objects:
https://github.com/facebookresearch/sam-3d-objects
📌 مخزن SAM 3D Body:
https://github.com/facebookresearch/sam-3d-body
شرکت Meta همه چیز را کاملاً متنباز منتشر کرده: وزنها، دادهها و کد.
#sam3
مدل جدید Meta یک جهش بزرگ در بازسازی سهبعدی از روی تصاویر دوبعدی ایجاد کرده است؛ هم برای اشیا و هم برای بدن انسان.
🔹 SAM 3D Objects
این نسخه میتواند فقط از روی یک تصویر، کل ساختار سهبعدی یک شیء شامل شکل، هندسه، بافت (Texture) و چیدمان آن را بازسازی کند.
فرآیند آن دو مرحلهای است:
ابتدا یک مدل Transformer ترکیبی ساختار کلی را تخمین میزند، سپس یک مدل دوم جزئیات دقیق و تکسچر را اضافه میکند.
🔹 SAM 3D Body
این نسخه مخصوص بازسازی مدل سهبعدی کامل بدن انسان از روی یک عکس است.
قابلیت گرفتن پرامپتهای کمکی مثل نقاط کلیدی (Keypoints) و ماسک را دارد، مشابه SAM.
برای آموزش هم از دادههای باکیفیت و یک سیستم برچسبگذاری هوشمند روی سختترین نمونهها استفاده شده.
🔗 لینکها:
📌 دموی رسمی:
https://aidemos.meta.com/segment-anything
📌 مخزن SAM 3D Objects:
https://github.com/facebookresearch/sam-3d-objects
📌 مخزن SAM 3D Body:
https://github.com/facebookresearch/sam-3d-body
شرکت Meta همه چیز را کاملاً متنباز منتشر کرده: وزنها، دادهها و کد.
#sam3
🔥24❤4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
📢 مدل Nano Banana Pro معرفی شد 📢
🔥 مدل Nano Banana Pro یا همان Gemini 3 Pro Image جدیدترین مدل تصویری Google/DeepMind است که روی تولید و ویرایش تصویر با کیفیت بالا و کنترلپذیری دقیق تمرکز دارد. این مدل در درک صحنه و رندر جزئیات یک جهش جدی داشته.
🧠 یکی از نکات برجستهٔ آن، رندر متن داخل تصویر بدون distortion یا بهمریختگی است. برای ساخت پوسترهای حرفهای، نمودارها و صفحات محصول. همچنین امکان کنترل دقیق روی lighting، camera angle، scene setup و style را فراهم میکند.
🔗 جزئیات بیشتر در DeepMind 🔗
🌀 @cvision 🌀
🔥 مدل Nano Banana Pro یا همان Gemini 3 Pro Image جدیدترین مدل تصویری Google/DeepMind است که روی تولید و ویرایش تصویر با کیفیت بالا و کنترلپذیری دقیق تمرکز دارد. این مدل در درک صحنه و رندر جزئیات یک جهش جدی داشته.
🧠 یکی از نکات برجستهٔ آن، رندر متن داخل تصویر بدون distortion یا بهمریختگی است. برای ساخت پوسترهای حرفهای، نمودارها و صفحات محصول. همچنین امکان کنترل دقیق روی lighting، camera angle، scene setup و style را فراهم میکند.
🔗 جزئیات بیشتر در DeepMind 🔗
🌀 @cvision 🌀
🔥12❤6👍4
دوستان عزیز،
یک فرد نابینا و بسیار توانمند که دانشجوی دکتری مهندسی عمران هستند، قصد یادگیری یادگیری ماشین را برای پایان نامه خودشون دارند و به همین منظور به یک مدرس خصوصی نیاز دارند و هزینه هم پرداخت می کنند .
اگر توانایی تدریس یادگیری ماشین را دارید یا فرد مناسبی را میشناسید، لطفاً از طریق @hassanYOUSEFZADE رزومه ی خودتون رو بفرستین .با تشکر
یک فرد نابینا و بسیار توانمند که دانشجوی دکتری مهندسی عمران هستند، قصد یادگیری یادگیری ماشین را برای پایان نامه خودشون دارند و به همین منظور به یک مدرس خصوصی نیاز دارند و هزینه هم پرداخت می کنند .
اگر توانایی تدریس یادگیری ماشین را دارید یا فرد مناسبی را میشناسید، لطفاً از طریق @hassanYOUSEFZADE رزومه ی خودتون رو بفرستین .با تشکر
❤51👍4🔥3👏2
Forwarded from 🚀 کلاسویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
🎁🎊🎉به بهانه بلک فرایدی
برای همراهان کانال 👇
🎓 دوره جامع LLM
با تخفیف ۷۰٪ واقعی
🎟 بلیط ورود به دنیای مدلهای زبانی بزرگ 🚀
کد تخفیف:
⏳ فقط برای مدت محدود - تا 10 آذرماه
https://mktb.me/04dr/
++++++++++++++++++
🎓 دوره جامع VLM – مدلهای زبانی-تصویری
با تخفیف ۷۰٪ واقعی
🎟 ورود به دنیای مولتیمودال و AI ترکیبی 🚀
کد تخفیف:
⏳ فقط برای مدت محدود – تا 10 آذرماه
https://mktb.me/e3gx/
++++++++++++++++++
🎓 دوره جامع دیپلرنینگ با TensorFlow
با تخفیف ۷۰٪ واقعی
🎟 یادگیری عملی شبکههای عصبی و پروژههای AI 🚀
کد تخفیف:
⏳ فقط برای مدت محدود – تا 10 آذرماه
https://mktb.me/2klm/
برای همراهان کانال 👇
🎓 دوره جامع LLM
با تخفیف ۷۰٪ واقعی
🎟 بلیط ورود به دنیای مدلهای زبانی بزرگ 🚀
کد تخفیف:
COUPON-fa527⏳ فقط برای مدت محدود - تا 10 آذرماه
https://mktb.me/04dr/
++++++++++++++++++
🎓 دوره جامع VLM – مدلهای زبانی-تصویری
با تخفیف ۷۰٪ واقعی
🎟 ورود به دنیای مولتیمودال و AI ترکیبی 🚀
کد تخفیف:
COUPON-0db40⏳ فقط برای مدت محدود – تا 10 آذرماه
https://mktb.me/e3gx/
++++++++++++++++++
🎓 دوره جامع دیپلرنینگ با TensorFlow
با تخفیف ۷۰٪ واقعی
🎟 یادگیری عملی شبکههای عصبی و پروژههای AI 🚀
کد تخفیف:
COUPON-dc646⏳ فقط برای مدت محدود – تا 10 آذرماه
https://mktb.me/2klm/
مکتبخونه
آموزش هوش مصنوعی مولد با مدلهای زبانی بزرگ (LLM)
در این دوره ابتدا ساختار مدلهای زبانی و مفاهیم پایهای مانند زبان طبیعی، توکنسازی، ترنسفورمر و attention آموزش داده میشود. سپس مسیر آموزش این مدلها از مرحله پیشتمرین (pretraining) تا ریزتنظیم (fine-tuning) بررسی میشود.
❤8👍2
۵۱٪ از ترافیک اینترنت امروز توسط رباتهای هوش مصنوعی و پروفایلهای مبتنی بر LLM تولید میشود و انسانها فقط ۴۹٪ از تولید محتوای اینترنتی را انجام میدهند.
وقتی محتوا توسط هوش مصنوعی تولید میشود و دوباره همان محتوا خوراک مدلهای جدید هوش مصنوعی میشود، وب بهتدریج به یک اکوسیستم بسته و خودتکرارشونده میان ربات ها تبدیل میشود؛
یک Echo chamber عظیم که اصالت، خلاقیت و حتی واقعیت را تهدید میکند.
imperva.com/resources/resource-library/reports/2025-bad-bot-report
وقتی محتوا توسط هوش مصنوعی تولید میشود و دوباره همان محتوا خوراک مدلهای جدید هوش مصنوعی میشود، وب بهتدریج به یک اکوسیستم بسته و خودتکرارشونده میان ربات ها تبدیل میشود؛
یک Echo chamber عظیم که اصالت، خلاقیت و حتی واقعیت را تهدید میکند.
imperva.com/resources/resource-library/reports/2025-bad-bot-report
Resource Library
2025 Bad Bot Report | Resource Library
Smarter Bots and Bigger Risk Automated threats are rising at an unprecedented rate, with bad bots now making up 37% of all internet traffic. AI is not only b
👌23👍8🤯6❤1
Forwarded from 🚀 کلاسویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
🔔 به درخواست کاربران، علاوه بر تخفیفهای قبلی بلکفرایدی:
🎓 دوره جامع OpenCV با پایتون
یک دوره کامل، پروژهمحور و بسیار محبوب بین کاربرها
با تخفیف ۷۰٪ واقعی
کد تخفیف:
🔗 https://mktb.me/81nt/
🎓 دوره شبکههای عصبی گرافی (GNN) – Class.Vision
برای علاقهمندان به هوش مصنوعی پیشرفته و گراف لرنینگ
با تخفیف ۵۰٪
کد تخفیف:
🔗 https://class.vision/product/graph-neural-network/
🎓 دوره جامع OpenCV با پایتون
یک دوره کامل، پروژهمحور و بسیار محبوب بین کاربرها
با تخفیف ۷۰٪ واقعی
کد تخفیف:
COUPON-7f28f🔗 https://mktb.me/81nt/
🎓 دوره شبکههای عصبی گرافی (GNN) – Class.Vision
برای علاقهمندان به هوش مصنوعی پیشرفته و گراف لرنینگ
با تخفیف ۵۰٪
کد تخفیف:
blackfriday🔗 https://class.vision/product/graph-neural-network/
❤9
دانشگاه استنفورد سامانهای برای داوری و فیدبک رایگان سریع و خودکار روی مقالات علمی با کمک هوش مصنوعی راه اندازی کرده
https://paperreview.ai/
https://paperreview.ai/
❤38👍4🤔3👀1
Tensorflow(@CVision)
🔥 شرکت Meta فقط SAM 3 را معرفی نکرد، بلکه SAM 3D را هم منتشر کرد! مدل جدید Meta یک جهش بزرگ در بازسازی سهبعدی از روی تصاویر دوبعدی ایجاد کرده است؛ هم برای اشیا و هم برای بدن انسان. 🔹 SAM 3D Objects این نسخه میتواند فقط از روی یک تصویر، کل ساختار سهبعدی…
This media is not supported in your browser
VIEW IN TELEGRAM
قبلاً در مورد SAM 3 و نسخههای سهبعدی مثل SAM 3D Objects و SAM 3D Body بحث کردیم...
متا یک قدم جلوتر رفته و استاندارد جدیدی در بین مدلهای بینایی کامپیوتری ساخته:
قابلیت Segment Anything with Concepts!
نسخهی جدید SAM 3 نه فقط اشیاء رو تشخیص میده، بلکه با پرامپت مفهومی میتونی هر چیزی رو با یک عبارت ساده بخشبندی کنی؛ از «اتوبوس مدرسه زرد» گرفته تا «بازیکنی با لباس سفید».
مدل میتونه بین مفاهیم نزدیک خیلی دقیق تمایز بذاره—حتی در ویدیوهای شلوغ!
این کار با معماری جدید Presence Head انجام میشه
زیرساخت مدل:
دیتاست عظیم شامل ۴ میلیون مفهوم
بنچمارک جدید SA-Co با ۲۷۰ هزار مفهوم (۵۰ برابر بزرگتر از قبلیها!)
دو برابر دقیقتر از مدلهای قبلی در بخشبندی تصویر و ویدیو
عملکرد نزدیک به ۷۵–۸۰٪ انسان
پردازش یک تصویر شلوغ در فقط ۳۰ میلیثانیه روی GPU H200
مدل ۸۴۸ میلیون پارامتری
📦 مدلها + 📚 کدها + 📊 بنچمارک SA-Co
همه هم روی Hugging Face در دسترسه
مقاله | مدل و دیتاست | دمو
متا یک قدم جلوتر رفته و استاندارد جدیدی در بین مدلهای بینایی کامپیوتری ساخته:
قابلیت Segment Anything with Concepts!
نسخهی جدید SAM 3 نه فقط اشیاء رو تشخیص میده، بلکه با پرامپت مفهومی میتونی هر چیزی رو با یک عبارت ساده بخشبندی کنی؛ از «اتوبوس مدرسه زرد» گرفته تا «بازیکنی با لباس سفید».
مدل میتونه بین مفاهیم نزدیک خیلی دقیق تمایز بذاره—حتی در ویدیوهای شلوغ!
این کار با معماری جدید Presence Head انجام میشه
زیرساخت مدل:
دیتاست عظیم شامل ۴ میلیون مفهوم
بنچمارک جدید SA-Co با ۲۷۰ هزار مفهوم (۵۰ برابر بزرگتر از قبلیها!)
دو برابر دقیقتر از مدلهای قبلی در بخشبندی تصویر و ویدیو
عملکرد نزدیک به ۷۵–۸۰٪ انسان
پردازش یک تصویر شلوغ در فقط ۳۰ میلیثانیه روی GPU H200
مدل ۸۴۸ میلیون پارامتری
📦 مدلها + 📚 کدها + 📊 بنچمارک SA-Co
همه هم روی Hugging Face در دسترسه
مقاله | مدل و دیتاست | دمو
👍26🔥8❤6