مقاله بسیار مهمی هستش
◾️ LLM2Vec: Large Language Models Are Secretly Powerful Text Encoders
you can convert any decoder model (such as Llama 3.1 or Gemma into an encoder (such as RoBERTa). Why would you want to do that? Because modern decoders support huge context sizes (128k+ tokens) while the longest context of an encoder is 4K (LongFormer), but encoders excel in such tasks as classification, named entity recognition (NER), and document embedding.
#مقاله #ایده_جذاب #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ LLM2Vec: Large Language Models Are Secretly Powerful Text Encoders
you can convert any decoder model (such as Llama 3.1 or Gemma into an encoder (such as RoBERTa). Why would you want to do that? Because modern decoders support huge context sizes (128k+ tokens) while the longest context of an encoder is 4K (LongFormer), but encoders excel in such tasks as classification, named entity recognition (NER), and document embedding.
#مقاله #ایده_جذاب #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍5❤2👌1
Forwarded from Recommender system (MehriMah Amiri)
AI__Machine_Learning_and_Deep_Learning.pdf
14.9 MB
کتاب "AI, Machine Learning and Deep Learning: A Security Perspective" به بررسی موضوعات زیر میپردازد:
1. مفاهیم پایهای و کاربردها:
- توضیح اصول هوش مصنوعی (AI)، یادگیری ماشین (ML)، و یادگیری عمیق (DL) و کاربردهای آنها در فناوری اطلاعات.
2. مسائل امنیتی:
- تمرکز بر امنیت الگوریتمها و ابزارهای AI/ML/DL.
3.حملات و تهدیدات:
- بررسی آسیبپذیریها و تهدیداتی که میتوانند الگوریتمها و دستگاههای مبتنی بر هوش مصنوعی را تحت تأثیر قرار دهند.
4.چالشهای داخلی و خارجی:
- تأثیر ورودیهای آلوده یا دشمنانه بر مدلهای یادگیری عمیق.
#امنيت
#AI_Security #MachineLearningThreats #DeepLearningRisks #CyberSecurityAI #AI_Threats #ML_SecurityChallenges #DL_Vulnerabilities #AI_Safety
1. مفاهیم پایهای و کاربردها:
- توضیح اصول هوش مصنوعی (AI)، یادگیری ماشین (ML)، و یادگیری عمیق (DL) و کاربردهای آنها در فناوری اطلاعات.
2. مسائل امنیتی:
- تمرکز بر امنیت الگوریتمها و ابزارهای AI/ML/DL.
3.حملات و تهدیدات:
- بررسی آسیبپذیریها و تهدیداتی که میتوانند الگوریتمها و دستگاههای مبتنی بر هوش مصنوعی را تحت تأثیر قرار دهند.
4.چالشهای داخلی و خارجی:
- تأثیر ورودیهای آلوده یا دشمنانه بر مدلهای یادگیری عمیق.
#امنيت
#AI_Security #MachineLearningThreats #DeepLearningRisks #CyberSecurityAI #AI_Threats #ML_SecurityChallenges #DL_Vulnerabilities #AI_Safety
👍4❤1
Forwarded from GPT Ocean (A. Roshan)
Media is too big
VIEW IN TELEGRAM
◀️ایجاد آواتار ویدئویی خودتان | DEEPBRAIN AI
در این راهنمای گام به گام، ما بررسی خواهیم کرد که چقدر آسان است که آواتار ویدئویی AI خود را ایجاد کنید. چه یک وبکم داشته باشید و چه یک تلفن هوشمند، میتوانید بلافاصله شروع کنید.
این ابزار قدرتمند میتواند اسکریپتها را تولید کند و ویدئوهای آواتار AI کامل بسازد، که آن را برای آموزش، شبکههای اجتماعی و اهداف بازاریابی ایدهآل میکند.
ویدئوی اول شما کاملاً رایگان است و تنها چند دقیقه طول میکشد تا ایجاد شود.
https://www.deepbrain.io/
📌ویدیو را با دوستانتان به اشتراک بگذارید
@gptocean
در این راهنمای گام به گام، ما بررسی خواهیم کرد که چقدر آسان است که آواتار ویدئویی AI خود را ایجاد کنید. چه یک وبکم داشته باشید و چه یک تلفن هوشمند، میتوانید بلافاصله شروع کنید.
این ابزار قدرتمند میتواند اسکریپتها را تولید کند و ویدئوهای آواتار AI کامل بسازد، که آن را برای آموزش، شبکههای اجتماعی و اهداف بازاریابی ایدهآل میکند.
ویدئوی اول شما کاملاً رایگان است و تنها چند دقیقه طول میکشد تا ایجاد شود.
https://www.deepbrain.io/
📌ویدیو را با دوستانتان به اشتراک بگذارید
@gptocean
❤1
سلام دوستان
ما دنبال یه همکار میگردیم
عنوان شغلی: متخصص پردازش زبان طبیعی
نوع همکاری: فول تایم (Full-Time)
موقعیت شغلی:
ما به دنبال یک متخصص پردازش زبان طبیعی (NLP) با انگیزه و توانمند هستیم که به تیم ما بپیوندد. اگر روحیه کار تیمی دارید و به یادگیری موضوعات جدید علاقهمند هستید، شما میتوانید گزینه مناسبی برای ما باشید.
ویژگیهای مورد نیاز:
• روحیه کار تیمی: توانایی همکاری و مشارکت موثر در یک تیم.
روحیه کار شخصی: انگیزه و علاقه
• آشنایی با اصول NLP: تسلط بر مبانی پردازش زبان طبیعی (NLP).
• تجربه Fine-tuning مدلهای زبانی بزرگ (LLM): سابقه کار و بهینهسازی مدلهای زبانی بزرگ.
• آشنایی با ابزارهای LangChain و LlamaIndex: تجربه عملی کار با این ابزارها.
• علاقه به یادگیری: تمایل و اشتیاق به یادگیری و بهروزرسانی دانش در موضوعات جدید.
• تحصیلات: فارغالتحصیل یا دانشجوی دانشگاههای معتبر در زمینه NLP (ترجیحاً).
شرایط عمومی:
• نوع همکاری: تماموقت (Full-Time)
• موقعیت مکانی: تهران- سعادت آباد
مزایا:
• همکاری با تیم متخصصین پیشتاز: فرصت همکاری با تیمی از متخصصین برجسته در این حوزه.
• کار روی لبه تکنولوژی: امکان کار روی پروژههای پیشرفته و استفاده از جدیدترین تکنولوژیها در زمینه NLP.
• محیط کاری پویا و دوستانه: فضایی مناسب برای رشد و توسعه فردی و حرفهای.
امکان دورکاری ۱ روز در هفته
شرایط حقوقی عالی
نحوه ارسال درخواست:
لطفاً رزومه خود را به آدرس ایمیل info@modai.fashion ارسال کنید. در عنوان ایمیل “استخدام متخصص پردازش زبان طبیعی” را ذکر نمایید.
ما دنبال یه همکار میگردیم
عنوان شغلی: متخصص پردازش زبان طبیعی
نوع همکاری: فول تایم (Full-Time)
موقعیت شغلی:
ما به دنبال یک متخصص پردازش زبان طبیعی (NLP) با انگیزه و توانمند هستیم که به تیم ما بپیوندد. اگر روحیه کار تیمی دارید و به یادگیری موضوعات جدید علاقهمند هستید، شما میتوانید گزینه مناسبی برای ما باشید.
ویژگیهای مورد نیاز:
• روحیه کار تیمی: توانایی همکاری و مشارکت موثر در یک تیم.
روحیه کار شخصی: انگیزه و علاقه
• آشنایی با اصول NLP: تسلط بر مبانی پردازش زبان طبیعی (NLP).
• تجربه Fine-tuning مدلهای زبانی بزرگ (LLM): سابقه کار و بهینهسازی مدلهای زبانی بزرگ.
• آشنایی با ابزارهای LangChain و LlamaIndex: تجربه عملی کار با این ابزارها.
• علاقه به یادگیری: تمایل و اشتیاق به یادگیری و بهروزرسانی دانش در موضوعات جدید.
• تحصیلات: فارغالتحصیل یا دانشجوی دانشگاههای معتبر در زمینه NLP (ترجیحاً).
شرایط عمومی:
• نوع همکاری: تماموقت (Full-Time)
• موقعیت مکانی: تهران- سعادت آباد
مزایا:
• همکاری با تیم متخصصین پیشتاز: فرصت همکاری با تیمی از متخصصین برجسته در این حوزه.
• کار روی لبه تکنولوژی: امکان کار روی پروژههای پیشرفته و استفاده از جدیدترین تکنولوژیها در زمینه NLP.
• محیط کاری پویا و دوستانه: فضایی مناسب برای رشد و توسعه فردی و حرفهای.
امکان دورکاری ۱ روز در هفته
شرایط حقوقی عالی
نحوه ارسال درخواست:
لطفاً رزومه خود را به آدرس ایمیل info@modai.fashion ارسال کنید. در عنوان ایمیل “استخدام متخصص پردازش زبان طبیعی” را ذکر نمایید.
مقاله خوبی برای low resources
◾️ Improving Text Embeddings for Smaller Language Models Using Contrastive Fine-tuning
#مقاله #ایده_جذاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ Improving Text Embeddings for Smaller Language Models Using Contrastive Fine-tuning
#مقاله #ایده_جذاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3🔥1
با pdf خودتون حرف بزنین دوستان اینو میتونین روی مدل فارسی فاین تیون کنین
https://github.com/ericciarla/local-website-chatbot
#مقاله #ایده_جذاب #منابع #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/ericciarla/local-website-chatbot
#مقاله #ایده_جذاب #منابع #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3
داریم به 8888 نفرفعال هوش مصنوعی میرسیم الان ی سری حسود پلاستیکی میگن ک هنوز تعداد کمتره😒
🔥15👍4🤣2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
شماها یادبگیرید. شما نسل آینده رو تربیت کنید دنیا به جای زیبایی نیاز داره به آدمهای خوب نیاز داره هیچیو گردن کسی نندازید سواد رابطه،سواد امن بودن، سواد ارتباطی پیدا کنیم. سر سفره خانواده بزرگ شید
👍12🤣9🆒4
A Survey of Mamba
Reviews Mamba architecture, highlighting its comparable modeling abilities to Transformers but with near-linear scalability for sequence length, and discusses its advancements, data adaptability, applications, and limitations.
📝arxiv.org/abs/2408.01129
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Reviews Mamba architecture, highlighting its comparable modeling abilities to Transformers but with near-linear scalability for sequence length, and discusses its advancements, data adaptability, applications, and limitations.
📝arxiv.org/abs/2408.01129
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
Forwarded from Meysam
📁 اینایی که فرستادم مربوط به دوره ای میشه که دانشگاه تبریز هوش مصنوعی تدریس کرده بودم، گفتم شاید بدردتون بخوره.
❌ آدرس ایمیلی که هست استفاده نمیکنم دیگه، ایمیل نزنید اونجا.
🗄️ اینم لیست فایلها خواستید جایی فوروارد کنید:
https://xn--r1a.website/ai_person/1601
https://xn--r1a.website/ai_person/1602
https://xn--r1a.website/ai_person/1603
https://xn--r1a.website/ai_person/1604
https://xn--r1a.website/ai_person/1605
https://xn--r1a.website/ai_person/1606
https://xn--r1a.website/ai_person/1607
https://xn--r1a.website/ai_person/1608
https://xn--r1a.website/ai_person/1609
https://xn--r1a.website/ai_person/1610
https://xn--r1a.website/ai_person/1611
https://xn--r1a.website/ai_person/1612
https://xn--r1a.website/ai_person/1613
✅ این بخشهای آخرش مربوط میشد به عامل های هوشمند، الان هم موضوع نسبتا جذابی شده اکثرا با مدل زبانی عامل هوشمند کار میکنند، گفتم شاید بدردتون بخوره.
📖 کتابی که ازش تدریس کرده بودم مال استوارت راسل و نورویگ بود، کتاب خیلی خوبی هست به نظرم.
اینم کتابش:
🔗 https://aima.cs.berkeley.edu/
ℹ️ میخواهید کار کنید و پایه ای برید جلو بد نیست برای شروع و یا حتی کسایی که کارشون اینه و نخوندن کتاب رو، شدیداً توصیه میکنم.
#منابع
❌ آدرس ایمیلی که هست استفاده نمیکنم دیگه، ایمیل نزنید اونجا.
🗄️ اینم لیست فایلها خواستید جایی فوروارد کنید:
https://xn--r1a.website/ai_person/1601
https://xn--r1a.website/ai_person/1602
https://xn--r1a.website/ai_person/1603
https://xn--r1a.website/ai_person/1604
https://xn--r1a.website/ai_person/1605
https://xn--r1a.website/ai_person/1606
https://xn--r1a.website/ai_person/1607
https://xn--r1a.website/ai_person/1608
https://xn--r1a.website/ai_person/1609
https://xn--r1a.website/ai_person/1610
https://xn--r1a.website/ai_person/1611
https://xn--r1a.website/ai_person/1612
https://xn--r1a.website/ai_person/1613
✅ این بخشهای آخرش مربوط میشد به عامل های هوشمند، الان هم موضوع نسبتا جذابی شده اکثرا با مدل زبانی عامل هوشمند کار میکنند، گفتم شاید بدردتون بخوره.
📖 کتابی که ازش تدریس کرده بودم مال استوارت راسل و نورویگ بود، کتاب خیلی خوبی هست به نظرم.
اینم کتابش:
🔗 https://aima.cs.berkeley.edu/
ℹ️ میخواهید کار کنید و پایه ای برید جلو بد نیست برای شروع و یا حتی کسایی که کارشون اینه و نخوندن کتاب رو، شدیداً توصیه میکنم.
#منابع
👍6🙏2❤1
چطوری عکس خودتون رو به انیمه تبدیل کنین اینجا #هوش_مصنوعی به کمک شما میاد در این لینک اوپن سورس شده میتونین عکس خودتون رو به شکل انیمه در بیارید
https://github.com/camenduru/flux-jupyter
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/camenduru/flux-jupyter
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
GitHub
GitHub - camenduru/flux-jupyter
Contribute to camenduru/flux-jupyter development by creating an account on GitHub.
❤6👍1
انتشار مدل جدیدی دیگه
Releasing BRAG: High-Performance RAG Model Trained In $25
1️⃣ BRAG-Qwen2-7b-v0.1
2️⃣ BRAG-Llama-3.1-8b-v0.1
3️⃣ BRAG-Llama-3-8b-v0.1
4️⃣ BRAG-Qwen2-1.5b-v0.1
🔍 More interesting details on datasets and training procedure in our release technical report: https://shorturl.at/IrCE1
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Releasing BRAG: High-Performance RAG Model Trained In $25
1️⃣ BRAG-Qwen2-7b-v0.1
2️⃣ BRAG-Llama-3.1-8b-v0.1
3️⃣ BRAG-Llama-3-8b-v0.1
4️⃣ BRAG-Qwen2-1.5b-v0.1
🔍 More interesting details on datasets and training procedure in our release technical report: https://shorturl.at/IrCE1
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤4👍1
عنوان این مقاله خیلی جای فکر داره که اصلا چیه و چطوری ممکنه هر مدلی در هر اندازه ای رو یکبار ترین کرد اینکه چطوری و چکار میکنه Large-scale self-supervised جای بحث زیادی میتونه داشته باشه.
◾️ Pre-training Once for Models of All Sizes
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ Pre-training Once for Models of All Sizes
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
MeshAnything V2
Artist-Created Mesh Generation with Adjacent Mesh Tokenization
Equipped with the newly proposed Adjacent Mesh Tokenization (AMT), MeshAnything V2 significantly surpasses MeshAnything in both performance and efficiency. MeshAnything V2 generates Artist-Created Meshes (AM) up to 1600 faces aligned with given shapes. Combined with various 3D asset production pipelines, it efficiently achieves high-quality, highly controllable AM generation.
▪️ MeshAnything V2: Artist-Created Mesh Generation With Adjacent Mesh Tokenization
▪️ Code
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Artist-Created Mesh Generation with Adjacent Mesh Tokenization
Equipped with the newly proposed Adjacent Mesh Tokenization (AMT), MeshAnything V2 significantly surpasses MeshAnything in both performance and efficiency. MeshAnything V2 generates Artist-Created Meshes (AM) up to 1600 faces aligned with given shapes. Combined with various 3D asset production pipelines, it efficiently achieves high-quality, highly controllable AM generation.
▪️ MeshAnything V2: Artist-Created Mesh Generation With Adjacent Mesh Tokenization
▪️ Code
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥5👍2