استاد بزرگ Andrej Karpathy مدل LLAMA3.1 8B رو با حداقل منابع فاین تیون کرده
https://github.com/karpathy/nano-llama31
#هوش_مصنوعی #منابع #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/karpathy/nano-llama31
#هوش_مصنوعی #منابع #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6🔥3
Forwarded from Meysam
کمک کنید دیتاست MMLU رو به فارسی هم ترجمه کنیم:
https://www.linkedin.com/posts/cohere-for-ai_3-days-left-to-validate-translations-in-your-activity-7224439805370122240-VrFI?utm_source=share&utm_medium=member_android
مرسی از مصطفی که گفت بزارم تو کانال
https://www.linkedin.com/posts/cohere-for-ai_3-days-left-to-validate-translations-in-your-activity-7224439805370122240-VrFI?utm_source=share&utm_medium=member_android
مرسی از مصطفی که گفت بزارم تو کانال
Linkedin
Cohere For AI on LinkedIn: 3 days left to validate translations in your language an collaborate…
3 days left to validate translations in your language an collaborate toward making multilingual benchmarks more equitable.
Thanks to the 154 people who have…
Thanks to the 154 people who have…
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
متا، بعد انتشار مقاله SAM 2 #دیتاست ویدیوهای Human Annotate شده را هم منتشر کرد :
SA-V Dataset
SA-V is a dataset designed for training general-purpose object segmentation models from open world videos. The dataset was introduced in “Segment Anything 2”.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
SA-V Dataset
SA-V is a dataset designed for training general-purpose object segmentation models from open world videos. The dataset was introduced in “Segment Anything 2”.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥4👍1
A Comprehensive Survey on Retrieval Methods in Recommender Systems
https://arxiv.org/abs/2407.21022
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://arxiv.org/abs/2407.21022
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤6
👍63👎29🤣3❤1
Forwarded from Scientometrics
این چند گزارش از نیچر در مورد نوشتن یک مقاله خوب/ توصیه نامه/ پروپزال گرنت و ... می باشد.
✅ Secrets to writing a winning grant
https://doi.org/10.1038/d41586-019-03914-5
✅ Writing the perfect recommendation letter
https://doi.org/10.1038/d41586-020-02186-8
✅ Sell yourself and your science in a compelling personal statement
https://doi.org/10.1038/d41586-021-01101-z
✅ How to write a superb literature review
https://doi.org/10.1038/d41586-020-03422-x
✅ How to write a first-class paper
https://doi.org/10.1038/d41586-018-02404-4
@Scientometric
✅ Secrets to writing a winning grant
https://doi.org/10.1038/d41586-019-03914-5
✅ Writing the perfect recommendation letter
https://doi.org/10.1038/d41586-020-02186-8
✅ Sell yourself and your science in a compelling personal statement
https://doi.org/10.1038/d41586-021-01101-z
✅ How to write a superb literature review
https://doi.org/10.1038/d41586-020-03422-x
✅ How to write a first-class paper
https://doi.org/10.1038/d41586-018-02404-4
@Scientometric
👍5❤1
Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3❤1
فاین توین مدلهای
Llama-3.1-8B with Llama-3.1-405B synthetic data
https://github.com/adamcohenhillel/LLMs-Cheatsheet/blob/main/fine-tune-llama3-8b-with-llama3-405b-data.ipynb
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Llama-3.1-8B with Llama-3.1-405B synthetic data
https://github.com/adamcohenhillel/LLMs-Cheatsheet/blob/main/fine-tune-llama3-8b-with-llama3-405b-data.ipynb
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7
در ماه جولای چه مدلهای متن بازی منتشر شد:
- Mistral: Mathstral, Mamba Codestral, 12B, 123B, Mistral Nemo
- Google: Gemma 2 2B, Gemma Scope, ShieldGemma
- Meta: Chamaleon, Llama 3.1
- NVIDIA: Audio Flamingo, BigVGAN, Minitron, MambaVision
- Apple: DCLM models and datasets
- Microsoft: Phi 3 Mini
- Aarce: Aarce-Agent, Arcee-Nova
- lmsys: RouteLLM
- SnapChat: weights2weights
- StabilityAI: Stable Video 4D
- Salesforce: function calling dataset, xLAM, Mint-1T
- InternLM: LM2.5, VL 2.0, XComposer-2.5, VL2-Llama3-76B, Reward, Step-Prover
- Numina: NuminaMath
- DeepSeek: DeepSeek-V2-0628
- h2o: H2O Danube3
- Patronus AI: Lynx, Lynx 1.1
- THUDM: CodeGeeX, CogVLM2
- MMLab: Storm 7B
- Tencent: Hunyuan DiT 1.2
- Snowflake: Arctic embed
- Alibaba: GTE Qwen2-7B-instruct
- Intel: Neural Embedding v1
- Fal: 16ch-VAE, AuraFlow, AuraFlow 0.2
- NasaxIBM: Indus
- Sakana: Sakana Evo
- Kwai: Kolors, LivePortrait
- Misc: Flash Attention 3, Eleuther SAEs, Athene, ColPali, Memex, XEUS, Fish Speech 1.2, Flash-VStream, DolphinVision 72b, WalledGuard, Anole, ControlNet++, PaintsUndo, ChartGemma, TF-ID, Hydra, Make-an-agent, Docmatix, GoldFinch, OCRonos, PhotoMakerv2, Tele-FLM, Cinemo, SeaLLM v3, Zamba2 small
#مقاله #ایده_جذاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
- Mistral: Mathstral, Mamba Codestral, 12B, 123B, Mistral Nemo
- Google: Gemma 2 2B, Gemma Scope, ShieldGemma
- Meta: Chamaleon, Llama 3.1
- NVIDIA: Audio Flamingo, BigVGAN, Minitron, MambaVision
- Apple: DCLM models and datasets
- Microsoft: Phi 3 Mini
- Aarce: Aarce-Agent, Arcee-Nova
- lmsys: RouteLLM
- SnapChat: weights2weights
- StabilityAI: Stable Video 4D
- Salesforce: function calling dataset, xLAM, Mint-1T
- InternLM: LM2.5, VL 2.0, XComposer-2.5, VL2-Llama3-76B, Reward, Step-Prover
- Numina: NuminaMath
- DeepSeek: DeepSeek-V2-0628
- h2o: H2O Danube3
- Patronus AI: Lynx, Lynx 1.1
- THUDM: CodeGeeX, CogVLM2
- MMLab: Storm 7B
- Tencent: Hunyuan DiT 1.2
- Snowflake: Arctic embed
- Alibaba: GTE Qwen2-7B-instruct
- Intel: Neural Embedding v1
- Fal: 16ch-VAE, AuraFlow, AuraFlow 0.2
- NasaxIBM: Indus
- Sakana: Sakana Evo
- Kwai: Kolors, LivePortrait
- Misc: Flash Attention 3, Eleuther SAEs, Athene, ColPali, Memex, XEUS, Fish Speech 1.2, Flash-VStream, DolphinVision 72b, WalledGuard, Anole, ControlNet++, PaintsUndo, ChartGemma, TF-ID, Hydra, Make-an-agent, Docmatix, GoldFinch, OCRonos, PhotoMakerv2, Tele-FLM, Cinemo, SeaLLM v3, Zamba2 small
#مقاله #ایده_جذاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
PyTorch just released torchchat, making it super easy to run LLMs locally.
- Supports a range of models, including Llama 3.1.
- Can use it on servers, desktops, and even mobile devices.
- pretty straightforward to implement
- offers both Python and native execution modes. It also includes support for eval and quantization.
https://github.com/pytorch/torchchat
#هوش_مصنوعی #پایتورچ #پایتون
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
- Supports a range of models, including Llama 3.1.
- Can use it on servers, desktops, and even mobile devices.
- pretty straightforward to implement
- offers both Python and native execution modes. It also includes support for eval and quantization.
https://github.com/pytorch/torchchat
#هوش_مصنوعی #پایتورچ #پایتون
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍10🤣1
Forwarded from DeepMind AI Expert
لیست کانال و گروه های ما :
▪️ گروه هوش مصنوعی: یادگیری عمیق و...
https://xn--r1a.website/DeepLearningAIExperts
▪️ گروه هوش مصنوعی: پردازش زبان طبیعی
https://xn--r1a.website/NLPExperts
▪️ کانال دکتر میثم عسگری
https://xn--r1a.website/ai_person
▪️ گروه لینوکس و پایتون و سایر...
https://xn--r1a.website/PythonLinuxExperts
با اشتراک گذاشتن این پست به دیده شدن و پیشرفت هموطنان خود کمک کنید. جایی برای پرسش و پاسخ و ارتباط با پژوهشگران علوم کامپیوتر و صنعت پیدا کنند.
▪️ گروه هوش مصنوعی: یادگیری عمیق و...
https://xn--r1a.website/DeepLearningAIExperts
▪️ گروه هوش مصنوعی: پردازش زبان طبیعی
https://xn--r1a.website/NLPExperts
▪️ کانال دکتر میثم عسگری
https://xn--r1a.website/ai_person
▪️ گروه لینوکس و پایتون و سایر...
https://xn--r1a.website/PythonLinuxExperts
با اشتراک گذاشتن این پست به دیده شدن و پیشرفت هموطنان خود کمک کنید. جایی برای پرسش و پاسخ و ارتباط با پژوهشگران علوم کامپیوتر و صنعت پیدا کنند.
❤1👍1😍1🤣1
Left: Hierarchical model based RL with a large-scale pre-trained world model, auxiliary tasks and skill-discovery and a model for inverse kinematics.
Right: Proportional-integral-derivative controller, from classic control theory
#متفرقه #آموزش
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Right: Proportional-integral-derivative controller, from classic control theory
#متفرقه #آموزش
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🤣10👍1
Forwarded from Recommender system (MehriMah Amiri)
🆒3❤1👍1👎1
دیگه کسی نیاز نیست پایتون یا برنامه دیگه ای یادبگیره
https://llamacoder.together.ai/
#مقاله #ایده_جذاب #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://llamacoder.together.ai/
#مقاله #ایده_جذاب #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🤣12👍3👎1
سلام دوستان میشه لطفا به boost کردن کانال کمک کنین هر کدومتون تلگرام پرمیوم دارید یاری کنید.
https://xn--r1a.website/boost/AI_DeepMind
https://xn--r1a.website/boost/AI_DeepMind
🤣8👎6👍4
دوره خوبی راجب #یادگیری_غیرنظارتی از دانشگاه الینویز
◾️ UIUC STAT 437 Unsupervised Learning spring 2024, by Tori Ellison
#منابع #کلاس_آموزشی #فیلم #یادگیری_ماشین
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ UIUC STAT 437 Unsupervised Learning spring 2024, by Tori Ellison
#منابع #کلاس_آموزشی #فیلم #یادگیری_ماشین
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤3👍2🤣1
امروز با معرفی مدل Biggie-SmoLlm-0.15B-Base قبلتر گفتم که مدلها به سمت کوچکتر شدن و کیفیت بیشتر سوق داده میشوند بعدها میشه چندین میلیارد پارامتر رو در لپ تاپ شخصی عادی اجرا کرد. . در گفتگویی قبلتر که دکتر لکون گفته بود روی مدلهای LLM کار نکنید این تحقیقات رو برای شرکتهای بزرگ بزارید آِیا این کار محقق میشه که هرکسی بتواند روی این تحقیقات پژوهشهای خودش رو جلو ببره ؟!!
So theoretically, with this LLaMa 3 70B can start running on a 12GB GPUs, (which many phone has already)
the Llama 3.1 8B model, which typically requires about 16 GB of memory in full fp16 precision (necessitating a high-end GPU like the RTX 4090), can be compressed to run on just 8 GB of memory using 4-bit quantization.
Even more extreme compression to 1-bit quantization could potentially reduce the model's footprint to around 1 GB, potentially enabling LLM deployment on mobile devices.
◾️ llamagnific-3-87b-gguf
#مقاله #ایده_جذاب #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
So theoretically, with this LLaMa 3 70B can start running on a 12GB GPUs, (which many phone has already)
the Llama 3.1 8B model, which typically requires about 16 GB of memory in full fp16 precision (necessitating a high-end GPU like the RTX 4090), can be compressed to run on just 8 GB of memory using 4-bit quantization.
Even more extreme compression to 1-bit quantization could potentially reduce the model's footprint to around 1 GB, potentially enabling LLM deployment on mobile devices.
◾️ llamagnific-3-87b-gguf
#مقاله #ایده_جذاب #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥4👍3