روند رو به رشد مقالات در Foundation model
🔸 Foundation model
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Foundation model
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
اینم ی بنچمارکی برای کسایی که با صدا کار میکنن، میتونن سرعت خروجی رو به میزان قابل توجهی کاهش بدهند
https://github.com/Vaibhavs10/insanely-fast-whisper
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/Vaibhavs10/insanely-fast-whisper
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
این مقاله برای کسایی که در حیطه تشخیص احساسات و aspect of speech و... فعالیت میکنن خیلی مناسبه
🔸 CLARA: Multilingual Contrastive Learning for Audio Representation Acquisition
🔸 CLARA Project
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 CLARA: Multilingual Contrastive Learning for Audio Representation Acquisition
🔸 CLARA Project
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤3
آموزش هوش مصنوعی بر روی بازی Pokemon با استفاد از reinforcement learning برای کسایی که قصد تحقیق روی بازی ها دارند این پروژه مناسبه
🔸 Project
🔸 YoTube
#فیلم #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Project
🔸 YoTube
#فیلم #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
در این مقاله و مقاله جدیدی که در اومده
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹
✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️
Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.
📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project
#مقاله #ایده_جذاب #دیتاست
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹
✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️
Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.
📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project
#مقاله #ایده_جذاب #دیتاست
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
👍5
مولتی مدل SPHINX اوپن سورس خفن بر پایه llama
🔸 Demo
🔸 Code
What's New with SPHINX compared to LLaMA_Adapter?
✅ Powered by the innovative X Accessory framework
✅ Enhanced visual understanding
✅ Precise image regions & bounding boxes, rivaling GPT4V
✅ Enhanced OCR tech for sharp character recognition in images
✅ SPHINX excels in identifying each national leader, showcasing superior detection capabilities.
✅ SPHINX can identify and pinpoint every subject within an image with remarkable precision.
✅ SPHINX can accurately interpret and describe content within figures, charts, and plots.
✅ SPHINX can precisely localize objects indicated by users compared to GPT4V
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Demo
🔸 Code
What's New with SPHINX compared to LLaMA_Adapter?
✅ Powered by the innovative X Accessory framework
✅ Enhanced visual understanding
✅ Precise image regions & bounding boxes, rivaling GPT4V
✅ Enhanced OCR tech for sharp character recognition in images
✅ SPHINX excels in identifying each national leader, showcasing superior detection capabilities.
✅ SPHINX can identify and pinpoint every subject within an image with remarkable precision.
✅ SPHINX can accurately interpret and describe content within figures, charts, and plots.
✅ SPHINX can precisely localize objects indicated by users compared to GPT4V
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
اینکه RAG چی بود قبلتر بهش اشاره شد، اکنون اومدن نحوه ارزیابی سیستم های RAG و RACAS برای تولیدمقاله رو بررسی کردند.
▪️ RACAS (Retrieval Augmented Clustering Augmented Summarization)
▪️ RAG (Retrieval Augmented Generation )
🔸 RACAS: Retrieve Cluster Summarize: An Alternative to End-to-End Training for Query-specific Article Generation
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ RACAS (Retrieval Augmented Clustering Augmented Summarization)
▪️ RAG (Retrieval Augmented Generation )
🔸 RACAS: Retrieve Cluster Summarize: An Alternative to End-to-End Training for Query-specific Article Generation
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2🕊1
مقاله خوب میخوایین بخونین
LLM Designed Rewards Can Be Used to Acquire Robot Skills
-LLM leveraged for evolutionary optimization over reward code
-Generates reward functions that outperform expert human-engineering
-Without any task-specific prompting, outperforms on 83% of tasks
🔸 Eureka: Human-Level Reward Design via Coding Large Language Models
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
LLM Designed Rewards Can Be Used to Acquire Robot Skills
-LLM leveraged for evolutionary optimization over reward code
-Generates reward functions that outperform expert human-engineering
-Without any task-specific prompting, outperforms on 83% of tasks
🔸 Eureka: Human-Level Reward Design via Coding Large Language Models
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3
📣 اینو حتما مطالعه کنید
The Art of Debugging
Fast Debugging Methodology
https://github.com/stas00/the-art-of-debugging
#الگوریتمها #منابع #آموزش
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
The Art of Debugging
Fast Debugging Methodology
https://github.com/stas00/the-art-of-debugging
#الگوریتمها #منابع #آموزش
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
یک مقاله خیلی خوب دیگه
🔸 A taxonomy and review of generalization research in NLP
https://genbench.org/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 A taxonomy and review of generalization research in NLP
https://genbench.org/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤2
Introducing a new approach for spoken language modeling trained end-to-end to directly process spectrograms as both input and output. It can be fine-tuned to generate semantically accurate spoken language for continuation and question answering.
https://goo.gle/3FzJNvy
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://goo.gle/3FzJNvy
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
اینجا در اهمیت ویژن ترنسفورمرها صحبت شده
🔸 ConvNets Match Vision Transformers at Scale
Quote from this DeepMind article:
"Although the success of ViTs in computer vision is extremely impressive, in our view there is no strong evidence to suggest that pre-trained ViTs outperform pre-trained ConvNets when evaluated fairly."
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 ConvNets Match Vision Transformers at Scale
Quote from this DeepMind article:
"Although the success of ViTs in computer vision is extremely impressive, in our view there is no strong evidence to suggest that pre-trained ViTs outperform pre-trained ConvNets when evaluated fairly."
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4🆒1
ی آموزش از فیسبوک برای مدل Llama 2 دنبال فاین تیون و ... هستین اینجا دنبالش کنین
https://ai.meta.com/llama/get-started/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://ai.meta.com/llama/get-started/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7
تو این مقاله اومدن قدرت RLHF رو نشون دادن و گفتن چطور ازش استفاده کنیم بدون اینکه وارد مدارش بشیم؟! FineTuningها و Pretrainingهایی که در این مدل بر پایه Llama 7b انجام شده فوق العادس.
🔸 An Emulator for Fine-Tuning Large Language Models using Small Language Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 An Emulator for Fine-Tuning Large Language Models using Small Language Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6
RedPajama-Data-v2: an Open Dataset with 30 Trillion Tokens for Training Large Language Models
https://together.ai/blog/redpajama-data-v2
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://together.ai/blog/redpajama-data-v2
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4