DeepMind AI Expert
15K subscribers
1.28K photos
385 videos
120 files
2.26K links
مقالات کاربردی هوش مصنوعی در پایتون، علوم پزشکی، علوم انسانی، علوم اعصاب و...
دوره های آموزشی از دانشگاه های بزرگ و موسسات انلاین
@ffarzaddh
پژوهشگران هوش مصنوعی ایران

تبادلات پیام بدید
Download Telegram
روند رو به رشد مقالات در Foundation model

🔸 Foundation model
#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
اینم ی بنچمارکی برای کسایی که با صدا کار میکنن، میتونن سرعت خروجی رو به میزان قابل توجهی کاهش بدهند

https://github.com/Vaibhavs10/insanely-fast-whisper

#هوش_مصنوعی

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍2
این مقاله برای کسایی که در حیطه تشخیص احساسات و aspect of speech و... فعالیت میکنن خیلی مناسبه

🔸 CLARA: Multilingual Contrastive Learning for Audio Representation Acquisition

🔸 CLARA Project

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
3
آموزش هوش مصنوعی بر روی بازی Pokemon با استفاد از reinforcement learning برای کسایی که قصد تحقیق روی بازی ها دارند این پروژه مناسبه

🔸 Project
🔸 YoTube

#فیلم #هوش_مصنوعی

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
در این مقاله و مقاله جدیدی که در اومده
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹

✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️

Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.

📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project

#مقاله #ایده_جذاب #دیتاست

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
👍5
مولتی مدل SPHINX اوپن سورس خفن بر پایه llama

🔸 Demo
🔸 Code

What's New with SPHINX compared to LLaMA_Adapter?

Powered by the innovative X Accessory framework
Enhanced visual understanding
Precise image regions & bounding boxes, rivaling GPT4V
Enhanced OCR tech for sharp character recognition in images
SPHINX excels in identifying each national leader, showcasing superior detection capabilities.
SPHINX can identify and pinpoint every subject within an image with remarkable precision.
SPHINX can accurately interpret and describe content within figures, charts, and plots.
SPHINX can precisely localize objects indicated by users compared to GPT4V

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍4
اینکه RAG چی بود قبلتر بهش اشاره شد، اکنون اومدن نحوه ارزیابی سیستم های RAG و RACAS برای تولیدمقاله رو بررسی کردند.

▪️ RACAS (Retrieval Augmented Clustering Augmented Summarization)
▪️ RAG (Retrieval Augmented Generation )

🔸 RACAS: Retrieve Cluster Summarize: An Alternative to End-to-End Training for Query-specific Article Generation

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍2🕊1
مقاله خوب میخوایین بخونین

LLM Designed Rewards Can Be Used to Acquire Robot Skills

-LLM leveraged for evolutionary optimization over reward code
-Generates reward functions that outperform expert human-engineering
-Without any task-specific prompting, outperforms on 83% of tasks

🔸 Eureka: Human-Level Reward Design via Coding Large Language Models
🔸 GitHub

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍3
📣 اینو حتما مطالعه کنید

The Art of Debugging

Fast Debugging Methodology

https://github.com/stas00/the-art-of-debugging

#الگوریتمها #منابع #آموزش

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍2
یک مقاله خیلی خوب دیگه
🔸 A taxonomy and review of generalization research in NLP
https://genbench.org/


#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
2
🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍3🆒2👎1
Introducing a new approach for spoken language modeling trained end-to-end to directly process spectrograms as both input and output. It can be fine-tuned to generate semantically accurate spoken language for continuation and question answering.

https://goo.gle/3FzJNvy

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍1
اینجا در اهمیت ویژن ترنسفورمرها صحبت شده
🔸 ConvNets Match Vision Transformers at Scale

Quote from this DeepMind article:

"Although the success of ViTs in computer vision is extremely impressive, in our view there is no strong evidence to suggest that pre-trained ViTs outperform pre-trained ConvNets when evaluated fairly."

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍4🆒1
ی آموزش از فیسبوک برای مدل Llama 2 دنبال فاین تیون و ... هستین اینجا دنبالش کنین


https://ai.meta.com/llama/get-started/


#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍7
تو این مقاله اومدن قدرت RLHF رو نشون دادن و گفتن چطور ازش استفاده کنیم بدون اینکه وارد مدارش بشیم؟! FineTuningها و Pretrainingهایی که در این مدل بر پایه Llama 7b انجام شده فوق العادس.

🔸 An Emulator for Fine-Tuning Large Language Models using Small Language Models

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍6
RedPajama-Data-v2: an Open Dataset with 30 Trillion Tokens for Training Large Language Models

https://together.ai/blog/redpajama-data-v2

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍4