سری های زمانی و مدلهای LLMs
🔸 Large Language Models Are Zero-Shot Time Series Forecasters
1) they were not trained on the same data they are being benchmarked on.
2) large scale testing against all other non transformer forecasting models.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Large Language Models Are Zero-Shot Time Series Forecasters
1) they were not trained on the same data they are being benchmarked on.
2) large scale testing against all other non transformer forecasting models.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7🆒2👎1
ایمیل ها ارسال شد.
اگر دریافت نکردید پوشه اسپم رو نگاه کنید داخل میل باکستون.
یک لینک کانال دیسکورد دریافت میکنید با این ایمیل.
حدود ۷۰۰ ایمیل برای ۴۰۰ نفر ارسال شد. (بعضی ها چندتا ایمیل نوشته بودند برای همین سعی کردم که به هر نحوی پیام رو دریافت کنند)
جلسات و هماهنگی ها رو از اونجا ادامه میدیم.
چرا دیسکورد زدیم برای جلسه ها؟
پلتفرمهای دیگه مشکلات خاص خودشون رو داشتند. نمیشد برای بیش از ۱۰۰ نفر جلسه گذاشت.چرا جلسه اول هفته بعده؟
خب باید صبر کنیم بقیه هم بیان عضو بشن که بتونیم برگزار کنیم.دیسکورد فیلتره 😔
میدونم، همشون فیلترن. همین تلگرام هم فیلتره. خود من و شما هم فیلتریم.
دیسکورد فیلتره 😔
برای دوستانی که ثبت نام نکردن یا اگر ثبتنام کردند ایمیل دریافت نکردند، این لینک کانال دیسکورد هست که جلسات و هماهنگی رو اونجا قراره انجام بدیم:
https://discord.com/invite/RFNEVdA9fn
https://xn--r1a.website/ai_person/1494
اگر دریافت نکردید پوشه اسپم رو نگاه کنید داخل میل باکستون.
یک لینک کانال دیسکورد دریافت میکنید با این ایمیل.
حدود ۷۰۰ ایمیل برای ۴۰۰ نفر ارسال شد. (بعضی ها چندتا ایمیل نوشته بودند برای همین سعی کردم که به هر نحوی پیام رو دریافت کنند)
جلسات و هماهنگی ها رو از اونجا ادامه میدیم.
چرا دیسکورد زدیم برای جلسه ها؟
پلتفرمهای دیگه مشکلات خاص خودشون رو داشتند. نمیشد برای بیش از ۱۰۰ نفر جلسه گذاشت.چرا جلسه اول هفته بعده؟
خب باید صبر کنیم بقیه هم بیان عضو بشن که بتونیم برگزار کنیم.دیسکورد فیلتره 😔
میدونم، همشون فیلترن. همین تلگرام هم فیلتره. خود من و شما هم فیلتریم.
دیسکورد فیلتره 😔
برای دوستانی که ثبت نام نکردن یا اگر ثبتنام کردند ایمیل دریافت نکردند، این لینک کانال دیسکورد هست که جلسات و هماهنگی رو اونجا قراره انجام بدیم:
https://discord.com/invite/RFNEVdA9fn
https://xn--r1a.website/ai_person/1494
👍6❤1
Sparse Universal Transformer is both parameter-efficient and computation-efficient compared to the Transformer, and it's better at compositional generalization!
arxiv.org/abs/2310.07096
arxiv.org/abs/2310.07096
❤2
مدلهای زبانی برای مهندسین نرم افزار
LLMs for Software Engineering
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
LLMs for Software Engineering
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🆒4
مدلهای زبانی برای روانشناسی
🔸 Using large language models in psychology
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Using large language models in psychology
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3🆒2
در مقاله پیشرو بازخورد انسانی چگونه رفتارهای LLM را هدایت می کند؟
صدای چه کسی غالب است؟ آیا میتوانیم از Adverserial attackها جلوگیری کنیم؟!
چه چالش هایی باقی مانده است و چگونه میتوانیم به عنوان یک جامعه در آینده بهتر عمل کنیم؟
🔸 The Past, Present and Better Future of Feedback Learning in Large Language Models for Subjective Human Preferences and Values
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
صدای چه کسی غالب است؟ آیا میتوانیم از Adverserial attackها جلوگیری کنیم؟!
چه چالش هایی باقی مانده است و چگونه میتوانیم به عنوان یک جامعه در آینده بهتر عمل کنیم؟
🔸 The Past, Present and Better Future of Feedback Learning in Large Language Models for Subjective Human Preferences and Values
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
مقاله جالبیه
🔸 Can Large Language Models Explain Themselves? A Study of LLM-Generated Self-Explanations
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Can Large Language Models Explain Themselves? A Study of LLM-Generated Self-Explanations
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
یکی از مقالات خوبی که میتونین ازش استفاده کنید
🔸 Understanding Retrieval Augmentation for Long-Form Question Answering
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Understanding Retrieval Augmentation for Long-Form Question Answering
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
دمو از ی مدل خوب که کارهای زیادیو انجام میده
🔸 Visual Question Answering
🔸 Image Captioning
🔸 Text localization
🔸 https://huggingface.co/spaces/adept/fuyu-8b-demo
🔸 https://www.adept.ai/blog/fuyu-8b
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Visual Question Answering
🔸 Image Captioning
🔸 Text localization
🔸 https://huggingface.co/spaces/adept/fuyu-8b-demo
🔸 https://www.adept.ai/blog/fuyu-8b
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤1👍1
روند رو به رشد مقالات در Foundation model
🔸 Foundation model
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Foundation model
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
اینم ی بنچمارکی برای کسایی که با صدا کار میکنن، میتونن سرعت خروجی رو به میزان قابل توجهی کاهش بدهند
https://github.com/Vaibhavs10/insanely-fast-whisper
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/Vaibhavs10/insanely-fast-whisper
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
این مقاله برای کسایی که در حیطه تشخیص احساسات و aspect of speech و... فعالیت میکنن خیلی مناسبه
🔸 CLARA: Multilingual Contrastive Learning for Audio Representation Acquisition
🔸 CLARA Project
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 CLARA: Multilingual Contrastive Learning for Audio Representation Acquisition
🔸 CLARA Project
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤3
آموزش هوش مصنوعی بر روی بازی Pokemon با استفاد از reinforcement learning برای کسایی که قصد تحقیق روی بازی ها دارند این پروژه مناسبه
🔸 Project
🔸 YoTube
#فیلم #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Project
🔸 YoTube
#فیلم #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
در این مقاله و مقاله جدیدی که در اومده
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹
✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️
Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.
📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project
#مقاله #ایده_جذاب #دیتاست
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹
✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️
Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.
📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project
#مقاله #ایده_جذاب #دیتاست
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
👍5
مولتی مدل SPHINX اوپن سورس خفن بر پایه llama
🔸 Demo
🔸 Code
What's New with SPHINX compared to LLaMA_Adapter?
✅ Powered by the innovative X Accessory framework
✅ Enhanced visual understanding
✅ Precise image regions & bounding boxes, rivaling GPT4V
✅ Enhanced OCR tech for sharp character recognition in images
✅ SPHINX excels in identifying each national leader, showcasing superior detection capabilities.
✅ SPHINX can identify and pinpoint every subject within an image with remarkable precision.
✅ SPHINX can accurately interpret and describe content within figures, charts, and plots.
✅ SPHINX can precisely localize objects indicated by users compared to GPT4V
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔸 Demo
🔸 Code
What's New with SPHINX compared to LLaMA_Adapter?
✅ Powered by the innovative X Accessory framework
✅ Enhanced visual understanding
✅ Precise image regions & bounding boxes, rivaling GPT4V
✅ Enhanced OCR tech for sharp character recognition in images
✅ SPHINX excels in identifying each national leader, showcasing superior detection capabilities.
✅ SPHINX can identify and pinpoint every subject within an image with remarkable precision.
✅ SPHINX can accurately interpret and describe content within figures, charts, and plots.
✅ SPHINX can precisely localize objects indicated by users compared to GPT4V
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
اینکه RAG چی بود قبلتر بهش اشاره شد، اکنون اومدن نحوه ارزیابی سیستم های RAG و RACAS برای تولیدمقاله رو بررسی کردند.
▪️ RACAS (Retrieval Augmented Clustering Augmented Summarization)
▪️ RAG (Retrieval Augmented Generation )
🔸 RACAS: Retrieve Cluster Summarize: An Alternative to End-to-End Training for Query-specific Article Generation
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ RACAS (Retrieval Augmented Clustering Augmented Summarization)
▪️ RAG (Retrieval Augmented Generation )
🔸 RACAS: Retrieve Cluster Summarize: An Alternative to End-to-End Training for Query-specific Article Generation
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2🕊1
مقاله خوب میخوایین بخونین
LLM Designed Rewards Can Be Used to Acquire Robot Skills
-LLM leveraged for evolutionary optimization over reward code
-Generates reward functions that outperform expert human-engineering
-Without any task-specific prompting, outperforms on 83% of tasks
🔸 Eureka: Human-Level Reward Design via Coding Large Language Models
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
LLM Designed Rewards Can Be Used to Acquire Robot Skills
-LLM leveraged for evolutionary optimization over reward code
-Generates reward functions that outperform expert human-engineering
-Without any task-specific prompting, outperforms on 83% of tasks
🔸 Eureka: Human-Level Reward Design via Coding Large Language Models
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3