مدرس دوره دکتر شریفی زارچی :
دانشکدهی مهندسی کامپیوتر دانشگاه شریف برگزار میکند: دورهی رایگان «خلاقیت الگوریتمی و برنامهنویسی پایتون»، ویژهی دانشآموزان متوسطهی سراسر کشور (حضوری/مجازی).
تیمی از دانشجویان علاقمند، مرا را در ارائهی این دوره همراهی خواهند کرد.
آدرس ثبتنام:
micro.ce.sharif.edu/python
#پایتون #مبتدی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
دانشکدهی مهندسی کامپیوتر دانشگاه شریف برگزار میکند: دورهی رایگان «خلاقیت الگوریتمی و برنامهنویسی پایتون»، ویژهی دانشآموزان متوسطهی سراسر کشور (حضوری/مجازی).
تیمی از دانشجویان علاقمند، مرا را در ارائهی این دوره همراهی خواهند کرد.
آدرس ثبتنام:
micro.ce.sharif.edu/python
#پایتون #مبتدی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👎8👍5❤2🔥1
تصحیح رایتینگ با استفاده از هوش مصنوعی در این سایت انجام بدید
Deepl.com
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
Deepl.com
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤5👍3
This media is not supported in your browser
VIEW IN TELEGRAM
ملودی و شعر و صدای خواننده رو تعیین میکنه و هوش مصنوعی اونو براتون تولید کنه مدلهای بنیادی Foundation Models مقالات عجیبی دارن به وجود میارن
Anticipatory Music Transformer: A Controllable Infilling Model for Music
https://crfm.stanford.edu/2023/06/16/anticipatory-music-transformer.html
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
Anticipatory Music Transformer: A Controllable Infilling Model for Music
https://crfm.stanford.edu/2023/06/16/anticipatory-music-transformer.html
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤5🔥2👏1
برای علاقمندان به رباتیک
🔸 DeepRob: Deep Learning for Robot Perception - Michigan, 2023
#هوش_مصنوعی #یادگیری_ماشین #پایتون #منابع #پیشرفته #رباتیک
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 DeepRob: Deep Learning for Robot Perception - Michigan, 2023
#هوش_مصنوعی #یادگیری_ماشین #پایتون #منابع #پیشرفته #رباتیک
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍6
یه مقاله داغ جذاب اومده پیشنهاد میدم بخونیدش
Toward Actionable Generative AI
LAMs: From Large Language Models to Large Action Models
https://blog.salesforceairesearch.com/large-action-models/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
Toward Actionable Generative AI
LAMs: From Large Language Models to Large Action Models
https://blog.salesforceairesearch.com/large-action-models/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍4❤2
A New Approach Trains Large Language Models in Half the Time
https://hai.stanford.edu/news/new-approach-trains-large-language-models-half-time
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
https://hai.stanford.edu/news/new-approach-trains-large-language-models-half-time
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍3❤1
در اهمیت Segment Anything قبلتر صحبت کرده ام الان موضوع جالبتری توسط تیم Meta منتشر شده است.
🔸 لینک
🔸 لینک
🔸 لینک
🔸 Faster Segment Anything (MobileSAM)
🔸 Demo
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 لینک
🔸 لینک
🔸 لینک
🔸 Faster Segment Anything (MobileSAM)
🔸 Demo
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔥5👍2❤1
گیم اور شدن CV و Visual Reasoning به وسیله LLMs
🔸 Demo
🔸 Towards Language Models That Can See: Computer Vision Through the LENS of Natural Language
🔸 Blog
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 Demo
🔸 Towards Language Models That Can See: Computer Vision Through the LENS of Natural Language
🔸 Blog
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍3👎2🔥2❤1
چطور با استفاده از LLMsها ملودی و شعر تولید کنیم؟!
🔸 Unsupervised Melody-to-Lyric Generation
🔸 Demo
🔸 ایده ای که قبلتر فرستادم
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 Unsupervised Melody-to-Lyric Generation
🔸 Demo
🔸 ایده ای که قبلتر فرستادم
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤1👍1🔥1
ایدههای قبلی راجب segment analysis از اینجا میتونین مطالعه کنید
🔸 Generate Anything Anywhere in Any Scene
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 Generate Anything Anywhere in Any Scene
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔥3👍1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
یک مقاله پشم ریزون اومده 😂 که میتونید با استفاده از بازتاب تصاویر در چشم عکس اتاق و مکانی که در آن هستید رو بازسازی کنید که چه چیزهایی رو دارید میبینید.
🔸 Seeing the World through Your Eyes
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 Seeing the World through Your Eyes
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔥8👍4❤3👌1
مقایسه خفنی هستش از کلی ابزار قبلتر راجب هرکدوم از ابزارها صحبت کرده بودم میتونید رو هر عنوانی بزنین و مقاله اونو مطالعه کنید که در مقاله جدید به مقایسه این موارد پرداخته است.
image, video, audio, and text data, built upon the foundations of CLIP, Whisper and LLaMA
بیشتر شبیه یک سِروی هستش
🔸 Macaw-LLM: Multi-Modal Language Modeling with Image, Audio, Video, and Text Integration
🔸 Model weights
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
image, video, audio, and text data, built upon the foundations of CLIP, Whisper and LLaMA
بیشتر شبیه یک سِروی هستش
🔸 Macaw-LLM: Multi-Modal Language Modeling with Image, Audio, Video, and Text Integration
🔸 Model weights
🔸 GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍4🔥2❤1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
ViNT: A Foundation Model for Visual Navigation
visualnav-transformer.github.io
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
visualnav-transformer.github.io
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤6👍1👎1🙏1🆒1
DeepMind AI Expert
مقایسه خفنی هستش از کلی ابزار قبلتر راجب هرکدوم از ابزارها صحبت کرده بودم میتونید رو هر عنوانی بزنین و مقاله اونو مطالعه کنید که در مقاله جدید به مقایسه این موارد پرداخته است. image, video, audio, and text data, built upon the foundations of CLIP, Whisper…
اگر اطلاعات کاملتری میخواهید که متوجه بشوید این مقاله چی میگه از اینجا شروع کنید
🔸 A Survey on Multimodal Large Language Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 A Survey on Multimodal Large Language Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍4❤3🔥1👌1
🔸 Learning to Generate Better Than Your LLM
RLHF has become a powerful paradigm for fine-tuning LLM, but we only use general-purpose RL algorithms. new algorithmic paradigm that takes advantage of additional feedback for learning.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
RLHF has become a powerful paradigm for fine-tuning LLM, but we only use general-purpose RL algorithms. new algorithmic paradigm that takes advantage of additional feedback for learning.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
❤1🆒1
یک مقاله خفن هستش به نظر من که جای کار بسیاری داره و توسط دیپ مایند هم به طور اوپن سورس منتشر شده
Transformers Meet Directed Graphs, we generalize transformers to more general inputs, namely directed graphs.
🔸 Paper
🔸 GitHub
🔸 YouTube
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
Transformers Meet Directed Graphs, we generalize transformers to more general inputs, namely directed graphs.
🔸 Paper
🔸 GitHub
🔸 YouTube
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍8❤3👌1
هفته آینده ChatGPT از یک قابلیت جدید رو نمایی میکنه که شما بهش داده رو میدین و توصیف میکنید که میخواید با اون دادهها چکار کنید. ChatGPT خودش براتون کد رو میزنه، اجرا میکنه، نتایج رو تحلیل میکنه و بهتون یک گزارش کامل میده.
🔸 لینک خبر
#ابزار #خبر
#ChatGPT
🔸مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 لینک خبر
#ابزار #خبر
#ChatGPT
🔸مطالب بیشتر 👇👇
✅ @AI_DeepMind
THE DECODER
OpenAI launches ChatGPT code interpreter for better coding using only natural language
AI models can help code interpreters perform tasks such as solving math problems, analyzing data, and converting files between formats. To enable the code interpreter, users can go to Settings and enable beta features.
🔥12😍2❤1👍1
پژوهشگرای ComputerVision توجه کنند:
April 5 2023: Meta AI released Segment Anything Model , Meta AI SAM video for Image Segmentation. This model consisted of a Vision Transformer to generate image embeddings and a Prompt encoder mask decoder model to create segmentation masks from prompts. These prompts could be points, bounding box or text description.Since its advent, SAM has attracted significant attention for multiple reasons. First, it is the first to show that vision can follow NLP to pursue a path that combines foundation model with prompt engineering. Second, it is the first to perform label-free segmentation.Moreover, this fundamental task makes SAM compatible with other models to realize advanced vision applications, like text-guided segmentation and image editing with fine-grained control.
21 June 2023 : Then Fast SAM, Video FastSAM came up with using YOLO v8 for instance segmentation instead of Vision Transformer and custom prompt guided selection for detecting segmentation masks. This sped up segmentation process by 50 X.
25 June 20233 : Now Mobile SAM, VideoSam The authors distill the knowledge from the image encoder ViT-H in the original SAM to a lightweight image encoder, which can be automatically compatible with the mask decoder in the original SAM. The training can be completed on a single GPU within less than one day, and the resulting lightweight SAM is termed MobileSAM which is more than 60 times smaller yet performs on par with the original SAM. For inference speed, MobileSAM runs around 10ms per image: 8ms on the image encoder and 2ms on the mask decoder. With superior performance and a higher versatility, MobileSAM is 7 times smaller and 4 times faster than the concurrent FastSAM, making it more suitable for mobile applications
Rapid developments due to Meta AI making their code open source and releasing their datasets.
#مقاله #ایده_جذاب #بینایی_کامپیوتر #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
April 5 2023: Meta AI released Segment Anything Model , Meta AI SAM video for Image Segmentation. This model consisted of a Vision Transformer to generate image embeddings and a Prompt encoder mask decoder model to create segmentation masks from prompts. These prompts could be points, bounding box or text description.Since its advent, SAM has attracted significant attention for multiple reasons. First, it is the first to show that vision can follow NLP to pursue a path that combines foundation model with prompt engineering. Second, it is the first to perform label-free segmentation.Moreover, this fundamental task makes SAM compatible with other models to realize advanced vision applications, like text-guided segmentation and image editing with fine-grained control.
21 June 2023 : Then Fast SAM, Video FastSAM came up with using YOLO v8 for instance segmentation instead of Vision Transformer and custom prompt guided selection for detecting segmentation masks. This sped up segmentation process by 50 X.
25 June 20233 : Now Mobile SAM, VideoSam The authors distill the knowledge from the image encoder ViT-H in the original SAM to a lightweight image encoder, which can be automatically compatible with the mask decoder in the original SAM. The training can be completed on a single GPU within less than one day, and the resulting lightweight SAM is termed MobileSAM which is more than 60 times smaller yet performs on par with the original SAM. For inference speed, MobileSAM runs around 10ms per image: 8ms on the image encoder and 2ms on the mask decoder. With superior performance and a higher versatility, MobileSAM is 7 times smaller and 4 times faster than the concurrent FastSAM, making it more suitable for mobile applications
Rapid developments due to Meta AI making their code open source and releasing their datasets.
#مقاله #ایده_جذاب #بینایی_کامپیوتر #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
👍7👌2🆒2
Forwarded from VulnerHunters (𝔇𝔬𝔪𝔦𝔫𝔞𝔱𝔬𝔯)
اطلاعاتی که برنامه Threads متعلق به شرکت متا زحمت میکشه و میدزده
Reference: Link
#App
#News
#DataLeaks
@VulnerHunters
Reference: Link
#App
#News
#DataLeaks
@VulnerHunters
🆒15👍5😍1