RoboEpics
502 subscribers
81 photos
14 videos
121 links
روبواپیکس، پلتفرم برون سپاری چالش‌های هوش مصنوعی
با هم نگاهی به آینده از دریچه هوش مصنوعی خواهیم داشت.

🔗 https://roboepics.com/
🔗 https://www.instagram.com/roboepics
🔗 https://www.linkedin.com/company/roboepics

پشتیبانی
@smehrk
@hfmasaeli
Download Telegram
Media is too big
VIEW IN TELEGRAM
چرا ChatGPT بعضی اوقات توهم میزنه و چرت و پرت چی میگه؟ 🤔

ما توی این کلیپ سعی کردیم این مسئله رو به صورت خیلی ساده توضیح بدیم.
محتوای این کلیپ شامل:
1. مدل‌های زبانی Auto regressive مثل GPT-3 و GPT-4 چی جوری کار میکنن؟
2.چه چیز‌هایی باعث میشه که این مدل‌ها اطلاعات غلط بدن.
3. چه کارهایی باعث میشه که این اطلاعات غلط کمتر بشن.

حتما این ویدئو رو ببینید و به ما بگید که ChatGPT تا حالا چه چیزایی غلط و خنده داری به شما گفته؟

برای استفاده راحت و بدون دردسر از chatgpt هم میتونید به وبسایت زیرک مراجعه کنید.


@Roboepics
👏43🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
متا مدل تبدیل متن به صوت و صوت به متن خودش رو Open source کرد.

این مدل توی 1100 زبان مختلف قابل استفادست و میتونه تا 4000 گویش رو شناسایی کنه.

لینک گیت هاب
لینک بلاگ
لینک مقاله

@Roboepics
🔥3🤯1🐳1
بهترین مدل زبانی Open Source منتشر شد.
تیم Technology Innovation Institute یک مدل زبانی از قبل آموزش دیده به اسم Falcon رو آموزش دادن که از مدل زبانی Llama که توسط تیم متا درست شده بود بهتر عمل کرده و در اندازه های 40 و 7 میلیارد پارامتری موجوده
از ویژگی‌های این مدل اینه که:
معماریش برای inference به خوبی بهینه شده.
این مدل برای استفاده تجاری هم مانعی نداره.

برای جزئیات بیشتر هم می‌تونید به لینک های زیر مراجعه کنید.
Falcon 7B
Falcon 40B
جدول امتیازات مدل‌های زبانی Open Source

@RoboEpics
Media is too big
VIEW IN TELEGRAM
جمعه ۵ خرداد در کنار دوستان cs50xiran و techcafe بودیم و در رویداد CS summit, روبواپیکس رو به بچه ها ارائه دادیم و گزارش کوتاهی هم از اتفاقات این رویداد براتون آماده کردیم.

@Roboepics
🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
مدل Voyager با استفاده از GPT-4 یادگرفت ماینکرفت بازی کنه 😲

مدل Voyager اولین مدلیه که با استفاده از مدل های زبانی و بدون دخالت انسان دنیای ماینکرفت رو می‌گرده و مهارت‌های مختلفی رو یاد می‌گیره.

مدل Voyager از سه بخش کلیدی تشکیل شده:
1.یک برنامه کلی خودکار که باعث شده مدل در دنیای ماینکرفت حرکت کنه
2.برای مدل، یک کتابخانه مهارت در نظر گرفتند که توی اون کد های رفتارهای پیچیده ای که مدل یاد می‌گرفت توی اون ذخیره می‌شد.
3. یک مکانیسم دستوری جدید پیوسته، که شامل بازخورد‌های محیطی، خطاهای اجرایی مدل و تایید کردن رفتار مدل میشه که با استفاده از مدل رفتار خودشو بهبود میده.

مدل Voyager با استفاده از black box query با مدل GPT-4 تعامل می‌کنه که بخش کلیدی سوم مدل به GPT-4 ارتباط پیدا می‌کنه.
برای انجام برنامه ی کلی Voyager از GPT-4 دستور میگیره و سعی میکنه که به ترتیب کارها رو انجام بده.

این مدل نسبت به مدل های قبلی 3.3 برابر آیتم‌های Unique بیشتر پیدا کرده ، 2.3 برابر مسافت های طولانی تری رو طی کرده و همینطور مهارت های مختلف در درخت دانش بازی رو تا 15.3 برابر زودتر یاد گرفته.

لینک وبسایت
لینک گیت هاب

@RoboEpics
This media is not supported in your browser
VIEW IN TELEGRAM
دارک مود مهمه! خیلی مهمه (Dark mode matters) 😋


چیزی که خیلیاتون برای زیرک درخواست کرده بودید بالاخره داره میرسه
تا چند روز آینده "دارک مود" اضافه می‌کنیم که دیگه چشماتون اذیت نشه. 🌝🌚

وَ

تجربه بهتر از ChatGPT فقط در دسترسی راحت تر خلاصه نمیشه، کاربردهای تخصصی، تجربه ای بهتر از ChatGPT براتون میسازه!

خبرای خیلی جذابی تو راهه، منتظر باشید 💪🦾


www.xerac.ir


@RoboEpics
5👍2🌚1
واقعا هوش مصنوعی قراره هممونو بیکار کنه؟🥲
ما توی این ویدئو اومدیم سیر نوآوری توی ایجاد شغل رو بررسی کردیم و میایم شرکت‌های مختلف رو به میزان استخدام نیرو و سودآور بودنشون با هم مقایسه می‌کنیم و در مورد این صحبت می‌کنیم که در آینده این سیر پیشرفت چه قدر می‌تونه توی کار و بهره وری افراد مختلف تاثیر بذاره.
امیدواریم از این کلیپ لذت ببرید و برای دوستاتون بفرستید😎👍
راستی به نظر شما چه قدر طول می‌کشه تا هوش مصنوعی هممونو بیکار کنه؟


https://youtu.be/E7YGaaPGxnE

#بیکاری_با_هوش_مصنوعی
👍32🔥1
از این به بعد مدل‌های بزرگ زبانی رو میشه توی گوشی جا داد 🤯🤯

پیشرفت‌های اخیر توی pre-train کردن LLM‌ها باعث ساخت‌ LLM‌های با کیفیتی مثل LLama و Falcon شده. حالا با فشرده کردن این LLMها از طریق کمی سازی(quantization) هر پارامتر به 3 تا 4 بیت، میتونیم که این مدل‌های بزرگ رو توی دستگاه‌هایی با حافظه‌ی کم مثل گوشی و لپ تاپ بالا آورد و مدلا رو شخصی سازی کرد.
البته فشرده سازی هر پارامتر تا 3-4 بیت معمولا باعث میشه عملکرد مدل‌ها بسیار کاهش پیدا کنه و دقت خوبی رو نداشته باشن مخصوصا رو مدل‌هایی با 1 تا 10 میلیارد پارامتری که از قبل اینا به صورت خوبی بهینه شدن تا هزینه ی زیرساخت و deploy کردن این مدل‌ها رو کاهش بدن.
حالا برای حل این مشکل روش Sparse-Quantized Representation (SpQR) رو معرفی کردن. SpQR یک فرمت جدید فشرده سازی و تکنیک کمی سازیه که به اندازه‌ی خیلی خوبی باعث میشه بدون کاهش دقت و عملکرد مدل‌ها، اونا رو فشرده کنیم.
روش SpQR میاد با شناسایی و جداسازی وزن‌های پرت (Outlier weights)، که معمولا این وزن‌ها باعث میشدن که خطای quantization بالا برن، اونا رو با دقت بالاتری ذخیره می‌کنه و بقیه وزن‌ها رو تا 3-4 بیت فشرده می‌کنه.
این روش رو روی مدل‌های Falcon و Llama پیاده سازی کردن و با افت دقت 1 درصدی مواجه شدن که نتیجه خیلی خوبی بوده و شما میتونید با استفاده از این روش یک مدل بزرگ و بدون اینکه با افت دقتی مواجه بشید روی یه GPU 24g بالا بیارید.

لینک مقاله

@RoboEpics
😱2👍1
دارک مود رسید 🌚
همین الان میتونید برید و با استایل دارک مود از سرویس زیرک استفاده کنید.
xerac.ir

#Welcome_To_The_Darkside

@RoboEpics
🔥4👌4
تا جاودانگی انسان چه قدر فاصله داریم؟ 🤔

ما توی این ویدئو به صورت کامل امکان آپلود کردن مغز انسان در کامپیوتر رو بررسی می‌کنیم.
در بخش اول در مورد نظر‌های مختلف در مورد آپلود مغز صحبت می‌کنیم.
در بخش دوم به طور کلی در مورد مغز توضیح می‌دیم که هوشیاری ما کجاست؟
در بخش سوم به بررسی یک آزمایش برای شبیه سازی مغز می‌پردازیم؟
بخش چهارم هم به پیامد‌هایی آپلود مغز در زندگی واقعی می‌پردازیم

امیدواریم که از این ویدئو لذت ببرید و نظرات و پیشنهادات خودتون رو با ما به اشتراک بذارید 😁

https://youtu.be/5VC20iPhfEg


#آپلود_مغز
@RoboEpics
🔥52👍2👎1
اگر طرفدار فیلمای تخیلی مارول یا دی سی باشید قطعا موجودات عجیب غریب با قدرت های خارق العاده رو دیدید و پیش خودتون گفتید که چطور ممکنه که همچین اتفاقی توی دنیای الان ما بیافته.

امروز توی این ویدئو در مورد تاریخچه #مهندسی_ژنتیک صحبت می‌کنیم و در ویدئوهای بعدی سعی می‌کنیم که ابزار های هوش مصنوعی که به این حوزه کمک می‌کنن رو براتون توضیح بدیم.

نظر و پیشنهاد یا حتی اگه دوست دارید در مورد موضوع خاصی محتوا بسازیم توی کامنتا بگید.

https://www.youtube.com/watch?v=ogSXlE6NBDQ


@RoboEpics
🔥3👌2
📌وبینار روبواپیکس و خانه خلاق مهرسا
وبینار کارآفرینی دانشجویی
(چالش ها و فرصت ها)

🔺شنبه ۳ تیر
ساعت ۱۹ تا ۲۰‌
📌 به صورت آنلاین در ایوند

🔴 منتظر دیدار شما هستیم!

🌐 جهت ثبت نام رایگان و شرکت در وبینار :
https://evand.com/events/وبینار-کارآفرینی-دانشجویی-چالش-ها-و-فرصت-ها-659316

@RoboEpics
🔥2
معماری جدید Meta برای مدل‌های هوش مصنوعی 🤔



سال گذشته،Yann LeCun، مدیر ارشد هوش مصنوعی شرکت متا، یه معماری جدیدی رو معرفی کرد تا مشکل محدودیت‌های هوش مصنوعی الان رو حل کنه.ایده این بود که ماشین‌هایی ایجاد بشن که مدل‌های داخلی نحوه کار دنیا رو یاد بگیرن تا بتونن خیلی سریع‌تر یاد بگیرن، نحوه انجام کارهای پیچیده رو برنامه‌ریزی کنن و راحت با موقعیت‌های ناآشنا سازگار بشن.

حالا تیم متا با استفاده از همین ایده اومدن روی یک مدل به اسم Image Joint Embedding Predictive Architecture (I-JEPA) معرفی کردن.این مدل با ساختن یک مدل داخلی از تصویری که میبینه میاد به جای مقایسه پیکسل‌ها، تعریف‌های انتزاعی از هر عکس رو با هم مقایسه میکنه و یاد می‌گیره.این مدل روی چند تا کار بینایی ماشین تست شده و عملکرد خوبی رو داشته و همینطور از نظر محاسباتی هم خیلی بهینه‌تر عمل کرده.

لینک بلاگ
لینک گیت هاب


این مطلب رو حتما برای دوستاتون که توی حوزه بینایی ماشین کار میکنن بفرستید 😎

@RoboEpics
محدودیت های مدل‌های زبانی(LLM) در انجام کارهای پیچیده🥲

مدل‌های زبانی با انجام دادن کارهای پیچیده چند مرحله‌ای باعث شدن که ما خیلی از عملکردشون متعجب بشیم اما بعضی اوقات توی انجام یه سری کار‌های ابتدایی اشتباه عمل می‌کنن.
اینجا این سوال پیش میاد که مشکل از کجاست؟
این خطاها اتفاقین یا واقعا دارن محدودیت‌های اساسی مدل‌های زبانی رو نشون میدن؟
در این مقاله‌ محدودیت‌های LLMها رو بررسی می‌کنن و محدودیت‌هارو پیدا کنن و این مقاله نشون میده که با افزایش پیچیدگی کارها چگونه عملکردشون به شدت افت می‌کنه.

لینک مقاله

@RoboEpics
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل مدل زبانی جدید خودشو معرفی کرد 😎
این مدل، Audio Palm، علاوه بر تولید متن، میتونه بشنوه و صحبت کنه. این مدل از ترکیب دو مدل Palm-2 و Audio LM به وجود اومده که میتونه صدا به صدا رو ترجمه کنه و توی ویدئوی زیر می‌تونید مثال‌هاش رو ببینید.
مدل Audio Palm قابلیت شناسایی لحن و گفتار گوینده رو از مدل Audio LM یاد میگیره و برای پردازش متن و ترجمه از مدل Palm-2 استفاده می‌کنه.
برای اطلاعات بیشتر می‌تونید به مقاله و سایتشون مراجعه کنید.

لینک سایت
لینک مقاله

@Roboepics
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
یک دستیار هوش مصنوعی به کمک طراحان تجربه کاربری میاد 😁



دستیار هوش مصنوعی Genius در Figma معرفی شد. این دستیار هوش مصنوعی طراحی های شما رو یاد میگیره و سعی میکنه بهتون پیشنهادایی بده که طرحتون رو با استفاده از طراحی های قبلیتون سریعتر کامل کنید.



شما می‌تونید به وبسایت زیر سر بزنید و توی Waitlist ثبت نام کنید 😎

www.genius.design

@Roboepics
👍2
چالش "تشخیص مقصود کاربران" شروع شد. 🔍

در این چالش قصد داریم:
از میان جملات پرسیده شده توسط کاربران مقصود آن ها را تشخیص دهیم و پیام‌های کاربران را در یکی از دسته‌بندی‌های زیر طبقه‌بندی کنیم:

کارت به کارت (transaction_card)
انتقال با پایا (transaction_paya)
پرداخت قبض (bill_payment)
موجودی حساب (balance_query)
و ...

این مسابقه با همکاری مرکز نوآوری پل‌وینو به‌منظور شناسایی و حمایت از ایده‌های نوآورانه و خلاقانه برگزار میشود.

زمان شروع ارسال کد: از روز جمعه ۹ تیر ماه

برای کسب اطلاعات بیشتر و شرکت مسابقه وارد لینک زیر شوید:
https://roboepics.com/c/BehsazanFardaAIChallenge2023


@RoboEpics
🔥4👍1
مسابقه تشخیص مقصود کاربران شروع شد 🔥🔥


شما می‌توانید از همین الان پاسخ ‌های خود را ثبت کنید و در مسابقه به رقابت بپردازید 🏆🏆

لینک مسابقه


@Roboepics
🔥2🐳1
مدل بزرگ زبانی جدید Open Source از راه رسید 😁

تیم Salesforce مدل زبانی خودش XGen رو منتشر کرد. این مدل زبانی با 7B پارامتر و Context window 8k توی برنامه نویسی نسبت به مدل های زبانی هم سطح خودش عملکرد خوبی نشون داده.
مدل Xgen چون از معماری Llama استفاده میکنه پس برای استفاده تجاری باید درخواست بدید.
برای اطلاعات بیشتر میتونید به بلاگ و hugging face مراجعه کنید.

لینک بلاگ
لینک hugging face
@Roboepics
👍2
خودآگاهی چیه و کجای مغز قرار داره؟ 🧐
در ادامه ویدئوی #آپلود_مغز در این ویدئو بیشتر میخوایم در مورد آگاهی صحبت کنیم و ببینیم آگاهی موجودات زنده با هم چه تفاوت‌هایی داره که در ادامه به آگاهی انسان برسیم و سعی کنیم بفهمیم مغز چطور اطلاعات رو پردازش می‌کنه.
امیدواریم که از این ویدئو لذت ببرید و برای دوستان خودتون هم بفرستید 😎
https://www.youtube.com/watch?v=hcFgjbwxcQU

@RoboEpics
3
زبان اساسا یک سیستم پیچیده با کلی قواعد دستوریه و توسعه ی مدل‌های هوش مصنوعی برای درک زبان یک چالش مهمیه😤
در دو دهه ی اخیر به صورت جدی روی مدل سازی زبان کار شده چون محدودیت‌‌ها مثل کمبود داده و منابع محاسباتی تا حد خوبی برطرف شده بود و توسعه‌ی مدل‌های زبانی از مدل‌های آماری به سمت شبکه‌های عصبی تکامل پیدا کرد😊
اخیرا Pre trained language model معرفی شدن که توسط مدل‌های transformer روی مجموعه زیادی از داده ها آموزش می‌دیدن و قابلیت خوبی در حل مسائل NLP داشتند😄
بعد از این اتفاقات محققا فهمیدن با افزایش پارامتر‌، مدل عملکرد بهتری پیدا می‌کنه و هم صنعت و هم دانشگاه روی این مسئله مطالعه بیشتری انجام دادن و فهمیدن که با افزایش پارامتر از یک سطح مشخص، نه تنها مدل عملکرد بهتری نشون میده بلکه بعضی توانایی هایی پیدا می‌کنه که توی مدل‌های کوچک‌تر نیست😁
تکامل فنی LLM‌ها تاثیر خیلی زیادی روی جامعه هوش مصنوعی گذاشت و توی این مقاله مدل‌های بزرگ زبانی رو در 4 جنبه مختلف بررسی می‌کنن.
Pre training
adaptation tuning
utilization
capacity evaluation

علاوه بر این در مورد منابعی که برای توسعه مدل های زبانی وجود داره و همینطور مسائلی که در آینده جلوی راهمون وجود داره هم به صورت خلاصه صحبت میشه😎

لینک مقاله

@RoboEpics
👍3