This media is not supported in your browser
VIEW IN TELEGRAM
📍 ربات جالبی که در فرودگاه دنور نصب شده و با بهرهگیری از هوش مصنوعی با مسافران این فرودگاه مکالمه و شوخی میکنه. چقدر جالب و حیرتانگیز!
#ربات #رباتیک #هوش_مصنوعی
🆔 @Ai_Tv
#ربات #رباتیک #هوش_مصنوعی
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
قابلیت تشخیص اهنگ دستیار گوگل که به کمک شبکه های یادگیری عمیق عمل میکند!
کافی است بپرسید
What's this song?
اهنگ در حال پخش مورد نظر شما را پیدا میکند
حتی اهنگ ایرانی
#هوش_مصنوعی #یادگیری_عمیق
🆔 @Ai_Tv
کافی است بپرسید
What's this song?
اهنگ در حال پخش مورد نظر شما را پیدا میکند
حتی اهنگ ایرانی
#هوش_مصنوعی #یادگیری_عمیق
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍محققان ازمایشگاه علوم کامپیوتر و هوش مصنوعی MIT جوهر قابل برنامه ریزی ساختن که با اسپری کردن اون روی تقریبا هر شئی میشه رنگ اون رو به دفعات تغییر داد.
🔹نحوه کارش خیلی جالبه. این جوهر در واقع تمام رنگ هارو داره اما در حالت پیش فرض رنگ اون شفاف هست ولی با اشعه فرابنفش و پروژکتور میشه رنگهارو به صورت انتخابی فعال یا غیرفعال میکنه. بنابراین میشه حدس زد که ترکیب های رنگی که با این قابلیت میشه به دست اورد بی نهایت هست.
در نتیجه برای تغییر رنگ این جوهر که روی یک شی اسپری شده، اون رو داخل محفظه ای که شامل پروژکتور و اشعه فرابنفش قرار میدن. در مرحله اول اشعه فرابنفش رو به کل پوشش جوهر میتابونن تا الگوی قبلی پاک یا جوهر ریست بشه. در مرحله بعد، الگوی مدنظر کاربر رو با پروژکتور که دارای نورهایی با 3 رنگ ابی، قرمز و سبز هست در نقاط مختلف جوهر میتابونن تا اون الگو روی شی فعال و نمایان بشه. این پروسه برای شیی در اندازه یک کفش بین 10 تا 40 دقیقه طول میکشه.
#هوش_مصنوعی
🆔 @Ai_Tv
📍منابع مفید برای پردازش زبان طبیعی
🔹پردازش زبان طبیعی یکی از بزرگترین زیربخش های هوش مصنوعی است و به جرات می توان گفت دامنه و گستردگی آن تقریبا از هر شاخه دیگری بیشتری ست. دلیل اصلی آن هم این است که مطالعه زبان گستره ای از فلسفه و زبان شناسی تا ریاضیات دارد و برای درک درست از بسیاری مفاهیم نیاز هست که تاریخچه آن را هم بدانیم. اینجا من فقط به آخرین تغییرات اشاره می کنم و نمی خواهم در مورد کل تاریخچه بحث کنم.
روش های امروزی برای پردازش زبان طبیعی تقریبا همگی مبتنی بر آمار و احتمال هستند. بنابراین درک عمیق از آمار و احتمال بسیار مهم و کلیدی ست. بعد از آشنایی با مفاهیم شبکه های عصبی و یادگیری عمیق می توان به کتابخانه های زیر اشاره کرد.
یادگیری کتابخانه های یادگیری عمیق معمولا فرآیند زمانبری است و نیاز به دقت و تمرین دارد. امروزه Tensorflow مهم ترین و معروف ترین کتابخانه یادگیری عمیق است که توسط گوگل پشتیبانی می شود. اگر می خواهید پردازش زبان طبیعی کار کنید می توانید از این کتابخانه استفاده کنید اما مشکل اصلی این است که یادگیری این کتابخانه دشوار و بسیار زمان بر است. از طرفی کتابخانه های سطح بالاتری وجود دارند که همان کار را با سرعت یکسان و بسیار ساده تر انجام میدهند. ورود کتابخانه Pytorch به جامعه پردازش زبان طبیعی و حمایتش از طرف فیس بوک توانسته در چند سال اخیر کاملا جای پای خودش را باز کند. توصیه من یادگیری tensorflow ولی تمرکز اصلی بر روی pytorch است.
کتابخانه های تخصصی زیادی در NLP وجود دارد که هر کدام در سطح مشخصی کار میکنند. منظور این است که مثلا برای کارهای ساده تر مثل تشخیص قسمت کلمه (Part of speech) یعنی اینکه هر کلمه اسم، فعل یا حرف اضافه و غیره است نیاز به کتابخانه های مشخصی داریم ولی برای پردازش های سطح بالاتر مثلا نوشتن یک چت بات کتابخانه های دیگری نیاز داریم.
کتابخانه های سطح پایین به ترتیب اهمیت:
-spacy
-nltk
-flair
البته مورد آخری قدری پیشرفته تر هم هست. این کتابخانه ها پردازش هایی مانند ریشه یابی کلمات، تشخیص بخش کلمه، توکن بندی کلمات، بردار کلمات و میزان شباهت ها، تشخیص Named entity (مثلا اینکه یک کلمه اسم مکان، شخص یا شرکت است) را انجام می دهد.
برای پردازش های سطح بالاتر کتابخانه های زیر وجود دارند:
Allennlp
Gensim
این کتابخانه ها عملیاتی مانند یافتن موضوعات موجود در یک مجموعه متون، ایجاد مدل های دنباله ای برای سیستم های پیشرفته تری مانند تشخیص مرجع ضمایر، یافتن جواب برای سوالات (Question Answering) مترجم ماشینی (Machine translation) و غیره را انجام میدهند. دقت کنید که این کتابخانه ها صرفا برای استفاده هستند و با اینکه قابلیت تغییر در خود کد را دارند اما توصیه نمی شود.
در نهایت کدهای سطح بالایی وجود دارند که در حال توسعه هستند و نمی توان به آن ها به عنوان کتابخانه نگاه کرد بلکه بیشتر برای توسعه دهندگان هستند.
Huggingface pytorch
Fairseq
Parlai
برای کسی که کار پژوهشی انجام میدهد این کتابخانه ها شروع مناسبی هستند. تقریبا تمام کتابخانه های بالا بر اساس pytorch هستند بنابراین یادگیری pytorch در NLP ضروری است.
#پردازش_زبان_طبیعی
#هوش_مصنوعی
🆔 @Ai_Tv
🔹پردازش زبان طبیعی یکی از بزرگترین زیربخش های هوش مصنوعی است و به جرات می توان گفت دامنه و گستردگی آن تقریبا از هر شاخه دیگری بیشتری ست. دلیل اصلی آن هم این است که مطالعه زبان گستره ای از فلسفه و زبان شناسی تا ریاضیات دارد و برای درک درست از بسیاری مفاهیم نیاز هست که تاریخچه آن را هم بدانیم. اینجا من فقط به آخرین تغییرات اشاره می کنم و نمی خواهم در مورد کل تاریخچه بحث کنم.
روش های امروزی برای پردازش زبان طبیعی تقریبا همگی مبتنی بر آمار و احتمال هستند. بنابراین درک عمیق از آمار و احتمال بسیار مهم و کلیدی ست. بعد از آشنایی با مفاهیم شبکه های عصبی و یادگیری عمیق می توان به کتابخانه های زیر اشاره کرد.
یادگیری کتابخانه های یادگیری عمیق معمولا فرآیند زمانبری است و نیاز به دقت و تمرین دارد. امروزه Tensorflow مهم ترین و معروف ترین کتابخانه یادگیری عمیق است که توسط گوگل پشتیبانی می شود. اگر می خواهید پردازش زبان طبیعی کار کنید می توانید از این کتابخانه استفاده کنید اما مشکل اصلی این است که یادگیری این کتابخانه دشوار و بسیار زمان بر است. از طرفی کتابخانه های سطح بالاتری وجود دارند که همان کار را با سرعت یکسان و بسیار ساده تر انجام میدهند. ورود کتابخانه Pytorch به جامعه پردازش زبان طبیعی و حمایتش از طرف فیس بوک توانسته در چند سال اخیر کاملا جای پای خودش را باز کند. توصیه من یادگیری tensorflow ولی تمرکز اصلی بر روی pytorch است.
کتابخانه های تخصصی زیادی در NLP وجود دارد که هر کدام در سطح مشخصی کار میکنند. منظور این است که مثلا برای کارهای ساده تر مثل تشخیص قسمت کلمه (Part of speech) یعنی اینکه هر کلمه اسم، فعل یا حرف اضافه و غیره است نیاز به کتابخانه های مشخصی داریم ولی برای پردازش های سطح بالاتر مثلا نوشتن یک چت بات کتابخانه های دیگری نیاز داریم.
کتابخانه های سطح پایین به ترتیب اهمیت:
-spacy
-nltk
-flair
البته مورد آخری قدری پیشرفته تر هم هست. این کتابخانه ها پردازش هایی مانند ریشه یابی کلمات، تشخیص بخش کلمه، توکن بندی کلمات، بردار کلمات و میزان شباهت ها، تشخیص Named entity (مثلا اینکه یک کلمه اسم مکان، شخص یا شرکت است) را انجام می دهد.
برای پردازش های سطح بالاتر کتابخانه های زیر وجود دارند:
Allennlp
Gensim
این کتابخانه ها عملیاتی مانند یافتن موضوعات موجود در یک مجموعه متون، ایجاد مدل های دنباله ای برای سیستم های پیشرفته تری مانند تشخیص مرجع ضمایر، یافتن جواب برای سوالات (Question Answering) مترجم ماشینی (Machine translation) و غیره را انجام میدهند. دقت کنید که این کتابخانه ها صرفا برای استفاده هستند و با اینکه قابلیت تغییر در خود کد را دارند اما توصیه نمی شود.
در نهایت کدهای سطح بالایی وجود دارند که در حال توسعه هستند و نمی توان به آن ها به عنوان کتابخانه نگاه کرد بلکه بیشتر برای توسعه دهندگان هستند.
Huggingface pytorch
Fairseq
Parlai
برای کسی که کار پژوهشی انجام میدهد این کتابخانه ها شروع مناسبی هستند. تقریبا تمام کتابخانه های بالا بر اساس pytorch هستند بنابراین یادگیری pytorch در NLP ضروری است.
#پردازش_زبان_طبیعی
#هوش_مصنوعی
🆔 @Ai_Tv
spacy.io
spaCy · Industrial-strength Natural Language Processing in Python
spaCy is a free open-source library for Natural Language Processing in Python. It features NER, POS tagging, dependency parsing, word vectors and more.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
📍تبدیل بسیار جالب عکس به عکس با استفاده از یادگیری عمیق
لینک مقاله و کد👇🏻👇🏻
lnkd.in/duNkWC7
#یادگیری_عمیق
🆔 @Ai_Tv
لینک مقاله و کد👇🏻👇🏻
lnkd.in/duNkWC7
#یادگیری_عمیق
🆔 @Ai_Tv
این وبسایت یک تصویر چهره جعلی تولید شده توسط شبکه عصبی و یک تصویر چهره واقعی را در کنار هم میگذارد و از شما میخواهد تشخیص دهید که کدام واقعی ست و کدام جعلی.
http://www.whichfaceisreal.com/index.php
🆔 @Ai_Tv
http://www.whichfaceisreal.com/index.php
🆔 @Ai_Tv
Whichfaceisreal
Which Face Is Real?
Your new friend on Facebook. Your next Tinder match. A potential employee. Sure you've seen their picture — but do they even exist? Learn how to tell.
📍معرفی سایت های پرسش و پاسخ در زمینه ی "علم داده"
مجموعه وبسایتهای Exchange Stack بزرگترین مجموعه وبسایت در زمینه پرسش و پاسخ در اینترنت است. در این پست سایتهایی از این مجموعه را که با علم داده مرتبط هستند معرفی میکنیم:
Stack Overflow
این سایت از لحاظ محبوبیت و حجم سوالهای مطرح شده بهترین وبسایت این مجموعه محسوب میشود. این سایت به پرسش و پاسخ در زمینه زبانهای برنامهنویسی از جمله زبانهای R، Python ، Matlab، Julia و ... که در علم داده مورد استفاده قرار میگیرند میپردازد.
Cross Validated
این سایت جزء سایتهای محبوب این مجموعه محسوب میشود و کاربران آن سوالهای خود را در زمینه آمار در این سایت مطرح میکنند.
Data Science
در این سایت سوالهای مربوط به علم داده مطرح می شود.
Open Data
در این سایت میتوانید در زمینه دسترسی به دادههای آزاد سوالهای خود را مطرح کنید.
لازم به ذکر است که با ایجاد تنها یک اکانت میتوانید به همه این سایتها دسترسی داشته باشید
#علم_داده
🆔 @Ai_Tv
مجموعه وبسایتهای Exchange Stack بزرگترین مجموعه وبسایت در زمینه پرسش و پاسخ در اینترنت است. در این پست سایتهایی از این مجموعه را که با علم داده مرتبط هستند معرفی میکنیم:
Stack Overflow
این سایت از لحاظ محبوبیت و حجم سوالهای مطرح شده بهترین وبسایت این مجموعه محسوب میشود. این سایت به پرسش و پاسخ در زمینه زبانهای برنامهنویسی از جمله زبانهای R، Python ، Matlab، Julia و ... که در علم داده مورد استفاده قرار میگیرند میپردازد.
Cross Validated
این سایت جزء سایتهای محبوب این مجموعه محسوب میشود و کاربران آن سوالهای خود را در زمینه آمار در این سایت مطرح میکنند.
Data Science
در این سایت سوالهای مربوط به علم داده مطرح می شود.
Open Data
در این سایت میتوانید در زمینه دسترسی به دادههای آزاد سوالهای خود را مطرح کنید.
لازم به ذکر است که با ایجاد تنها یک اکانت میتوانید به همه این سایتها دسترسی داشته باشید
#علم_داده
🆔 @Ai_Tv
Stack Overflow
Newest Questions
Stack Overflow | The World’s Largest Online Community for Developers
This media is not supported in your browser
VIEW IN TELEGRAM
📍امکان مشاهده زیر دریاها و اقیانوس ها در گوگل میسر شد!
می دانستید در تولید چنین نرم افزار عظیمی، نقش اینترنت اشیا وهوش مصنوعی کلیدی است؟
#اینترنت_اشیا #هوش_مصنوعی
🆔 @Ai_Tv
می دانستید در تولید چنین نرم افزار عظیمی، نقش اینترنت اشیا وهوش مصنوعی کلیدی است؟
#اینترنت_اشیا #هوش_مصنوعی
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍 فرق بین هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
👨💻مدرس: محمد نوری زاده چرلو
#هوش_مصنوعی #یادگیری_عمیق #یادگیری_ماشین
🆔 @Ai_Tv
👨💻مدرس: محمد نوری زاده چرلو
#هوش_مصنوعی #یادگیری_عمیق #یادگیری_ماشین
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍تحلیل بازی و بازیکنان فوتبال با استفاده از هوش مصنوعی
🔹تحلیل گران تیم معمولا تیم خود و حریف را با دقت بررسی می کنند و برای انجام تصمیات مهم خوراک تصمیم گیری به سرمربی می رسانند.
نقش فناوری هوشمصنوعی در تحلیل های ورزشی بسیار پررنگ شده است. با بهره گیری از فناوری روز ، می توان بصورت لحظه ای پیش بینی های مهمی انجام داد که در روند بازی و نحوه آن می تواند سرنوشت ساز باشد
#هوش_مصنوعی
🆔 @Ai_Tv
🔹تحلیل گران تیم معمولا تیم خود و حریف را با دقت بررسی می کنند و برای انجام تصمیات مهم خوراک تصمیم گیری به سرمربی می رسانند.
نقش فناوری هوشمصنوعی در تحلیل های ورزشی بسیار پررنگ شده است. با بهره گیری از فناوری روز ، می توان بصورت لحظه ای پیش بینی های مهمی انجام داد که در روند بازی و نحوه آن می تواند سرنوشت ساز باشد
#هوش_مصنوعی
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍نتایج ترکیب واقعیت افزوده با هوش مصنوعی خارق العاده ترین هارو به وجود میاره
#هوش_مصنوعی #واقعیت_افزوده
🆔 @Ai_Tv
#هوش_مصنوعی #واقعیت_افزوده
🆔 @Ai_Tv
Media is too big
VIEW IN TELEGRAM
📍نقش کلان داده ها در شهر هوشمند
The Role of Big Data In Smart City
با توجه به گسترش روز افزون محبوبیت اینترنت اشیا (IoT)، برای رسیدن به مصادیق شهر هوشمند نیازمند استفاده از روش های نوین برای تحلیل داده های حجیم و کلان داده ها (Big Data) هستیم . در این ویدیو، آقای دکتر سهیل تهرانی پور، متخصص هوش مصنوعی و یادگیری ماشین، نقش Big Data در رسیدن به Smart City یا شهر هوشمند را مورد بررسی قرار داده اند
#هوش_مصنوعی #اینترنت_اشیا #علم_داده
#شهر_هوشمند
🆔 @Ai_Tv
The Role of Big Data In Smart City
با توجه به گسترش روز افزون محبوبیت اینترنت اشیا (IoT)، برای رسیدن به مصادیق شهر هوشمند نیازمند استفاده از روش های نوین برای تحلیل داده های حجیم و کلان داده ها (Big Data) هستیم . در این ویدیو، آقای دکتر سهیل تهرانی پور، متخصص هوش مصنوعی و یادگیری ماشین، نقش Big Data در رسیدن به Smart City یا شهر هوشمند را مورد بررسی قرار داده اند
#هوش_مصنوعی #اینترنت_اشیا #علم_داده
#شهر_هوشمند
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍حذف نویز و نوشته از تصاویر با یادگیری عمیق توسط هوش مصنوعی شرکت انویدیا
#یادگیری_عمیق #هوش_مصنوعی
🆔 @Ai_Tv
#یادگیری_عمیق #هوش_مصنوعی
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍تاثیرات هوش مصنوعی بر اقتصاد جهان!
🔹در این ویدیو کوتاه با تاثیرات هوش مصنوعی بر اقتصاد جهان تا سال 2030 آشنا خواهید شد.
#هوش_مصنوعی
🆔 @Ai_Tv
🔹در این ویدیو کوتاه با تاثیرات هوش مصنوعی بر اقتصاد جهان تا سال 2030 آشنا خواهید شد.
#هوش_مصنوعی
🆔 @Ai_Tv
📍معروف ترین کتابخانه های پایتون برای هوش مصنوعی
🔹کتابخانه ها جان تازه ای به زبان برنامه نویسی پایتون دادهاند و یکی از دلایل اصلی محبوبیت این زبان هستند. کتابخانهها کدهای از قبل نوشته شده هستند که توسط سایر توسعه دهندگان ایجاد شده اند. استفاده از آن ها در زمان شخص برنامه نویس صرفه جویی کرده و از دوباره کاری جلوگیری میکنند. دانش هوش مصنوعی نیاز به تجزیه و تحلیل داده دارد. در ادامه بهترین کتابخانه های پایتون که در تحلیل و بررسی داده به شما کمک خواهند کرد را بررسی می کنیم.
1 - Scikit-learn
یکی از بهترین کتابخانه های یادگیری ماشین در پایتون است. این کتابخانه الگوریتم های اصلی و پایه این حوزه را به خوبی پردازش میکند. مواردی مثل رگرسیون خطی و لاجستیک، خوشه بندی، طبقه بندی و غیره توسط Scikit-learn به خوبی شناسایی میشوند.
2 - Pandas
یک کتابخانه متن باز است که تحت پروانه BSD منتشر میشود. این کتابخانه در کنار کارایی آسان خود، بازدهی بالایی نیز دارد. از Pandas برای تحلیل داده استفاده میشود. Pandas در واقع سعی داشت یک شکاف را در پایتون برطرف کند. این شکاف مشکلی بود که پایتون در مدل سازی و آنالیز داده ها داشت. پانداس در کنار سایر کتابخانه های یادگیری عمیق و یادگیری ماشین قدرت بیشتری میگیرد.
3 - Keras
از Keras برای یادگیری عمیق (Deep Learning) استفاده میشود. این کتابخانه محاسبات و ساخت نمونه را با سرعت بسیار بالا انجام میدهد. به خاطر اینکه به جزء پردازشگر دستگاه (CPU) از گرافیک (GPU) هم برای تقسیم بار محاسباتی استفاده میکند. Keras از پایتون 2.7 تا 3.6 را پشتیبانی میکند و یکی از بهترین کتابخانه های یادگیری عمیق در پایتون است.
4 - TensorFlow
شرکت گوگل در سال 2010 یک تیم تحقیقاتی در حوزه هوش مصنوعی و یادگیری عمیق تشکیل داد. کتابخانه TensorFlow یکی از دستاوردهای این گروه است که در سال 2015 منتشر شد. گوگل هم در تحقیقات و هم در محصولات خود از این کتابخانه استفاده میکند. TensorFlow خودش را با انواع سیستم عامل ها (لینوکس، ویندوز، مکینتاش و غیره) وقف داده است.
5 - Matplotlib
یک کتابخانه بسیار مفید برای ایجاد نمودارها است. به کمک آن میتوانید انواع اشکال دوبعدی، هیستوگرام، نمودار و غیره طراحی کنید. بعد از اینکه اطلاعات متنوع خود را تحلیل کردید، برای خوانایی و فهم بیشتر، میتوانید از نمودارها استفاده کنید. Matplotlib به ما کمک میکند یک خروجی کاربردی و ملموس از دیتای خود داشته باشیم.
6 - NLTK
یک ابزار عالی برای ساخت برنامههای پایتونی مبتنی بر زبان انسان است. مثلا اگر برنامه ای ساختهاید که نیاز به تحلیل صحبت های انسان دارد، میتوانید از کتابخانه NLTK استفاده کنید. متاسفانه این کتابخانه فقط برای زبان انگلیسی کار میکند و امکان اضافه کردن آن به پروژه های فارسی زبان وجود ندارد. NLTK مخفف Natural Language Toolkit بوده و بهترین گزینه در پردازش زبان است.
7 - Scikit-image
پردازش تصویر مبحثی است که رابطه نزدیکی با بینایی ماشین دارد. پردازش تصویر در زمینه های متنوعی مثل موارد نظامی، امنیتی، صنعتی کاربرد دارد. بعضی از کاربردهای بینایی ماشین در زندگی روزمره عبارتند از تشخیص بارکد محصول، تشخیص پلاک یا سرعت خودرو و غیره. Scikit-image الگوریتمهای مختلفی دارد که شامل تغییرات هندسی، آنالیز رنگها، تشخیص ویژگیهای تصویر و غیره میشود.
8 - PyBrain
یکی از بهترین کتابخانه های یادگیری ماشین بوده که با زبان پایتون نوشته شده است. این کتابخانه شامل الگوریتمهایی مربوط به شبکههای عصبی و یادگیری تقویتی است. Pybrain یک کتابخانه رایگان، آزاد و متن باز به حساب میآید که هر کسی میتواند از آن استفاده کند. ترکیب Pybrain با سایر کتابخانههای هوش مصنوعی به نتایج بسیار مفیدی منجر میشود.
9 - Caffe
یک فریم ورک یادگیری عمیق (Deep Learning) است که با تمرکز بر روی سریع بودن و ماژولار بودن طراحی شده است. این کتابخانه پروژه آقای Yangqing Jia در دانشگاه Berkeley بوده و در حال حاضر تحت لایسنس BSD در اختیار عموم قرار گرفته است. برای اینکه قدرت Caffe را درک کنید باید بگوییم که این کتابخانه میتواند با جابهجا شدن بین CPU و کارت گرافیک، روزانه بیشتر از 60 میلیون تصویر را پردازش کند.
10 - StatsModels
این کتابخانه در علوم داده، تجزیه و تحلیل اطلاعات و گزارشگیری ها کاربرد دارد و به خوبی در کنار سایر کتابخانه هایی که معرفی کردیم قرار میگیرد و با آنها تعامل دارد. مثلا می تواند به راحتی برای کنترل دادهها با کتابخانه Pandas ادغام شود. همچنین این کتابخانه برای کار با سایر کتابخانه های گرافیکی از Matplotlib استفاده میکند.
#هوش_مصنوعی #پایتون
🆔 @Ai_Tv
🔹کتابخانه ها جان تازه ای به زبان برنامه نویسی پایتون دادهاند و یکی از دلایل اصلی محبوبیت این زبان هستند. کتابخانهها کدهای از قبل نوشته شده هستند که توسط سایر توسعه دهندگان ایجاد شده اند. استفاده از آن ها در زمان شخص برنامه نویس صرفه جویی کرده و از دوباره کاری جلوگیری میکنند. دانش هوش مصنوعی نیاز به تجزیه و تحلیل داده دارد. در ادامه بهترین کتابخانه های پایتون که در تحلیل و بررسی داده به شما کمک خواهند کرد را بررسی می کنیم.
1 - Scikit-learn
یکی از بهترین کتابخانه های یادگیری ماشین در پایتون است. این کتابخانه الگوریتم های اصلی و پایه این حوزه را به خوبی پردازش میکند. مواردی مثل رگرسیون خطی و لاجستیک، خوشه بندی، طبقه بندی و غیره توسط Scikit-learn به خوبی شناسایی میشوند.
2 - Pandas
یک کتابخانه متن باز است که تحت پروانه BSD منتشر میشود. این کتابخانه در کنار کارایی آسان خود، بازدهی بالایی نیز دارد. از Pandas برای تحلیل داده استفاده میشود. Pandas در واقع سعی داشت یک شکاف را در پایتون برطرف کند. این شکاف مشکلی بود که پایتون در مدل سازی و آنالیز داده ها داشت. پانداس در کنار سایر کتابخانه های یادگیری عمیق و یادگیری ماشین قدرت بیشتری میگیرد.
3 - Keras
از Keras برای یادگیری عمیق (Deep Learning) استفاده میشود. این کتابخانه محاسبات و ساخت نمونه را با سرعت بسیار بالا انجام میدهد. به خاطر اینکه به جزء پردازشگر دستگاه (CPU) از گرافیک (GPU) هم برای تقسیم بار محاسباتی استفاده میکند. Keras از پایتون 2.7 تا 3.6 را پشتیبانی میکند و یکی از بهترین کتابخانه های یادگیری عمیق در پایتون است.
4 - TensorFlow
شرکت گوگل در سال 2010 یک تیم تحقیقاتی در حوزه هوش مصنوعی و یادگیری عمیق تشکیل داد. کتابخانه TensorFlow یکی از دستاوردهای این گروه است که در سال 2015 منتشر شد. گوگل هم در تحقیقات و هم در محصولات خود از این کتابخانه استفاده میکند. TensorFlow خودش را با انواع سیستم عامل ها (لینوکس، ویندوز، مکینتاش و غیره) وقف داده است.
5 - Matplotlib
یک کتابخانه بسیار مفید برای ایجاد نمودارها است. به کمک آن میتوانید انواع اشکال دوبعدی، هیستوگرام، نمودار و غیره طراحی کنید. بعد از اینکه اطلاعات متنوع خود را تحلیل کردید، برای خوانایی و فهم بیشتر، میتوانید از نمودارها استفاده کنید. Matplotlib به ما کمک میکند یک خروجی کاربردی و ملموس از دیتای خود داشته باشیم.
6 - NLTK
یک ابزار عالی برای ساخت برنامههای پایتونی مبتنی بر زبان انسان است. مثلا اگر برنامه ای ساختهاید که نیاز به تحلیل صحبت های انسان دارد، میتوانید از کتابخانه NLTK استفاده کنید. متاسفانه این کتابخانه فقط برای زبان انگلیسی کار میکند و امکان اضافه کردن آن به پروژه های فارسی زبان وجود ندارد. NLTK مخفف Natural Language Toolkit بوده و بهترین گزینه در پردازش زبان است.
7 - Scikit-image
پردازش تصویر مبحثی است که رابطه نزدیکی با بینایی ماشین دارد. پردازش تصویر در زمینه های متنوعی مثل موارد نظامی، امنیتی، صنعتی کاربرد دارد. بعضی از کاربردهای بینایی ماشین در زندگی روزمره عبارتند از تشخیص بارکد محصول، تشخیص پلاک یا سرعت خودرو و غیره. Scikit-image الگوریتمهای مختلفی دارد که شامل تغییرات هندسی، آنالیز رنگها، تشخیص ویژگیهای تصویر و غیره میشود.
8 - PyBrain
یکی از بهترین کتابخانه های یادگیری ماشین بوده که با زبان پایتون نوشته شده است. این کتابخانه شامل الگوریتمهایی مربوط به شبکههای عصبی و یادگیری تقویتی است. Pybrain یک کتابخانه رایگان، آزاد و متن باز به حساب میآید که هر کسی میتواند از آن استفاده کند. ترکیب Pybrain با سایر کتابخانههای هوش مصنوعی به نتایج بسیار مفیدی منجر میشود.
9 - Caffe
یک فریم ورک یادگیری عمیق (Deep Learning) است که با تمرکز بر روی سریع بودن و ماژولار بودن طراحی شده است. این کتابخانه پروژه آقای Yangqing Jia در دانشگاه Berkeley بوده و در حال حاضر تحت لایسنس BSD در اختیار عموم قرار گرفته است. برای اینکه قدرت Caffe را درک کنید باید بگوییم که این کتابخانه میتواند با جابهجا شدن بین CPU و کارت گرافیک، روزانه بیشتر از 60 میلیون تصویر را پردازش کند.
10 - StatsModels
این کتابخانه در علوم داده، تجزیه و تحلیل اطلاعات و گزارشگیری ها کاربرد دارد و به خوبی در کنار سایر کتابخانه هایی که معرفی کردیم قرار میگیرد و با آنها تعامل دارد. مثلا می تواند به راحتی برای کنترل دادهها با کتابخانه Pandas ادغام شود. همچنین این کتابخانه برای کار با سایر کتابخانه های گرافیکی از Matplotlib استفاده میکند.
#هوش_مصنوعی #پایتون
🆔 @Ai_Tv
👍2
📍برترین کتابخانههای یادگیری ماشین!
در ادامه برترین کتابخانههای یادگیری ماشین زبانهای برنامهنویسی پایتون و R براساس میزان استفاده در پروژههای علمداده ذکر گردیده است.
1- Scikit Learn
2- Tensorflow
3- Keras
4- randomForest
5- Xgboost
6- PyTorch
7- Caret
8- Lightgbm
9- Spark MLlib
10- H2O
جهت مطالعه جزئیات گزارش فوق میتوانید از طریق لینک زیر اقدام نمایید.
http://tiny.cc/0v5ccz
#هوش_مصنوعی #پایتون #یادگیری_ماشین
🆔 @Ai_Tv
در ادامه برترین کتابخانههای یادگیری ماشین زبانهای برنامهنویسی پایتون و R براساس میزان استفاده در پروژههای علمداده ذکر گردیده است.
1- Scikit Learn
2- Tensorflow
3- Keras
4- randomForest
5- Xgboost
6- PyTorch
7- Caret
8- Lightgbm
9- Spark MLlib
10- H2O
جهت مطالعه جزئیات گزارش فوق میتوانید از طریق لینک زیر اقدام نمایید.
http://tiny.cc/0v5ccz
#هوش_مصنوعی #پایتون #یادگیری_ماشین
🆔 @Ai_Tv
📍هوش مصنوعی از متخصص ها جلو زد
محققان به تازگی یک الگوریتم مبتنی بر هوش مصنوعی توسعه دادهاند که بیماری های مختلفی از سرطان تا بیماریهای نادر چشم را به دقت انسان تشخیص میدهد.
.
نتیجه ۱۴ کارآزمایی بین ژانویه ۲۰۱۲ و ژوئن ۲۰۱۹ نشان داد که هوش مصنوعی در ۸۷ درصد موارد به طور صحیح بیماری را تشخیص داده و این درصد برای پزشکان تنها ۸۶ درصد بود.
.
همچنین هوش مصنوعی ۹۳% در درمان موفق بوده است و این رقم برای انسان ۹۱درصد است.
جزئیات بیشتر را از لینک زیر بخوانید👇
https://bit.ly/2n5cDPD
#هوش_مصنوعی
🆔 @Ai_Tv
محققان به تازگی یک الگوریتم مبتنی بر هوش مصنوعی توسعه دادهاند که بیماری های مختلفی از سرطان تا بیماریهای نادر چشم را به دقت انسان تشخیص میدهد.
.
نتیجه ۱۴ کارآزمایی بین ژانویه ۲۰۱۲ و ژوئن ۲۰۱۹ نشان داد که هوش مصنوعی در ۸۷ درصد موارد به طور صحیح بیماری را تشخیص داده و این درصد برای پزشکان تنها ۸۶ درصد بود.
.
همچنین هوش مصنوعی ۹۳% در درمان موفق بوده است و این رقم برای انسان ۹۱درصد است.
جزئیات بیشتر را از لینک زیر بخوانید👇
https://bit.ly/2n5cDPD
#هوش_مصنوعی
🆔 @Ai_Tv
This media is not supported in your browser
VIEW IN TELEGRAM
📍 فیسبوک مشغول ساخت نوع جدیدی از تکنولوژی واقعیت افزوده است
🔹فیسبوک فعالانه روی ساخت یک عینک واقعیت افزوده کار می کند و اخیرا اعلام کرده که می خواهد یک نقشه سه بعدی از زمین تهیه کند که به کاربران امکان خواهد داد در محیطی هایی بهبود یافته و تعاملی زندگی کنند
تکنولوژی LiveMaps در واقع با بهره گیری از بینایی کامپیوتری، بومی سازی و تکنولوژی نقشه نگاری جمع سپاری شده نوعی نقشه مشترک مجازی را تولید می کند که بازتابی از دنیای فیزیکی بیرون است. فیسبوک نیز با تزریق دیتایی که از ۲.۴ میلیارد کاربر خود جمع آوری کرده به توسعه LiveMaps کمک می کند و با استفاده از عکس هایی که ژئوتگ شده اند اقدام به ایجاد ابر نقاط و سپس یک دنیای مجازی واقعی می کند.
#واقعیت_افزوده #یادگیری_ماشین
🆔 @Ai_Tv
🔹فیسبوک فعالانه روی ساخت یک عینک واقعیت افزوده کار می کند و اخیرا اعلام کرده که می خواهد یک نقشه سه بعدی از زمین تهیه کند که به کاربران امکان خواهد داد در محیطی هایی بهبود یافته و تعاملی زندگی کنند
تکنولوژی LiveMaps در واقع با بهره گیری از بینایی کامپیوتری، بومی سازی و تکنولوژی نقشه نگاری جمع سپاری شده نوعی نقشه مشترک مجازی را تولید می کند که بازتابی از دنیای فیزیکی بیرون است. فیسبوک نیز با تزریق دیتایی که از ۲.۴ میلیارد کاربر خود جمع آوری کرده به توسعه LiveMaps کمک می کند و با استفاده از عکس هایی که ژئوتگ شده اند اقدام به ایجاد ابر نقاط و سپس یک دنیای مجازی واقعی می کند.
#واقعیت_افزوده #یادگیری_ماشین
🆔 @Ai_Tv