🎬معرفی ویدیو:☝️☝️☝️
🗂#نسبت_دین_و_فناوری #هوش_مصنوعی
ری کرزول (Ray Kurzweil) نویسنده، مخترع و آینده پژوه برجسته آمریکایی است. بیل گیتس رئیس شرکت مایکروسافت معتقد است که او بهترین فرد در جهان برای پیش بینی آینده هوش مصنوعی است. حضور جنجالی سالهای اخیر او در شرکت گوگل نیز بسیاری را متقاعد کرده که این شرکت به دنبال گامهای بلند در زمینه هوش مصنوعی است. او در آخرین کتابهای پرفروش اش پیش بینیهایی درباره ساخت ماشینهای هوشمند غیرقابل تمیز از انسان در سالهای آتی کرده و همچنین از بهسازی انسان با نانورباتها که میتواند به جاودانگی منجر شود صحبت نموده است. از نظر کرزول نه تنها میان این پیشرفتهای فناورانه و مبانی مطرح در ادیان هیچ تضادی وجود ندارد بلکه فرآیند توسعه فناوری یک فرآیند روحانی است که در آن انسانها هر چه بیشتر شبیه به خدا میگردند. او معتقد است انسان در نهایت فناوریهای هوشمند خود را به تمام نقاط عالم تسری خواهد داد که آن نیز عملی کاملاً خداگونه است.
💡نکاتی برای تامل:
اگر بپذیریم چنین رویکردی در ادیان وجود دارد که از انسانها میخواهد صفات خداگونه را در خود پروش دهند، آیا واقعا بهبود بخشیدن تواناییهای جسمانی و حتی روانی انسانی به کمک فناوری به معنای شبه خدا شدن است؟ آیا دین مسیر استفاده از فناوری برای شبه خدا شدن را مجاز میداند یا مسیرهایی دیگری را برای این کار معرفی نموده است؟
🗂#نسبت_دین_و_فناوری #هوش_مصنوعی
ری کرزول (Ray Kurzweil) نویسنده، مخترع و آینده پژوه برجسته آمریکایی است. بیل گیتس رئیس شرکت مایکروسافت معتقد است که او بهترین فرد در جهان برای پیش بینی آینده هوش مصنوعی است. حضور جنجالی سالهای اخیر او در شرکت گوگل نیز بسیاری را متقاعد کرده که این شرکت به دنبال گامهای بلند در زمینه هوش مصنوعی است. او در آخرین کتابهای پرفروش اش پیش بینیهایی درباره ساخت ماشینهای هوشمند غیرقابل تمیز از انسان در سالهای آتی کرده و همچنین از بهسازی انسان با نانورباتها که میتواند به جاودانگی منجر شود صحبت نموده است. از نظر کرزول نه تنها میان این پیشرفتهای فناورانه و مبانی مطرح در ادیان هیچ تضادی وجود ندارد بلکه فرآیند توسعه فناوری یک فرآیند روحانی است که در آن انسانها هر چه بیشتر شبیه به خدا میگردند. او معتقد است انسان در نهایت فناوریهای هوشمند خود را به تمام نقاط عالم تسری خواهد داد که آن نیز عملی کاملاً خداگونه است.
💡نکاتی برای تامل:
اگر بپذیریم چنین رویکردی در ادیان وجود دارد که از انسانها میخواهد صفات خداگونه را در خود پروش دهند، آیا واقعا بهبود بخشیدن تواناییهای جسمانی و حتی روانی انسانی به کمک فناوری به معنای شبه خدا شدن است؟ آیا دین مسیر استفاده از فناوری برای شبه خدا شدن را مجاز میداند یا مسیرهایی دیگری را برای این کار معرفی نموده است؟
🎬معرفی ویدیو: ☝️☝️☝️
🗂#نسبت_دین_و_فناوری #هوش_مصنوعی #بهسازی
کریستن برگر (Christian Brugger) یک پژوهشگر برجسته در زمینه اخلاق و الهیات مسیحی است. او دکترای خود را در اخلاق مسیحی از دانشگاه آکسفورد اخذ نموده و بیشتر از 200 مقاله و کتاب در موضوعاتی همچون اخلاق زیستی، اخلاق جنسی، نظریه قانون طبیعی در اخلاق، و همین طور حوزههای میان رشتهای مانند روانشناسی و انسان شناسی مسیحی دارد. او در این ویدیو به نقد نظرات و پیش بینیهای کرزول می پردازد. برگر از شتاب پیشرفت های فناورانه و عقب افتادن تحلیل های اخلاقی از آن ابراز نگرانی میکند و معتقد است آنچه در نظر بسیاری از متفکران الهی حائز اهمیت بوده تعالی شخصیتی است و نه بهسازی 0توانایی های انسان. همچنین او بیان می کند پاسخ دین به برخی از سوالات بنیادین انسان با پاسخ هایی که فناوری برای آنها فراهم می کند کاملاً متفاوت است. در نهایت برگر ایده ری کرزول درباره ساخت ماشینهایی هوشمند کاملا شبیه انسان را غیر عملی می داند.
🗂#نسبت_دین_و_فناوری #هوش_مصنوعی #بهسازی
کریستن برگر (Christian Brugger) یک پژوهشگر برجسته در زمینه اخلاق و الهیات مسیحی است. او دکترای خود را در اخلاق مسیحی از دانشگاه آکسفورد اخذ نموده و بیشتر از 200 مقاله و کتاب در موضوعاتی همچون اخلاق زیستی، اخلاق جنسی، نظریه قانون طبیعی در اخلاق، و همین طور حوزههای میان رشتهای مانند روانشناسی و انسان شناسی مسیحی دارد. او در این ویدیو به نقد نظرات و پیش بینیهای کرزول می پردازد. برگر از شتاب پیشرفت های فناورانه و عقب افتادن تحلیل های اخلاقی از آن ابراز نگرانی میکند و معتقد است آنچه در نظر بسیاری از متفکران الهی حائز اهمیت بوده تعالی شخصیتی است و نه بهسازی 0توانایی های انسان. همچنین او بیان می کند پاسخ دین به برخی از سوالات بنیادین انسان با پاسخ هایی که فناوری برای آنها فراهم می کند کاملاً متفاوت است. در نهایت برگر ایده ری کرزول درباره ساخت ماشینهایی هوشمند کاملا شبیه انسان را غیر عملی می داند.
🎬معرفی ویدیو:☝️☝️☝️
🗂 #هوش_مصنوعی
یکی از رویداد هایی که در ماههای اخیر جنجال فراوانی ایجاد نموده تریلری است که واتسون، ابر کامپیوتر شرکت IBM برای یک فیلم علمی- تخیلی ترسناک با محوریت هوش مصنوعی ساخته است. این ابر کامپیوتر که خود مجهز به هوش مصنوعی فوق العاده قدرتمندی است، با تحلیل جزء به جزء صحنههای فیلم مورگان (Morgan) به ایدهای برای ساخت تریلر دست یافته است. این تریلر در ظرف یک روز ساخته شده در حالی که برای آماده سازی یک تریلر به صورت عادی به 10 تا 30 روز زمان لازم است. تریلر تولید شده که در نوع خود بی نظیر است بسیار چشمگیر و وهمناک به نظر می رسد. در ویدیو فوق این تریلر به همراه صحبتهای کارگردان فیلم و محققان هوش مصنوعی شرکت IBM درباره نحوه تولید آن و همچنین امکان خلق آثار هنری توسط هوش مصنوعی آمده است
🗂 #هوش_مصنوعی
یکی از رویداد هایی که در ماههای اخیر جنجال فراوانی ایجاد نموده تریلری است که واتسون، ابر کامپیوتر شرکت IBM برای یک فیلم علمی- تخیلی ترسناک با محوریت هوش مصنوعی ساخته است. این ابر کامپیوتر که خود مجهز به هوش مصنوعی فوق العاده قدرتمندی است، با تحلیل جزء به جزء صحنههای فیلم مورگان (Morgan) به ایدهای برای ساخت تریلر دست یافته است. این تریلر در ظرف یک روز ساخته شده در حالی که برای آماده سازی یک تریلر به صورت عادی به 10 تا 30 روز زمان لازم است. تریلر تولید شده که در نوع خود بی نظیر است بسیار چشمگیر و وهمناک به نظر می رسد. در ویدیو فوق این تریلر به همراه صحبتهای کارگردان فیلم و محققان هوش مصنوعی شرکت IBM درباره نحوه تولید آن و همچنین امکان خلق آثار هنری توسط هوش مصنوعی آمده است
🎬 معرفی ویدیو☝️☝️☝️
🗂 #هوش_مصنوعی
پروفسور نیک بوستروم (Nick Bostrom) استاد فلسفه در دانشگاه اکسفورد است که از او بیش از 200 کتاب و مقاله در موضوعات گوناگونی همچون اخلاق بهسازی انسانی، خطرات هو ش مصنوعی ، سودگرایی و غیره به چاب رسیده است. او در سال های 2009 و 2015 به انتخاب نشریه فارین پالسی به عنوان یکی از 100 متفکر برتر جهان معرفی شد. در سالهای اخیر بوستروم تاملات خود را بر ریسک هایی که هوش مصنوعی برای زندگی بشر در پی خواهد داشت متمرکز کرده است. در همین زمینه کتاب پر فروش «ابرهوش: راه ها، خطرات، راهبردها» از او منتشر شده است. افکار این فیلسوف محدود به فضای فلسفی و علمی باقی نمانده و افراد پیشرو در فناوری همچون ایلان ماسک و بیل گیتس تحت تاثیر بوستروم از خطرات گسترش هوش مصنوعی ابراز نگرانی کرده اند.
بوستروم در سخنرانی فوق بیان میکند اگرچه هوش مصنوعی هم اکنون فاصله بسیار فراوانی با هوش انسانی دارد اما با تلاش فراوان محققان این حوزه و ظهور مدلهای جدید همچون یادگیری ماشین امید میرود که هوش مصنوعی بتواند با هوش انسانی معادل گردد. اما هوش مصنوعی به هیچ وجه در آن سطح متوقف نخواهد شد و به سرعت هوشمندی و قدرت خود را افزایش میدهد که این میتواند اثرات مخربی داشته باشد به خصوص اگر هوش مصنوعی را به عنوان یک فرآیند بهینه سازی برای رسیدن به یک هدف در نظر بگیریم. در واقع در طی این فرآیند بهینه سازی هوش مصنوعی میتواند از ابزارها و وسایل به نحوی کمک بگیرد که با بسیاری از ارزشهای ما در تناقض قرار گیرد. از نظر بوستروم محدود کردن هوش مصنوعی ممکن نیست و ما هیچ گاه نباید به تواناییهایمان برای نگه داشتن غول هوش مصنوعی درون چراغ مطمئن باشیم چرا که او در نهایت فرار خواهد کرد!. ازین رو معتقد است تنها راه ما برای مواجه با چنین وضعیتی خلق هوش مصنوعی است که از ابتدا مبتنی بر ارزشهای ما عمل کند و به دنبال اجرای اقداماتی باشد که پیش بینی می کند ما آن را تایید میکنیم. اگر چه این ایده با دشواری هایی روبرو است اما بوستروم خوشبین است ما بتوانیم این کار را انجام دهیم و این کار بزرگترین لطفی است که در حق نسلهای آتی بشر خواهیم کرد.
🗂 #هوش_مصنوعی
پروفسور نیک بوستروم (Nick Bostrom) استاد فلسفه در دانشگاه اکسفورد است که از او بیش از 200 کتاب و مقاله در موضوعات گوناگونی همچون اخلاق بهسازی انسانی، خطرات هو ش مصنوعی ، سودگرایی و غیره به چاب رسیده است. او در سال های 2009 و 2015 به انتخاب نشریه فارین پالسی به عنوان یکی از 100 متفکر برتر جهان معرفی شد. در سالهای اخیر بوستروم تاملات خود را بر ریسک هایی که هوش مصنوعی برای زندگی بشر در پی خواهد داشت متمرکز کرده است. در همین زمینه کتاب پر فروش «ابرهوش: راه ها، خطرات، راهبردها» از او منتشر شده است. افکار این فیلسوف محدود به فضای فلسفی و علمی باقی نمانده و افراد پیشرو در فناوری همچون ایلان ماسک و بیل گیتس تحت تاثیر بوستروم از خطرات گسترش هوش مصنوعی ابراز نگرانی کرده اند.
بوستروم در سخنرانی فوق بیان میکند اگرچه هوش مصنوعی هم اکنون فاصله بسیار فراوانی با هوش انسانی دارد اما با تلاش فراوان محققان این حوزه و ظهور مدلهای جدید همچون یادگیری ماشین امید میرود که هوش مصنوعی بتواند با هوش انسانی معادل گردد. اما هوش مصنوعی به هیچ وجه در آن سطح متوقف نخواهد شد و به سرعت هوشمندی و قدرت خود را افزایش میدهد که این میتواند اثرات مخربی داشته باشد به خصوص اگر هوش مصنوعی را به عنوان یک فرآیند بهینه سازی برای رسیدن به یک هدف در نظر بگیریم. در واقع در طی این فرآیند بهینه سازی هوش مصنوعی میتواند از ابزارها و وسایل به نحوی کمک بگیرد که با بسیاری از ارزشهای ما در تناقض قرار گیرد. از نظر بوستروم محدود کردن هوش مصنوعی ممکن نیست و ما هیچ گاه نباید به تواناییهایمان برای نگه داشتن غول هوش مصنوعی درون چراغ مطمئن باشیم چرا که او در نهایت فرار خواهد کرد!. ازین رو معتقد است تنها راه ما برای مواجه با چنین وضعیتی خلق هوش مصنوعی است که از ابتدا مبتنی بر ارزشهای ما عمل کند و به دنبال اجرای اقداماتی باشد که پیش بینی می کند ما آن را تایید میکنیم. اگر چه این ایده با دشواری هایی روبرو است اما بوستروم خوشبین است ما بتوانیم این کار را انجام دهیم و این کار بزرگترین لطفی است که در حق نسلهای آتی بشر خواهیم کرد.
🎬 معرفی ویدیو: ☝️☝️☝️
🗂#هوش_مصنوعی
سم هریس، نویسنده، فیسلوف و نوروساینتیست مشهور در این ویدیو درباره خطر توسعه هوش مصنوعی بدون توجه به پیامدهای آن هشدار میدهد. هریس این نظر که ابر هوش مصنوعی یک امکان بعید و شاید نا ممکن است را رد می کند. او به سه پیش فرض اشاره مینماید که هم اکنون محقق اند و لذا ما به نقطهای خواهیم رسید که منجر به ساخته شدن ابر هوش مصنوعی خواهد شد. اولاً فرضی که هوشمندی را با میزان توانایی در پردازش اطلاعاتی مرتبط می سازد، دوم این که ما به بهبود ماشین های هوشمند فعلی خود ادامه خواهیم داد زیرا برای حل مشکلاتمان به آن ها نیازمندیم، و سوم این که ما در نقطه نهایی هوشمندی نایستاده ایم و هوشمندی می تواند بسیار فراتر از هوش انسانی برود.
از نظر هریس ابر هوش مصنوعی نوع رفتاری را با ما خواهد داشت که ما با مورچه ها داریم . ما در خیلی از موقعیت ها برای حفظ امنیت مورچه ها خود را به زحمت میاندازیم ولی در جایی که اهدافمان در تضاد قرار می گیرد به سرعت آنها را قلع و قمع میکنیم. حتی اگر بهترین سناریو در مورد هوش مصنوعی را در نظر بگیریم که هیچ تهدید امنیتی برای جان انسان ها نداشته باشد تبعات اقتصادی به علت بیکاری گسترده و تبعات سیاسی که مربوط به جنگ سرد دیگر برای دست یابی به این فناوری است، مجدداً ما را تهدید میکنند.
محققان هوش مصنوعی تلاش می کنند بگویند ما با ابر هوش مصنوعی بیش از 50 سال فاصله داریم و لذا در حال حاضر نباید نگران چنین اموری باشیم. اما از نظر هریس اشاره به افق زمانی کاملا بی معناست چرا که ما به طور مداوم در حال بهبود ماشین های هوشمند هستیم و هیچ ایده ای نداریم که چگونه این فناوری را به صورت ایمن در آوریم. از نظر هریس ما به چیزی بزرگتر از پروژه منهتن برای هوش مصنوعی نیاز خواهیم داشت برای این که بفهمیم چگونه از یک مسابقه تسلیحاتی عظیم جلوگیری کنیم و این که چگونه آن را با منافعمان همسان سازیم.
🗂#هوش_مصنوعی
سم هریس، نویسنده، فیسلوف و نوروساینتیست مشهور در این ویدیو درباره خطر توسعه هوش مصنوعی بدون توجه به پیامدهای آن هشدار میدهد. هریس این نظر که ابر هوش مصنوعی یک امکان بعید و شاید نا ممکن است را رد می کند. او به سه پیش فرض اشاره مینماید که هم اکنون محقق اند و لذا ما به نقطهای خواهیم رسید که منجر به ساخته شدن ابر هوش مصنوعی خواهد شد. اولاً فرضی که هوشمندی را با میزان توانایی در پردازش اطلاعاتی مرتبط می سازد، دوم این که ما به بهبود ماشین های هوشمند فعلی خود ادامه خواهیم داد زیرا برای حل مشکلاتمان به آن ها نیازمندیم، و سوم این که ما در نقطه نهایی هوشمندی نایستاده ایم و هوشمندی می تواند بسیار فراتر از هوش انسانی برود.
از نظر هریس ابر هوش مصنوعی نوع رفتاری را با ما خواهد داشت که ما با مورچه ها داریم . ما در خیلی از موقعیت ها برای حفظ امنیت مورچه ها خود را به زحمت میاندازیم ولی در جایی که اهدافمان در تضاد قرار می گیرد به سرعت آنها را قلع و قمع میکنیم. حتی اگر بهترین سناریو در مورد هوش مصنوعی را در نظر بگیریم که هیچ تهدید امنیتی برای جان انسان ها نداشته باشد تبعات اقتصادی به علت بیکاری گسترده و تبعات سیاسی که مربوط به جنگ سرد دیگر برای دست یابی به این فناوری است، مجدداً ما را تهدید میکنند.
محققان هوش مصنوعی تلاش می کنند بگویند ما با ابر هوش مصنوعی بیش از 50 سال فاصله داریم و لذا در حال حاضر نباید نگران چنین اموری باشیم. اما از نظر هریس اشاره به افق زمانی کاملا بی معناست چرا که ما به طور مداوم در حال بهبود ماشین های هوشمند هستیم و هیچ ایده ای نداریم که چگونه این فناوری را به صورت ایمن در آوریم. از نظر هریس ما به چیزی بزرگتر از پروژه منهتن برای هوش مصنوعی نیاز خواهیم داشت برای این که بفهمیم چگونه از یک مسابقه تسلیحاتی عظیم جلوگیری کنیم و این که چگونه آن را با منافعمان همسان سازیم.
🎬معرفی ویدیو:☝️☝️☝️
🗂#هوش_مصنوعی
زینپ توفیکچی (Zeynep Tufekci) جامعه شناس تکنولوژی و عضو هیئت علمی دانشگاه کارولینای شمالی است. او در این ویدیو به مبحثی با عنوان اخلاق الگوریتم (Algorithm Ethics) میپردازد . ما سال هاست از الگوریتم ها و هوش ماشینی در کارهای محاسباتی خود مانند ساخت پل ها یا تولید هواپیماها استفاده میکنیم. در همه این امور معیارهای پذیرفته شده و قوانین طبیعت راهنمای ما هستند. اما با پیچیده تر شدن این الگوریتمها و به خصوص با ظهور یادگیری ماشینی( Machine learning) جا برای استفاده از این الگوریتمها در امور آشوبناک مربوط به حوزه انسانی نیز باز شده است. توفیکچی با بیان ایرادات و مثالهایی از الگوریتمهای استخدامی، الگوریتمهای مربوط به تشخیص خلافکاران و هوش مصنوعی خبر خوان فیس بوک نشان میدهد که چرا نمیتوانیم مسئولیت قضاوتهای انسانی را بر دوش آن ها بگذاریم. نخست این که ما نمیدانیم آنها دقیقا بر اساس کدام یک از اطلاعات در حال دسته بندی کردن افراد هستند در واقع آنها تبدیل به جعبه سیاههایی میشوند که ما از از درون آنها بی اطلاعیم، دوم این که بر خلاف تصور ما، الگوریتمها به صورتی ابجکتیو و خنثی فرآیند انتخاب را انجام نمیدهند بلکه آنها صرفاً بازتابدهندهها تمایلات و سوگیریهای ما هستند، و دست آخر این که هوش مصنوعی گاهاً دچار اشتباهاتی میشود که هیچ گاه توسط یک انسان انجام نخواهد شد. در چنین وضعیتی توفیکچی بیان میکند که ما اجازه نداریم مسئولیتهای اخلاقی خود در امور انسانی را به هوش ماشینی محول کنیم و تنها مجازیم برای بهبود تصمیم گیری ها از آن ها سود ببریم. از نظر او در جهانی که هوش مصنوعی هر روز در حال رشد است ما بیش از پیش نیازمند توجه به ارزش ها و اخلاق انسانی هستیم.
🗂#هوش_مصنوعی
زینپ توفیکچی (Zeynep Tufekci) جامعه شناس تکنولوژی و عضو هیئت علمی دانشگاه کارولینای شمالی است. او در این ویدیو به مبحثی با عنوان اخلاق الگوریتم (Algorithm Ethics) میپردازد . ما سال هاست از الگوریتم ها و هوش ماشینی در کارهای محاسباتی خود مانند ساخت پل ها یا تولید هواپیماها استفاده میکنیم. در همه این امور معیارهای پذیرفته شده و قوانین طبیعت راهنمای ما هستند. اما با پیچیده تر شدن این الگوریتمها و به خصوص با ظهور یادگیری ماشینی( Machine learning) جا برای استفاده از این الگوریتمها در امور آشوبناک مربوط به حوزه انسانی نیز باز شده است. توفیکچی با بیان ایرادات و مثالهایی از الگوریتمهای استخدامی، الگوریتمهای مربوط به تشخیص خلافکاران و هوش مصنوعی خبر خوان فیس بوک نشان میدهد که چرا نمیتوانیم مسئولیت قضاوتهای انسانی را بر دوش آن ها بگذاریم. نخست این که ما نمیدانیم آنها دقیقا بر اساس کدام یک از اطلاعات در حال دسته بندی کردن افراد هستند در واقع آنها تبدیل به جعبه سیاههایی میشوند که ما از از درون آنها بی اطلاعیم، دوم این که بر خلاف تصور ما، الگوریتمها به صورتی ابجکتیو و خنثی فرآیند انتخاب را انجام نمیدهند بلکه آنها صرفاً بازتابدهندهها تمایلات و سوگیریهای ما هستند، و دست آخر این که هوش مصنوعی گاهاً دچار اشتباهاتی میشود که هیچ گاه توسط یک انسان انجام نخواهد شد. در چنین وضعیتی توفیکچی بیان میکند که ما اجازه نداریم مسئولیتهای اخلاقی خود در امور انسانی را به هوش ماشینی محول کنیم و تنها مجازیم برای بهبود تصمیم گیری ها از آن ها سود ببریم. از نظر او در جهانی که هوش مصنوعی هر روز در حال رشد است ما بیش از پیش نیازمند توجه به ارزش ها و اخلاق انسانی هستیم.
🎬 معرفی ویدیو:☝️☝️☝️
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️
🗂#هوش_مصنوعی
عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد
منبع:MSPU (ترجمه از وب سایت دیجیاتو)
هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.
با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.
حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد
پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.
در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.
اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🗂#هوش_مصنوعی
عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد
منبع:MSPU (ترجمه از وب سایت دیجیاتو)
هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.
با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.
حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد
پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.
در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.
اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🗣خبر ☝️☝️☝️
🗂 #هوش_مصنوعی
🔴 عنوان: چت بات جدید فیسبوک برای رسیدن به اهدافش می تواند دروغ بگوید!
📌 منبع:engadget (ترجمه حمید مقدسی از وبسایت دیجیاتو)
چت بات ها تا به امروز پیشرفت زیادی را تجربه کرده اند، اما کاربرد آنها در زندگی روزمره بسیار محدود است و به مواردی همچون سفارش پیتزا یا پرداخت مبالغ جزئی ختم می شود. حال فیسبوک بات جدیدی را ساخته که توانایی مذاکره، اتخاذ تدابیر استراتژیک، و برنامه ریزی در روند مکالمه را دارد.
همان طور که می دانید درک مکالمه در سطح انسان برای کامپیوترها بسیار دشوار است و تلاش ها در این زمینه با موفقیت چندانی همراه نبوده. برای دستیابی به این هدف، دانش فوق العاده گسترده ای در کنار توانایی انطباق و سازگاری سریع و دقیق مورد نیاز است. محققین مرکز تحقیقات هوش مصنوعی فیسبوک (FAIR) تکنیک جدیدی را توسعه داده اند که بر اساس آن بات ها می توانند با موفقیت در انواع گفتگوهای انسانی شرکت کنند، و به عبارتی با انسان مذاکره نمایند.
محققین FAIR برای تحقق اهداف خود، از گفتگوها و مذاکرات واقعی بین انسان ها به عنوان منبع آموزش بات استفاده کرده اند. آنها مجموعه ای از آیتم ها، مثلاً چندین کتاب، توپ و کلاه را ارائه کردند، به گونه ای که هرکدام از این وسایل برای هر یک از افراد ارزش متفاوتی داشت. پس از آن افراد با یکدیگر مذاکره کردند تا بتوانند آیتم ها را بین خودشان تقسیم کنند.
در مرحله بعد، یک مدل شبکه عصبی راجعه (Recurrent Neural Network) با تقلید راهکارها و حرکات انسان در حین مذاکره، آموزش یافت و توانست این مهارت راهبردی را بیاموزد. البته پژوهشگران FAIR به این هم قناعت نکردند. آنها به سیستم اجازه دادند تا نحوه دستیابی به اهداف مذاکره را آزموده و در صورت رسیدن به نتیجه مطلوب، این روش ها را تقویت نماید.
در نهایت بات ها در تقابل با انسان قرار گرفته و به گفته فیسبوک، اکثر افراد متوجه نشدند در حال گفتگو با یک بات هستند. این موضوع نشان می دهد درک محتوا و توانایی مکالمه این بات ها به سطح بسیار بالایی رسیده است. محققین برای دستیابی به این سطح از مهارت کلامی و زبانی، از روشی موسوم به «Dialogue rollouts» استفاده کردند که توانایی طرح ریزی درازمدت گفتگو را به بات می دهد.
با استفاده از این رویکرد، بات می تواند یک گفتگوی فرضی را متصور شده و آن را تا انتها شبیه سازی کند تا ببیند آیا به نتیجه دلخواهش می رسد یا خیر. این کار باعث می شود جملات و عبارات بی هدف و بی نتیجه از فرایند مذاکره حذف شده و تنها مواردی به کار گرفته شوند که در دستیابی به هدف مطلوب نقش دارند.بات ها با بهره گیری از روش فوق می توانند مذاکره را با قطعیت بیشتری پیش برده و پیشنهاد نهایی خود را بسیار دقیق تر و بهتر از موارد مشابه ارائه کنند. در صورت نیاز، بات می تواند از جملاتی که بر اساس آنها آموزش دیده، فاصله گرفته و عبارات جدیدی را تولید کند.
در روند آزمایشات موارد عجیب و بی سابقه ای از تدابیر استراتژیک مشاهده شد. مثلاً بات ها نسبت به آیتمی که هیچ ارزشی برایشان نداشت، به صورت دروغین ابراز علاقه کردند تا در مرحله بعدی بتوانند آنها را با آیتم های ارزشمندتر معاوضه نمایند. فیسبوک در بیانیه خود می گوید این نوع رفتار به هیچ وجه توسط محققین برنامه ریزی نشده، و بات ها خودشان برای دستیابی به اهداف، به کشف آنها نایل آمدند.
این دستاورد در حوزه هوش مصنوعی و توسعه بات ها بسیار ارزشمند است و فیسبوک می گوید که از این فرایند می توان برای هوشمند تر کردن دستیارهای دیجیتالی بهره گرفت. این کمپانی نتایج تحقیقات خود را به صورت مکتوب منتشر ساخته و کدهای مرجع آن را نیز به صورت رایگان عرضه می نماید.
🗂 #هوش_مصنوعی
🔴 عنوان: چت بات جدید فیسبوک برای رسیدن به اهدافش می تواند دروغ بگوید!
📌 منبع:engadget (ترجمه حمید مقدسی از وبسایت دیجیاتو)
چت بات ها تا به امروز پیشرفت زیادی را تجربه کرده اند، اما کاربرد آنها در زندگی روزمره بسیار محدود است و به مواردی همچون سفارش پیتزا یا پرداخت مبالغ جزئی ختم می شود. حال فیسبوک بات جدیدی را ساخته که توانایی مذاکره، اتخاذ تدابیر استراتژیک، و برنامه ریزی در روند مکالمه را دارد.
همان طور که می دانید درک مکالمه در سطح انسان برای کامپیوترها بسیار دشوار است و تلاش ها در این زمینه با موفقیت چندانی همراه نبوده. برای دستیابی به این هدف، دانش فوق العاده گسترده ای در کنار توانایی انطباق و سازگاری سریع و دقیق مورد نیاز است. محققین مرکز تحقیقات هوش مصنوعی فیسبوک (FAIR) تکنیک جدیدی را توسعه داده اند که بر اساس آن بات ها می توانند با موفقیت در انواع گفتگوهای انسانی شرکت کنند، و به عبارتی با انسان مذاکره نمایند.
محققین FAIR برای تحقق اهداف خود، از گفتگوها و مذاکرات واقعی بین انسان ها به عنوان منبع آموزش بات استفاده کرده اند. آنها مجموعه ای از آیتم ها، مثلاً چندین کتاب، توپ و کلاه را ارائه کردند، به گونه ای که هرکدام از این وسایل برای هر یک از افراد ارزش متفاوتی داشت. پس از آن افراد با یکدیگر مذاکره کردند تا بتوانند آیتم ها را بین خودشان تقسیم کنند.
در مرحله بعد، یک مدل شبکه عصبی راجعه (Recurrent Neural Network) با تقلید راهکارها و حرکات انسان در حین مذاکره، آموزش یافت و توانست این مهارت راهبردی را بیاموزد. البته پژوهشگران FAIR به این هم قناعت نکردند. آنها به سیستم اجازه دادند تا نحوه دستیابی به اهداف مذاکره را آزموده و در صورت رسیدن به نتیجه مطلوب، این روش ها را تقویت نماید.
در نهایت بات ها در تقابل با انسان قرار گرفته و به گفته فیسبوک، اکثر افراد متوجه نشدند در حال گفتگو با یک بات هستند. این موضوع نشان می دهد درک محتوا و توانایی مکالمه این بات ها به سطح بسیار بالایی رسیده است. محققین برای دستیابی به این سطح از مهارت کلامی و زبانی، از روشی موسوم به «Dialogue rollouts» استفاده کردند که توانایی طرح ریزی درازمدت گفتگو را به بات می دهد.
با استفاده از این رویکرد، بات می تواند یک گفتگوی فرضی را متصور شده و آن را تا انتها شبیه سازی کند تا ببیند آیا به نتیجه دلخواهش می رسد یا خیر. این کار باعث می شود جملات و عبارات بی هدف و بی نتیجه از فرایند مذاکره حذف شده و تنها مواردی به کار گرفته شوند که در دستیابی به هدف مطلوب نقش دارند.بات ها با بهره گیری از روش فوق می توانند مذاکره را با قطعیت بیشتری پیش برده و پیشنهاد نهایی خود را بسیار دقیق تر و بهتر از موارد مشابه ارائه کنند. در صورت نیاز، بات می تواند از جملاتی که بر اساس آنها آموزش دیده، فاصله گرفته و عبارات جدیدی را تولید کند.
در روند آزمایشات موارد عجیب و بی سابقه ای از تدابیر استراتژیک مشاهده شد. مثلاً بات ها نسبت به آیتمی که هیچ ارزشی برایشان نداشت، به صورت دروغین ابراز علاقه کردند تا در مرحله بعدی بتوانند آنها را با آیتم های ارزشمندتر معاوضه نمایند. فیسبوک در بیانیه خود می گوید این نوع رفتار به هیچ وجه توسط محققین برنامه ریزی نشده، و بات ها خودشان برای دستیابی به اهداف، به کشف آنها نایل آمدند.
این دستاورد در حوزه هوش مصنوعی و توسعه بات ها بسیار ارزشمند است و فیسبوک می گوید که از این فرایند می توان برای هوشمند تر کردن دستیارهای دیجیتالی بهره گرفت. این کمپانی نتایج تحقیقات خود را به صورت مکتوب منتشر ساخته و کدهای مرجع آن را نیز به صورت رایگان عرضه می نماید.
📝 یادداشت
هاوکینگ و هوش مصنوعی
✏️ مهدی خلیلی
🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.
🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP
چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo
🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.
@ethics_technology
هاوکینگ و هوش مصنوعی
✏️ مهدی خلیلی
🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.
🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP
چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo
🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.
@ethics_technology
This media is not supported in your browser
VIEW IN TELEGRAM
آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟
#سخنرانی_TED
————————
🆔: @ethics_technology
❇️: @AI_Python
#سخنرانی_TED
————————
🆔: @ethics_technology
❇️: @AI_Python
تقاطع اخلاق و فناوری
آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟ #سخنرانی_TED ———————— 🆔: @ethics_technology ❇️: @AI_Python
🗒 آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟
#سخنرانی_TED
🔹 کم تر کسی این نکته را انکار می کند که ارزش های نظام سرمایه داری، معنای هستی شناسانهی انسان را به طور تنگاتنگی با مفهومی به نام «کار» گره زده است. مفهومی که به بهانه آرامش، ما را در تلاطمی بی پایان غرقه می سازد و از انسان ها جنگجویانی می سازد که باید بتوانند از این تلاطم، جان سالم به در ببرند. تصور دنیایی که در آن جایگاهی برای رقابت های کاری وجود نداشته باشد، بسیار غریب به نظر می رسد. شاید غریب تر باشد اگر از جایگزینی عشق و مهربانی به جای رقابت صحبت کنیم. بله غریب است، چرا که هر کدام از ما خود را بر سر یک دوراهی می بینیم؛ یا باید گلادیاتوری پیروز بمانیم یا طعم اسارت و آوارگی را در زندگانی بچشیم.
🔸 اما شایسته است که یک بار دیگر به این مسیر طی شده نگاه کنیم. مگر نه آن است که همهی آن چه تا به حال، دستاورد انسانی نامیده شده است، قرار بود برای انسان آرامش به ارمغان بیاورد؟ به راستی آیا دنیایی که در آن روزمرگی جای خود را به خلاقیت و محبت بدهد، ارزش بیشتری برای زندگی ندارد؟ اگر تصادفاً به ما انسان ها، مرهمی ارزانی شود که بتواند زخم های این نبرد طاقت فرسا را علاج کند، آیا نباید این #نعمت_تصادفی را قدر دانست؟
🔹 کای فو لی(Kai-Fu Lee)، متخصص هوش مصنوعی در سخنرانی TED، معنای جدیدی از زندگی را به بشر معرفی می کند. معنایی که می تواند انسان را به آرمان شهری برساند، که روزگارانی دراز، امیدهای بسیاری در پی دست یابی به آن به یأس بدل شده بود. معنایی که شاید بتواند انسانیت از دست رفتهی انسان را نجات دهد.
————————————
🆔: @ethics_technology
❇️: @AI_Python
#سخنرانی_TED
🔹 کم تر کسی این نکته را انکار می کند که ارزش های نظام سرمایه داری، معنای هستی شناسانهی انسان را به طور تنگاتنگی با مفهومی به نام «کار» گره زده است. مفهومی که به بهانه آرامش، ما را در تلاطمی بی پایان غرقه می سازد و از انسان ها جنگجویانی می سازد که باید بتوانند از این تلاطم، جان سالم به در ببرند. تصور دنیایی که در آن جایگاهی برای رقابت های کاری وجود نداشته باشد، بسیار غریب به نظر می رسد. شاید غریب تر باشد اگر از جایگزینی عشق و مهربانی به جای رقابت صحبت کنیم. بله غریب است، چرا که هر کدام از ما خود را بر سر یک دوراهی می بینیم؛ یا باید گلادیاتوری پیروز بمانیم یا طعم اسارت و آوارگی را در زندگانی بچشیم.
🔸 اما شایسته است که یک بار دیگر به این مسیر طی شده نگاه کنیم. مگر نه آن است که همهی آن چه تا به حال، دستاورد انسانی نامیده شده است، قرار بود برای انسان آرامش به ارمغان بیاورد؟ به راستی آیا دنیایی که در آن روزمرگی جای خود را به خلاقیت و محبت بدهد، ارزش بیشتری برای زندگی ندارد؟ اگر تصادفاً به ما انسان ها، مرهمی ارزانی شود که بتواند زخم های این نبرد طاقت فرسا را علاج کند، آیا نباید این #نعمت_تصادفی را قدر دانست؟
🔹 کای فو لی(Kai-Fu Lee)، متخصص هوش مصنوعی در سخنرانی TED، معنای جدیدی از زندگی را به بشر معرفی می کند. معنایی که می تواند انسان را به آرمان شهری برساند، که روزگارانی دراز، امیدهای بسیاری در پی دست یابی به آن به یأس بدل شده بود. معنایی که شاید بتواند انسانیت از دست رفتهی انسان را نجات دهد.
————————————
🆔: @ethics_technology
❇️: @AI_Python
Telegram
تقاطع اخلاق و فناوری
آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟
#سخنرانی_TED
————————
🆔: @ethics_technology
❇️: @AI_Python
#سخنرانی_TED
————————
🆔: @ethics_technology
❇️: @AI_Python
تقاطع اخلاق و فناوری
سومین پیشنشست «مدرسه زمستانی هوش مصنوعی؛ فلسفه، اخلاق و جامعه» 🔷انسان و ابرهوش؛ زندگی در فضای تکینگی چگونه خواهد بود؟ 🔶ارائه: زهرا خندان ▫️سهشنبه ۲۰ آذر، ساعت ۱۶ 📍مکان جلسه متعاقبا اعلام خواهد شد. ▪️لطفا در صورت عدم ثبت مشخصات خود برای ورود از خارج دانشگاه،…
🔺معرفی اجمالی
سومین پیشنشست «مدرسه زمستانی هوش مصنوعی؛ فلسفه، اخلاق و جامعه»
🔷انسان و ابرهوش؛ زندگی در فضای تکینگی چگونه خواهد بود؟
🔶ارائه: زهرا خندان
▫️سهشنبه ۲۰ آذر، ساعت ۱۶
📍سالن اجتماعات گروه فلسفه علم
🔺پیشرفت تکنولوژی در سده ۲۱ام شتاب زیادی داشته و در این میان سهم "#هوش_مصنوعی" در این پیشرفت چشمگیر بوده است. نرمافزارها، رباتها و موتورهای جستوجوگر در زمینههای مختلف، از خدمات روزمره تا سریعترین محاسبات بسیار توانمند شدهاند و برخی از انسان هم پیشی گرفتهاند و دور از ذهن نیست که حتی از انسان گذشته و به "ابرهوش" برسند. "#تکینگی" نامی است که برای آینده مبهم انسان و ابرهوش برگزیدهاند، عصری که شاید انسان تنها یکهتاز جهان پیرامونش نباشد.
❗️ماشینهای خودکار و کامپیوترهای هوشمند تا کجا پیشرفت خواهند کرد؟ آینده انسان در مواجهه با "ابرهوش" چگونه رقم خواهد خورد؟ بشر در جهان پس از تکینگی چگونه خواهد زیست؟
———————
🆔: @ethics_technology
❇️: @philsharif
سومین پیشنشست «مدرسه زمستانی هوش مصنوعی؛ فلسفه، اخلاق و جامعه»
🔷انسان و ابرهوش؛ زندگی در فضای تکینگی چگونه خواهد بود؟
🔶ارائه: زهرا خندان
▫️سهشنبه ۲۰ آذر، ساعت ۱۶
📍سالن اجتماعات گروه فلسفه علم
🔺پیشرفت تکنولوژی در سده ۲۱ام شتاب زیادی داشته و در این میان سهم "#هوش_مصنوعی" در این پیشرفت چشمگیر بوده است. نرمافزارها، رباتها و موتورهای جستوجوگر در زمینههای مختلف، از خدمات روزمره تا سریعترین محاسبات بسیار توانمند شدهاند و برخی از انسان هم پیشی گرفتهاند و دور از ذهن نیست که حتی از انسان گذشته و به "ابرهوش" برسند. "#تکینگی" نامی است که برای آینده مبهم انسان و ابرهوش برگزیدهاند، عصری که شاید انسان تنها یکهتاز جهان پیرامونش نباشد.
❗️ماشینهای خودکار و کامپیوترهای هوشمند تا کجا پیشرفت خواهند کرد؟ آینده انسان در مواجهه با "ابرهوش" چگونه رقم خواهد خورد؟ بشر در جهان پس از تکینگی چگونه خواهد زیست؟
———————
🆔: @ethics_technology
❇️: @philsharif
#اطلاعیه
❗️ کارگروه اخلاق و فناوری اندیشکده مهاجر از کلیهی مخاطبان محترم کانال تقاطع و فناوری، به خصوص دانشجویان، پژوهشگران به منظور #تولید_محتوا در زمینهی فلسفه و اخلاق فناوری(به طور خاص فناوریهای ارتباطاتی، #هوش_مصنوعی و #اینترنت_اشیاء) دعوت به همکاری مینماید.
🔰 جهت کسب اطلاعات بیشتر به آیدی زیر مراجعه بفرمایید:
🆔: @Behzadface
———————
🆔: @ethics_technology
❗️ کارگروه اخلاق و فناوری اندیشکده مهاجر از کلیهی مخاطبان محترم کانال تقاطع و فناوری، به خصوص دانشجویان، پژوهشگران به منظور #تولید_محتوا در زمینهی فلسفه و اخلاق فناوری(به طور خاص فناوریهای ارتباطاتی، #هوش_مصنوعی و #اینترنت_اشیاء) دعوت به همکاری مینماید.
🔰 جهت کسب اطلاعات بیشتر به آیدی زیر مراجعه بفرمایید:
🆔: @Behzadface
———————
🆔: @ethics_technology
🗒 یادداشت کوتاه
❗️ کلی که خیلی بیشتر از جزء است!
🖌 بهزاد خداقلیزاده
📍 کارشناسی ارشد فلسفه علم و فناوری
⏱ مدت زمان تقریبی مطالعه: چهار دقیقه
📎 یادداشت را در instant view بخوانید.
#هوش_مصنوعی
———————
🆔: @ethics_technology
❗️ کلی که خیلی بیشتر از جزء است!
🖌 بهزاد خداقلیزاده
📍 کارشناسی ارشد فلسفه علم و فناوری
⏱ مدت زمان تقریبی مطالعه: چهار دقیقه
📎 یادداشت را در instant view بخوانید.
#هوش_مصنوعی
———————
🆔: @ethics_technology
Telegraph
کلی که خیلی بیشتر از جزء است!
چند وقت پیش که در توییتر میگشتم، سوالی در یکی از پستها به چشمم خورد که شاید برای شما هم پیش آمده باشد: "آیا کل با اجزا مساوی است یا نه؟" این سوال، شاید یک سوال متافیزیکی به حساب بیاید اما خیلی از اتفاقاتی که در اطراف ما میافتد میتواند پاسخی را برای آن…
🗒 یادداشت
❗️ چه کسی از ما مراقبت خواهد کرد؟
🖌 محمد محسن نداف
📍 کارشناسی ارشد جامعهشناسی دانشگاه تهران
📎مشروح یادداشت را در instant view بخوانید.
#فلسفه_فناوری
#جامعهشناسی
#هوش_مصنوعی
———————
🆔: @ethics_technology
❗️ چه کسی از ما مراقبت خواهد کرد؟
🖌 محمد محسن نداف
📍 کارشناسی ارشد جامعهشناسی دانشگاه تهران
📎مشروح یادداشت را در instant view بخوانید.
#فلسفه_فناوری
#جامعهشناسی
#هوش_مصنوعی
———————
🆔: @ethics_technology
Telegraph
چه کسی از ما مراقبت خواهد کرد؟
بسیاری از ما متولدین دهه ی شصت هستیم. برای پیدا کردن شغل جنگیده ایم. برای تشکیل خانواده، دردسرها کشیده ایم. خرید خانه برای ما رویایی است. ما مدام در حال رقابت بودیم. اما این فرآیند را پایانی هست؟ فکر می کنم ما در دوران سالخوردگی نیز برای بدست آوردن خدمات…