تقاطع اخلاق و فناوری
600 subscribers
371 photos
50 videos
13 files
167 links
مجله تلگرامی کارگروه اخلاق و فناوری اندیشکده مهاجر، دانشگاه صنعتی شریف
ارتباط با ادمین:

@behzadface
@Abootalebsaf
@Mahdi7khalili
Download Telegram
🎬معرفی ویدیو:☝️☝️☝️

🗂#نسبت_دین_و_فناوری #هوش_مصنوعی

ری کرزول (Ray Kurzweil) نویسنده، مخترع و آینده پژوه برجسته آمریکایی است. بیل گیتس رئیس شرکت مایکروسافت معتقد است که او بهترین فرد در جهان برای پیش بینی آینده هوش مصنوعی است. حضور جنجالی سال‌های اخیر او در شرکت گوگل نیز بسیاری را متقاعد کرده که این شرکت به دنبال گام‌های بلند در زمینه هوش مصنوعی است. او در آخرین کتاب‌های پرفروش اش پیش بینی‌هایی درباره ساخت ماشین‌های هوشمند غیرقابل تمیز از انسان در سال‌های آتی کرده و همچنین از بهسازی انسان با نانورباتها که می‌تواند به جاودانگی منجر شود صحبت نموده است. از نظر کرزول نه تنها میان این پیشرفت‌های فناورانه و مبانی مطرح در ادیان هیچ تضادی وجود ندارد بلکه فرآیند توسعه فناوری یک فرآیند روحانی است که در آن انسان‌ها هر چه بیشتر شبیه به خدا می‌گردند. او معتقد است انسان در نهایت فناوری‌های هوشمند خود را به تمام نقاط عالم تسری خواهد داد که آن نیز عملی کاملاً خداگونه است.

💡نکاتی برای تامل:

اگر بپذیریم چنین رویکردی در ادیان وجود دارد که از انسان‌ها می‌خواهد صفات خداگونه را در خود پروش دهند، آیا واقعا بهبود بخشیدن توانایی‌های جسمانی و حتی روانی انسانی به کمک فناوری به معنای شبه خدا شدن است؟ آیا دین مسیر استفاده از فناوری برای شبه خدا شدن را مجاز می‌داند یا مسیرهایی دیگری را برای این کار معرفی نموده است؟
🎬معرفی ویدیو: ☝️☝️☝️

🗂#نسبت_دین_و_فناوری #هوش_مصنوعی #بهسازی

کریستن برگر (Christian Brugger) یک پژوهشگر برجسته در زمینه اخلاق و الهیات مسیحی است. او دکترای خود را در اخلاق مسیحی از دانشگاه آکسفورد اخذ نموده و بیشتر از 200 مقاله و کتاب در موضوعاتی همچون اخلاق زیستی، اخلاق جنسی، نظریه قانون طبیعی در اخلاق، و همین طور حوزه‌های میان رشته‌ای مانند روانشناسی و انسان شناسی مسیحی دارد. او در این ویدیو به نقد نظرات و پیش بینی‌های کرزول می پردازد. برگر از شتاب پیشرفت های فناورانه و عقب افتادن تحلیل های اخلاقی از آن ابراز نگرانی می‌کند و معتقد است آنچه در نظر بسیاری از متفکران الهی حائز اهمیت بوده تعالی شخصیتی است و نه بهسازی 0توانایی های انسان. همچنین او بیان می کند پاسخ دین به برخی از سوالات بنیادین انسان با پاسخ هایی که فناوری برای آن‌ها فراهم می کند کاملاً متفاوت است. در نهایت برگر ایده ری کرزول درباره ساخت ماشین‌هایی هوشمند کاملا شبیه انسان را غیر عملی می داند.
🎬معرفی ویدیو:☝️☝️☝️

🗂 #هوش_مصنوعی

یکی از رویداد هایی که در ماه‌های اخیر جنجال فراوانی ایجاد نموده تریلری است که واتسون، ابر کامپیوتر شرکت IBM برای یک فیلم علمی- تخیلی ترسناک با محوریت هوش مصنوعی ساخته است. این ابر کامپیوتر که خود مجهز به هوش مصنوعی فوق العاده قدرتمندی است، با تحلیل جزء به جزء صحنه‌های فیلم مورگان (Morgan) به ایده‌ای برای ساخت تریلر دست یافته است. این تریلر در ظرف یک روز ساخته شده در حالی که برای آماده سازی یک تریلر به صورت عادی به 10 تا 30 روز زمان لازم است. تریلر تولید شده که در نوع خود بی نظیر است بسیار چشمگیر و وهمناک به نظر می رسد. در ویدیو فوق این تریلر به همراه صحبت‌های کارگردان فیلم و محققان هوش مصنوعی شرکت IBM درباره نحوه تولید آن و همچنین امکان خلق آثار هنری توسط هوش مصنوعی آمده است
🎬 معرفی ویدیو☝️☝️☝️

🗂 #هوش_مصنوعی

پروفسور نیک بوستروم (Nick Bostrom) استاد فلسفه در دانشگاه اکسفورد است که از او بیش از 200 کتاب و مقاله در موضوعات گوناگونی همچون اخلاق بهسازی انسانی، خطرات هو ش مصنوعی ، سودگرایی و غیره به چاب رسیده است. او در سال های 2009 و 2015 به انتخاب نشریه فارین پالسی به عنوان یکی از 100 متفکر برتر جهان معرفی شد. در سال‌های اخیر بوستروم تاملات خود را بر ریسک هایی که هوش مصنوعی برای زندگی بشر در پی خواهد داشت متمرکز کرده است. در همین زمینه کتاب پر فروش «ابرهوش: راه ها، خطرات، راهبرد‌ها» از او منتشر شده است. افکار این فیلسوف محدود به فضای فلسفی و علمی باقی نمانده و افراد پیشرو در فناوری همچون ایلان ماسک و بیل گیتس تحت تاثیر بوستروم از خطرات گسترش هوش مصنوعی ابراز نگرانی کرده اند.

بوستروم در سخنرانی فوق بیان می‌کند اگرچه هوش مصنوعی هم اکنون فاصله بسیار فراوانی با هوش انسانی دارد اما با تلاش فراوان محققان این حوزه و ظهور مدل‌های جدید همچون یادگیری ماشین امید می‌رود که هوش مصنوعی بتواند با هوش انسانی معادل گردد. اما هوش مصنوعی به هیچ وجه در آن سطح متوقف نخواهد شد و به سرعت هوشمندی و قدرت خود را افزایش می‌دهد که این می‌تواند اثرات مخربی داشته باشد به خصوص اگر هوش مصنوعی را به عنوان یک فرآیند بهینه سازی برای رسیدن به یک هدف در نظر بگیریم. در واقع در طی این فرآیند بهینه سازی هوش مصنوعی می‌تواند از ابزار‌ها و وسایل به نحوی کمک بگیرد که با بسیاری از ارزش‌های ما در تناقض قرار گیرد. از نظر بوستروم محدود کردن هوش مصنوعی ممکن نیست و ما هیچ گاه نباید به تواناییهایمان برای نگه داشتن غول هوش مصنوعی درون چراغ مطمئن باشیم چرا که او در نهایت فرار خواهد کرد!. ازین رو معتقد است تنها راه ما برای مواجه با چنین وضعیتی خلق هوش مصنوعی است که از ابتدا مبتنی بر ارزش‌های ما عمل کند و به دنبال اجرای اقداماتی باشد که پیش بینی می کند ما آن را تایید می‌کنیم. اگر چه این ایده با دشواری هایی روبرو است اما بوستروم خوشبین است ما بتوانیم این کار را انجام دهیم و این کار بزرگترین لطفی است که در حق نسل‌های آتی بشر خواهیم کرد.
🎬 معرفی ویدیو: ☝️☝️☝️

🗂#هوش_مصنوعی

سم هریس، نویسنده، فیسلوف و نوروساینتیست مشهور در این ویدیو درباره خطر توسعه هوش مصنوعی بدون توجه به پیامدهای آن هشدار می‌دهد. هریس این نظر که ابر هوش مصنوعی یک امکان بعید و شاید نا ممکن است را رد می کند. او به سه پیش فرض اشاره می‌نماید که هم اکنون محقق اند و لذا ما به نقطه‌ای خواهیم رسید که منجر به ساخته شدن ابر هوش مصنوعی خواهد شد. اولاً فرضی که هوشمندی را با میزان توانایی در پردازش اطلاعاتی مرتبط می سازد، دوم این که ما به بهبود ماشین های هوشمند فعلی خود ادامه خواهیم داد زیرا برای حل مشکلاتمان به آن ها نیازمندیم، و سوم این که ما در نقطه نهایی هوشمندی نایستاده ایم و هوشمندی می تواند بسیار فراتر از هوش انسانی برود.
از نظر هریس ابر هوش مصنوعی نوع رفتاری را با ما خواهد داشت که ما با مورچه ها داریم . ما در خیلی از موقعیت ها برای حفظ امنیت مورچه ها خود را به زحمت می‌اندازیم ولی در جایی که اهدافمان در تضاد قرار می گیرد به سرعت آن‌ها را قلع و قمع می‌کنیم. حتی اگر بهترین سناریو در مورد هوش مصنوعی را در نظر بگیریم که هیچ تهدید امنیتی برای جان انسان ها نداشته باشد تبعات اقتصادی به علت بیکاری گسترده و تبعات سیاسی که مربوط به جنگ سرد دیگر برای دست یابی به این فناوری است، مجدداً ما را تهدید می‌کنند.
محققان هوش مصنوعی تلاش می کنند بگویند ما با ابر هوش مصنوعی بیش از 50 سال فاصله داریم و لذا در حال حاضر نباید نگران چنین اموری باشیم. اما از نظر هریس اشاره به افق زمانی کاملا بی معناست چرا که ما به طور مداوم در حال بهبود ماشین های هوشمند هستیم و هیچ ایده ای نداریم که چگونه این فناوری را به صورت ایمن در آوریم. از نظر هریس ما به چیزی بزرگتر از پروژه منهتن برای هوش مصنوعی نیاز خواهیم داشت برای این که بفهمیم چگونه از یک مسابقه تسلیحاتی عظیم جلوگیری کنیم و این که چگونه آن را با منافعمان همسان سازیم.
🎬معرفی ویدیو:☝️☝️☝️

🗂#هوش_مصنوعی

زینپ توفیکچی (Zeynep Tufekci) جامعه شناس تکنولوژی و عضو هیئت علمی دانشگاه کارولینای شمالی است. او در این ویدیو به مبحثی با عنوان اخلاق الگوریتم (Algorithm Ethics) می‌پردازد . ما سال هاست از الگوریتم ها و هوش ماشینی در کارهای محاسباتی خود مانند ساخت پل ها یا تولید هواپیماها استفاده می‌کنیم. در همه این امور معیارهای پذیرفته شده و قوانین طبیعت راهنمای ما هستند. اما با پیچیده تر شدن این الگوریتم‌ها و به خصوص با ظهور یادگیری ماشینی( Machine learning) جا برای استفاده از این الگوریتم‌ها در امور آشوبناک مربوط به حوزه انسانی نیز باز شده است. توفیکچی با بیان ایرادات و مثال‌هایی از الگوریتم‌های استخدامی، الگوریتم‌های مربوط به تشخیص خلافکاران و هوش مصنوعی خبر خوان فیس بوک نشان می‌دهد که چرا نمی‌توانیم مسئولیت قضاوت‌های انسانی را بر دوش آن ها بگذاریم. نخست این که ما نمی‌دانیم آن‌ها دقیقا بر اساس کدام یک از اطلاعات در حال دسته بندی کردن افراد هستند در واقع آن‌ها تبدیل به جعبه سیاه‌هایی می‌شوند که ما از از درون آن‌ها بی اطلاعیم، دوم این که بر خلاف تصور ما، الگوریتم‌ها به صورتی ابجکتیو و خنثی فرآیند انتخاب را انجام نمی‌دهند بلکه آن‌ها صرفاً بازتاب‌دهنده‌ها تمایلات و سوگیری‌های ما هستند، و دست آخر این که هوش مصنوعی گاهاً دچار اشتباهاتی می‌شود که هیچ گاه توسط یک انسان انجام نخواهد شد. در چنین وضعیتی توفیکچی بیان می‌کند که ما اجازه نداریم مسئولیت‌های اخلاقی خود در امور انسانی را به هوش ماشینی محول کنیم و تنها مجازیم برای بهبود تصمیم گیری ها از آن ها سود ببریم. از نظر او در جهانی که هوش مصنوعی هر روز در حال رشد است ما بیش از پیش نیازمند توجه به ارزش ها و اخلاق انسانی هستیم.
🎬 معرفی ویدیو:☝️☝️☝️

🗂 #هوش_مصنوعی

ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️

🗂#هوش_مصنوعی

عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد

منبع:MSPU (ترجمه از وب سایت دیجیاتو)

هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.

با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.

حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد

پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.

در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.

اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🗣خبر ☝️☝️☝️

🗂 #هوش_مصنوعی

🔴 عنوان: چت بات جدید فیسبوک برای رسیدن به اهدافش می تواند دروغ بگوید!

📌 منبع:engadget (ترجمه حمید مقدسی از وبسایت دیجیاتو)


چت بات ها تا به امروز پیشرفت زیادی را تجربه کرده اند، اما کاربرد آنها در زندگی روزمره بسیار محدود است و به مواردی همچون سفارش پیتزا یا پرداخت مبالغ جزئی ختم می شود. حال فیسبوک بات جدیدی را ساخته که توانایی مذاکره، اتخاذ تدابیر استراتژیک، و برنامه ریزی در روند مکالمه را دارد.

همان طور که می دانید درک مکالمه در سطح انسان برای کامپیوترها بسیار دشوار است و تلاش ها در این زمینه با موفقیت چندانی همراه نبوده. برای دستیابی به این هدف، دانش فوق العاده گسترده ای در کنار توانایی انطباق و سازگاری سریع و دقیق مورد نیاز است. محققین مرکز تحقیقات هوش مصنوعی فیسبوک (FAIR) تکنیک جدیدی را توسعه داده اند که بر اساس آن بات ها می توانند با موفقیت در انواع گفتگوهای انسانی شرکت کنند، و به عبارتی با انسان مذاکره نمایند.

محققین FAIR برای تحقق اهداف خود، از گفتگوها و مذاکرات واقعی بین انسان ها به عنوان منبع آموزش بات استفاده کرده اند. آنها مجموعه ای از آیتم ها، مثلاً چندین کتاب، توپ و کلاه را ارائه کردند، به گونه ای که هرکدام از این وسایل برای هر یک از افراد ارزش متفاوتی داشت. پس از آن افراد با یکدیگر مذاکره کردند تا بتوانند آیتم ها را بین خودشان تقسیم کنند.

در مرحله بعد، یک مدل شبکه عصبی راجعه (Recurrent Neural Network) با تقلید راهکارها و حرکات انسان در حین مذاکره، آموزش یافت و توانست این مهارت راهبردی را بیاموزد. البته پژوهشگران FAIR به این هم قناعت نکردند. آنها به سیستم اجازه دادند تا نحوه دستیابی به اهداف مذاکره را آزموده و در صورت رسیدن به نتیجه مطلوب، این روش ها را تقویت نماید.

در نهایت بات ها در تقابل با انسان قرار گرفته و به گفته فیسبوک، اکثر افراد متوجه نشدند در حال گفتگو با یک بات هستند. این موضوع نشان می دهد درک محتوا و توانایی مکالمه این بات ها به سطح بسیار بالایی رسیده است. محققین برای دستیابی به این سطح از مهارت کلامی و زبانی، از روشی موسوم به «Dialogue rollouts» استفاده کردند که توانایی طرح ریزی درازمدت گفتگو را به بات می دهد.

با استفاده از این رویکرد، بات می تواند یک گفتگوی فرضی را متصور شده و آن را تا انتها شبیه سازی کند تا ببیند آیا به نتیجه دلخواهش می رسد یا خیر. این کار باعث می شود جملات و عبارات بی هدف و بی نتیجه از فرایند مذاکره حذف شده و تنها مواردی به کار گرفته شوند که در دستیابی به هدف مطلوب نقش دارند.بات ها با بهره گیری از روش فوق می توانند مذاکره را با قطعیت بیشتری پیش برده و پیشنهاد نهایی خود را بسیار دقیق تر و بهتر از موارد مشابه ارائه کنند. در صورت نیاز، بات می تواند از جملاتی که بر اساس آنها آموزش دیده، فاصله گرفته و عبارات جدیدی را تولید کند.

در روند آزمایشات موارد عجیب و بی سابقه ای از تدابیر استراتژیک مشاهده شد. مثلاً بات ها نسبت به آیتمی که هیچ ارزشی برایشان نداشت، به صورت دروغین ابراز علاقه کردند تا در مرحله بعدی بتوانند آنها را با آیتم های ارزشمندتر معاوضه نمایند. فیسبوک در بیانیه خود می گوید این نوع رفتار به هیچ وجه توسط محققین برنامه ریزی نشده، و بات ها خودشان برای دستیابی به اهداف، به کشف آنها نایل آمدند.

این دستاورد در حوزه هوش مصنوعی و توسعه بات ها بسیار ارزشمند است و فیسبوک می گوید که از این فرایند می توان برای هوشمند تر کردن دستیارهای دیجیتالی بهره گرفت. این کمپانی نتایج تحقیقات خود را به صورت مکتوب منتشر ساخته و کدهای مرجع آن را نیز به صورت رایگان عرضه می نماید.
📝 یادداشت


هاوکینگ و هوش مصنوعی
✏️ مهدی خلیلی

🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.

🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.

🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.

🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.

🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP


چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo


🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.

@ethics_technology
This media is not supported in your browser
VIEW IN TELEGRAM
آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟
#سخنرانی_TED
————————
🆔: @ethics_technology
❇️: @AI_Python
تقاطع اخلاق و فناوری
آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟ #سخنرانی_TED ———————— 🆔: @ethics_technology ❇️: @AI_Python
🗒 آیا #هوش_مصنوعی می تواند انسانیت ما را نجات دهد؟
#سخنرانی_TED

🔹 کم تر کسی این نکته را انکار می کند که ارزش های نظام سرمایه داری، معنای هستی شناسانه‌ی انسان را به طور تنگاتنگی با مفهومی به نام «کار» گره زده است. مفهومی که به بهانه آرامش، ما را در تلاطمی بی پایان غرقه می سازد و از انسان ها جنگجویانی می سازد که باید بتوانند از این تلاطم، جان سالم به در ببرند. تصور دنیایی که در آن جایگاهی برای رقابت های کاری وجود نداشته باشد، بسیار غریب به نظر می رسد. شاید غریب تر باشد اگر از جایگزینی عشق و مهربانی به جای رقابت صحبت کنیم. بله غریب است، چرا که هر کدام از ما خود را بر سر یک دوراهی می بینیم؛ یا باید گلادیاتوری پیروز بمانیم یا طعم اسارت و آوارگی را در زندگانی بچشیم.

🔸 اما شایسته است که یک بار دیگر به این مسیر طی شده نگاه کنیم. مگر نه آن است که همه‌ی آن چه تا به حال، دستاورد انسانی نامیده شده است، قرار بود برای انسان آرامش به ارمغان بیاورد؟ به راستی آیا دنیایی که در آن روزمرگی جای خود را به خلاقیت و محبت بدهد، ارزش بیشتری برای زندگی ندارد؟ اگر تصادفاً به ما انسان ها، مرهمی ارزانی شود که بتواند زخم های این نبرد طاقت فرسا را علاج کند، آیا نباید این #نعمت_تصادفی را قدر دانست؟

🔹 کای فو لی(Kai-Fu Lee)، متخصص هوش مصنوعی در سخنرانی TED، معنای جدیدی از زندگی را به بشر معرفی می کند. معنایی که می تواند انسان را به آرمان شهری برساند، که روزگارانی دراز، امیدهای بسیاری در پی دست یابی به آن به یأس بدل شده بود. معنایی که شاید بتواند انسانیت از دست رفته‌ی انسان را نجات دهد.
————————————
🆔: @ethics_technology
❇️: @AI_Python
تقاطع اخلاق و فناوری
سومین پیش‌نشست «مدرسه زمستانی هوش مصنوعی؛ فلسفه، اخلاق و جامعه» 🔷انسان و ابرهوش؛ زندگی در فضای تکینگی چگونه خواهد بود؟ 🔶ارائه: زهرا خندان ▫️سه‌شنبه ۲۰ آذر، ساعت ۱۶ 📍مکان جلسه متعاقبا اعلام خواهد شد. ▪️لطفا در صورت عدم ثبت مشخصات خود برای ورود از خارج دانشگاه،…
🔺معرفی اجمالی
سومین پیش‌نشست «مدرسه زمستانی هوش مصنوعی؛ فلسفه، اخلاق و جامعه»

🔷انسان و ابرهوش؛ زندگی در فضای تکینگی چگونه خواهد بود؟
🔶ارائه: زهرا خندان
▫️سه‌شنبه ۲۰ آذر، ساعت ۱۶
📍سالن اجتماعات گروه فلسفه علم

🔺پیشرفت تکنولوژی در سده ۲۱ام شتاب زیادی داشته و در این میان سهم "#هوش_مصنوعی" در این پیشرفت چشمگیر بوده است. نرم‌افزارها، ربات‌ها و موتورهای جست‌و‌جوگر در زمینه‌های مختلف، از خدمات روزمره تا سریع‌ترین محاسبات بسیار توانمند شد‌ه‌اند و برخی از انسان هم پیشی گرفته‌اند و دور از ذهن نیست که حتی از انسان گذشته و به "ابرهوش" برسند. "#تکینگی" نامی است که برای آینده مبهم انسان و ابرهوش برگزیده‌اند، عصری که شاید انسان تنها یکه‌تاز جهان پیرامونش نباشد.

❗️ماشین‌های خودکار و کامپیوترهای هوشمند تا کجا پیشرفت خواهند کرد؟ آینده انسان در مواجهه با "ابرهوش" چگونه رقم خواهد خورد؟ بشر در جهان پس از تکینگی چگونه خواهد زیست؟

———————
🆔: @ethics_technology
❇️: @philsharif
#اطلاعیه

❗️ کارگروه اخلاق و فناوری اندیشکده مهاجر از کلیه‌ی مخاطبان محترم کانال تقاطع و فناوری، به خصوص دانشجویان، پژوهشگران به منظور #تولید_محتوا در زمینه‌ی فلسفه و اخلاق فناوری(به طور خاص فناوری‌های ارتباطاتی، #هوش_مصنوعی و #اینترنت_اشیاء) دعوت به همکاری می‌نماید.

🔰 جهت کسب اطلاعات بیشتر به آیدی زیر مراجعه بفرمایید:
🆔: @Behzadface

———————
🆔: @ethics_technology