Между Небом и Землей
1.55K subscribers
438 photos
13 videos
46 files
778 links
Канал Петра Левича. Пишу здесь о том, как я чувствую жизнь и приглашаю в различные опыты.

Написать мне: @peterlevich
Download Telegram
Немного инсайтов об исследовательском проекте OpenAI - сколько денег и кому предлагал, кто курировал встречи. И вообще история создания проекта.

А ситуация на самом деле очень крутая. Помните шумиху, поднятую Маском и другими про то, что ИИ опасен? Вот надо отдать должное Маску, вслед за словами он делает дела. OpenAI - как раз ответ на эту угрозу. Он будет исследоватеть ИИ и сразу делится всеми наработками с миром, чтобы как только/если ИИ появится, он появился не один, а появилось сразу много ИИ в разных уголках мира. Это не панацея, но конкуренция между этими ИИ даст (возможно) хоть немного времени человечеству в условиях "угрозы нулеового дня"

Но есть и другое мнение: Ник Бостром, оксфордский философ, который как и Маск предупреждал об опасностях ИИ, указывает, что если вы делитесь исследованиями без ограничений, «плохие актеры» могут схватить их до того, как все убедятся в их безопасности. «Если у вас есть кнопка, которая делает дрянь в мире, — говорит Бостром, — вы вряд ли захотите дать к ней доступ каждому». Если же, с другой стороны, OpenAI решит придержать исследования, чтобы к ним не получили доступ плохие парни, Бостром спрашивает: а чем это будет отличаться от Google или Facebook?

Он говорит, что да, некоммерческий статус OpenAI может изменить положение вещей, а может и не изменить. Реальная сила проекта, говорит он, в том, что он сможет обеспечить проверку Google и Facebook. «Он сможет уменьшить вероятность того, что сверхинтеллект будет монополизирован. Он сможет убрать одну из возможных причин, почему некоторые лица или группы получат доступ к более качественному ИИ, чем все остальные».

В одной из последних работ философ объясняет, что основной эффект инициативы вроде OpenAI — инициативы свободно делиться своими наработками — состоит в ускорении прогресса искусственного интеллекта, хотя бы в краткосрочной перспективе. И он может ускорить прогресс в долгосрочной перспективе, при условии, что будет соблюден более высокий уровень открытости, чем было бы коммерчески оптимально.

http://hi-news.ru/technology/osvobodit-iskusstvennyj-intellekt-openai-bezumnyj-plan-elona-maska.html
Те темы, о которых здесь мы с вами говорим, я стараюсь осветить на семинарах, которуые провожу в Московском технологическом инстиуте. Следующий пройдет 11 мая в 19:30.

Регистрация: https://futuref.timepad.ru/event/export/325867/html/

Докладчик: Александр Сергеевич Мишура — аспирант Школа философии НИУ ВШЭ. Область научного интереса: модели индетерминистической каузальности в аналитической метафизике действия.

Доклад: "Этическая нейтральность технологий"

Эти семинары будут проходить в среднем раз в две недели.

Тематика семинаров:
- Социальные барьеры развития технологий
- Социальные риски технологий
Если вы хотите принять участие с докладом, напишите мне.

Регистрация: https://futuref.timepad.ru/event/export/325867/html/
Как создать моральную машину?

Можно действовать напрямую: во-первых, принять решение о конкретном этическом законае (максимизировать счастье, к примеру), написать код для его реализации, и создать робота, который строго следует коду.

Но трудности возникают в момент принятия конкретных решений с учетом наперед заданного этического закона. Например, если робот будет максимизировать счастье, будет ли он забирать органы от одного человека, чтобы спасти пятерых?

Второй вариант заключается в создании робота на машинном обучении и дать ему возможность научиться, как реагировать на различные ситуации, с тем, чтобы прогнозировать этические исходы. Это похоже на то, как люди учатся морали. Хотя это поднимает вопрос о том, являются ли люди, на самом деле, лучшими нравственными учителями. Думаю, в каждого в жизни было немало возможностей в этом усомнится.

Как пример трудностей этого варинта можно вспомнить недавнюю историю чат-бота Microsoft, который после общения в твиттере стал сторонником Гитлера.

А стоит ли вообще делать роботов, способдных к принятию этических решений?
Вообще, быть может, они для этого подходят даже лучше, чем мы: люди являются продуктом естественного отбора, и он встроил в нас мыслительные паттерны, являющиеся корыстными или, по крайней мере, ведущие к действиям в интересах нашей группы против другиз. Они направлены на то, чтобы быть в состоянии выжить как вид. Роботы же лишены этих качеств.

http://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/
Побеседовали с философом Александром Мишура об этической нейтральности технологий.

На самом деле диктофонная запись беседы на 40 минут, но пока - промо-версия разговора.

А 11 мая в 19:30 Александр выступит с этой темой на семинаре https://futuref.timepad.ru/event/325867/ в Московский технологический институт «ВТУ», приходите, будет интересно.
Forwarded from Apparat
Действительно ли технологии управляют нами? Можем ли мы контролировать их развитие? На кого ложится ответственность за изобретения? Эти вопросы обсудили для Apparat аспирант Школы философии НИУ Высшей школы экономики Александр Мишура и директор департамента взаимодействия науки, технологий и общества Московского технологического института Петр Левич (@peterlevichchannel).

http://apparat.cc/human/technology-ethics/
Если кратко - он решал диффуры, женщина увидела в них "странные символы и вычисления".

Мне вся эта история напоминает описанные многими фантастами (Азимов "Основание", например) сюжет, когда из-за большого разрыва в образованности в обществе, наука сакрализируется, ученые считаются монахами и магами большей частью общества, инженерные объекты (атомные электростанции, например) становятся предметами культа, храмами, дарующими магическую энергию.
Весело, в общем.

https://geektimes.ru/post/275504/
Еще на один шаг ближе к персональным интеллектуальным агентам. Это тот аспект ИИ, с которым мы все столкнемся очень скоро.

Недавно вот нужно было найти отель с количеством звезд на букинге не менее N и чтобы рядом был ресторан с количеством звезд на форсквере не менее P. И чтобы дизайн в отеле был как нравится.

Очень неудобно решать эту проблему (а это классическая проблема оптимизации) вручную через два приложения. Кейс как раз для таких персональных интеллектуальных агентов, и принципиально важен в них deeplerning - чтобы они знали что значит "нравится дизайн" именно для меня.

Из статьи:
В конференц-зале Сан-Хосе, городе стартапов, группа инженеров решила заказать себе пиццу необычным способом. Один из сотрудников наклонился к смартфону и произнес: «Хочу пиццу из Pizz'a Chicago рядом с офисом». Это их первый реальный тест искусственного интеллекта Viv, над которым команда работает уже год.
Через 40 минут, после того как Viv несколько раз ошиблась с адресом офиса, курьер привёз пиццу. Когда это случилось, команда взорвалась аплодисментами. Они сделали заказ без единого звонка, без поиска в Google, вообще не обращаясь к клавиатуре. Мало того, никто даже не думал устанавливать для этого специальные приложения.

Лонгрид на русском: http://rusbase.com/longread/viv/
Новость на английском: http://techcrunch.com/2016/05/09/heres-what-viv-looks-like-the-next-generation-ai-assistant-built-by-siri-creator/
Ассистентом профессора Georgia Tech стала программа IBM Watson. Это был эксперимент профессора. В обязанности ассистента входит напоминать про дедлайны по эл почте и прочие орг вопросы. Программа была обучена на 40000 записях студенческого форума. Никто из учеников не заметил разницы.

http://www.theverge.com/2016/5/6/11612520/ta-powered-by-ibm-watson
Химики из Хаверфордского Колледжа и Университета Пердью в США разработали систему машинного обучения, которая позволяет предсказать результат химической реакции на основе базы данных, собранной из лабораторных журналов исследователей. Точность предсказания системы (по крайней мере по одному типу реакций), достигла и даже превысила предсказательные способности профессиональных химиков. Описание системы опубликовано в журнале Nature.

https://nplus1.ru/news/2016/05/05/neoneo
Расширенная версия моей статьи по этическим вопросам редактирования генома.
Добавил связь с философскими аспектами детерминизма.

Абстракт:
В статье рассматриваются один из сценариев развития технологий (прежде всего, редактирование генома и анализ коннектома), который изменят систему разделения труда и поставят перед системой образования новые задачи в непривычном для нее формате общества. Редактирование генома может привести к созданию предрасположенностей человека на этапе эмбриона к получению тех или иных компетенций.
В сочетании с учетом генетической карты человека при приеме на учебу, а впоследствии – и на работу, это приведет к ситуации генетического детерминизма профессиональной траектории, появлению «генетических каст». Также предложено описание философского контекста ситуации, а именно космологического и антропологически-этического детерминизма. Изменение философских предпосылок свободы выбора может изменить восприятие этих категорий в обществе, и, следовательно, в системе образования.

http://www.therunet.com/articles/6704
Коллеги, приглашаю вас на третье заседание семинара по взаимодействию технологий и общества 25 мая в 19:30, на котором выступит Максим Киселев - доктор социальной психологии, ментор и эксперт Фонда "Сколково" , ментор проектов Skoltech , эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.

Регистрация: https://futuref.timepad.ru/event/330501/

Максим расскажет о восприятии обществом новых технологий на примере дилеммы мирного атома. Несколько тезисов доклада:
- Грустный юбилей – 30 лет Чернобыльской катастрофы.
- Восприятие людьми технологических катастроф.
- Уроки Чернобыля и Фукусимы.
- Синдром NIMBY (Not In My Back Yard) и «культурный страх».
- Связь коммуникаций и реакции людей на ядерную энергетику.

Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330501/

Организаторы:
- Московский технологический институт
- Future Foundation
Коллеги, приглашаю вас на четвертое заседание семинара по взаимодействию технологий и общества 1 июня в 19:30, на котором выступит Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".

Регистрация: https://futuref.timepad.ru/event/330560/

Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.

Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330560/

Организаторы:
- Московский технологический институт
- Future Foundation
Forwarded from Apparat
25 мая в Москве пройдет третий семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.

Тема семинара: «Восприятие новых технологий на примере дилеммы мирного атома».

Спикер: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.

Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330501/

Участие бесплатное.
Стартап Luka выпустил чат-бота на основе переписки погибшего человека – бывшего арт-директора «Стрелки» Романа Мазуренко.

Чат-бот воссоздает образ Романа, используя данные из его переписки с друзьями, а также фотографии, статьи и посты в соцсетях. «Черное зеркало» наяву.

http://rusbase.com/news/black-mirror/?f