Между Небом и Землей
1.55K subscribers
438 photos
13 videos
46 files
778 links
Канал Петра Левича. Пишу здесь о том, как я чувствую жизнь и приглашаю в различные опыты.

Написать мне: @peterlevich
Download Telegram
Forwarded from Apparat
1 июня в Москве пройдет четвертый семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.

Спикер: Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".

Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.

Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330560/

Участие бесплатное.
Футурологичненько. Нужна космическая экспансия, а иначе он прав окажется.

Основатель Alibaba: через 200 лет людям законодательно запретят жить вечно

"С имеющимися технологиями и имеющимися данными, бьюсь о заклад, в ближайшие 30-40 лет человек раскодирует человеческое тело, мы будем жить дольше — мы решим проблемы рака. Может быть, через 200 лет будет закон о том, что ни один человек не должен жить больше 200 лет"

РИА Новости http://ria.ru/science/20160526/1439687294.html#ixzz49rjhWx2J
Мир абстолютной прозрачности наступает

...10 камер внутри ночного клуба: одна камера на входе - фиксирует всех входящих, девять камер для контроля посетителей.
На входе, кроме камеры, расположен киоск самообслуживания для верификации посетителей по ID, если верификация пройдена успешно (совершеннолетний, не забанен в клубе, адекватность не вызывает вопросов) в работу включается визуальный контроль, отслеживающий перемещение человека. Фиксируется все: сколько выпил, столкновение с другими участниками тусовки, процент агрессии и т.д. Если лицо часто перемещается по вертикальной линии (человек падает) или агрессивно себя ведет (отслеживается специальными алгоритмами) - охрана выводит такого посетителя. Драка внутри клуба - человек банится поданным ID и лицу...
Это реальный кейс который нам прислали на анализ: возьмемся за реализацию или нет. Страна - ЮАР.
Подумалось вдруг...

Пусть наша личность, сознание, "я" описывается состоянием коннектома (connectome) и метаболома (metabolome) в данный момент времени (совокупность и конфигурация всех нейронов, их связей, распределения зарядов, а также всех синапсов, молекул нейромедиаторов, гормонов и тд). Тогда, если рассмотреть нашу современную жизнь в целом, то для полного описания состояния нужно добавить третью составляющую: персональное цифровое окружение - профили в социальных сетях, вся информация из писем в ящике электронной почты, наши комментарии и ответы. Потому что мы в большой степени олицетворяем свою страницу в социальной сети с "я", ее конфигурация явно зависит от нашей личности. Доказать это можно попробовать от противного - если бы вы зашли в свой фейсбук и обнаружили бы, что кто-то отредактировал там раздел "информация о себе", которая не соответствует фактам вашей жизни - вы бы, конечно, чувствовали себя неудобно? Конечно, и по вполне рациональным причинам - это вводит в заблуждение друзей и коллег, но не только. Не только по рациональным, вы бы почувствовали будто кто-то влез к вам в голову и изменил что-то в вашем самосознании, разве нет?
Можно доказать это и не "изнутри", но и "снаружи": сейчас гораздо большее число людей составляет свое мнение о нас по цифровому следу, а не по личному общению. Пропорцию можно увязать кое-как с числом Донбара, но не разбираясь глубоко, эмпирически у меня это 10 к 1.

Можно назвать эту третью часть siliconome, по аналогии с теми двумя ome'ами. Силиконом.

Наверное, вскоре личность в целом даже юридически будет неотделима от силиконома. Это идет немного в разрез с анонимностью в интернете (которой я сторонник), но будем честны - в большинстве случаем мы и не хотим этого отделения, даже боимся его - см пример из предыдущего абзаца.

Ну а потом придет развитая AR и VR, deeplerning тоже доразовьется. И в момент того, как мы оффлайн, наш аватар - deeplerning интеллектуальный агент собранный и обученный на нашем силикономе - будет вполне себе активно действовать в VR-мирах. Не проявлять явной инициативы (все же мы пока не рассматриваем вариант "сильного ИИ"), но так ли часто мы будем проявлять в VR явную инициативу? Не думаю, что его внутри VR можно будет отличить от аватара, управляемого человеком онлайн.

В целом, технологический пакет для этого уже почти собран - нейронные сетки обучаются на записях с форума и обманывают студентов, обучаются на архиве электронной почты и ведут сами каналы в телеграме и так далее.

И тут возникает интересный момент со смертью. Умирает только коннектом и метаболом. Силиконом живет себе сколь угодно долго, а обученный на нем deeplearning агент может активничать в VR не хуже прежнего. В этом ограниченном смысле цифровое бессмертие возможно. Приходишь на сервер VR и далеко не сразу можешь понять, сколько процентов от его "жителей" - обученные на силикономе уже мертвого человека нейронные сетки. Думаю, здесь первый раз в истории, слово "призрак" можно будет употреблять без всякого смещенного смысла.
Неожиданно в российском ГИБДД думают и про ответственность за ДТП беспилотников, и про то, что это снизит количество аварий только в случае распределенной интеллектуальной транспортной системы. Радует.

"Отсутствие нормативной базы и законов, регламентирующих использование и владение беспилотными автомобилями, ставит перед госорганами задачу "скорейшей регламентации таких правил", говорят в ГИБДД России. Тема эксплуатации автономных транспортных средств активно обсуждалась в пятницу участниками форума по обеспечению безопасности дорожного движения. В Госавтоинспекции призывают заранее позаботиться о том, кто будет нести ответственность за ДТП с участием автономных машин или, например, уголовные преступления, совершенные с помощью беспилотников."

Подробнее: http://www.kommersant.ru/doc/3000209
Я уже рекомендовал всем сериал Person of Interest? Вроде нет.
Он замечателен. Про то же, про что мы тут постоянно: privacy, прозрачный мир, ко-наблюдени, сингулярность.

Кратко: спецслужбы сделали ИИ, который имеет доступ ко всем камерам, микрофонам телефонов, переписке - то есть ко всему силиконому (см мой предыдущий пост https://goo.gl/nKMCYr), но и не только. Так сказать к коллективному силиконому человечества.
Этот ИИ делал очень харизматичный профессор (который еще и стильно одевается - см картинки к посту), он думал этике этого ИИ (вообще очень много размышлений о кодификации этики (привет Pavel Luksha)). И этот ИИ был "добрым и хорошим".

Что-то пошло не так и спецслужбы сделали второй ИИ - и он как раз решил (как в любом нормальном scifi), что ради счастья человечества нужны жесткие меры.

Жанр всего этого - боевик, что немного принижает уровень повествования, но все равно очень неплохо. Это, конечно, не Черное Зеркало и не Каприка (о них еще напишу) и не Стар Трек, но из современного - рекомендую.
Про отношения человека и технологий. Это фрагмент "Лесного пути" Эрнста Юнгера в переводе одного из наших спикеров департамента STS МТИ и Future Foundation Александра Мишуры.

"Лесной путь нельзя понимать как направленную против мира машин форму анархизма, хотя искушение к этому и велико, особенно если одновременно стремятся создать связь с мифом. Мифическое несомненно придет и уже на подступах. Оно вообще всегда на месте и в добрый час словно сокровище восходит на поверхность. Однако мифическое отталкивается именно от высочайшего, вознесшегося движения как иной по отношению к нему принцип. Движение в этом смысле является лишь механизмом, криком рождения. К мифическому не возвращаются, с ним вновь встречаются, когда время колеблется в своих устоях, а человек находится в области величайшей опасности. Кроме того, неверно говорить: «виноградная лоза или…», но верно говорить: «виноградная лоза и корабль». Растет число тех, кто хочет покинуть корабль, среди них есть ясные головы, и добрые души. По сути это означает сойти с корабля в открытое море. За этим последует голод, каннибализм и акулы, короче говоря, все страхи, известные нам по плоту «Медузы». Потому в любом случае благоразумно оставаться на борту, даже ценою опасности взлететь с ним на воздух."
Библиотека материалов по образованию в области этики технологий и научной этики от Технологического Института Иллинойса.

В том числе:
- case study распределенные по предметным областям, дисциплинам и уровню аудитории
- образовательные методики и программы по этике, разработанные профессорами университетов США и всего мира
- практические методологии - как преподавателю начать говорить с аудиторией об этике в области техники, как отвечать на вопросы.
- методы оценки эффективности образовательных программ

http://ethics.iit.edu/eelibrary/
Доклад Президентской комиссии США по изучению проблем биоэтики (Presidential Commission For The Study Of Bioethical Issues): "Биоэтика для каждого поколения - дискуссия и образование в области медицины, науки и технологий".

Вот вы думаете о чем большая часть этого документа? Не о самой биоэтике, а о этических принципах публичных дискуссий на эту тему, о методах групповой работы на таких дискуссиях. И сначала я посмотрел и мне показалось, что это уж очень очевидные вещи говорят, но потом, вспомнив недавно найденную мною статью про обсуждение СПИДа в России (http://kommersant.ru/doc/3000818), я понял, что авторы доклада очень правы.

Краткое содержание:

Принятие решений в области биоэтики должно основываться на демократических принципах и учитывать как мнение экспертного сообщества, так и гражданское общество. Государственные и муниципальные органы должны организовывать такие публичные дискуссии, при этом стимулировать в этих дискуссиях взаимопонимание и уважение между участниками. Организатор дискуссии должен заложить определенный стиль и уровень обсуждения - подтверждение позиции каждого участника научными фактами, уважение, но в то же время критическое отношение к этим фактам со стороны других участников.

Очень хорошая мысль: мы уже не можем не решать этические проблемы, избежать этого выбора. Они касаются каждого из нас. И продолжают они тем что учить этике нужно со школы.

Вот замечательное место: учащимся старших классов начальной школы может быть предложено сравнить теории, к которым пришла науки по сравнению с теми, которые появились в рамках иных методологий. Или рассуждать на тему детерминизма, отвечая на такие вопросы как, например: "Являются ли наше будущее и судьба предопределенной?", "Оказывает ли то, что мы делаем сегодня влияние на то, что произойдет завтра?".

Общественные дискуссии имеют и образовательное значение, а само образование стимулирует повышение качества дискуссий. Это взаимное дополнение форматов является крайне важным.

Также комиссии по биоэтике должны производить просветительские брошюры, причем не только для экспертного сообщества, но и для широкой общественности.
Портал с образовательными материалами по этике для инженеров, ученых, преподавателей, студентов и вообще всех заинтересованных в ответах на вопросы, возникающие в области взаимодействия науки и технологий с обществом.

Например, запись из раздела их форума по Case Study: "Дилемма ДНК": один ученый проводил исследования ДНК у пациентов с раком молочной железы случайно увидел, что его коллега взял немного его образцов ДНК для использования в виде контрольной группы своего нейробиологического исследования. В форму согласия первого ученого, которую он подписывал с пациентами при сборе их ДНК, не входит такое использование их биологических материалов.
Ну и дальше в комментариях они обсуждают как нужно поступить.

http://www.onlineethics.org/
Про мораль роботов и однополый браки

Друзья, это замечательно! Статья "Как создать морального робота?". Кратко: описывается идея создать семантическое поле выражений, фраз и слов, в общем - смыслов, которыми люди оперируют при описании моральных решений. А дальше обучить робота на этой базе.

Но самое печально-интересное в этой статье - это второй комментарий от некого эксперта по кибер-безопасности Бифа Хенерсона. Если бы это был российский сайт, я бы подумал, что это бот из Ольгино. А здесь - вот даже не знаю, всерьез ли он - комментарий наполнен клеше до степени карикатурности. Вот дословный перевод:

"Кто решает что правильно, а что не правильно? Как мне кажется, американское общество потеряло свой путь. Я определенно не хочу, чтобы оно [американское общество] закладывало свою систему ценностей в моего робота. Мужчины вступают в брак с мужчинами, убивают детей, позволяют мужчинам находиться в публичном душе с маленькими девочками, безнаказанно употреблять наркотики, нарушаются иммиграционные законы и так далее... Надеюсь, роботы будут разделять истинные ценности, такие, которые определили наши бабушки и дедушки"

http://spectrum.ieee.org/video/robotics/robotics-software/how-to-build-a-moral-robot
Эту статью все уже наверняка прочитали, но тем не менее, тезисно:

- страхи перед появлением ИИ Маск теперь сфокусировал только на компании Google ("если мы его правильно поняли")
- Про киборгизацию: "Мы уже являемся киборгами. У вас есть цифровая версия себя, частичная версия собственной личности в онлайне в форме ваших электронных писем, ваших социальных медиа и всех ваших действий." Тут я не могу не отметить, что, видимо, Маск читает мой фейбук, потому что за пару дней до его выступления я писал примерно это в заметке про Силиконом)) вот: https://goo.gl/nKMCYr
- единственное ограничение на процесс киборгизации - это скорость интерфейса мозг-компьютер. Сейчас - это ввод пальчиками по клавиатуре. Должно быть - нейроинтерфейс. Тогда мы будем не конкурировать с ИИ, а работать вместе (теория "кентавров"). Это одно из решений проблемы противостояния с ИИ.
- про симулятор реальности - все уже слышали. Как минимум круто, что человек уровня Маска может себе позволить говорить такие смелые идеи (он сказал, что возможно мы живем с симуляторе реальности). Представьте, чтобы кто-то из российских топовых бизнесменов сказал такое - заклевали бы. Это к слову о недавней теме, обсуждаемой частью моей ленты в фейсбуке про то, что в России крайне стигматизированы мечтания и все ушло в очень глубокий прагматизм. При этом я совершенно не имею в виду, что согласен с Маском насчет симулятора, но это не важно.
- колония на Марсе будет управляться прямой демократией. И отмена закона станет проще, чем его принятие. Если для принятия закона нужно 60% голосов граждан, то для его отмены (если закон оказался плохим) — всего 40%. Кроме того, для снижения инерции устаревших законов каждый закон должен приниматься с датой окончания его действия. По наступлении этой даты происходит ещё одно голосование.

https://geektimes.ru/post/276748/