Forwarded from Apparat
1 июня в Москве пройдет четвертый семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.
Спикер: Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".
Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.
Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330560/
Участие бесплатное.
Спикер: Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".
Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.
Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330560/
Участие бесплатное.
futuref.timepad.ru
Глобальные технологические риски. Стратегия предотвращения. / События на TimePad.ru
Четвертое заседание семинара по взаимодействию технологий и общества.
Докладчик: Алексей Турчин — член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни"
Доклад: «Глобальные технологические риски. Стратегия…
Докладчик: Алексей Турчин — член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни"
Доклад: «Глобальные технологические риски. Стратегия…
Футурологичненько. Нужна космическая экспансия, а иначе он прав окажется.
Основатель Alibaba: через 200 лет людям законодательно запретят жить вечно
"С имеющимися технологиями и имеющимися данными, бьюсь о заклад, в ближайшие 30-40 лет человек раскодирует человеческое тело, мы будем жить дольше — мы решим проблемы рака. Может быть, через 200 лет будет закон о том, что ни один человек не должен жить больше 200 лет"
РИА Новости http://ria.ru/science/20160526/1439687294.html#ixzz49rjhWx2J
Основатель Alibaba: через 200 лет людям законодательно запретят жить вечно
"С имеющимися технологиями и имеющимися данными, бьюсь о заклад, в ближайшие 30-40 лет человек раскодирует человеческое тело, мы будем жить дольше — мы решим проблемы рака. Может быть, через 200 лет будет закон о том, что ни один человек не должен жить больше 200 лет"
РИА Новости http://ria.ru/science/20160526/1439687294.html#ixzz49rjhWx2J
РИА Новости
Основатель Alibaba: через 200 лет людям законодательно запретят жить вечно
Мир абстолютной прозрачности наступает
...10 камер внутри ночного клуба: одна камера на входе - фиксирует всех входящих, девять камер для контроля посетителей.
На входе, кроме камеры, расположен киоск самообслуживания для верификации посетителей по ID, если верификация пройдена успешно (совершеннолетний, не забанен в клубе, адекватность не вызывает вопросов) в работу включается визуальный контроль, отслеживающий перемещение человека. Фиксируется все: сколько выпил, столкновение с другими участниками тусовки, процент агрессии и т.д. Если лицо часто перемещается по вертикальной линии (человек падает) или агрессивно себя ведет (отслеживается специальными алгоритмами) - охрана выводит такого посетителя. Драка внутри клуба - человек банится поданным ID и лицу...
Это реальный кейс который нам прислали на анализ: возьмемся за реализацию или нет. Страна - ЮАР.
...10 камер внутри ночного клуба: одна камера на входе - фиксирует всех входящих, девять камер для контроля посетителей.
На входе, кроме камеры, расположен киоск самообслуживания для верификации посетителей по ID, если верификация пройдена успешно (совершеннолетний, не забанен в клубе, адекватность не вызывает вопросов) в работу включается визуальный контроль, отслеживающий перемещение человека. Фиксируется все: сколько выпил, столкновение с другими участниками тусовки, процент агрессии и т.д. Если лицо часто перемещается по вертикальной линии (человек падает) или агрессивно себя ведет (отслеживается специальными алгоритмами) - охрана выводит такого посетителя. Драка внутри клуба - человек банится поданным ID и лицу...
Это реальный кейс который нам прислали на анализ: возьмемся за реализацию или нет. Страна - ЮАР.
Подумалось вдруг...
Пусть наша личность, сознание, "я" описывается состоянием коннектома (connectome) и метаболома (metabolome) в данный момент времени (совокупность и конфигурация всех нейронов, их связей, распределения зарядов, а также всех синапсов, молекул нейромедиаторов, гормонов и тд). Тогда, если рассмотреть нашу современную жизнь в целом, то для полного описания состояния нужно добавить третью составляющую: персональное цифровое окружение - профили в социальных сетях, вся информация из писем в ящике электронной почты, наши комментарии и ответы. Потому что мы в большой степени олицетворяем свою страницу в социальной сети с "я", ее конфигурация явно зависит от нашей личности. Доказать это можно попробовать от противного - если бы вы зашли в свой фейсбук и обнаружили бы, что кто-то отредактировал там раздел "информация о себе", которая не соответствует фактам вашей жизни - вы бы, конечно, чувствовали себя неудобно? Конечно, и по вполне рациональным причинам - это вводит в заблуждение друзей и коллег, но не только. Не только по рациональным, вы бы почувствовали будто кто-то влез к вам в голову и изменил что-то в вашем самосознании, разве нет?
Можно доказать это и не "изнутри", но и "снаружи": сейчас гораздо большее число людей составляет свое мнение о нас по цифровому следу, а не по личному общению. Пропорцию можно увязать кое-как с числом Донбара, но не разбираясь глубоко, эмпирически у меня это 10 к 1.
Можно назвать эту третью часть siliconome, по аналогии с теми двумя ome'ами. Силиконом.
Наверное, вскоре личность в целом даже юридически будет неотделима от силиконома. Это идет немного в разрез с анонимностью в интернете (которой я сторонник), но будем честны - в большинстве случаем мы и не хотим этого отделения, даже боимся его - см пример из предыдущего абзаца.
Ну а потом придет развитая AR и VR, deeplerning тоже доразовьется. И в момент того, как мы оффлайн, наш аватар - deeplerning интеллектуальный агент собранный и обученный на нашем силикономе - будет вполне себе активно действовать в VR-мирах. Не проявлять явной инициативы (все же мы пока не рассматриваем вариант "сильного ИИ"), но так ли часто мы будем проявлять в VR явную инициативу? Не думаю, что его внутри VR можно будет отличить от аватара, управляемого человеком онлайн.
В целом, технологический пакет для этого уже почти собран - нейронные сетки обучаются на записях с форума и обманывают студентов, обучаются на архиве электронной почты и ведут сами каналы в телеграме и так далее.
И тут возникает интересный момент со смертью. Умирает только коннектом и метаболом. Силиконом живет себе сколь угодно долго, а обученный на нем deeplearning агент может активничать в VR не хуже прежнего. В этом ограниченном смысле цифровое бессмертие возможно. Приходишь на сервер VR и далеко не сразу можешь понять, сколько процентов от его "жителей" - обученные на силикономе уже мертвого человека нейронные сетки. Думаю, здесь первый раз в истории, слово "призрак" можно будет употреблять без всякого смещенного смысла.
Пусть наша личность, сознание, "я" описывается состоянием коннектома (connectome) и метаболома (metabolome) в данный момент времени (совокупность и конфигурация всех нейронов, их связей, распределения зарядов, а также всех синапсов, молекул нейромедиаторов, гормонов и тд). Тогда, если рассмотреть нашу современную жизнь в целом, то для полного описания состояния нужно добавить третью составляющую: персональное цифровое окружение - профили в социальных сетях, вся информация из писем в ящике электронной почты, наши комментарии и ответы. Потому что мы в большой степени олицетворяем свою страницу в социальной сети с "я", ее конфигурация явно зависит от нашей личности. Доказать это можно попробовать от противного - если бы вы зашли в свой фейсбук и обнаружили бы, что кто-то отредактировал там раздел "информация о себе", которая не соответствует фактам вашей жизни - вы бы, конечно, чувствовали себя неудобно? Конечно, и по вполне рациональным причинам - это вводит в заблуждение друзей и коллег, но не только. Не только по рациональным, вы бы почувствовали будто кто-то влез к вам в голову и изменил что-то в вашем самосознании, разве нет?
Можно доказать это и не "изнутри", но и "снаружи": сейчас гораздо большее число людей составляет свое мнение о нас по цифровому следу, а не по личному общению. Пропорцию можно увязать кое-как с числом Донбара, но не разбираясь глубоко, эмпирически у меня это 10 к 1.
Можно назвать эту третью часть siliconome, по аналогии с теми двумя ome'ами. Силиконом.
Наверное, вскоре личность в целом даже юридически будет неотделима от силиконома. Это идет немного в разрез с анонимностью в интернете (которой я сторонник), но будем честны - в большинстве случаем мы и не хотим этого отделения, даже боимся его - см пример из предыдущего абзаца.
Ну а потом придет развитая AR и VR, deeplerning тоже доразовьется. И в момент того, как мы оффлайн, наш аватар - deeplerning интеллектуальный агент собранный и обученный на нашем силикономе - будет вполне себе активно действовать в VR-мирах. Не проявлять явной инициативы (все же мы пока не рассматриваем вариант "сильного ИИ"), но так ли часто мы будем проявлять в VR явную инициативу? Не думаю, что его внутри VR можно будет отличить от аватара, управляемого человеком онлайн.
В целом, технологический пакет для этого уже почти собран - нейронные сетки обучаются на записях с форума и обманывают студентов, обучаются на архиве электронной почты и ведут сами каналы в телеграме и так далее.
И тут возникает интересный момент со смертью. Умирает только коннектом и метаболом. Силиконом живет себе сколь угодно долго, а обученный на нем deeplearning агент может активничать в VR не хуже прежнего. В этом ограниченном смысле цифровое бессмертие возможно. Приходишь на сервер VR и далеко не сразу можешь понять, сколько процентов от его "жителей" - обученные на силикономе уже мертвого человека нейронные сетки. Думаю, здесь первый раз в истории, слово "призрак" можно будет употреблять без всякого смещенного смысла.
Неожиданно в российском ГИБДД думают и про ответственность за ДТП беспилотников, и про то, что это снизит количество аварий только в случае распределенной интеллектуальной транспортной системы. Радует.
"Отсутствие нормативной базы и законов, регламентирующих использование и владение беспилотными автомобилями, ставит перед госорганами задачу "скорейшей регламентации таких правил", говорят в ГИБДД России. Тема эксплуатации автономных транспортных средств активно обсуждалась в пятницу участниками форума по обеспечению безопасности дорожного движения. В Госавтоинспекции призывают заранее позаботиться о том, кто будет нести ответственность за ДТП с участием автономных машин или, например, уголовные преступления, совершенные с помощью беспилотников."
Подробнее: http://www.kommersant.ru/doc/3000209
"Отсутствие нормативной базы и законов, регламентирующих использование и владение беспилотными автомобилями, ставит перед госорганами задачу "скорейшей регламентации таких правил", говорят в ГИБДД России. Тема эксплуатации автономных транспортных средств активно обсуждалась в пятницу участниками форума по обеспечению безопасности дорожного движения. В Госавтоинспекции призывают заранее позаботиться о том, кто будет нести ответственность за ДТП с участием автономных машин или, например, уголовные преступления, совершенные с помощью беспилотников."
Подробнее: http://www.kommersant.ru/doc/3000209
kommersant.ru
В машине освобождается место водителя // ГИБДД готовит дороги к применению беспилотных автомобилей
Отсутствие нормативной базы и законов, регламентирующих использование и владение беспилотными автомобилями, ставит перед госорганами задачу "скорейшей регламентации таких правил", говорят в ГИБДД России. Тема эксплуатации автономных транспортных средств активно…
Я уже рекомендовал всем сериал Person of Interest? Вроде нет.
Он замечателен. Про то же, про что мы тут постоянно: privacy, прозрачный мир, ко-наблюдени, сингулярность.
Кратко: спецслужбы сделали ИИ, который имеет доступ ко всем камерам, микрофонам телефонов, переписке - то есть ко всему силиконому (см мой предыдущий пост https://goo.gl/nKMCYr), но и не только. Так сказать к коллективному силиконому человечества.
Этот ИИ делал очень харизматичный профессор (который еще и стильно одевается - см картинки к посту), он думал этике этого ИИ (вообще очень много размышлений о кодификации этики (привет Pavel Luksha)). И этот ИИ был "добрым и хорошим".
Что-то пошло не так и спецслужбы сделали второй ИИ - и он как раз решил (как в любом нормальном scifi), что ради счастья человечества нужны жесткие меры.
Жанр всего этого - боевик, что немного принижает уровень повествования, но все равно очень неплохо. Это, конечно, не Черное Зеркало и не Каприка (о них еще напишу) и не Стар Трек, но из современного - рекомендую.
Он замечателен. Про то же, про что мы тут постоянно: privacy, прозрачный мир, ко-наблюдени, сингулярность.
Кратко: спецслужбы сделали ИИ, который имеет доступ ко всем камерам, микрофонам телефонов, переписке - то есть ко всему силиконому (см мой предыдущий пост https://goo.gl/nKMCYr), но и не только. Так сказать к коллективному силиконому человечества.
Этот ИИ делал очень харизматичный профессор (который еще и стильно одевается - см картинки к посту), он думал этике этого ИИ (вообще очень много размышлений о кодификации этики (привет Pavel Luksha)). И этот ИИ был "добрым и хорошим".
Что-то пошло не так и спецслужбы сделали второй ИИ - и он как раз решил (как в любом нормальном scifi), что ради счастья человечества нужны жесткие меры.
Жанр всего этого - боевик, что немного принижает уровень повествования, но все равно очень неплохо. Это, конечно, не Черное Зеркало и не Каприка (о них еще напишу) и не Стар Трек, но из современного - рекомендую.
Про отношения человека и технологий. Это фрагмент "Лесного пути" Эрнста Юнгера в переводе одного из наших спикеров департамента STS МТИ и Future Foundation Александра Мишуры.
"Лесной путь нельзя понимать как направленную против мира машин форму анархизма, хотя искушение к этому и велико, особенно если одновременно стремятся создать связь с мифом. Мифическое несомненно придет и уже на подступах. Оно вообще всегда на месте и в добрый час словно сокровище восходит на поверхность. Однако мифическое отталкивается именно от высочайшего, вознесшегося движения как иной по отношению к нему принцип. Движение в этом смысле является лишь механизмом, криком рождения. К мифическому не возвращаются, с ним вновь встречаются, когда время колеблется в своих устоях, а человек находится в области величайшей опасности. Кроме того, неверно говорить: «виноградная лоза или…», но верно говорить: «виноградная лоза и корабль». Растет число тех, кто хочет покинуть корабль, среди них есть ясные головы, и добрые души. По сути это означает сойти с корабля в открытое море. За этим последует голод, каннибализм и акулы, короче говоря, все страхи, известные нам по плоту «Медузы». Потому в любом случае благоразумно оставаться на борту, даже ценою опасности взлететь с ним на воздух."
"Лесной путь нельзя понимать как направленную против мира машин форму анархизма, хотя искушение к этому и велико, особенно если одновременно стремятся создать связь с мифом. Мифическое несомненно придет и уже на подступах. Оно вообще всегда на месте и в добрый час словно сокровище восходит на поверхность. Однако мифическое отталкивается именно от высочайшего, вознесшегося движения как иной по отношению к нему принцип. Движение в этом смысле является лишь механизмом, криком рождения. К мифическому не возвращаются, с ним вновь встречаются, когда время колеблется в своих устоях, а человек находится в области величайшей опасности. Кроме того, неверно говорить: «виноградная лоза или…», но верно говорить: «виноградная лоза и корабль». Растет число тех, кто хочет покинуть корабль, среди них есть ясные головы, и добрые души. По сути это означает сойти с корабля в открытое море. За этим последует голод, каннибализм и акулы, короче говоря, все страхи, известные нам по плоту «Медузы». Потому в любом случае благоразумно оставаться на борту, даже ценою опасности взлететь с ним на воздух."
Библиотека материалов по образованию в области этики технологий и научной этики от Технологического Института Иллинойса.
В том числе:
- case study распределенные по предметным областям, дисциплинам и уровню аудитории
- образовательные методики и программы по этике, разработанные профессорами университетов США и всего мира
- практические методологии - как преподавателю начать говорить с аудиторией об этике в области техники, как отвечать на вопросы.
- методы оценки эффективности образовательных программ
http://ethics.iit.edu/eelibrary/
В том числе:
- case study распределенные по предметным областям, дисциплинам и уровню аудитории
- образовательные методики и программы по этике, разработанные профессорами университетов США и всего мира
- практические методологии - как преподавателю начать говорить с аудиторией об этике в области техники, как отвечать на вопросы.
- методы оценки эффективности образовательных программ
http://ethics.iit.edu/eelibrary/
Доклад Президентской комиссии США по изучению проблем биоэтики (Presidential Commission For The Study Of Bioethical Issues): "Биоэтика для каждого поколения - дискуссия и образование в области медицины, науки и технологий".
Вот вы думаете о чем большая часть этого документа? Не о самой биоэтике, а о этических принципах публичных дискуссий на эту тему, о методах групповой работы на таких дискуссиях. И сначала я посмотрел и мне показалось, что это уж очень очевидные вещи говорят, но потом, вспомнив недавно найденную мною статью про обсуждение СПИДа в России (http://kommersant.ru/doc/3000818), я понял, что авторы доклада очень правы.
Краткое содержание:
Принятие решений в области биоэтики должно основываться на демократических принципах и учитывать как мнение экспертного сообщества, так и гражданское общество. Государственные и муниципальные органы должны организовывать такие публичные дискуссии, при этом стимулировать в этих дискуссиях взаимопонимание и уважение между участниками. Организатор дискуссии должен заложить определенный стиль и уровень обсуждения - подтверждение позиции каждого участника научными фактами, уважение, но в то же время критическое отношение к этим фактам со стороны других участников.
Очень хорошая мысль: мы уже не можем не решать этические проблемы, избежать этого выбора. Они касаются каждого из нас. И продолжают они тем что учить этике нужно со школы.
Вот замечательное место: учащимся старших классов начальной школы может быть предложено сравнить теории, к которым пришла науки по сравнению с теми, которые появились в рамках иных методологий. Или рассуждать на тему детерминизма, отвечая на такие вопросы как, например: "Являются ли наше будущее и судьба предопределенной?", "Оказывает ли то, что мы делаем сегодня влияние на то, что произойдет завтра?".
Общественные дискуссии имеют и образовательное значение, а само образование стимулирует повышение качества дискуссий. Это взаимное дополнение форматов является крайне важным.
Также комиссии по биоэтике должны производить просветительские брошюры, причем не только для экспертного сообщества, но и для широкой общественности.
Вот вы думаете о чем большая часть этого документа? Не о самой биоэтике, а о этических принципах публичных дискуссий на эту тему, о методах групповой работы на таких дискуссиях. И сначала я посмотрел и мне показалось, что это уж очень очевидные вещи говорят, но потом, вспомнив недавно найденную мною статью про обсуждение СПИДа в России (http://kommersant.ru/doc/3000818), я понял, что авторы доклада очень правы.
Краткое содержание:
Принятие решений в области биоэтики должно основываться на демократических принципах и учитывать как мнение экспертного сообщества, так и гражданское общество. Государственные и муниципальные органы должны организовывать такие публичные дискуссии, при этом стимулировать в этих дискуссиях взаимопонимание и уважение между участниками. Организатор дискуссии должен заложить определенный стиль и уровень обсуждения - подтверждение позиции каждого участника научными фактами, уважение, но в то же время критическое отношение к этим фактам со стороны других участников.
Очень хорошая мысль: мы уже не можем не решать этические проблемы, избежать этого выбора. Они касаются каждого из нас. И продолжают они тем что учить этике нужно со школы.
Вот замечательное место: учащимся старших классов начальной школы может быть предложено сравнить теории, к которым пришла науки по сравнению с теми, которые появились в рамках иных методологий. Или рассуждать на тему детерминизма, отвечая на такие вопросы как, например: "Являются ли наше будущее и судьба предопределенной?", "Оказывает ли то, что мы делаем сегодня влияние на то, что произойдет завтра?".
Общественные дискуссии имеют и образовательное значение, а само образование стимулирует повышение качества дискуссий. Это взаимное дополнение форматов является крайне важным.
Также комиссии по биоэтике должны производить просветительские брошюры, причем не только для экспертного сообщества, но и для широкой общественности.
Портал с образовательными материалами по этике для инженеров, ученых, преподавателей, студентов и вообще всех заинтересованных в ответах на вопросы, возникающие в области взаимодействия науки и технологий с обществом.
Например, запись из раздела их форума по Case Study: "Дилемма ДНК": один ученый проводил исследования ДНК у пациентов с раком молочной железы случайно увидел, что его коллега взял немного его образцов ДНК для использования в виде контрольной группы своего нейробиологического исследования. В форму согласия первого ученого, которую он подписывал с пациентами при сборе их ДНК, не входит такое использование их биологических материалов.
Ну и дальше в комментариях они обсуждают как нужно поступить.
http://www.onlineethics.org/
Например, запись из раздела их форума по Case Study: "Дилемма ДНК": один ученый проводил исследования ДНК у пациентов с раком молочной железы случайно увидел, что его коллега взял немного его образцов ДНК для использования в виде контрольной группы своего нейробиологического исследования. В форму согласия первого ученого, которую он подписывал с пациентами при сборе их ДНК, не входит такое использование их биологических материалов.
Ну и дальше в комментариях они обсуждают как нужно поступить.
http://www.onlineethics.org/
Про мораль роботов и однополый браки
Друзья, это замечательно! Статья "Как создать морального робота?". Кратко: описывается идея создать семантическое поле выражений, фраз и слов, в общем - смыслов, которыми люди оперируют при описании моральных решений. А дальше обучить робота на этой базе.
Но самое печально-интересное в этой статье - это второй комментарий от некого эксперта по кибер-безопасности Бифа Хенерсона. Если бы это был российский сайт, я бы подумал, что это бот из Ольгино. А здесь - вот даже не знаю, всерьез ли он - комментарий наполнен клеше до степени карикатурности. Вот дословный перевод:
"Кто решает что правильно, а что не правильно? Как мне кажется, американское общество потеряло свой путь. Я определенно не хочу, чтобы оно [американское общество] закладывало свою систему ценностей в моего робота. Мужчины вступают в брак с мужчинами, убивают детей, позволяют мужчинам находиться в публичном душе с маленькими девочками, безнаказанно употреблять наркотики, нарушаются иммиграционные законы и так далее... Надеюсь, роботы будут разделять истинные ценности, такие, которые определили наши бабушки и дедушки"
http://spectrum.ieee.org/video/robotics/robotics-software/how-to-build-a-moral-robot
Друзья, это замечательно! Статья "Как создать морального робота?". Кратко: описывается идея создать семантическое поле выражений, фраз и слов, в общем - смыслов, которыми люди оперируют при описании моральных решений. А дальше обучить робота на этой базе.
Но самое печально-интересное в этой статье - это второй комментарий от некого эксперта по кибер-безопасности Бифа Хенерсона. Если бы это был российский сайт, я бы подумал, что это бот из Ольгино. А здесь - вот даже не знаю, всерьез ли он - комментарий наполнен клеше до степени карикатурности. Вот дословный перевод:
"Кто решает что правильно, а что не правильно? Как мне кажется, американское общество потеряло свой путь. Я определенно не хочу, чтобы оно [американское общество] закладывало свою систему ценностей в моего робота. Мужчины вступают в брак с мужчинами, убивают детей, позволяют мужчинам находиться в публичном душе с маленькими девочками, безнаказанно употреблять наркотики, нарушаются иммиграционные законы и так далее... Надеюсь, роботы будут разделять истинные ценности, такие, которые определили наши бабушки и дедушки"
http://spectrum.ieee.org/video/robotics/robotics-software/how-to-build-a-moral-robot
IEEE Spectrum: Technology, Engineering, and Science News
How to Build a Moral Robot
If robots are going to drive our cars and play with our kids, we’ll need to teach them right from wrong
Эту статью все уже наверняка прочитали, но тем не менее, тезисно:
- страхи перед появлением ИИ Маск теперь сфокусировал только на компании Google ("если мы его правильно поняли")
- Про киборгизацию: "Мы уже являемся киборгами. У вас есть цифровая версия себя, частичная версия собственной личности в онлайне в форме ваших электронных писем, ваших социальных медиа и всех ваших действий." Тут я не могу не отметить, что, видимо, Маск читает мой фейбук, потому что за пару дней до его выступления я писал примерно это в заметке про Силиконом)) вот: https://goo.gl/nKMCYr
- единственное ограничение на процесс киборгизации - это скорость интерфейса мозг-компьютер. Сейчас - это ввод пальчиками по клавиатуре. Должно быть - нейроинтерфейс. Тогда мы будем не конкурировать с ИИ, а работать вместе (теория "кентавров"). Это одно из решений проблемы противостояния с ИИ.
- про симулятор реальности - все уже слышали. Как минимум круто, что человек уровня Маска может себе позволить говорить такие смелые идеи (он сказал, что возможно мы живем с симуляторе реальности). Представьте, чтобы кто-то из российских топовых бизнесменов сказал такое - заклевали бы. Это к слову о недавней теме, обсуждаемой частью моей ленты в фейсбуке про то, что в России крайне стигматизированы мечтания и все ушло в очень глубокий прагматизм. При этом я совершенно не имею в виду, что согласен с Маском насчет симулятора, но это не важно.
- колония на Марсе будет управляться прямой демократией. И отмена закона станет проще, чем его принятие. Если для принятия закона нужно 60% голосов граждан, то для его отмены (если закон оказался плохим) — всего 40%. Кроме того, для снижения инерции устаревших законов каждый закон должен приниматься с датой окончания его действия. По наступлении этой даты происходит ещё одно голосование.
https://geektimes.ru/post/276748/
- страхи перед появлением ИИ Маск теперь сфокусировал только на компании Google ("если мы его правильно поняли")
- Про киборгизацию: "Мы уже являемся киборгами. У вас есть цифровая версия себя, частичная версия собственной личности в онлайне в форме ваших электронных писем, ваших социальных медиа и всех ваших действий." Тут я не могу не отметить, что, видимо, Маск читает мой фейбук, потому что за пару дней до его выступления я писал примерно это в заметке про Силиконом)) вот: https://goo.gl/nKMCYr
- единственное ограничение на процесс киборгизации - это скорость интерфейса мозг-компьютер. Сейчас - это ввод пальчиками по клавиатуре. Должно быть - нейроинтерфейс. Тогда мы будем не конкурировать с ИИ, а работать вместе (теория "кентавров"). Это одно из решений проблемы противостояния с ИИ.
- про симулятор реальности - все уже слышали. Как минимум круто, что человек уровня Маска может себе позволить говорить такие смелые идеи (он сказал, что возможно мы живем с симуляторе реальности). Представьте, чтобы кто-то из российских топовых бизнесменов сказал такое - заклевали бы. Это к слову о недавней теме, обсуждаемой частью моей ленты в фейсбуке про то, что в России крайне стигматизированы мечтания и все ушло в очень глубокий прагматизм. При этом я совершенно не имею в виду, что согласен с Маском насчет симулятора, но это не важно.
- колония на Марсе будет управляться прямой демократией. И отмена закона станет проще, чем его принятие. Если для принятия закона нужно 60% голосов граждан, то для его отмены (если закон оказался плохим) — всего 40%. Кроме того, для снижения инерции устаревших законов каждый закон должен приниматься с датой окончания его действия. По наступлении этой даты происходит ещё одно голосование.
https://geektimes.ru/post/276748/
geektimes.ru
Илон Маск о симуляторе реальности, в котором мы живём, о политическом устройстве Марса и будущих автомобилях Apple
1 июня Илон Маск принял участие в Code Conference, одной из крупных конференций в области ИТ. В своём выступлении он затронул несколько интересных тем,...
Очень много вариантов проблемы вагонетки
http://www.huffingtonpost.com/linch-zhang/behind-the-absurd-popular_b_10247650.html
http://www.huffingtonpost.com/linch-zhang/behind-the-absurd-popular_b_10247650.html
HuffPost
Behind the Absurd Popularity of Trolley Problem Memes
The internet is no stranger to sudden bursts of popularity. From the hundreds of millions of views of Rebecca Black's