Проблематика необходимости подготовки специалистов к будущему, которое меняется слишком быстро (из-за ускорения развития технологий). Шутка (на самом деле не шутка) про студента ВМК МГУ, компетенции которого устаревают раньше, чем он выпускается: теперь такая проблема начинается и в области инженерии, и биотехнологий.
И я некоторое время назад столкнулся с этим - мы в МТИ сделали концепцию урока технологии в школе (АСИ конкурс объявляло, мы выиграли, кстати). Мы там написали про создание биороботов, кодификацию этики ИИ и подобное, казалось бы, совершенно научно-фантастическое (вот тут про это есть подробно: https://telegram.me/peterlevichchannel/575 ) Но ведь к этому и нужно готовить детей, иначе это будет про настоящее, а не про будущее.
И я эту концепцию презентовал на EdCrunch и столкнулся с критикой со стороны слушателей-преподавателей - что, мол, а как учить тому, чего еще нет? Где возьмем этих специалистов? И я согласен с этими вопросами, они важны. Но не готовить людей к будущему - тоже не выход.
Недавно сразу и у Тимура Щукина и у Евгения Плужника увидел эту статью Александра Асмолова http://www.ng.ru/scenario/2016-10-25/10_6843_varvar.html - очень хорошо описана эта проблема - в связке с новыми технологиями и future shock.
А вот про это пишет Анатолий Левенчук: http://ailev.livejournal.com/1308210.html что учить нужно навыкам ("В эпоху, когда живёшь в переменах и любая дисциплина оказывается устаревшей в тот момент, когда её освоишь, переходить нужно на усиленное обучение "мета" умениям и мышлению, лежащему в основе множества самых разных дисциплин. В результате получаешь человека неглупого, который способен быстро разобраться в новой предметной области.")
Предлагал эту тему к обсуждению сразу в двух местах, где участвую: в наших регулярных круглых столах про фундаментальные основания педагогики в МПГУ и в клубе по техноэтике.
И я некоторое время назад столкнулся с этим - мы в МТИ сделали концепцию урока технологии в школе (АСИ конкурс объявляло, мы выиграли, кстати). Мы там написали про создание биороботов, кодификацию этики ИИ и подобное, казалось бы, совершенно научно-фантастическое (вот тут про это есть подробно: https://telegram.me/peterlevichchannel/575 ) Но ведь к этому и нужно готовить детей, иначе это будет про настоящее, а не про будущее.
И я эту концепцию презентовал на EdCrunch и столкнулся с критикой со стороны слушателей-преподавателей - что, мол, а как учить тому, чего еще нет? Где возьмем этих специалистов? И я согласен с этими вопросами, они важны. Но не готовить людей к будущему - тоже не выход.
Недавно сразу и у Тимура Щукина и у Евгения Плужника увидел эту статью Александра Асмолова http://www.ng.ru/scenario/2016-10-25/10_6843_varvar.html - очень хорошо описана эта проблема - в связке с новыми технологиями и future shock.
А вот про это пишет Анатолий Левенчук: http://ailev.livejournal.com/1308210.html что учить нужно навыкам ("В эпоху, когда живёшь в переменах и любая дисциплина оказывается устаревшей в тот момент, когда её освоишь, переходить нужно на усиленное обучение "мета" умениям и мышлению, лежащему в основе множества самых разных дисциплин. В результате получаешь человека неглупого, который способен быстро разобраться в новой предметной области.")
Предлагал эту тему к обсуждению сразу в двух местах, где участвую: в наших регулярных круглых столах про фундаментальные основания педагогики в МПГУ и в клубе по техноэтике.
Смогут ли люди когда-нибудь понять разум, который радикально отличается от нашего?
Мюррэй Шэнэхен, профессор когнитивной робототехники в Имперском Колледже Лондона и лидер Центра Будущего Интеллекта им. Леверхюльма
осторожно - лонг-лонг-рид
http://fastsalttimes.com/sections/obzor/890.html
Мюррэй Шэнэхен, профессор когнитивной робототехники в Имперском Колледже Лондона и лидер Центра Будущего Интеллекта им. Леверхюльма
осторожно - лонг-лонг-рид
http://fastsalttimes.com/sections/obzor/890.html
Fastsalttimes
Смогут ли люди когда-нибудь понять разум, который радикально отличается от нашего?
Исследовать диапазон возможных сознаний — питать надежды о существовании существ, намного более экзотических, чем земные виды. Возможно ли, что диапазон возможных сознаний включает в себя настолько загадочных существ, что мы не сможем определить, испытывают…
"Война за воздух" выходит на новый уровень. Бедные дроны. Их и орлами сбивают (Нидерланды), и другими дронами с сетями (Япония) яки рыбку, и вот теперь это. Опасные создания, в общем.
Специалисты Объединенной приборостроительной корпорации (ОПК), входящей в состав «Ростеха», создали оружие, способное уничтожать стаи ударных мини-дронов. Оно не уничтожает дроны физически, не создает для них помехи, а гарантированно выводит из строя радиоэлектронные бортовые системы
https://lenta.ru/news/2016/10/29/dron/
Специалисты Объединенной приборостроительной корпорации (ОПК), входящей в состав «Ростеха», создали оружие, способное уничтожать стаи ударных мини-дронов. Оно не уничтожает дроны физически, не создает для них помехи, а гарантированно выводит из строя радиоэлектронные бортовые системы
https://lenta.ru/news/2016/10/29/dron/
lenta.ru
«Ростех» создал оружие против стаи ударных дронов
Специалисты Объединенной приборостроительной корпорации, входящей в «Ростех», создали оружие, способное уничтожать стаи ударных мини-дронов. По словам представителя предприятия, оно «гарантированно выводит из строя радиоэлектронные бортовые системы, превращая…
"Наше все" подросло и поумнело, и, конечно, здесь замешан алкоголь
У "нашего всего" - технологии глубокого обучения нейронных сетей, которая ближе всего сейчас находится к тому "чему-то", что мы понимаем под искусственным интеллектом, всегда была одна проблема. Она работала как черный ящик. Мы знаем, какие данные подсунули ей на входе, какие получили на выходе, но почему именно эти данные на выходе - не ясно.
Вообще говоря, это было очень антропоморфным свойством нейронных сетей: психологически сближало нас) И отдаляло технологию deeplearning от "обычного детерминированного программирования". Ведь все помнят знаменитую картину с Уиллом Смитом "- Робот не может написать симфонию // - А ты можешь?", ведь мы, люди, тоже далеко не всегда можем объяснить свои действия.Но это было и проблемой. Прежде всего, проблемой двоерия и лишь усиливало страхи перед ИИ. Ведь эволюционно в нас зашито больше всего бояться себеподобных (из школьного учебника биологии - внутривидовая конкуренция более сильная).
Был, например, кейс программы "SKYNET" АНБ США (не спрашивайте, кому пришла в голову назвать программу именно так), которая использовала алгоритмы машинного обучения на данных мобильных операторов Пакистана, чтобы оценить вероятность каждого человека в этой стране быть террористом. На основе этих данных экстремистов убивали (кстати, убивали дронами, но это уже не принципиально). В итоге программа подверглась критике правозащитных организаций на "непрозрачность", и когда началось расследование никто не смог объяснить, почему программа выбирали того или иного человека, включая саму программу. Здесь я писал об этом подробнее: https://telegram.me/peterlevichchannel/279
И вот наконец дитя человеческое вышло из "туманного" возраста и научилось рационально объяснять свои действия. Ну и конечно, здесь не обошлось без алкголя)
Команда из МТИ обучала нейросеть на текстах и пятизвездочных рейтингах с сайта, который собирает отзывы о пиве. Алгоритм анализировал текст на связность, изучал рейтинги. В результате стал действовать практически так же, как человек. Его оценки на основании текстов совпадали с человеческими, что вызывало доверие к решениям. Оценки вкуса и аромата он угадал в 96% случаев и в каждом из них можно было получить объяснение, на основе чего такая оценка получена.
Полная статья PDF: https://people.csail.mit.edu/taolei/papers/emnlp16_rationale.pdf
Краткая статья на русском: https://hightech.fm/2016/11/01/what_are_you_doing_neural_network
Однако упомяну в этом контексте "противовесную" новость: те же нейросети научились создавать такой алгоритм шифрования, который люди не могут взломать - то есть теперь они смогут общаться, а мы не сможем понять, о чем (статья: https://arxiv.org/pdf/1610.06918v1.pdf)
У "нашего всего" - технологии глубокого обучения нейронных сетей, которая ближе всего сейчас находится к тому "чему-то", что мы понимаем под искусственным интеллектом, всегда была одна проблема. Она работала как черный ящик. Мы знаем, какие данные подсунули ей на входе, какие получили на выходе, но почему именно эти данные на выходе - не ясно.
Вообще говоря, это было очень антропоморфным свойством нейронных сетей: психологически сближало нас) И отдаляло технологию deeplearning от "обычного детерминированного программирования". Ведь все помнят знаменитую картину с Уиллом Смитом "- Робот не может написать симфонию // - А ты можешь?", ведь мы, люди, тоже далеко не всегда можем объяснить свои действия.Но это было и проблемой. Прежде всего, проблемой двоерия и лишь усиливало страхи перед ИИ. Ведь эволюционно в нас зашито больше всего бояться себеподобных (из школьного учебника биологии - внутривидовая конкуренция более сильная).
Был, например, кейс программы "SKYNET" АНБ США (не спрашивайте, кому пришла в голову назвать программу именно так), которая использовала алгоритмы машинного обучения на данных мобильных операторов Пакистана, чтобы оценить вероятность каждого человека в этой стране быть террористом. На основе этих данных экстремистов убивали (кстати, убивали дронами, но это уже не принципиально). В итоге программа подверглась критике правозащитных организаций на "непрозрачность", и когда началось расследование никто не смог объяснить, почему программа выбирали того или иного человека, включая саму программу. Здесь я писал об этом подробнее: https://telegram.me/peterlevichchannel/279
И вот наконец дитя человеческое вышло из "туманного" возраста и научилось рационально объяснять свои действия. Ну и конечно, здесь не обошлось без алкголя)
Команда из МТИ обучала нейросеть на текстах и пятизвездочных рейтингах с сайта, который собирает отзывы о пиве. Алгоритм анализировал текст на связность, изучал рейтинги. В результате стал действовать практически так же, как человек. Его оценки на основании текстов совпадали с человеческими, что вызывало доверие к решениям. Оценки вкуса и аромата он угадал в 96% случаев и в каждом из них можно было получить объяснение, на основе чего такая оценка получена.
Полная статья PDF: https://people.csail.mit.edu/taolei/papers/emnlp16_rationale.pdf
Краткая статья на русском: https://hightech.fm/2016/11/01/what_are_you_doing_neural_network
Однако упомяну в этом контексте "противовесную" новость: те же нейросети научились создавать такой алгоритм шифрования, который люди не могут взломать - то есть теперь они смогут общаться, а мы не сможем понять, о чем (статья: https://arxiv.org/pdf/1610.06918v1.pdf)
Технологии и ритуалы. Не то чтобы эта новость была про этику технологий, понятно, что технологии тут как бы сбоку. Скорее просто про этику. И понятно, что это пиар, репутация, бизнес. Но что-то есть в этом сочетании ритуалов и современных технологических игроков.
https://hi-tech.mail.ru/news/samsing-galaxy-note-7/
https://hi-tech.mail.ru/news/samsing-galaxy-note-7/
Hi-Tech Mail
Samsung попросила прощения за провал Galaxy Note 7
23 топ-менеджера компании на мероприятии в Китае опустились на колени перед покупателями и инвесторами. Они заявили, что в будущем ситуация, подобная отзыву флагманского фаблета, не повторится.
Коллеги, наконец-то мы начинаем делиться с вами видеозаписями с конференции Future Foundation Technology Ethics. И для начала: выступление Виктора Вахштайна "Онтологические метафоры в социальных исследованиях технологий ", которое открыло конференцию.
https://youtu.be/P8Za5BBVONI
https://youtu.be/P8Za5BBVONI
YouTube
Виктор Вахштайн: Онтологические метафоры в социальных исследованиях технологий
Future Foundation Technology Ethics Conference
Программа, спикеры: http://futuref.org/technoethics2016
Презентации докладов: http://www.slideshare.net/Future_Foundation
Фотографии: https://www.facebook.com/futurefo/photos/?tab=album&album_id=320224585028747…
Программа, спикеры: http://futuref.org/technoethics2016
Презентации докладов: http://www.slideshare.net/Future_Foundation
Фотографии: https://www.facebook.com/futurefo/photos/?tab=album&album_id=320224585028747…
Глобальная прозрачность, экономика "дружественности" (см Черное Зеркало новый сезон). Или все же нет?
Британская страховая компания Admiral использовала ИИ для анализа постов своих клиентов в соцсетях и оценивала их по манере выражаться. Благонадежные водители могли рассчитывать на более выгодную страховку. Однако практически сразу после запуска инициативы Facebook закрыла компании доступ к пользовательским данным.
https://hightech.fm/2016/11/03/facebook_admiral
Британская страховая компания Admiral использовала ИИ для анализа постов своих клиентов в соцсетях и оценивала их по манере выражаться. Благонадежные водители могли рассчитывать на более выгодную страховку. Однако практически сразу после запуска инициативы Facebook закрыла компании доступ к пользовательским данным.
https://hightech.fm/2016/11/03/facebook_admiral
Хайтек
Facebook запретила страховщикам анализировать посты клиентов
Британская страховая компания Admiral использовала ИИ для анализа постов своих клиентов в соцсетях и оценивала их по манере выражаться. Благонадежные водители могли рассчитывать на более выгодную страховку. Однако практически сразу после запуска инициативы…
На севере Ирака 2 октября бойцы курдского формирования Пешмерга и солдаты Франции перехватили небольшой дрон, который оказался начинённым взрывчаткой. В результате взрыва два французских солдата были ранены и два курдских повстанца погибли.
Боевики ИГ используют простые аппараты, такие как DJI Phantom, которые можно купить на Amazon. Оснащая их бомбами, боевики создают дистанционно пилотируемые бомбы. Таким образом, террористы смогли создать потенциально эффективное оружие на основе доступной технологии. «Мы должны были подготовиться к этому, но мы этого не сделали», — говорит эксперт по военным технологиям Питер Сингер.
http://apparat.cc/news/dron-isis/
Боевики ИГ используют простые аппараты, такие как DJI Phantom, которые можно купить на Amazon. Оснащая их бомбами, боевики создают дистанционно пилотируемые бомбы. Таким образом, террористы смогли создать потенциально эффективное оружие на основе доступной технологии. «Мы должны были подготовиться к этому, но мы этого не сделали», — говорит эксперт по военным технологиям Питер Сингер.
http://apparat.cc/news/dron-isis/
Apparat
Боевики ИГ начали использовать в Ираке дроны со взрывчаткой
На севере Ирака 2 октября бойцы курдского формирования Пешмерга и солдаты Франции перехватили небольшой дрон, который оказался начинённым взрывчаткой. В результате взрыва два французских солдата были ранены и два курдских повстанца погибли, сообщает The New…
Про несбывшуюся власть компьютера в СССР, кризис сложности и социальные барьеры технологий.
В СССР был проект интернета, но на самом деле, идея была гораздо глобальнее. Интернет был бы лишь средством ее осуществелния: передача всего управления плановой экономикой компьютеру. Сеть должна была состоять из двух ярусов. На первом - объединить едиными каналами связи около 100 мощных вычислительных центров, расположенных в крупных промышленных городах и экономических районах. К этим мощным центрам подсоединить около 20 тысяч мелких из второго яруса. Главная цель системы - вести постоянный учет и контроль за любой точкой в гигантской экономике страны.
Разумеется, не разрешили. Формально из за цены - дороже атомной и космической программ вместе взятых. На самом деле, из-за того, что экономика станет слишком прозрачной. Конец отпуску продукции "с черного хода" и другим известным в СССР явлениям. Но даже не только поэтому. Для налаживания работы пришлось бы переучить столько специалистов и так сильно поменять привычный уклад жизни и мышления (в проекте про мышление ничего не было, но, очевидно, это уже другое общество было бы), что в результате это был бы уже не СССР, который был нужен тем, кто принимал решение.
Интересно так же про предпосылки автора этого проекта Виктора Глушкова: "Человечество пережило в своей истории два информационных барьера, кризиса управления. Первый возник при разложении общинно-родового хозяйства и был преодолен с возникновением товарно-денежных отношений и иерархической системы управления, когда старший начальник управляет младшими, а те уже исполнителями. Второй барьер вырос в ХХ веке, когда уже не помогали ни иерархия в управлении, ни товарно-денежные отношения. Причина нового кризиса - невозможность даже множеству людей охватить все проблемы управления огромным хозяйством. Поэтому теперь даже самый умный и честный человек просто физически не сможет эффективно управлять экономикой."
Глушков получил несколько других государственных наград за другие проекты, в том числе первого советского персонального компьютера "МИР-1", но главное дело жизни, которым он видел преодоление кризиса сложности, так и не было реализовано. Виктор Михайлович ушел из жизни, не дожив до 60 лет.
Интересно пофантазировать, в каком мире мы бы жили сейчас, если бы этот проект был реализован. Именно "в каком мире", а не "в какой стране", потому что переход СССР под управление компьютером изменило бы все направление технического прогресса. Я не специалист ни в истории, ни в политологии, поэтому лишь предположу явную развилку: либо дегуманизация власти привела бы к снижению авторитета (хотя какой там авторитет у советской власти в этот период) и так же развалу СССР, либо та же самая дегуманизация наоборот ослабила бы социальный конфликт, а прозрачность экономики бы дала бы ей новый толчок.
https://rg.ru/2016/11/01/v-ssha-vyshla-kniga-o-dostizheniiah-sovetskih-kibernetikov.html
В СССР был проект интернета, но на самом деле, идея была гораздо глобальнее. Интернет был бы лишь средством ее осуществелния: передача всего управления плановой экономикой компьютеру. Сеть должна была состоять из двух ярусов. На первом - объединить едиными каналами связи около 100 мощных вычислительных центров, расположенных в крупных промышленных городах и экономических районах. К этим мощным центрам подсоединить около 20 тысяч мелких из второго яруса. Главная цель системы - вести постоянный учет и контроль за любой точкой в гигантской экономике страны.
Разумеется, не разрешили. Формально из за цены - дороже атомной и космической программ вместе взятых. На самом деле, из-за того, что экономика станет слишком прозрачной. Конец отпуску продукции "с черного хода" и другим известным в СССР явлениям. Но даже не только поэтому. Для налаживания работы пришлось бы переучить столько специалистов и так сильно поменять привычный уклад жизни и мышления (в проекте про мышление ничего не было, но, очевидно, это уже другое общество было бы), что в результате это был бы уже не СССР, который был нужен тем, кто принимал решение.
Интересно так же про предпосылки автора этого проекта Виктора Глушкова: "Человечество пережило в своей истории два информационных барьера, кризиса управления. Первый возник при разложении общинно-родового хозяйства и был преодолен с возникновением товарно-денежных отношений и иерархической системы управления, когда старший начальник управляет младшими, а те уже исполнителями. Второй барьер вырос в ХХ веке, когда уже не помогали ни иерархия в управлении, ни товарно-денежные отношения. Причина нового кризиса - невозможность даже множеству людей охватить все проблемы управления огромным хозяйством. Поэтому теперь даже самый умный и честный человек просто физически не сможет эффективно управлять экономикой."
Глушков получил несколько других государственных наград за другие проекты, в том числе первого советского персонального компьютера "МИР-1", но главное дело жизни, которым он видел преодоление кризиса сложности, так и не было реализовано. Виктор Михайлович ушел из жизни, не дожив до 60 лет.
Интересно пофантазировать, в каком мире мы бы жили сейчас, если бы этот проект был реализован. Именно "в каком мире", а не "в какой стране", потому что переход СССР под управление компьютером изменило бы все направление технического прогресса. Я не специалист ни в истории, ни в политологии, поэтому лишь предположу явную развилку: либо дегуманизация власти привела бы к снижению авторитета (хотя какой там авторитет у советской власти в этот период) и так же развалу СССР, либо та же самая дегуманизация наоборот ослабила бы социальный конфликт, а прозрачность экономики бы дала бы ей новый толчок.
https://rg.ru/2016/11/01/v-ssha-vyshla-kniga-o-dostizheniiah-sovetskih-kibernetikov.html
Российская газета
В США вышла книга о достижениях советских кибернетиков - Российская газета
Американский профессор о достижениях советских кибернетиков
Осторожно, помните: увидев раз, не развидеть.
Голосовой помощник Алекса установили в эту знаменитую рыбу.
http://www.theverge.com/2016/11/4/13525172/amazon-alexa-big-mouth-billy-bass-hack-api
Голосовой помощник Алекса установили в эту знаменитую рыбу.
http://www.theverge.com/2016/11/4/13525172/amazon-alexa-big-mouth-billy-bass-hack-api
The Verge
Man hacks Alexa into singing fish robot, terror ensues
A developer named Brian Kane has hacked his Alexa to speak through the avatar of a wall-mounted Big Mouth Billy Bass. It’s not clear exactly how he did it, but it’s probably related to the Alexa...
Наконец-то! Фотографии с конференции Future Foundation Technology Ethics
1 октября 2016
https://www.facebook.com/futurefo/photos/?tab=album&album_id=320224585028747
1 октября 2016
https://www.facebook.com/futurefo/photos/?tab=album&album_id=320224585028747
Facebook
Future Foundation - Photos | Facebook
Future Foundation, Москва (Moscow, Russia). 812 likes · 29 talking about this. Исследовательская и образовательная деятельность в областях:
- социальные...
- социальные...
Кроме того, что этот проект очень трогательный, он дает повод задуматься о том, насколько виртуальная реальность повысит качество эмоциональной-зависимой коммуникации (не все же vr-порно). То, что эффекты полного погружения могут быть востребовано в образовании и развлечениях уже очевидно, но тут еще и другие применения: психотерапия, коллетивная эмоциональная коммуникация.
Но самое важное - это новый уровень жизни для инвалидов, которые не могут двигаться. До тех пор, пока технологии не дойдут до такого уровня киборгизации. Вообще иронично, что технологии виртуальной реальности опередили медтехнику. Лет 15 назад в это было трудно поверить. И да, здесь вспоминается 4 серия последнего сезона Черного Зеркала.
Британский стартап Twine помог ветерану Второй мировой войны виртуально посетить французский город Армантьер, в освобождении которого от нацистской оккупации тот принимал участие в 1944 году. Во время виртуального путешествия 91-летний ветеран британского Королевского военно-морского флота Франк Мукэ встретился с благодарными жителями города, увидел посвящённое ему выступление школьного хора и получил медаль из рук мэра
https://youtu.be/PModuWq8hAI
(подробнее здесь: http://apparat.cc/news/second-world-war-veteran-vr/ )
Но самое важное - это новый уровень жизни для инвалидов, которые не могут двигаться. До тех пор, пока технологии не дойдут до такого уровня киборгизации. Вообще иронично, что технологии виртуальной реальности опередили медтехнику. Лет 15 назад в это было трудно поверить. И да, здесь вспоминается 4 серия последнего сезона Черного Зеркала.
Британский стартап Twine помог ветерану Второй мировой войны виртуально посетить французский город Армантьер, в освобождении которого от нацистской оккупации тот принимал участие в 1944 году. Во время виртуального путешествия 91-летний ветеран британского Королевского военно-морского флота Франк Мукэ встретился с благодарными жителями города, увидел посвящённое ему выступление школьного хора и получил медаль из рук мэра
https://youtu.be/PModuWq8hAI
(подробнее здесь: http://apparat.cc/news/second-world-war-veteran-vr/ )
YouTube
Twine - World War Two veteran uses VR for first time (Remembrance Day, 2016)
Frank’s story brought to you by Twine (https://www.twine.fm/)A World War Two veteran returns, through virtual reality, to a French town he helped liberate in...
Посмотрите на это кинематографическое качество. Это рендеринг в реальном времени. Это значит, что это не просто красивое кино (к спецэффектам такого уровня реалистичности все уже привыкли), а вы можете взаимодействовать с объектами в этом мире, например, манипуляторами в виртуальной реальности.
Это значит, что грань между кино, игрой, обучением, и вообще жизнью в виртуальной реальности уже стирается. Скоро, скоро мы увидим миры, которые будут творится в вместе авторами, пользователями (и часть тех и другиз будут нейронными сетками).
Только представьте мир, который вы не можете отличить от реального. Конечно, шлем vr немного будет давить на уши и напоминать о бренности существования, но через 5 минут уже привыкаешь и забываешь. И то шлем нужен будет только до момента пока не появятся контактные линзы с наложением (или вот как Magic Leap уже делает что-то ("самый секретный стартап"), проецирующее на сетчатку), а потом и вообще в зрительный нерв.
Будоражит.
Ложка дегтя - стоит отметить, что роботов проще сделать реалистичными, чем людей. У нас слишком плавные переходы форм - пока еще заметна разница. Но это вопрос очень ближайшего будущего, кстати, и в прорисовке людей может быть нейронные сети пригодятся.
https://youtu.be/GXI0l3yqBrA
Это значит, что грань между кино, игрой, обучением, и вообще жизнью в виртуальной реальности уже стирается. Скоро, скоро мы увидим миры, которые будут творится в вместе авторами, пользователями (и часть тех и другиз будут нейронными сетками).
Только представьте мир, который вы не можете отличить от реального. Конечно, шлем vr немного будет давить на уши и напоминать о бренности существования, но через 5 минут уже привыкаешь и забываешь. И то шлем нужен будет только до момента пока не появятся контактные линзы с наложением (или вот как Magic Leap уже делает что-то ("самый секретный стартап"), проецирующее на сетчатку), а потом и вообще в зрительный нерв.
Будоражит.
Ложка дегтя - стоит отметить, что роботов проще сделать реалистичными, чем людей. У нас слишком плавные переходы форм - пока еще заметна разница. Но это вопрос очень ближайшего будущего, кстати, и в прорисовке людей может быть нейронные сети пригодятся.
https://youtu.be/GXI0l3yqBrA
YouTube
Adam | Unity
"Adam" is an award-winning real-time-rendered short film, written and directed by Veselin Efremov, and created by the Unity Demo team. It runs at 1440p on a GeForce GTX980.
Learn more about the creation of "Adam", download the assets and the real-time version…
Learn more about the creation of "Adam", download the assets and the real-time version…
Ложка дегтя про человеческую внешность роботов в реальном мире.
Объекты, достаточно похожие на нас внешне, но недостаточно совпадающие с нами в манере поведения, вызывают у людей негативные эмоции. Этот эффект получил название "Зловещая долина" («Uncanny Valley»).
Японский робототехник Масахиро Мори в 1970 году сформулировал эту идею так: чем больше мы будем стараться делать роботов похожими на людей, тем большее отторжение они вызовут.
Почему человек испытывает страх к человекоподобным роботам? Почему это часто выливается в опреждающую жестокость (лучшая защита - нападение)? Человеческий инстинкт, как один из барьеров развития технологий.
https://nplus1.ru/blog/2016/11/07/uncanny-valley-effect
Объекты, достаточно похожие на нас внешне, но недостаточно совпадающие с нами в манере поведения, вызывают у людей негативные эмоции. Этот эффект получил название "Зловещая долина" («Uncanny Valley»).
Японский робототехник Масахиро Мори в 1970 году сформулировал эту идею так: чем больше мы будем стараться делать роботов похожими на людей, тем большее отторжение они вызовут.
Почему человек испытывает страх к человекоподобным роботам? Почему это часто выливается в опреждающую жестокость (лучшая защита - нападение)? Человеческий инстинкт, как один из барьеров развития технологий.
https://nplus1.ru/blog/2016/11/07/uncanny-valley-effect
N + 1 — главное издание о науке, технике и технологиях
Эффект «зловещей долины»
Видео нашей панели "Творчество машин: стоит ли людям опасаться конкуренции" на Форум "Открытые инновации"
Участники дискуссии:
- Алексей Турчин — член Ассоциации футурологов, сотрудник Фонда «Наука за продление жиз, искусствовед
- Анна Абалихина — хореограф, куратор
- Ростан Тавасиев — художник
- Елизавета Плавинская — искусствовед, художник
- Иван Нефедкин — креативный директор медиа дизайн студии Radugadesign.
Дискуссия получилась жаркой, интересной. Продолжим работу с темой.
Вот краткий контекст разговора:
Новости о радикальных успехах нейронных сетей приходят в среднем раз в две недели. И эти новости рушат нашу картину мира: "машина научилась копировать стиль художников", "машина научилась писать музыку", "машина научилась копировать стиль поэта", "машина дошла до финала литературного конкурса" и так далее.
У меня есть гипотеза, что сам факт возможности потери монополии человеческого разума на творчество заставляет чувствовать себя неуютно даже обычных людей. Процесс, конечно, некомфортный, это есть тот самый "шок будущего". И это актуализирует вопросы этического принятия новых технологий, насколько комфортно людям жить в мире будущего. Как справится с этим онтологическим разрывом.
А вот вопросы, которые мы обсуждали:
- Нужно ли нам переосмыслить понятия "искусства", "творчества", "гениальности"? Где граница дилетант-профессионал? Если машины - новые подражатели, то в чем истинная ценность оригинала, если подражание невозможно отличить?
- Где здесь понятие "сознание" и является ли его наличие обязательным условием творчества?
- Если у человеческого вида осталась монополия на творчество, то что это за творчество? Что мы отдадим машинам? Что станет делать человек-творец, когда искусственный интеллект сможет выполнять творческие задачи? Чем займутся в этой ситуации люди?
- Многие специалисты по искусственному интеллекту и биотехнологиям утверждают, что будущее человечества не в конкуренции с машинами, а в соединении с ними. Что будущее нашего вида - это "цифровые кентавры" - киборги с компьютером, постоянно подключенному к мозгу и усиливающему нас. Если предположить, что такое будущее настанет и что творцы тоже будут такими киборгами - то как будет выглядеть искусство, которое творится соединением человека и ИИ?
- Станет ли искусственный интеллект, если он действительно будет серьезно превосходить человека по мощности, заниматься творчеством? Зачем ему творчество?
- Если машины могут творить для людей, могут ли они и воспринимать творчество? Придем ли мы к творчеству машин для машин?
https://youtu.be/D5_GXFPehws
Участники дискуссии:
- Алексей Турчин — член Ассоциации футурологов, сотрудник Фонда «Наука за продление жиз, искусствовед
- Анна Абалихина — хореограф, куратор
- Ростан Тавасиев — художник
- Елизавета Плавинская — искусствовед, художник
- Иван Нефедкин — креативный директор медиа дизайн студии Radugadesign.
Дискуссия получилась жаркой, интересной. Продолжим работу с темой.
Вот краткий контекст разговора:
Новости о радикальных успехах нейронных сетей приходят в среднем раз в две недели. И эти новости рушат нашу картину мира: "машина научилась копировать стиль художников", "машина научилась писать музыку", "машина научилась копировать стиль поэта", "машина дошла до финала литературного конкурса" и так далее.
У меня есть гипотеза, что сам факт возможности потери монополии человеческого разума на творчество заставляет чувствовать себя неуютно даже обычных людей. Процесс, конечно, некомфортный, это есть тот самый "шок будущего". И это актуализирует вопросы этического принятия новых технологий, насколько комфортно людям жить в мире будущего. Как справится с этим онтологическим разрывом.
А вот вопросы, которые мы обсуждали:
- Нужно ли нам переосмыслить понятия "искусства", "творчества", "гениальности"? Где граница дилетант-профессионал? Если машины - новые подражатели, то в чем истинная ценность оригинала, если подражание невозможно отличить?
- Где здесь понятие "сознание" и является ли его наличие обязательным условием творчества?
- Если у человеческого вида осталась монополия на творчество, то что это за творчество? Что мы отдадим машинам? Что станет делать человек-творец, когда искусственный интеллект сможет выполнять творческие задачи? Чем займутся в этой ситуации люди?
- Многие специалисты по искусственному интеллекту и биотехнологиям утверждают, что будущее человечества не в конкуренции с машинами, а в соединении с ними. Что будущее нашего вида - это "цифровые кентавры" - киборги с компьютером, постоянно подключенному к мозгу и усиливающему нас. Если предположить, что такое будущее настанет и что творцы тоже будут такими киборгами - то как будет выглядеть искусство, которое творится соединением человека и ИИ?
- Станет ли искусственный интеллект, если он действительно будет серьезно превосходить человека по мощности, заниматься творчеством? Зачем ему творчество?
- Если машины могут творить для людей, могут ли они и воспринимать творчество? Придем ли мы к творчеству машин для машин?
https://youtu.be/D5_GXFPehws
YouTube
Дискуссионная панель "Творчество машин: стоит ли людям опасаться конкуренции"
В рамках форума Открытые Инновации Фото мероприятия: https://goo.gl/0Azr4c
Избрание Трампа приведет к свободным научным экспериментах вне государственной юрисдикции?
Ну ладно, заговок я, конечно, очень громко сформулировал. И мой пост - скорее фантазия на тему, чем аналитика и прогноз. Но интересно порассуждать:
Помню, была история с какими-то баржами Google, которые то ли должны были продавать Google Glass, то ли служить коворкингом для программистов, то ли и то и другое. Важно то, что их называли "тестовым полигоном" Кремниевой Долины по "уходу в нейтральные воды" - развитием известной идеи с плавучими городами-государствами. Идея в том, что в нейтральных водах строится остров, в рамках которого действует некоторая "нужная" политическая и экономическая система. "Нужная" для тех, кто такой остров профинансировал, в контексте Кремниевой Долины - это, видимо, была бы какая-то очень свободная экономическая зона со всеми современными политическими свободами, а также, с учетом движения Кремниевой Долины в сторону науки, в большой степени биотеха (вспомним проект научного центра по борьбе со старением, щедро финансируемый Цукербергами), на таких островах авторам проекта желательно было бы иметь законодательную легализацию свободных научных экспериментов: в первую очередь, биологических, в совсем первую - разрешение на запрещенное почти везде редактирование генома человека.
Тогда из этого проекта ничего не вышло, во всяком случае он не получил развитие, но, возможно, отчасти потому что в США и так все было хорошо для этих компаний, за исключением свободы экспериментов. Теперь поводов отделиться добавилось.
http://www.cnews.ru/news/top/2016-11-09_izza_pobedy_trampa_silikonovaya_dolina_hochet
Ну ладно, заговок я, конечно, очень громко сформулировал. И мой пост - скорее фантазия на тему, чем аналитика и прогноз. Но интересно порассуждать:
Помню, была история с какими-то баржами Google, которые то ли должны были продавать Google Glass, то ли служить коворкингом для программистов, то ли и то и другое. Важно то, что их называли "тестовым полигоном" Кремниевой Долины по "уходу в нейтральные воды" - развитием известной идеи с плавучими городами-государствами. Идея в том, что в нейтральных водах строится остров, в рамках которого действует некоторая "нужная" политическая и экономическая система. "Нужная" для тех, кто такой остров профинансировал, в контексте Кремниевой Долины - это, видимо, была бы какая-то очень свободная экономическая зона со всеми современными политическими свободами, а также, с учетом движения Кремниевой Долины в сторону науки, в большой степени биотеха (вспомним проект научного центра по борьбе со старением, щедро финансируемый Цукербергами), на таких островах авторам проекта желательно было бы иметь законодательную легализацию свободных научных экспериментов: в первую очередь, биологических, в совсем первую - разрешение на запрещенное почти везде редактирование генома человека.
Тогда из этого проекта ничего не вышло, во всяком случае он не получил развитие, но, возможно, отчасти потому что в США и так все было хорошо для этих компаний, за исключением свободы экспериментов. Теперь поводов отделиться добавилось.
http://www.cnews.ru/news/top/2016-11-09_izza_pobedy_trampa_silikonovaya_dolina_hochet
CNews.ru
Из-за победы Трампа Кремниевая долина хочет отделиться от США
Представители ИТ-отрасли США выразили в соцсетях свое мнение по поводу победы Дональда Трампа на президентских...
Почему многие люди так удивились победе Трампа?
Глобальная связность и социальные сети дают нам возможность окружить себя людьми, которые нам интересны и чья позиция нам приятна. Это называется "информационный пузырь" и действительно это феномен нового времени, так как раньше, до того, как мы могли управлять нашим информационным полем, нам гораздо больше приходилось общаться с людьми другой позиции, другого социального класса. Сейчас значимую часть нашей коммуникации заняли социальные сети, где мы находимся в этом "информационном пузыре". Ситуацию усиливают алгоритмы фейсбука - он показывает нам больше постов тех людей и того содержания, которые мы лайкаем. Получается система с положительно обратной связью - в пределе такой "пузырь" должен сужаться, но он держится в пределах какого-то радиуса как нашей любознательностью (все же она осталась), так и рандомайзером, который в некоторой степени все же присутствует в выдаче постов.
Кстати, продолжая известное обсуждение что Google может влиять на исход выборов - по идее, Facebook, меняя вот этот параметр рандомайзера выдачи постов - ширины коридора (дельта радиуса нашего информационного пузыря) может тоже влиять на исход выборов, так как может сложиться ситуация, что для одной из сторон политической гонки выгодно, чтобы избиратели оказались в ситуации негодования от того что им стало попадаться много постов неприятного содержания.
http://nymag.com/scienceofus/2016/11/how-facebook-and-the-filter-bubble-pushed-trump-to-victory.html
Глобальная связность и социальные сети дают нам возможность окружить себя людьми, которые нам интересны и чья позиция нам приятна. Это называется "информационный пузырь" и действительно это феномен нового времени, так как раньше, до того, как мы могли управлять нашим информационным полем, нам гораздо больше приходилось общаться с людьми другой позиции, другого социального класса. Сейчас значимую часть нашей коммуникации заняли социальные сети, где мы находимся в этом "информационном пузыре". Ситуацию усиливают алгоритмы фейсбука - он показывает нам больше постов тех людей и того содержания, которые мы лайкаем. Получается система с положительно обратной связью - в пределе такой "пузырь" должен сужаться, но он держится в пределах какого-то радиуса как нашей любознательностью (все же она осталась), так и рандомайзером, который в некоторой степени все же присутствует в выдаче постов.
Кстати, продолжая известное обсуждение что Google может влиять на исход выборов - по идее, Facebook, меняя вот этот параметр рандомайзера выдачи постов - ширины коридора (дельта радиуса нашего информационного пузыря) может тоже влиять на исход выборов, так как может сложиться ситуация, что для одной из сторон политической гонки выгодно, чтобы избиратели оказались в ситуации негодования от того что им стало попадаться много постов неприятного содержания.
http://nymag.com/scienceofus/2016/11/how-facebook-and-the-filter-bubble-pushed-trump-to-victory.html
The Cut
The ‘Filter Bubble’ Explains Why Trump Won and You Didn’t See It Coming
What happens when you only get news that supports your worldview.
В новом докладе ООН, представленном на Конференции ООН по торговле и развитию, эксперты прогнозируют, что автоматизация труда затронет до двух третей рабочих мест в развивающихся странах, в особенности в Африке и Латинской Америке.
http://apparat.cc/news/un-report-robots-will-take-jobs/
http://apparat.cc/news/un-report-robots-will-take-jobs/
Apparat
Доклад ООН: роботы отберут 67% рабочих мест в развивающихся странах
В новом докладе ООН, представленном на Конференции ООН по торговле и развитию, эксперты прогнозируют, что автоматизация труда затронет до двух третей рабочих мест в развивающихся странах, в особенности в Африке и Латинской Америке. "Доля профессий, которые…
Интересная панель с Евгением Кузнецовым и Альбертом Ефимовым "Нужны ли мы нам" на конференции по искусственному интеллекту в Сколково:
Евгений Кузнецов за экзистенциальный подход, а Альберт Ефимов говорит, что ему ближе прикладной.
ЕК: И искусственный интеллект, и синтетическая биология - следствие желания побыть богом. Во многом согласен.
ЕК: Избрание Трампа - следствие страха перед быстрым развитием новых технологий.
АЕ: Первое, что люди делают, покупаю машину с функцией авптопилота - отклачают его. Неожиданно, если так, не знал такой статистики.
ЕК: Люди, создающие искусственный интеллект, создают антропоморфный интеллект. И первая задача - реализовать эмоциональный интеллект, иначе невозможно достичь антропоморфности. Второй вариант - другой интеллект. Не челокоподобный сверхразум, а иной.
ЕК: В 2018 году граждане ЕС получат законодательное право знать, чем именно обоснованно решение в отношении их, принятое ИИ (медицинские, экономические и другие). В продолжении вопроса о синтезе разума, это - вопрос о синтезе права. Виктор Вахштайн говорил, что первые суды над действиями машины были еще в Римской Империи. Насколько быстро машины станут субъектами права? Скорость этого процесса пропорциональна количеству смертей. Это горячая дискуссия где-то 2025 года.
ЕК: Техносфера выравнивается с ноосферой в своей мощи, нам придется эволюционировать с такой логикой и скоростью, чтобы балансировать с техноэволюцией. Редактирование генома делается на основе машинного обучения bigdata. В будущем машина подскажет, какие гены стоит запрограммировать ребенку. Так машины будут влиять на эволюцию человека.
АЕ: Не замещение человека, а расширение возможностей с помощью ИИ. Постепенный переход на новый технологический уровень.
ЕК: Попытка создать ИИ - желание создать машину, самостоятельно производящее смыслы. Апогей идеологии машинной цивилизации. Основные сутевые изменения делаются людьми, которые хотят покуситься на что-то святое. В России с этим сложная ситуация. а для классической европейской цивилизации - это попытка проверить, насколько мы приблизились к богу в наших возможностях. Нельзя замахнуться на что-то великое, если не держать великое в голове. Когда Перельман говорит, что он управляет Вселенной, многие думают, что он чокнулся. Но нет, он не чокнулся, а правильно мотивирован) (чуть перефразировал). Итого, создание ИИ - проверка, насколько мы есть мыслящее существо, Если рациональное мышление воспроизводимо рукотворно, значит человек - это что-то большее. (с этим не очень согласен, во всяком случае, этот логический переход не самоочевиден).
ЕК: Важен поиск того, что является человеческим, а что можно отдать машине. Например, водить машину - для большинства людей необходимость, а не удовольствие, поэтому беспилотным машинам быть.
АЕ: Три измерения, как человек отличается от машины: манипуляция объектами, споособность к социальному взаимодейсвтию и креативность. Поэтому профессия садовника никогда не умрет - потому удовлетворяет двум из трех критериев.
ЕК: Какие проблемы человечества ИИ может решить:
С развитием общества увеличивается объем принятия решений в расчета на инливидуума. Люди хотят отдать машине рутинные дейсвия, а себе оставить максимум свободы.
Возможности познания. Машины могут в этом помочь - не обладать всеми знаниями (с нынешним количеством знаний это невозможно), а быстро получить к ним доступ.
Итого, нам хочется больше свободы, осознанности и возможности реализовывать функцию познания. Больше знаний, больше кругозор, больше идей для творчества.
АЕ: какие проблемы человечества ИИ может решить:
19 век - время создания ресурсов
20 век - время контроля. Как научиться контролировать все, что насоздавали. А также время цифровой информации.
21 век - что делать с собранной в 19 и 20 веке информацией? В мире нет проблемы создания еды, ресурсов. Есть проблема с распределением этого. ИИ должен помочь распределить ресурсы.
ЕК: если израильские ученые создали ИИ, обыгрывающий человека в Mortal Kombat, значит это разработку уже купили израильские военные.
Евгений Кузнецов за экзистенциальный подход, а Альберт Ефимов говорит, что ему ближе прикладной.
ЕК: И искусственный интеллект, и синтетическая биология - следствие желания побыть богом. Во многом согласен.
ЕК: Избрание Трампа - следствие страха перед быстрым развитием новых технологий.
АЕ: Первое, что люди делают, покупаю машину с функцией авптопилота - отклачают его. Неожиданно, если так, не знал такой статистики.
ЕК: Люди, создающие искусственный интеллект, создают антропоморфный интеллект. И первая задача - реализовать эмоциональный интеллект, иначе невозможно достичь антропоморфности. Второй вариант - другой интеллект. Не челокоподобный сверхразум, а иной.
ЕК: В 2018 году граждане ЕС получат законодательное право знать, чем именно обоснованно решение в отношении их, принятое ИИ (медицинские, экономические и другие). В продолжении вопроса о синтезе разума, это - вопрос о синтезе права. Виктор Вахштайн говорил, что первые суды над действиями машины были еще в Римской Империи. Насколько быстро машины станут субъектами права? Скорость этого процесса пропорциональна количеству смертей. Это горячая дискуссия где-то 2025 года.
ЕК: Техносфера выравнивается с ноосферой в своей мощи, нам придется эволюционировать с такой логикой и скоростью, чтобы балансировать с техноэволюцией. Редактирование генома делается на основе машинного обучения bigdata. В будущем машина подскажет, какие гены стоит запрограммировать ребенку. Так машины будут влиять на эволюцию человека.
АЕ: Не замещение человека, а расширение возможностей с помощью ИИ. Постепенный переход на новый технологический уровень.
ЕК: Попытка создать ИИ - желание создать машину, самостоятельно производящее смыслы. Апогей идеологии машинной цивилизации. Основные сутевые изменения делаются людьми, которые хотят покуситься на что-то святое. В России с этим сложная ситуация. а для классической европейской цивилизации - это попытка проверить, насколько мы приблизились к богу в наших возможностях. Нельзя замахнуться на что-то великое, если не держать великое в голове. Когда Перельман говорит, что он управляет Вселенной, многие думают, что он чокнулся. Но нет, он не чокнулся, а правильно мотивирован) (чуть перефразировал). Итого, создание ИИ - проверка, насколько мы есть мыслящее существо, Если рациональное мышление воспроизводимо рукотворно, значит человек - это что-то большее. (с этим не очень согласен, во всяком случае, этот логический переход не самоочевиден).
ЕК: Важен поиск того, что является человеческим, а что можно отдать машине. Например, водить машину - для большинства людей необходимость, а не удовольствие, поэтому беспилотным машинам быть.
АЕ: Три измерения, как человек отличается от машины: манипуляция объектами, споособность к социальному взаимодейсвтию и креативность. Поэтому профессия садовника никогда не умрет - потому удовлетворяет двум из трех критериев.
ЕК: Какие проблемы человечества ИИ может решить:
С развитием общества увеличивается объем принятия решений в расчета на инливидуума. Люди хотят отдать машине рутинные дейсвия, а себе оставить максимум свободы.
Возможности познания. Машины могут в этом помочь - не обладать всеми знаниями (с нынешним количеством знаний это невозможно), а быстро получить к ним доступ.
Итого, нам хочется больше свободы, осознанности и возможности реализовывать функцию познания. Больше знаний, больше кругозор, больше идей для творчества.
АЕ: какие проблемы человечества ИИ может решить:
19 век - время создания ресурсов
20 век - время контроля. Как научиться контролировать все, что насоздавали. А также время цифровой информации.
21 век - что делать с собранной в 19 и 20 веке информацией? В мире нет проблемы создания еды, ресурсов. Есть проблема с распределением этого. ИИ должен помочь распределить ресурсы.
ЕК: если израильские ученые создали ИИ, обыгрывающий человека в Mortal Kombat, значит это разработку уже купили израильские военные.
АЕ: Как быть с контролем государства над технологиями? Конференция в Сколково - стимулирование публичной дискуссии на эту тему, объяснение, почему это важно. Невозможно регулировать технологии, потому что военные все равно захотят сделать по-своему. а главное - это образование всех участников рынка ИИ, чтобы люди потом через имеющиеся общественные институты в будущем следили за этой ситуацией.
ЕК: Как быть с контролем государства над технологиями?
Из этого следуют другие вопросы: Появление техносферы сделает классовые различия сильнее или слабее? А войны и конфликты станут чаще или реже?
Основной тренд в истории человечества - уменьшение уровня противоречий между сообществами. Технологическое развитие нас выравнивает и современная элита более ограничена этически. Развитие ИИ выведет нас на бОльшую внутреннюю этичность в отношении друг к другу. Потому что все будут пользоваться примерно одним и тем же интеллектуальным помощником, для которого все равны.
В конце 20-ого века мы вытеснили агрессию в спорт. Сейчас - в виртуальные игры. В будущем вероятно - в войны роботов и кибератаки.
ЕК: когда встанет вопрос не "нужны ли мы нам?" как "нужны ли мы им?"?. Это вопрос о субъектности ИИ. Как быстро машина начнут сравнивать нас с ними? Такой уровень разумности - следующий шаг и на более отдаленной перспективе. Мы преувеличиваем нашу способность влиять на прогресс. Люди - придаток прогресса, мы лишь участвует в этом. Если одни люди себя этически ограничат в какой-то технологической области, успеха в ней достигнут другие.
ЕК: Как быть с общественным контролем за разработкой ИИ, ведь сейчас они делаются в основном в больших корпорациях и в военной области, не зайдут ли технократы слишком далеко?
Избиратель Трампа - это человек, который боится, что в университетском кампусе сделается что-то, что изменит его жизнь решительно к худшему. На самом деле большая часть технологических практик в мире ограничена этически. Когда китайцы сделали первый эксперимент с редактированием генома, все ученые в мире собрались на конгрессы и самостоятельно взяли на себя этические ограничения. Баланс между жаждой прогресса и готовность взять на себя ответственность за экзистенциальные риски. Но благодаря технологиям, государство теперь не единственный держатель ответственность. Благодаря соцсетями, блокчейну и подобным технологиям, общество теперь может самостоятельно взять на себя ответственность и распределенно принять решение. Правда, общество не начнет действовать, пока будущее не постучиться в дверь. Поэтому катастрофа с ИИ неизбежна, которая станет триггером для появления активного общественного дискурса на эту тему.
АЕ: Как быть с общественным контролем за разработкой ИИ, ведь сейчас они делаются в основном в больших корпорациях и в военной области, не зайдут ли технократы слишком далеко? Нужны общественно-государственные органы, которые регулируют эту деятельность.
ЕК: Как быть с контролем государства над технологиями?
Из этого следуют другие вопросы: Появление техносферы сделает классовые различия сильнее или слабее? А войны и конфликты станут чаще или реже?
Основной тренд в истории человечества - уменьшение уровня противоречий между сообществами. Технологическое развитие нас выравнивает и современная элита более ограничена этически. Развитие ИИ выведет нас на бОльшую внутреннюю этичность в отношении друг к другу. Потому что все будут пользоваться примерно одним и тем же интеллектуальным помощником, для которого все равны.
В конце 20-ого века мы вытеснили агрессию в спорт. Сейчас - в виртуальные игры. В будущем вероятно - в войны роботов и кибератаки.
ЕК: когда встанет вопрос не "нужны ли мы нам?" как "нужны ли мы им?"?. Это вопрос о субъектности ИИ. Как быстро машина начнут сравнивать нас с ними? Такой уровень разумности - следующий шаг и на более отдаленной перспективе. Мы преувеличиваем нашу способность влиять на прогресс. Люди - придаток прогресса, мы лишь участвует в этом. Если одни люди себя этически ограничат в какой-то технологической области, успеха в ней достигнут другие.
ЕК: Как быть с общественным контролем за разработкой ИИ, ведь сейчас они делаются в основном в больших корпорациях и в военной области, не зайдут ли технократы слишком далеко?
Избиратель Трампа - это человек, который боится, что в университетском кампусе сделается что-то, что изменит его жизнь решительно к худшему. На самом деле большая часть технологических практик в мире ограничена этически. Когда китайцы сделали первый эксперимент с редактированием генома, все ученые в мире собрались на конгрессы и самостоятельно взяли на себя этические ограничения. Баланс между жаждой прогресса и готовность взять на себя ответственность за экзистенциальные риски. Но благодаря технологиям, государство теперь не единственный держатель ответственность. Благодаря соцсетями, блокчейну и подобным технологиям, общество теперь может самостоятельно взять на себя ответственность и распределенно принять решение. Правда, общество не начнет действовать, пока будущее не постучиться в дверь. Поэтому катастрофа с ИИ неизбежна, которая станет триггером для появления активного общественного дискурса на эту тему.
АЕ: Как быть с общественным контролем за разработкой ИИ, ведь сейчас они делаются в основном в больших корпорациях и в военной области, не зайдут ли технократы слишком далеко? Нужны общественно-государственные органы, которые регулируют эту деятельность.