Вы, наверное, думаете - что это за картинки? А это лучшие работы, пришедшие на конкурс «Как выглядит искусственный интеллект?». Его проводила российская компания — разработчик систем искусственного интеллекта Cognitive Technologies совместно с Фондом русского абстрактного искусства при поддержке МГХПА им. С. Г. Строганова и МФТИ. Что интересно, ни один из победителей конкурса не изобразил сверхразум в виде компьютера или робота. Всё-таки искусственный интеллект — очень человеческая тема.
Вышла статья по нашей дискуссионной панели "Будущее ума и технологии" на конференции "Ясный ум".
"Делегируя отдельные функции нашего сознания технике, мы не становимся более ленивыми или глупыми — наоборот, мы это делаем для того, чтобы работать с более сложными системами. Компьютер обрабатывает информацию, чтобы мы могли работать с метаинформацией, с задачами более высокого уровня. Допустим, надо построить адронный коллайдер. Ни один человек, ни группа людей не способны удержать в голове настолько сложную систему. Нам остаётся либо ждать, пока мы эволюционируем до такого уровня, когда сможем держать в голове все данные о коллайдере, либо отдавать всё больше функций по обработке этой информации компьютеру."
Статья проиллюстрированна как раз вышепоказанными картинками.
Беседовали c Андреем Константиновым, Константином Фрумкиным, Михаилом Бурцевым, Алексеем Турчиным, Александром Тхостовым. Да, и спасибо Павлу Лукше, что тогда пригласил, а Андрею Константинову, что написал статью.
http://kot.sh/statya/2433/um-i-mashiny
"Делегируя отдельные функции нашего сознания технике, мы не становимся более ленивыми или глупыми — наоборот, мы это делаем для того, чтобы работать с более сложными системами. Компьютер обрабатывает информацию, чтобы мы могли работать с метаинформацией, с задачами более высокого уровня. Допустим, надо построить адронный коллайдер. Ни один человек, ни группа людей не способны удержать в голове настолько сложную систему. Нам остаётся либо ждать, пока мы эволюционируем до такого уровня, когда сможем держать в голове все данные о коллайдере, либо отдавать всё больше функций по обработке этой информации компьютеру."
Статья проиллюстрированна как раз вышепоказанными картинками.
Беседовали c Андреем Константиновым, Константином Фрумкиным, Михаилом Бурцевым, Алексеем Турчиным, Александром Тхостовым. Да, и спасибо Павлу Лукше, что тогда пригласил, а Андрею Константинову, что написал статью.
http://kot.sh/statya/2433/um-i-mashiny
«Кот Шрёдингера» — научно-популярный журнал
Ум и машины // Как меняет людей эволюция технологий
Информационная революция стремительно погружает нас в новую среду обитания. Но не глупеем ли мы с той же скоростью, с какой телефоны умнеют? На круглом столе «Будущее ума и технологии» разработчики искусственного интеллекта, футурологи и психологи обсуждали…
Завтра буду говорить про "темную материю образования"
"Задача данной встречи клуба описать фантастические концепты, зафиксировав своеобразную "тёмную материю", которая способна оказывать влияние на образовательные практики, но не видна и непонята. Насколько обитаема та реальность образования, которая оказалась под крылом "чёрного лебедя" — это вопрос, который мы хотим поставить в рамках обсуждения"
https://www.facebook.com/events/160738021045440/
"Задача данной встречи клуба описать фантастические концепты, зафиксировав своеобразную "тёмную материю", которая способна оказывать влияние на образовательные практики, но не видна и непонята. Насколько обитаема та реальность образования, которая оказалась под крылом "чёрного лебедя" — это вопрос, который мы хотим поставить в рамках обсуждения"
https://www.facebook.com/events/160738021045440/
Недавно Google выпустил девайс Google Home. Это стильный настольный микрофон, подключенный к интернету, который всегда готов отозваться на ваше "Ok, Google" и выполнить какие-то инструкции - пока что как Google Now, в будущем - и управлять умным домом.
Статья про то, что это приведет к смерти privacy, мол, девайс может слушать все ваши разговоры в доме, все что вы смотрите по телевизору и так далее. Google, конечно, говорит, что микрофон слушает только начиная с фразы "Ok, Google". И может быть даже так и есть. Прагматически нет в этом ничего нового - телефон тоже может вас слушать, и с ним вы проводите даже больше времени, чем дома рядом с таким новым микрофоном.
Другое дело, и это интереснее всего, как мы - "прогрессивное либеральное общество" - реагируем на сообщения о том, что ФСБ/АНБ/ФБР (нужное подчеркнуть) хотят читать нашу переписку и слушать наши телефоны а сравнении с тем, как реагируем на сообщения о том, что появился очередной девайс, который может нас слушать в пользу корпорации. Интересно здесь то, что, по-видимому, мы гораздо проще примем "Большого Брата" в виде корпораций, чем в виде государства. Патернализм корпораций даже в массовой культуре закреплен скорее положительно (реклама компаний "мы заботимся о вас" работает), в то время как партернализм государства для многих людей неприятен. Понятна и причина такой разницы - госдарства за долгую историю "наломали дров" с использованием собранной информации - ведь цель такого сбора - как правило наказание. А представим, что государства бы следили за нами ради помощи - прослушивали бы телефон не "плохого парня", а "хорошего", чтобы, например, полиция быстро выехала, если слышит в микрофоне телефона крики о помощи. Фантастика? Пожалуй, но важнее то, что даже если какое-то государство станет такое декларировать, мы ему скорее всего не поверим - кредит доверия исчерпан. В то же время кредит доверия корпорациям, напротив, растет - мы можем риторически посетовать, что таргетированная реклама слишком таргетированная, но в итоге все равно купим новый домашний микрофон Google.
Пока без вывода, просто размышления.
http://www.computerworld.com/article/3128791/data-privacy/how-google-homes-always-on-will-affect-privacy.html
Статья про то, что это приведет к смерти privacy, мол, девайс может слушать все ваши разговоры в доме, все что вы смотрите по телевизору и так далее. Google, конечно, говорит, что микрофон слушает только начиная с фразы "Ok, Google". И может быть даже так и есть. Прагматически нет в этом ничего нового - телефон тоже может вас слушать, и с ним вы проводите даже больше времени, чем дома рядом с таким новым микрофоном.
Другое дело, и это интереснее всего, как мы - "прогрессивное либеральное общество" - реагируем на сообщения о том, что ФСБ/АНБ/ФБР (нужное подчеркнуть) хотят читать нашу переписку и слушать наши телефоны а сравнении с тем, как реагируем на сообщения о том, что появился очередной девайс, который может нас слушать в пользу корпорации. Интересно здесь то, что, по-видимому, мы гораздо проще примем "Большого Брата" в виде корпораций, чем в виде государства. Патернализм корпораций даже в массовой культуре закреплен скорее положительно (реклама компаний "мы заботимся о вас" работает), в то время как партернализм государства для многих людей неприятен. Понятна и причина такой разницы - госдарства за долгую историю "наломали дров" с использованием собранной информации - ведь цель такого сбора - как правило наказание. А представим, что государства бы следили за нами ради помощи - прослушивали бы телефон не "плохого парня", а "хорошего", чтобы, например, полиция быстро выехала, если слышит в микрофоне телефона крики о помощи. Фантастика? Пожалуй, но важнее то, что даже если какое-то государство станет такое декларировать, мы ему скорее всего не поверим - кредит доверия исчерпан. В то же время кредит доверия корпорациям, напротив, растет - мы можем риторически посетовать, что таргетированная реклама слишком таргетированная, но в итоге все равно купим новый домашний микрофон Google.
Пока без вывода, просто размышления.
http://www.computerworld.com/article/3128791/data-privacy/how-google-homes-always-on-will-affect-privacy.html
Computerworld
How Google Home's 'always on' will affect privacy
Google this week took the wraps off Google Home, its smart speaker and home entertainment hub, but questions remain about the impact the device will have on users' privacy.
Все уже видели мир vr-будущего от Марка? Круто. Facebook собирается быть держателем не только нашего коммуникационного пространства, но и пространства действия. Это важно, запомним этот момент.
https://www.facebook.com/zuck/videos/vb.4/10103154531425531
https://www.facebook.com/zuck/videos/vb.4/10103154531425531
Facebook
Mark Zuckerberg - Here's the crazy virtual reality demo I... | Facebook
Here's the crazy virtual reality demo I did live on stage at Oculus Connect today. The idea is that virtual reality puts people first. It's all about who...
Коллеги, 24 октября в Санкт-Петербурге в рамках Международной школы социологии науки и техники им. С.А. Кугеля я делаю воркшоп "Этические вопросы новых технологий: где-то между утопией и антиутопией".
Если вы студент бакалавриата или магистратуры, аспирант, молодой ученый - вы можете подать заявку на школу и принять участие в воркшопе (для этого в анкете нужно поставить галочку в соответствующем блоке). Дедлайн подачи заявок - 16 октября, так что поторопитесь. Разумеется, все бесплатно. Вот ссылка: https://docs.google.com/forms/d/e/1FAIpQLScCQlEB2myalx7YTvtiwWviO5oCIy0xQ9QtSB5shOSbupJKMg/viewform?c=0&w=1
А вот описание воркшопа:
Мы находимся в эпоху стремительного развития технологий. Не все из них нам привычны, а какие-то и вовсе пугают часть общества. Как следствие, технологии запрещаются, прогресс замедляется. Хорошо ли это? Как быть с этическими границами общества?
С другой стороны, некоторые применения технологий и правда могут повредить обществу. Усилить тоталитарные режимы новыми инструментами контроля или оказаться слишком сильной "игрушкой" в руках маргинальных групп.
Где граница между запретом технологий и бесконтрольным развитием?
Ответственность за выборы пути в этих развилках человечеству придется взять на себя, остаться в стороне не получится.
Предполагается несколько форматов групповой работы: свободная дискуссия, игровые форматы (расстановки, форсайт-методики и т.д.), модерируемая дискуссия, работа в подгруппах.
Кстати, партнерами школы выступает Московский технологический институт и Future Foundation.
Если вы студент бакалавриата или магистратуры, аспирант, молодой ученый - вы можете подать заявку на школу и принять участие в воркшопе (для этого в анкете нужно поставить галочку в соответствующем блоке). Дедлайн подачи заявок - 16 октября, так что поторопитесь. Разумеется, все бесплатно. Вот ссылка: https://docs.google.com/forms/d/e/1FAIpQLScCQlEB2myalx7YTvtiwWviO5oCIy0xQ9QtSB5shOSbupJKMg/viewform?c=0&w=1
А вот описание воркшопа:
Мы находимся в эпоху стремительного развития технологий. Не все из них нам привычны, а какие-то и вовсе пугают часть общества. Как следствие, технологии запрещаются, прогресс замедляется. Хорошо ли это? Как быть с этическими границами общества?
С другой стороны, некоторые применения технологий и правда могут повредить обществу. Усилить тоталитарные режимы новыми инструментами контроля или оказаться слишком сильной "игрушкой" в руках маргинальных групп.
Где граница между запретом технологий и бесконтрольным развитием?
Ответственность за выборы пути в этих развилках человечеству придется взять на себя, остаться в стороне не получится.
Предполагается несколько форматов групповой работы: свободная дискуссия, игровые форматы (расстановки, форсайт-методики и т.д.), модерируемая дискуссия, работа в подгруппах.
Кстати, партнерами школы выступает Московский технологический институт и Future Foundation.
Google Docs
Заявка для слушателей
XXXII сессии Международной школы социологии науки и технологий им. С. А. Кугеля «Глобальная наука и международная коллаборация», 24-26 октября 2016, Санкт-Петербург
С развитием биотехнологий может остро встать проблема идентификации личности, а не тела. Ну правда, если тело в большинстве своем можно изменить, заменить некоторые его части на более совершенные биопротезы, как точно идентифицировать личность, а не тело? Исследователи предлагают различные способы замены классических паролей на более продвинутые — аутентификацию по отпечатку пальца, форме ушной раковины или по походке. Как понять в информационном пространстве, кто скрывается под аватаром твоего друга или подруги? Так вот, в этом направлении тоже ведётся работа ученых. Например, аутентификация по мозговым импульсам. Но и тут столкнулись с ситуацией конфиденциальности. К примеру, при таком способе аутентификации устройствам смогут стать доступны слишком конфиденциальные данные о пользователе. По мозговым импульсам можно определить состояние здоровья, личностные качества, эмоции, факт употребления наркотиков и многое другое. Развитие технологий, вторгающихся во внутренний мир человека, и их внедрение связывают с такими большими рисками, что старые добрые пароли могут показаться куда более безопасными.
http://www.digitaltrends.com/cool-tech/cybersecurity-brain-wave-passcodes/
http://www.digitaltrends.com/cool-tech/cybersecurity-brain-wave-passcodes/
Digital Trends
Cybersecurity expert: Brain wave passwords bring major possibilities, risks
Some experts view brain wave detection as the next frontier in unbeatable passwords. but they present a major problem, says one cybersecurity expert.
Из обсуждения с коллегами, атмосферное:
Собрались седобородые старцы на народном вече вокруг костра... и запретили редактировать геном человека
Собрались седобородые старцы на народном вече вокруг костра... и запретили редактировать геном человека
Отличная песня про CRISPR, кейс к популяризации науки.
С 2:36 показаны основные вехи в развитии технологиb
https://youtu.be/k99bMtg4zRk
С 2:36 показаны основные вехи в развитии технологиb
https://youtu.be/k99bMtg4zRk
YouTube
CRISPR-Cas9 ("Mr. Sandman" Parody) | A Capella Science
SPONSOR ME ON PATREON: http://patreon.com/acapellascience
POSTER: http://store.dftba.com/products/bohemian-gravity-poster
SUBSCRIBE: https://www.youtube.com/user/acapellascience?sub_confirmation=1
MP3: https://timblais.bandcamp.com/track/crispr-cas9-bring…
POSTER: http://store.dftba.com/products/bohemian-gravity-poster
SUBSCRIBE: https://www.youtube.com/user/acapellascience?sub_confirmation=1
MP3: https://timblais.bandcamp.com/track/crispr-cas9-bring…
Замечательное.
В центре внимания должны быть предметы, с которыми машины еще долгое время не смогут справляться достаточно хорошо. В то же время, нет смысла обучать школьников навыкам, которые никому не будут нужны через 10-20 лет.
«Научная фантастика постепенно превращается в научный факт, и ИИ будет играть все большую роль в нашей жизни в ближайшие десятилетия», — отметила Таня Матиас, одна из председательниц комитета. По ее мнению, современное школьное расписание не отвечает требованиям четвертой промышленной революции.
https://hightech.fm/2016/10/12/education_ai
В центре внимания должны быть предметы, с которыми машины еще долгое время не смогут справляться достаточно хорошо. В то же время, нет смысла обучать школьников навыкам, которые никому не будут нужны через 10-20 лет.
«Научная фантастика постепенно превращается в научный факт, и ИИ будет играть все большую роль в нашей жизни в ближайшие десятилетия», — отметила Таня Матиас, одна из председательниц комитета. По ее мнению, современное школьное расписание не отвечает требованиям четвертой промышленной революции.
https://hightech.fm/2016/10/12/education_ai
Хайтек
Британский парламент призвал готовить школьников к конкуренции с ИИ
Парламент Великобритании считает, что система образования должна адаптироваться к меняющемуся рынку труда и отказаться от преподавания устаревающих навыков, чтобы не сформировать "бесполезный класс". Депутаты также рекомендуют правительству создать комитет…
В продолжении темы о конкруренции с ИИ. Про беспилотные авто. Но на самом деле шире, не только про них, а вообще про новые технологии. Влияние новых технологий на дело жизни конкретного человека. Интересно, спокойно, рассудительно.
https://theidealist.ru/futureautomechanic
https://theidealist.ru/futureautomechanic
Президент Барак Обама в интервью изданию Wired обратил внимание на то, что развитие искусственного интеллекта может усугубить проблему социального неравенства и уменьшить средний уровень зарплаты. Предлагает просчитать и нивелировать подобные негативные последствия.
https://hightech.fm/2016/10/13/obama-white-house-ai-funding-research-plan
https://hightech.fm/2016/10/13/obama-white-house-ai-funding-research-plan
Хайтек
Власти США призвали развивать и контролировать искусственный интеллект
Администрация президента США Барака Обамы выпустила два доклада, посвященных развитию искусственного интеллекта в Соединенных Штатах, которые раскрывают возможности использования ИИ в социальной и государственной сферах.
Информация от наших партнеров: 21-23 октября в Иннополисе пройдет уже третий хакатон хакатон по Машинному Обучению и Нейроинтерфейсам Neurohack 3.0.
Можно будет проверить гипотезы, найти команду, показать результаты отраслевым экспертам, инвесторам, фондам и унести с собой ценные подарки от корпоративных партнеров - вроде обещают 10 призов на 15 команд)
Зовут программистов (машинное обучения, deeplearning), учёных в области yеврологии, нейрореабилитации и высшей нервной деятельности, а также предпринимателей и маркетологов.
http://sci-guide.com/neurohack3/
Можно будет проверить гипотезы, найти команду, показать результаты отраслевым экспертам, инвесторам, фондам и унести с собой ценные подарки от корпоративных партнеров - вроде обещают 10 призов на 15 команд)
Зовут программистов (машинное обучения, deeplearning), учёных в области yеврологии, нейрореабилитации и высшей нервной деятельности, а также предпринимателей и маркетологов.
http://sci-guide.com/neurohack3/
А все ведь уже "поиграли" в "игру" от MIT?
Рай для любителей проблем вагонетки.
Игра в формате теста состоит из 13 ситуаций, в каждой из которых у самоуправляемой машины есть два варианта действий – убить первую группу людей (или животных) или вторую. Группы потенциальных жертв ДТП вариативны – они могут состоять из пассажиров и пешеходов, детей и взрослых, мужчин и женщин, бездомных и воров, страдающих ожирением, пожилых и других социальных групп.
Можно создавать и свои ситуации.
Вообще, это хороший шаг к кодификации этики. Позже ИИ будут обучаться ей в мирах виртуальной реальности - это удобно, так как язык коммуникации объектов там - компьютерный код - общий для ИИ-агентов и аватар-агентов этой среды. А пока приходится вот так учить эти нейросетки.
Ну и напоследок текст с самого сайта игры:
От беспилотного вождения автомобиля на дорогах общего пользования до автономной посадки многоразовых ракет на беспилотные плавучие платформы: машинному интеллекту делегируют все более сложную деятельность человека. И автономия машинного интеллекта в этих сложных функциях может привести к ситуации, когда им приходится самостоятельно совершать выборы с участием человеческой жизни. Это требует не только более четкого понимания того, как люди делают такой выбор, но и более четкое понимания нашего восприятия машинного интеллекта, делающего такой выбор.
http://moralmachine.mit.edu/
Рай для любителей проблем вагонетки.
Игра в формате теста состоит из 13 ситуаций, в каждой из которых у самоуправляемой машины есть два варианта действий – убить первую группу людей (или животных) или вторую. Группы потенциальных жертв ДТП вариативны – они могут состоять из пассажиров и пешеходов, детей и взрослых, мужчин и женщин, бездомных и воров, страдающих ожирением, пожилых и других социальных групп.
Можно создавать и свои ситуации.
Вообще, это хороший шаг к кодификации этики. Позже ИИ будут обучаться ей в мирах виртуальной реальности - это удобно, так как язык коммуникации объектов там - компьютерный код - общий для ИИ-агентов и аватар-агентов этой среды. А пока приходится вот так учить эти нейросетки.
Ну и напоследок текст с самого сайта игры:
От беспилотного вождения автомобиля на дорогах общего пользования до автономной посадки многоразовых ракет на беспилотные плавучие платформы: машинному интеллекту делегируют все более сложную деятельность человека. И автономия машинного интеллекта в этих сложных функциях может привести к ситуации, когда им приходится самостоятельно совершать выборы с участием человеческой жизни. Это требует не только более четкого понимания того, как люди делают такой выбор, но и более четкое понимания нашего восприятия машинного интеллекта, делающего такой выбор.
http://moralmachine.mit.edu/
Moral Machine
A platform for public participation in and discussion of the human perspective on machine-made moral decisions