Между Небом и Землей
1.55K subscribers
438 photos
13 videos
46 files
778 links
Канал Петра Левича. Пишу здесь о том, как я чувствую жизнь и приглашаю в различные опыты.

Написать мне: @peterlevich
Download Telegram
Вы, наверное, думаете - что это за картинки? А это лучшие работы, пришедшие на конкурс «Как выглядит искусственный интеллект?». Его проводила российская компания — разработчик систем искусственного ­интеллекта Cognitive Technologies ­совместно с Фондом русского абстрактного искусства при поддержке МГХПА им. С. Г. Строганова и МФТИ. Что интересно, ни один из победителей конкурса не изобразил сверхра­зум в виде компьютера или робота. Всё-таки искусственный интеллект — очень человеческая тема.
Вышла статья по нашей дискуссионной панели "Будущее ума и технологии" на конференции "Ясный ум".

"Делегируя отдельные функции нашего сознания технике, мы не становимся более ленивыми или глупыми — наоборот, мы это делаем для того, чтобы работать с более сложными системами. Компьютер обрабатывает информацию, чтобы мы могли работать с метаинформацией, с задачами более высокого уровня. Допустим, надо построить адронный коллайдер. Ни один человек, ни группа людей не способны удержать в голове настолько сложную систему. Нам остаётся либо ждать, пока мы эволюционируем до такого уровня, когда сможем держать в голове все данные о коллайдере, либо отдавать всё больше функций по обработке этой информации компьютеру."

Статья проиллюстрированна как раз вышепоказанными картинками.

Беседовали c Андреем Константиновым, Константином Фрумкиным, Михаилом Бурцевым, Алексеем Турчиным, Александром Тхостовым. Да, и спасибо Павлу Лукше, что тогда пригласил, а Андрею Константинову, что написал статью.

http://kot.sh/statya/2433/um-i-mashiny
Завтра буду говорить про "темную материю образования"

"Задача данной встречи клуба описать фантастические концепты, зафиксировав своеобразную "тёмную материю", которая способна оказывать влияние на образовательные практики, но не видна и непонята. Насколько обитаема та реальность образования, которая оказалась под крылом "чёрного лебедя" — это вопрос, который мы хотим поставить в рамках обсуждения"

https://www.facebook.com/events/160738021045440/
Недавно Google выпустил девайс Google Home. Это стильный настольный микрофон, подключенный к интернету, который всегда готов отозваться на ваше "Ok, Google" и выполнить какие-то инструкции - пока что как Google Now, в будущем - и управлять умным домом.

Статья про то, что это приведет к смерти privacy, мол, девайс может слушать все ваши разговоры в доме, все что вы смотрите по телевизору и так далее. Google, конечно, говорит, что микрофон слушает только начиная с фразы "Ok, Google". И может быть даже так и есть. Прагматически нет в этом ничего нового - телефон тоже может вас слушать, и с ним вы проводите даже больше времени, чем дома рядом с таким новым микрофоном.

Другое дело, и это интереснее всего, как мы - "прогрессивное либеральное общество" - реагируем на сообщения о том, что ФСБ/АНБ/ФБР (нужное подчеркнуть) хотят читать нашу переписку и слушать наши телефоны а сравнении с тем, как реагируем на сообщения о том, что появился очередной девайс, который может нас слушать в пользу корпорации. Интересно здесь то, что, по-видимому, мы гораздо проще примем "Большого Брата" в виде корпораций, чем в виде государства. Патернализм корпораций даже в массовой культуре закреплен скорее положительно (реклама компаний "мы заботимся о вас" работает), в то время как партернализм государства для многих людей неприятен. Понятна и причина такой разницы - госдарства за долгую историю "наломали дров" с использованием собранной информации - ведь цель такого сбора - как правило наказание. А представим, что государства бы следили за нами ради помощи - прослушивали бы телефон не "плохого парня", а "хорошего", чтобы, например, полиция быстро выехала, если слышит в микрофоне телефона крики о помощи. Фантастика? Пожалуй, но важнее то, что даже если какое-то государство станет такое декларировать, мы ему скорее всего не поверим - кредит доверия исчерпан. В то же время кредит доверия корпорациям, напротив, растет - мы можем риторически посетовать, что таргетированная реклама слишком таргетированная, но в итоге все равно купим новый домашний микрофон Google.

Пока без вывода, просто размышления.

http://www.computerworld.com/article/3128791/data-privacy/how-google-homes-always-on-will-affect-privacy.html
Все уже видели мир vr-будущего от Марка? Круто. Facebook собирается быть держателем не только нашего коммуникационного пространства, но и пространства действия. Это важно, запомним этот момент.

https://www.facebook.com/zuck/videos/vb.4/10103154531425531
Коллеги, 24 октября в Санкт-Петербурге в рамках Международной школы социологии науки и техники им. С.А. Кугеля я делаю воркшоп "Этические вопросы новых технологий: где-то между утопией и антиутопией".

Если вы студент бакалавриата или магистратуры, аспирант, молодой ученый - вы можете подать заявку на школу и принять участие в воркшопе (для этого в анкете нужно поставить галочку в соответствующем блоке). Дедлайн подачи заявок - 16 октября, так что поторопитесь. Разумеется, все бесплатно. Вот ссылка: https://docs.google.com/forms/d/e/1FAIpQLScCQlEB2myalx7YTvtiwWviO5oCIy0xQ9QtSB5shOSbupJKMg/viewform?c=0&w=1

А вот описание воркшопа:

Мы находимся в эпоху стремительного развития технологий. Не все из них нам привычны, а какие-то и вовсе пугают часть общества. Как следствие, технологии запрещаются, прогресс замедляется. Хорошо ли это? Как быть с этическими границами общества?

С другой стороны, некоторые применения технологий и правда могут повредить обществу. Усилить тоталитарные режимы новыми инструментами контроля или оказаться слишком сильной "игрушкой" в руках маргинальных групп.

Где граница между запретом технологий и бесконтрольным развитием?

Ответственность за выборы пути в этих развилках человечеству придется взять на себя, остаться в стороне не получится.

Предполагается несколько форматов групповой работы: свободная дискуссия, игровые форматы (расстановки, форсайт-методики и т.д.), модерируемая дискуссия, работа в подгруппах.

Кстати, партнерами школы выступает Московский технологический институт и Future Foundation.
С развитием биотехнологий может остро встать проблема идентификации личности, а не тела. Ну правда, если тело в большинстве своем можно изменить, заменить некоторые его части на более совершенные биопротезы, как точно идентифицировать личность, а не тело? Исследователи предлагают различные способы замены классических паролей на более продвинутые — аутентификацию по отпечатку пальца, форме ушной раковины или по походке. Как понять в информационном пространстве, кто скрывается под аватаром твоего друга или подруги? Так вот, в этом направлении тоже ведётся работа ученых. Например, аутентификация по мозговым импульсам. Но и тут столкнулись с ситуацией конфиденциальности. К примеру, при таком способе аутентификации устройствам смогут стать доступны слишком конфиденциальные данные о пользователе. По мозговым импульсам можно определить состояние здоровья, личностные качества, эмоции, факт употребления наркотиков и многое другое. Развитие технологий, вторгающихся во внутренний мир человека, и их внедрение связывают с такими большими рисками, что старые добрые пароли могут показаться куда более безопасными.
http://www.digitaltrends.com/cool-tech/cybersecurity-brain-wave-passcodes/
Из обсуждения с коллегами, атмосферное:

Собрались седобородые старцы на народном вече вокруг костра... и запретили редактировать геном человека
Замечательное.

В центре внимания должны быть предметы, с которыми машины еще долгое время не смогут справляться достаточно хорошо. В то же время, нет смысла обучать школьников навыкам, которые никому не будут нужны через 10-20 лет.

«Научная фантастика постепенно превращается в научный факт, и ИИ будет играть все большую роль в нашей жизни в ближайшие десятилетия», — отметила Таня Матиас, одна из председательниц комитета. По ее мнению, современное школьное расписание не отвечает требованиям четвертой промышленной революции.

https://hightech.fm/2016/10/12/education_ai
В продолжении темы о конкруренции с ИИ. Про беспилотные авто. Но на самом деле шире, не только про них, а вообще про новые технологии. Влияние новых технологий на дело жизни конкретного человека. Интересно, спокойно, рассудительно.

https://theidealist.ru/futureautomechanic
Президент Барак Обама в интервью изданию Wired обратил внимание на то, что развитие искусственного интеллекта может усугубить проблему социального неравенства и уменьшить средний уровень зарплаты. Предлагает просчитать и нивелировать подобные негативные последствия.
https://hightech.fm/2016/10/13/obama-white-house-ai-funding-research-plan
Информация от наших партнеров: 21-23 октября в Иннополисе пройдет уже третий хакатон хакатон по Машинному Обучению и Нейроинтерфейсам Neurohack 3.0.

Можно будет проверить гипотезы, найти команду, показать результаты отраслевым экспертам, инвесторам, фондам и унести с собой ценные подарки от корпоративных партнеров - вроде обещают 10 призов на 15 команд)

Зовут программистов (машинное обучения, deeplearning), учёных в области yеврологии, нейрореабилитации и высшей нервной деятельности, а также предпринимателей и маркетологов.

http://sci-guide.com/neurohack3/
А все ведь уже "поиграли" в "игру" от MIT?

Рай для любителей проблем вагонетки.

Игра в формате теста состоит из 13 ситуаций, в каждой из которых у самоуправляемой машины есть два варианта действий – убить первую группу людей (или животных) или вторую. Группы потенциальных жертв ДТП вариативны – они могут состоять из пассажиров и пешеходов, детей и взрослых, мужчин и женщин, бездомных и воров, страдающих ожирением, пожилых и других социальных групп.

Можно создавать и свои ситуации.

Вообще, это хороший шаг к кодификации этики. Позже ИИ будут обучаться ей в мирах виртуальной реальности - это удобно, так как язык коммуникации объектов там - компьютерный код - общий для ИИ-агентов и аватар-агентов этой среды. А пока приходится вот так учить эти нейросетки.

Ну и напоследок текст с самого сайта игры:

От беспилотного вождения автомобиля на дорогах общего пользования до автономной посадки многоразовых ракет на беспилотные плавучие платформы: машинному интеллекту делегируют все более сложную деятельность человека. И автономия машинного интеллекта в этих сложных функциях может привести к ситуации, когда им приходится самостоятельно совершать выборы с участием человеческой жизни. Это требует не только более четкого понимания того, как люди делают такой выбор, но и более четкое понимания нашего восприятия машинного интеллекта, делающего такой выбор.

http://moralmachine.mit.edu/