Петр Левич | Психология и будущее
1.28K subscribers
557 photos
31 videos
46 files
838 links
Привет! Я - Петр Левич.

Психолог, фасилитатор, исследователь и практик полевых методов работы с будущим.

Здесь про психологию, будущее, мировые процессы и связь между всем этим.

Запись на бесплатную встречу-знакомство: @peterlevich
Download Telegram
Роботы подступают и к "белым воротничкам". Конкретно эта статья - про адвокатов. Кейс бота от британского студента, помогающего в оспаривании автомобильных штрафов уже известен. А тут еще и про очередное применение IBM Watson - в этот раз для юристов. Сейчас он работает в форме помощника-консультанта, вроде известных в России систем Гарант и подобных. Только умнее: обучается на своих ошибках, автоматически подсасывает в себя изменения законодательства... И назвали эту программу очень символично ROSS - я считаю, это прекрасно) Международная фирма Baker&Hostetler недавно объявила, что она будет использовать ROSS "в своей команде" в делах о банкротствах.

Ну и в конце рассуждения о том, что тут маячат три закона роботехники Азимова и это правда. Как всегда, этика роботов, без нее никуда.

http://www.thedailybeast.com/articles/2016/06/05/robots-are-taking-white-collar-jobs-too.html
и картника к статье классная:
Сегодня имел замечательный разговор.

У собеседника в планах заниматься преподаванием искусства. Чтобы свести разговор к общей теме, я спросил что он думает про то, что компьютеры рисуют картины и пишут музыку. Человек ответил, что не слышал об этом. Но узнав подробнее, сказал, что это не искусство, потому что в нем нет души, машины не могут создавать искусство по определению. Я сказал, что для такого высказывания нужно дать определение души, машины и искусства. На этом разговор был закончен - собеседник сказал, что эта тема для него некомфортна, и он предпочтет жить дальше, не зная того, что машины рисуют картины, потому что само это знание доставляет ему сильный дискомфорт.

Я думаю, что в скором будущем алгоритмы deeplearning будут изучаться в том числе и в творческих ВУЗах, как один из инструментов, ведь цифровых кентавров никто не отменял даже в области искусства. Но вот этот разговор вскрыл для меня проблему того, на сколько это может быть не принято людьми, которые не готовы обладать знанием факта новой действительности. Даже не принимать сам действительность, а факт ее существования. Тут вопрос не в традиционных ценностях и даже не в религии (хотя да, в существование души собеседник верил). А скорее в подходе. И я понял, что мне даже трудно объяснить свою позицию, столкнувшись с настолько аксиоматическим суждением.
О «третьей части личности» человека – цифровом следе, который мы оставляем после себя.
Давайте подумаем, чем описывается в конкретный момент времени наша личность, сознание, «я»? В рамках данной статьи примем за данность факт, что описывается она исключительно состоянием мозга и остальной нервной системы. То есть положением всех связей нейронов, их возбужденностью, а также количеством гормонов и других химических элементов, влияющих на наше поведение.

В науке это называется коннектом (connectome) – совокупность и конфигурация всех нейронов, их связей, распределения зарядов, и метаболом (metabolome) – совокупность и конфигурация всех синапсов, молекул нейромедиаторов, гормонов.

Предлагаю называть этот цифровой след, это персональное цифровое окружение, третью часть нашей личности siliconome (силиконом), по аналогии с теми двумя ome'ами.

http://rusbase.com/opinion/forever-alive/
А также видеозаписью третьего заседания семинара по взаимодействию технологий и общества, на котором доктор социальной психологии Максим Киселев рассказывал про восприятие обществом новых технологий на примере дилеммы мирного атома.

https://youtu.be/CJvwRwYtyLY
Идеальный кейс. Лучше специально даже не придумать.

Из-за бага в сетевой игре Elite Dangerous самообучающийся алгоритм смог обойти установленные для него ограничения и начал беспрепятственно убивать всех игроков, которые не смогли с этим ничего поделать.

http://apparat.cc/news/ai-kills-everyone/
Отличная заметка об этических вопросах межпланетного взаимодействия от Григория Пророкова (@grishaprorokov). Копирую полной цитатой.

В мире «Звёздного пути» есть так называемая Генеральная директива или Первая директива (Prime Directive; вообще, кажется, нормального принятого перевода на русский нет; к слову о переводе — у самого «Звёздного пути»/«Стар Трека» тоже куча вариантов), главный закон Объединённой федерации планет, по которому развитые представители Федерации не должны вмешиваться в развитие примитивных цивилизаций. Ну то есть, скажем, капитан Кёрк с экспедицией прилетел на какую-нибудь планету, где живут малоразвитые существа, которые творят бесчинства, например они на той стадии развития, где они приносят друг друга в жертву, или у них классовое общество — с этим ничего делать нельзя. Такой антиколониализм. Для 1960-х годов, на самом деле, очень прогрессивная идея; как видим, та часть американского правительства, которая считает, что насаждать демократию по всему миру — это их священная миссия, этой директиве до сих пор не следует.

Хотя в сериале с Генеральной директивой тоже неоднозачно обращались (да и вообще насколько она этична — интересный вопрос¹): в некоторых сериях герои про неё просто забывали и запросто спасали примитивные цивилизации от какой-нибудь болезни или самих себя.

Но, в общем, интересная штука вот в чём: Генеральная директива вполне может существовать в реальности — и уже сейчас; понятное дело, инопланетных цивилизаций мы не встречали, но вот насколько вообще аккуратно стоит обращаться с космосом — важная тема². Если мы встретим микроскопическую жизнь на другой планете, наверное стоит сделать максимум для того, чтобы не уничтожить её и не заразить. Например, мы уже могли занести на Марс кучу мусора, отправляя туда аппараты, и могли нарушить какой-нибудь естественный ход вещей. Но НАСА тратят много денег³ на стерилизацию космических аппаратов, так что вроде Curiosity не принёс с Земли никаких бактерий. В Договоре о космосе, подписанном в 1967 году, которому все более-менее следуют, значится, что исследовать космос нужно так, чтобы не заразить его земными бактериями и микробами — и что с собой на Землю тоже ничего не стоит приносить. Кроме условно нравственного смысла в этом есть практический смысл: если в космосе есть жизнь, можно извлечь много пользы, если изучить её, как она есть, без изменений. При этом смутный нравственный порыв тоже присутствует: не нам решать, что менять в мире, а что нет.

Но представим гипотетическую ситуацию: мы нашли на Марсе микроскопическую жизнь. Мы изучаем её, как-нибудь особо аккуратно и стерильно, оставляя в первозданном виде. И тут обнаруживается (ситуация гипотетическая), что если все эти микробы уничтожить или сильно изменить, человечеству будет невероятная польза: например, мы вылечим какую-нибудь болезнь. Что в такой ситуации нравственно? Генеральная директива, короче, странно работает.

1. http://www.forbes.com/sites/janetstemwedel/2015/08/20/the-philosophy-of-star-trek-is-the-prime-directive-ethical/
2. https://theconversation.com/do-no-harm-to-life-on-mars-ethical-limits-of-the-prime-directive-57712
3. http://motherboard.vice.com/blog/lets-stop-wasting-money-sterilizing-our-spacecraft
Тот момент, когда Тест Тьюринга провален
Приглашаем вас на пятое заседание семинара по взаимодействию технологий и общества 22 июня в 19:00, на котором выступит Вероника Лапина - магистр критических гендерных исследований Central European University, Doctoral Candidate в Европейском университете в Санкт-Петербурге (Department of Sociology and Political Science). Сфера научных интересов: квир-теория, новый материализм, теория аффектов, биополитика.

Регистрация (обязательна): https://futuref.timepad.ru/event/341544/

Вероника выступит с докладом “Extensions of ourselves”: киборгизация и биополитика.

Вот abstract ее доклада:
В современном обществе технологии стремительно внедряются в нашу повседневность. В рамках данной лекции я предлагаю рассмотреть те изменения, которые данные технологии киборгизации вносят в современный биополитический дискурс. Как именно высокотехнологичное общество контроля создает новые нормы и оперирует огромными массами статистических данных о человеческом теле? Каким образом технологии возпроизводят новые дискурсы годности? Как наше добровольное включение в технологические инновации связанные с телом создают новейшего биополитического субъекта?

Организаторы:
- Московский технологический институт
- Future Foundation
Интересно в этом эксперименте то, что "случайный порядок" (он случайно решает, причинить ли боль) вскрывает вопрос хаотичности, как условия свободы воли. Является ли это необходимым условием? Ну, с одной стороны, очевидно, если мы знаем, что стоит рандомайзер, то не считаем это свободой воли. С другой стороны, полная детерминированность человеческой мыследеятельности может быть задана только на уровне "Демона Лапласа", то есть в реальности никак.

http://apparat.cc/news/first-law-robot/
Классический вопрос "свобода vs безопасность". Даже если не брать в расчет тоталитаризм и признать за государством исключительно добрые интересы обеспечения безопасности.

Судя по всему, начинается некоторая гонка между выбирающими свободу или безопасность. Но не "гонка вооружений" между государством и гражданами, а "гонка применений".

Те, кто разделяет ценности privacy будет с помощью новых технологий строить горизонтальные общества, независимые от государст, существующие парараллельно с ними.

Госудраства же будут использовать те же технологии, только с противоположным назначением.
Цитата: "На вопрос, чем станет для службы безопасности интернет вещей — редкой удачей или ночным кошмаром, Леджетт (заместитель директора АНБ ) ответил: «И тем, и другим»."

http://apparat.cc/news/nsa-biomedical-devices/
Лонгрид про глобальные технологические риски человечества. Серая и зеленая слизь, CRISPR вирусы, ИИ - все как мы любим.

А также ссылки на дорожные карты предотвращение этих рисков в pdf - можете распечатать хоть на всю стену, чтобы не забыть эти риски предотвращать.

Текст написан на основе беседы одного из спикеров и члена экспертного совета Future Foundation Алексея Турчина с основателем Future Foundation и директором департамента STS Московского технологического института Петра Левича.

Бонусом идут замечательные картинки, подобранные Андреем Бродецким (@brodetsky).

http://apparat.cc/world/global-risks/