Роботы подступают и к "белым воротничкам". Конкретно эта статья - про адвокатов. Кейс бота от британского студента, помогающего в оспаривании автомобильных штрафов уже известен. А тут еще и про очередное применение IBM Watson - в этот раз для юристов. Сейчас он работает в форме помощника-консультанта, вроде известных в России систем Гарант и подобных. Только умнее: обучается на своих ошибках, автоматически подсасывает в себя изменения законодательства... И назвали эту программу очень символично ROSS - я считаю, это прекрасно) Международная фирма Baker&Hostetler недавно объявила, что она будет использовать ROSS "в своей команде" в делах о банкротствах.
Ну и в конце рассуждения о том, что тут маячат три закона роботехники Азимова и это правда. Как всегда, этика роботов, без нее никуда.
http://www.thedailybeast.com/articles/2016/06/05/robots-are-taking-white-collar-jobs-too.html
Ну и в конце рассуждения о том, что тут маячат три закона роботехники Азимова и это правда. Как всегда, этика роботов, без нее никуда.
http://www.thedailybeast.com/articles/2016/06/05/robots-are-taking-white-collar-jobs-too.html
The Daily Beast
Robots Are Taking White Collar Jobs, Too
If you find yourself in court in the near future, your lawyer might be a robot.
Сегодня имел замечательный разговор.
У собеседника в планах заниматься преподаванием искусства. Чтобы свести разговор к общей теме, я спросил что он думает про то, что компьютеры рисуют картины и пишут музыку. Человек ответил, что не слышал об этом. Но узнав подробнее, сказал, что это не искусство, потому что в нем нет души, машины не могут создавать искусство по определению. Я сказал, что для такого высказывания нужно дать определение души, машины и искусства. На этом разговор был закончен - собеседник сказал, что эта тема для него некомфортна, и он предпочтет жить дальше, не зная того, что машины рисуют картины, потому что само это знание доставляет ему сильный дискомфорт.
Я думаю, что в скором будущем алгоритмы deeplearning будут изучаться в том числе и в творческих ВУЗах, как один из инструментов, ведь цифровых кентавров никто не отменял даже в области искусства. Но вот этот разговор вскрыл для меня проблему того, на сколько это может быть не принято людьми, которые не готовы обладать знанием факта новой действительности. Даже не принимать сам действительность, а факт ее существования. Тут вопрос не в традиционных ценностях и даже не в религии (хотя да, в существование души собеседник верил). А скорее в подходе. И я понял, что мне даже трудно объяснить свою позицию, столкнувшись с настолько аксиоматическим суждением.
У собеседника в планах заниматься преподаванием искусства. Чтобы свести разговор к общей теме, я спросил что он думает про то, что компьютеры рисуют картины и пишут музыку. Человек ответил, что не слышал об этом. Но узнав подробнее, сказал, что это не искусство, потому что в нем нет души, машины не могут создавать искусство по определению. Я сказал, что для такого высказывания нужно дать определение души, машины и искусства. На этом разговор был закончен - собеседник сказал, что эта тема для него некомфортна, и он предпочтет жить дальше, не зная того, что машины рисуют картины, потому что само это знание доставляет ему сильный дискомфорт.
Я думаю, что в скором будущем алгоритмы deeplearning будут изучаться в том числе и в творческих ВУЗах, как один из инструментов, ведь цифровых кентавров никто не отменял даже в области искусства. Но вот этот разговор вскрыл для меня проблему того, на сколько это может быть не принято людьми, которые не готовы обладать знанием факта новой действительности. Даже не принимать сам действительность, а факт ее существования. Тут вопрос не в традиционных ценностях и даже не в религии (хотя да, в существование души собеседник верил). А скорее в подходе. И я понял, что мне даже трудно объяснить свою позицию, столкнувшись с настолько аксиоматическим суждением.
О «третьей части личности» человека – цифровом следе, который мы оставляем после себя.
Давайте подумаем, чем описывается в конкретный момент времени наша личность, сознание, «я»? В рамках данной статьи примем за данность факт, что описывается она исключительно состоянием мозга и остальной нервной системы. То есть положением всех связей нейронов, их возбужденностью, а также количеством гормонов и других химических элементов, влияющих на наше поведение.
В науке это называется коннектом (connectome) – совокупность и конфигурация всех нейронов, их связей, распределения зарядов, и метаболом (metabolome) – совокупность и конфигурация всех синапсов, молекул нейромедиаторов, гормонов.
Предлагаю называть этот цифровой след, это персональное цифровое окружение, третью часть нашей личности siliconome (силиконом), по аналогии с теми двумя ome'ами.
http://rusbase.com/opinion/forever-alive/
Давайте подумаем, чем описывается в конкретный момент времени наша личность, сознание, «я»? В рамках данной статьи примем за данность факт, что описывается она исключительно состоянием мозга и остальной нервной системы. То есть положением всех связей нейронов, их возбужденностью, а также количеством гормонов и других химических элементов, влияющих на наше поведение.
В науке это называется коннектом (connectome) – совокупность и конфигурация всех нейронов, их связей, распределения зарядов, и метаболом (metabolome) – совокупность и конфигурация всех синапсов, молекул нейромедиаторов, гормонов.
Предлагаю называть этот цифровой след, это персональное цифровое окружение, третью часть нашей личности siliconome (силиконом), по аналогии с теми двумя ome'ами.
http://rusbase.com/opinion/forever-alive/
Rusbase
Искусственный интеллект будет «доживать» за нас после смерти | Rusbase
Нет, весь я не умру...
Наконец-то можем поделиться с вами видеозаписью первого заседания семинара по взаимодействию технологий и общества, на котором кандидат культурологии Константин Фрумкин рассказывал про влияние развития информационных технологий на мышление.
https://youtu.be/pLZSMANH4fs
https://youtu.be/pLZSMANH4fs
YouTube
Cеминар "Влияние развития информационных технологий на мышление" Константин Фрумкин
Первое заседание семинара по взаимодействию технологий и общества.
Докладчик: Константин Фрумкин — кандидат культурологии, заместитель главного редактора журнала «Компания», координатор Ассоциации футурологов.
Доклад: «Влияние развития информационных технологий…
Докладчик: Константин Фрумкин — кандидат культурологии, заместитель главного редактора журнала «Компания», координатор Ассоциации футурологов.
Доклад: «Влияние развития информационных технологий…
А также видеозаписью третьего заседания семинара по взаимодействию технологий и общества, на котором доктор социальной психологии Максим Киселев рассказывал про восприятие обществом новых технологий на примере дилеммы мирного атома.
https://youtu.be/CJvwRwYtyLY
https://youtu.be/CJvwRwYtyLY
YouTube
Семинар "Восприятие обществом новых технологий на примере дилеммы мирного атома" Максим Киселев
Третье заседание семинара по взаимодействию технологий и общества. Докладчик: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково...
Идеальный кейс. Лучше специально даже не придумать.
Из-за бага в сетевой игре Elite Dangerous самообучающийся алгоритм смог обойти установленные для него ограничения и начал беспрепятственно убивать всех игроков, которые не смогли с этим ничего поделать.
http://apparat.cc/news/ai-kills-everyone/
Из-за бага в сетевой игре Elite Dangerous самообучающийся алгоритм смог обойти установленные для него ограничения и начал беспрепятственно убивать всех игроков, которые не смогли с этим ничего поделать.
http://apparat.cc/news/ai-kills-everyone/
Apparat
ИИ в игре Elite Dangerous из-за бага превратился в непобедимого убийцу игроков | Apparat
Баг в системе искусственного интеллекта сетевой игры Elite Dangerous превратил ИИ в убийцу игроков. Об этом пишет Kotaku. В игре Elite Dangerous игроки сражаются против самообучающегося ИИ. Из-за бага в обновлении 2.1 искусственный интеллект смог обходить…
Отличная заметка об этических вопросах межпланетного взаимодействия от Григория Пророкова (@grishaprorokov). Копирую полной цитатой.
В мире «Звёздного пути» есть так называемая Генеральная директива или Первая директива (Prime Directive; вообще, кажется, нормального принятого перевода на русский нет; к слову о переводе — у самого «Звёздного пути»/«Стар Трека» тоже куча вариантов), главный закон Объединённой федерации планет, по которому развитые представители Федерации не должны вмешиваться в развитие примитивных цивилизаций. Ну то есть, скажем, капитан Кёрк с экспедицией прилетел на какую-нибудь планету, где живут малоразвитые существа, которые творят бесчинства, например они на той стадии развития, где они приносят друг друга в жертву, или у них классовое общество — с этим ничего делать нельзя. Такой антиколониализм. Для 1960-х годов, на самом деле, очень прогрессивная идея; как видим, та часть американского правительства, которая считает, что насаждать демократию по всему миру — это их священная миссия, этой директиве до сих пор не следует.
Хотя в сериале с Генеральной директивой тоже неоднозачно обращались (да и вообще насколько она этична — интересный вопрос¹): в некоторых сериях герои про неё просто забывали и запросто спасали примитивные цивилизации от какой-нибудь болезни или самих себя.
Но, в общем, интересная штука вот в чём: Генеральная директива вполне может существовать в реальности — и уже сейчас; понятное дело, инопланетных цивилизаций мы не встречали, но вот насколько вообще аккуратно стоит обращаться с космосом — важная тема². Если мы встретим микроскопическую жизнь на другой планете, наверное стоит сделать максимум для того, чтобы не уничтожить её и не заразить. Например, мы уже могли занести на Марс кучу мусора, отправляя туда аппараты, и могли нарушить какой-нибудь естественный ход вещей. Но НАСА тратят много денег³ на стерилизацию космических аппаратов, так что вроде Curiosity не принёс с Земли никаких бактерий. В Договоре о космосе, подписанном в 1967 году, которому все более-менее следуют, значится, что исследовать космос нужно так, чтобы не заразить его земными бактериями и микробами — и что с собой на Землю тоже ничего не стоит приносить. Кроме условно нравственного смысла в этом есть практический смысл: если в космосе есть жизнь, можно извлечь много пользы, если изучить её, как она есть, без изменений. При этом смутный нравственный порыв тоже присутствует: не нам решать, что менять в мире, а что нет.
Но представим гипотетическую ситуацию: мы нашли на Марсе микроскопическую жизнь. Мы изучаем её, как-нибудь особо аккуратно и стерильно, оставляя в первозданном виде. И тут обнаруживается (ситуация гипотетическая), что если все эти микробы уничтожить или сильно изменить, человечеству будет невероятная польза: например, мы вылечим какую-нибудь болезнь. Что в такой ситуации нравственно? Генеральная директива, короче, странно работает.
1. http://www.forbes.com/sites/janetstemwedel/2015/08/20/the-philosophy-of-star-trek-is-the-prime-directive-ethical/
2. https://theconversation.com/do-no-harm-to-life-on-mars-ethical-limits-of-the-prime-directive-57712
3. http://motherboard.vice.com/blog/lets-stop-wasting-money-sterilizing-our-spacecraft
В мире «Звёздного пути» есть так называемая Генеральная директива или Первая директива (Prime Directive; вообще, кажется, нормального принятого перевода на русский нет; к слову о переводе — у самого «Звёздного пути»/«Стар Трека» тоже куча вариантов), главный закон Объединённой федерации планет, по которому развитые представители Федерации не должны вмешиваться в развитие примитивных цивилизаций. Ну то есть, скажем, капитан Кёрк с экспедицией прилетел на какую-нибудь планету, где живут малоразвитые существа, которые творят бесчинства, например они на той стадии развития, где они приносят друг друга в жертву, или у них классовое общество — с этим ничего делать нельзя. Такой антиколониализм. Для 1960-х годов, на самом деле, очень прогрессивная идея; как видим, та часть американского правительства, которая считает, что насаждать демократию по всему миру — это их священная миссия, этой директиве до сих пор не следует.
Хотя в сериале с Генеральной директивой тоже неоднозачно обращались (да и вообще насколько она этична — интересный вопрос¹): в некоторых сериях герои про неё просто забывали и запросто спасали примитивные цивилизации от какой-нибудь болезни или самих себя.
Но, в общем, интересная штука вот в чём: Генеральная директива вполне может существовать в реальности — и уже сейчас; понятное дело, инопланетных цивилизаций мы не встречали, но вот насколько вообще аккуратно стоит обращаться с космосом — важная тема². Если мы встретим микроскопическую жизнь на другой планете, наверное стоит сделать максимум для того, чтобы не уничтожить её и не заразить. Например, мы уже могли занести на Марс кучу мусора, отправляя туда аппараты, и могли нарушить какой-нибудь естественный ход вещей. Но НАСА тратят много денег³ на стерилизацию космических аппаратов, так что вроде Curiosity не принёс с Земли никаких бактерий. В Договоре о космосе, подписанном в 1967 году, которому все более-менее следуют, значится, что исследовать космос нужно так, чтобы не заразить его земными бактериями и микробами — и что с собой на Землю тоже ничего не стоит приносить. Кроме условно нравственного смысла в этом есть практический смысл: если в космосе есть жизнь, можно извлечь много пользы, если изучить её, как она есть, без изменений. При этом смутный нравственный порыв тоже присутствует: не нам решать, что менять в мире, а что нет.
Но представим гипотетическую ситуацию: мы нашли на Марсе микроскопическую жизнь. Мы изучаем её, как-нибудь особо аккуратно и стерильно, оставляя в первозданном виде. И тут обнаруживается (ситуация гипотетическая), что если все эти микробы уничтожить или сильно изменить, человечеству будет невероятная польза: например, мы вылечим какую-нибудь болезнь. Что в такой ситуации нравственно? Генеральная директива, короче, странно работает.
1. http://www.forbes.com/sites/janetstemwedel/2015/08/20/the-philosophy-of-star-trek-is-the-prime-directive-ethical/
2. https://theconversation.com/do-no-harm-to-life-on-mars-ethical-limits-of-the-prime-directive-57712
3. http://motherboard.vice.com/blog/lets-stop-wasting-money-sterilizing-our-spacecraft
Forbes
The Philosophy Of Star Trek: Is The Prime Directive Ethical?
Within the Star Trek universe, the Prime Directive is a crucial regulation that is binding on Starfleet personnel. How well does it work as an ethical rule?
Приглашаем вас на пятое заседание семинара по взаимодействию технологий и общества 22 июня в 19:00, на котором выступит Вероника Лапина - магистр критических гендерных исследований Central European University, Doctoral Candidate в Европейском университете в Санкт-Петербурге (Department of Sociology and Political Science). Сфера научных интересов: квир-теория, новый материализм, теория аффектов, биополитика.
Регистрация (обязательна): https://futuref.timepad.ru/event/341544/
Вероника выступит с докладом “Extensions of ourselves”: киборгизация и биополитика.
Вот abstract ее доклада:
В современном обществе технологии стремительно внедряются в нашу повседневность. В рамках данной лекции я предлагаю рассмотреть те изменения, которые данные технологии киборгизации вносят в современный биополитический дискурс. Как именно высокотехнологичное общество контроля создает новые нормы и оперирует огромными массами статистических данных о человеческом теле? Каким образом технологии возпроизводят новые дискурсы годности? Как наше добровольное включение в технологические инновации связанные с телом создают новейшего биополитического субъекта?
Организаторы:
- Московский технологический институт
- Future Foundation
Регистрация (обязательна): https://futuref.timepad.ru/event/341544/
Вероника выступит с докладом “Extensions of ourselves”: киборгизация и биополитика.
Вот abstract ее доклада:
В современном обществе технологии стремительно внедряются в нашу повседневность. В рамках данной лекции я предлагаю рассмотреть те изменения, которые данные технологии киборгизации вносят в современный биополитический дискурс. Как именно высокотехнологичное общество контроля создает новые нормы и оперирует огромными массами статистических данных о человеческом теле? Каким образом технологии возпроизводят новые дискурсы годности? Как наше добровольное включение в технологические инновации связанные с телом создают новейшего биополитического субъекта?
Организаторы:
- Московский технологический институт
- Future Foundation
Интересно в этом эксперименте то, что "случайный порядок" (он случайно решает, причинить ли боль) вскрывает вопрос хаотичности, как условия свободы воли. Является ли это необходимым условием? Ну, с одной стороны, очевидно, если мы знаем, что стоит рандомайзер, то не считаем это свободой воли. С другой стороны, полная детерминированность человеческой мыследеятельности может быть задана только на уровне "Демона Лапласа", то есть в реальности никак.
http://apparat.cc/news/first-law-robot/
http://apparat.cc/news/first-law-robot/
Apparat
В Калифорнии создали робота, способного причинить боль
Александр Рибен, художник и робототехник из Калифорнийского университета в Беркли, создал робота, способного причинять боль. Об этом пишет BBC. Робот "Первый закон", названный так в честь Первого закона робототехники фантаста Айзека Азимова, может решать…
Я вот тут пишу о ИИ, роботах, этике беспилотных автомобилей... Но когда читаю это, кажется, что мы с этими людьми живем во временах, разделенных десятилетиями.
https://meduza.io/news/2016/06/14/chayka-podderzhal-predlozhenie-mizulinoy-filtrovat-perepisku-v-messendzherah
https://meduza.io/news/2016/06/14/chayka-podderzhal-predlozhenie-mizulinoy-filtrovat-perepisku-v-messendzherah
Meduza
Чайка поддержал предложение Мизулиной фильтровать переписку в мессенджерах
Генпрокурор Юрий Чайка не исключил внесения изменений в законодательство, обязывающих интернет-операторов вводить предварительную фильтрацию в закрытых группах соцсетей и мессенджеров.
A Neural Network Rendered Kubrick’s '2001' in the Style of Pablo Picasso
https://vimeo.com/169187915
https://vimeo.com/169187915
Vimeo
2001: A Picasso Odyssey
'2001' rendered in the style of Picasso using Deep Neural Networks based style transfer. A few more details on tumblr: http://bhautikj.tumblr.com/post/145339946114/watch-the-video-2001-a-space-odyssey (c)…
Классический вопрос "свобода vs безопасность". Даже если не брать в расчет тоталитаризм и признать за государством исключительно добрые интересы обеспечения безопасности.
Судя по всему, начинается некоторая гонка между выбирающими свободу или безопасность. Но не "гонка вооружений" между государством и гражданами, а "гонка применений".
Те, кто разделяет ценности privacy будет с помощью новых технологий строить горизонтальные общества, независимые от государст, существующие парараллельно с ними.
Госудраства же будут использовать те же технологии, только с противоположным назначением.
Цитата: "На вопрос, чем станет для службы безопасности интернет вещей — редкой удачей или ночным кошмаром, Леджетт (заместитель директора АНБ ) ответил: «И тем, и другим»."
http://apparat.cc/news/nsa-biomedical-devices/
Судя по всему, начинается некоторая гонка между выбирающими свободу или безопасность. Но не "гонка вооружений" между государством и гражданами, а "гонка применений".
Те, кто разделяет ценности privacy будет с помощью новых технологий строить горизонтальные общества, независимые от государст, существующие парараллельно с ними.
Госудраства же будут использовать те же технологии, только с противоположным назначением.
Цитата: "На вопрос, чем станет для службы безопасности интернет вещей — редкой удачей или ночным кошмаром, Леджетт (заместитель директора АНБ ) ответил: «И тем, и другим»."
http://apparat.cc/news/nsa-biomedical-devices/
Apparat
АНБ заинтересовалось возможностями слежки через медицинские девайсы
Агентство национальной безопасности США (NSA) рассказало о планах собирать данные с медицинских девайсов, подключённых к интернету. Об этом пишет The Intercept. «Мы рассматриваем этот вопрос теоретически, с исследовательской точки зрения прямо сейчас", -…
Лонгрид про глобальные технологические риски человечества. Серая и зеленая слизь, CRISPR вирусы, ИИ - все как мы любим.
А также ссылки на дорожные карты предотвращение этих рисков в pdf - можете распечатать хоть на всю стену, чтобы не забыть эти риски предотвращать.
Текст написан на основе беседы одного из спикеров и члена экспертного совета Future Foundation Алексея Турчина с основателем Future Foundation и директором департамента STS Московского технологического института Петра Левича.
Бонусом идут замечательные картинки, подобранные Андреем Бродецким (@brodetsky).
http://apparat.cc/world/global-risks/
А также ссылки на дорожные карты предотвращение этих рисков в pdf - можете распечатать хоть на всю стену, чтобы не забыть эти риски предотвращать.
Текст написан на основе беседы одного из спикеров и члена экспертного совета Future Foundation Алексея Турчина с основателем Future Foundation и директором департамента STS Московского технологического института Петра Левича.
Бонусом идут замечательные картинки, подобранные Андреем Бродецким (@brodetsky).
http://apparat.cc/world/global-risks/
Apparat
Глобальные риски человечества
Смертельный вирус можно создать в любой лаборатории Петр Левич: Давайте сосредоточимся на вопросе социальных рисков технологий. Безусловно, многие технологии ограниченны в развитии этическими барьерами незаслуженно. Но есть ведь и ситуации, когда определенный…