Robocounsel
1.91K subscribers
242 photos
17 videos
78 files
615 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
Forwarded from вычислить по IP (Anastasia Skovpen)
@robocounsel мои поздравления :)
Между тем, коллега Роман Душкин приглашает на интересный бесплатный семинар, посвящённый проблемам сознания и их влиянию на системы общего искусственного интеллекта. Должно быть интересно!
Forwarded from ДУШКИН Роман Викторович
Коллеги, кстати, пользуясь случаем, приглашаю всех вам на наш круглый стол: https://aiagency.timepad.ru/event/1410240/. Мы представим 4 доклада, и я уверен, что это будет интересно. Я сам в своём докладе затрону вопросы этики и права для AGI-агентов.
Произведения, созданные ЭВМ

Кажется, единственный правовой акт в мире, прямо предусматривающий охрану таких произведений — британский CDPA 1989 года.

В доктрине произведения, созданные ЭВМ (computer-generated works, CGW) пытаются отграничить от произведений, созданных при помощи ЭВМ (computer-assisted works, CAW).

Один их возможных мотивов деления: во втором случае ЭВМ является орудием в руках человека, и выполняет его творческий замысел (пример: обработка фото в Фотошопе). В первом же случае творческого замысла человека якобы может не быть вовсе.

Такую ситуацию представить сложно. Пока мы видим, что технологии делают возможным создание произведений с (1) всё меньшей и меньшей степенью участия человека в создании произведения и (2) всё большим и большим отдалением первого действия человека от конечного результата в цепочке причинности.

Иными словами, становится возможным создание произведений (1) с всё меньшим объёмом творческого вклада человека и (2) с всё меньшей степенью его прямого влияния на конечный результат.

С последним обстоятельством авторскому праву сталкиваться не впервые — никто не сомневается в охраноспособности результата перформанса в виде даже полностью произвольного разброса капель краски по холсту, покуда решение о действии принял человек.

С первым сложнее — какой-то творческий вклад должен быть внесён, чтобы произведение получило охрану (кроме Великобритании). Но достаточно ли считать таковым выбор момента включения ЭВМ в розетку? Или должно быть что-то более существенное? Выбор папки с исходным фото, преобразуемой нейросетью (по аналогии с наведением объектива фотоаппарата на конкретную часть окружающей среды)? Выбор иных исходных данных?

Пока же, кажется, что творческий вклад человека, становится более абстрактным, но никогда полностью не исчезает. Само целенаправленное решение создать произведение всё ещё остается за человеком. ЭВМ никаких собственных не определённых человеком целей деятельности не имеет.

Так существуют ли вообще произведения, созданные ЭВМ?

Или всё, что мы имеем на сегодня — только (1) произведения, созданные при помощи ЭВМ, (2) созданные без такой помощи и (3) не-произведения?

Текст в Гардиане совершенно очевидно относится к первой категории. Люди дали входные данные. Люди определили общее направление творческого замысла работы. А далее стали наблюдать, какие брызги падают на холст.

https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3
Robocounsel
Произведения, созданные ЭВМ Кажется, единственный правовой акт в мире, прямо предусматривающий охрану таких произведений — британский CDPA 1989 года. В доктрине произведения, созданные ЭВМ (computer-generated works, CGW) пытаются отграничить от произведений…
Коллеги поправляют: по исследованию Лайонела Бентли (Кембридж) "The UK’s Provisions on Computer‐Generated Works: A Solution for AI Creations?" охрана произведениям, созданным ЭВМ, также предоставляется ещё в нескольких юридсдикциях общего права.

https://europeancopyrightsocietydotorg.files.wordpress.com/2018/06/lionel-the-uk-provisions-on-computer-generated-works.pdf

Спасибо за наводку @dobry_vadik
Похоже на правду?

Иллюстрация Марата Дурмуса https://tinyurl.com/y58cpd54
Управление поведением на дорогах через код

Ещё одна российская каршеринговая компания, Делимобиль, анонсировала свою версию социального рейтинга: водите опасно — повысим цену на поездки или отнимем доступ к хорошим машинам. Годом ранее публикации описывали похожие инициативы Яндекс.Драйва.

https://xn--r1a.website/itsmymedia/394

Тема компьютерного моделирования так называемого опасного вождения, а также попытка моделировать безопасное поведение, вероятно, непростая.

Резкие торможения и ускорения могут быть оправданы дорожной обстановкой и большой вопрос, насколько закреплённая в программном обеспечении модель нормального водительского поведения справедлива к арендаторам. Насколько она способна различить паттерн опасного поведения и пограничное поведение в пределах нормы?

Отдельный вопрос, насколько нормирование поведения людей на дорогах через такую версию code is law (привет Лессигу) способствует либо противоречит снижению общей аварийности и не создаёт ли это неочевидных негативных экстерналий?

Что может быть хорошо для эксплуатанта не обязательно хорошо для общества в целом. Хотя, по крайней мере, на первый взгляд, в таких инициативах каршеринговых компаний корпоративный интерес, кажется, совпадает с интересом публики.

Что думаете? Высказывайтесь в комментариях и опросе.

За наводку на новость спасибо @Dmitrik20
Машинное обучение помогает снизить издержки в госзакупках и может помочь в регуляторном процессе

Канал @smart_regulation сообщает об интересной инициативе Администрации Президента США.

https://xn--r1a.website/smart_regulation/3028

Американские коллеги запланировали выявить и устранить противоречия и устаревшие требования в Своде федеральных нормативных актов (CFR) при помощи машинного обучения.

https://tinyurl.com/trump-ai-reuters

Как предтечу упоминают пилот в Минздраве США. На сайте министерства мы нашли то, что, похоже, имеется в виду: проект Buysmarter, где также использовали машинное обучение.

https://www.hhs.gov/grants/contracts/buysmarter/journey-to-program/index.html

Как мы понимаем, министерство организовало машинный анализ текстов своих существующих закупочных госконтрактов, выявило конфликтующие подходы к описанию закупочных категорий и договорных требований к ним.

https://www.hhs.gov/sites/default/files/hhs-buysmarter-journey.pdf (с. 8)

В результате Минздрав сократил и перезаключил госконтракты, применив гармонизированные закупочные категории и договорные требования к ним, а также консолидировав ряд госконтрактов для полноценного использования экономии масштаба.

https://www.hhs.gov/blog/2020/08/28/how-common-sense-and-hard-work-saved-taxpayers-hundreds-of-millions-on-hhs-it-contracts.html

Ожидаемый эффект от гармонизации и консолидации госконтрактов, например, с Верайзон, на следующий 12-летний период составляет 700 млн. долл.

https://www.hhs.gov/grants/contracts/buysmarter/journey-to-program/potential-power-buysmarter/index.html

Ссылку на первоначальную новость подсказал @Dmitrik20
К вопросу об автоматизированных юридически значимых решениях.

Ещё один пример того, когда проблема порождается не появлением новых технологий, а отсутствием культуры их применения.

В данном конкретном случае сотрудники магазина, кажется, слепо доверились оценке, которую дала система автоматического распознавания лиц.

Хотя при должной критичности мышления могли бы поступить иначе.

Как избегать подобных инцидентов? Компании — более строго регламентировать действия своих сотрудников при применении подобных систем? Высказывайтесь в комментариях.

https://www.it-world.ru/cionews/want/157710.html
Robocounsel
К вопросу об автоматизированных юридически значимых решениях. Ещё один пример того, когда проблема порождается не появлением новых технологий, а отсутствием культуры их применения. В данном конкретном случае сотрудники магазина, кажется, слепо доверились…
Automation bias (automation complacency)

В продолжение темы для интересующихся: есть исследования, подтверждающие феномен слепого доверия автоматизированным системам.

Объясняется оно одним из присущих человеческому мышлению когнитивных искажений. Оно так и называется - искажение автоматизации (automation bias).

Исследования объясняют, что искажение приводит, во-первых, к склонности к ошибочным упущениям событий, которые прямо не обозначены автоматизированной системой (errors in omission).

Во-вторых — также к ошибочным действиям по рекомендациям автоматизированной системы, даже если рекомендация противоречит опыту человека, использующего систему, и другим доступным ему заведомо достоверным данным (errors in commission).

https://www.sciencedirect.com/science/article/abs/pii/S1071581999902525

https://journals.sagepub.com/doi/abs/10.1177/0018720810376055
Персональные данные для машинного обучения

На http://privacyforum.ru/ сегодня обсудили итоги года в области регулирования персональных данных и перспективы создания коммерческих продуктов на их основе.

Моё выступление можете увидеть в записи трансляции (первые 60 минут):

https://www.youtube.com/watch?v=cOkFdIFINKY

В частности, я затронул проблему использования персональных данных для создания обученных моделей в исследовательских песочницах данных.

В развитие этой темы можно сказать следующее.

Подобные модели представляют собой программы для ЭВМ, сами по себе не содержат персональных данных и составляют основу новых ИТ-продуктов и решений, как коммерческих так и государственных.

Представляется, что дополнительные риски для граждан использованием их персональных данных для создания таких программ не создаются при следующих условиях:
- адекватное обезличивание персональных данных, поступающих в песочницу,
- организационный и технический контроль целевого использования этих данных и доступа к ним со стороны исследователей данных,
- организационный и технический контроль запрета на извлечение обезличенных персональных данных из песочницы (разрешается извлечение только самих моделей, которые были обучены на данных).
Пользователи готовы установить приложение для КОВИЗ-19 от Гугла, но не от Фейсбука

Вышло свежее интересное исследование настроений публики по вопросу отслеживания контактов в связи с пандемией КОВИЗ-19.

Помимо прочего, пользователи предпочитают доверять тем компаниям, которые считают компетентными и имеющими подходящие ресурсы.

Simko L and others, ‘COVID-19 Contact Tracing and Privacy: A Longitudinal Study of Public Opinion’ (2020) 37 Proceedings of the ACM on Measurement and Analysis of Computing Systems <http://arxiv.org/abs/2012.01553>
https://xn--r1a.website/ICT_Moscow/4460

Кажется, первые нормативные акты, реализующие положения нашей Концепции регулирования ИИ. Интересно наблюдать за тем, как описанные в ней тезисы и принципы внедряются в правовую систему.
Майкрософт получил патент на чатбота, имитирующего конкретного человека

https://tinyurl.com/msbotpat

Запатентованное решение предполагает, что из различных источников создаётся агрегированный "индекс личности", на котором чатбот обучается её имитировать.

Возникают вопросы. Обсудим в комментариях?

1. Личные неимущественные права

В отношении живого человека такой чатбот вряд ли может быть создан без его согласия — иное было бы нарушением его личных неимущественных прав.

В частности, в последней редакции ГК КНР, вступившей в силу недавно, появилась прямая норма об этом.

2. Разумные ожидания и интересы других лиц

Чатбот, как минимум, не должен вводить в заблуждение других лиц в вопросе о том, с чем они в действительности взаимодействуют.

3. Этика и публичный порядок

Отдельный вопрос — совместимо ли использование такого чатбота, и при каких условиях, с уважением к человеческому достоинству, в том числе умерших?

4. Ценность и последствия получения такого патента

Тут интересно мнение @vychislit_po_IP
Programm_20.01.2021_2021_1.pdf
206 KB
Онлайн-конференция "Права человека в эпоху ИИ"

Мероприятие пройдет сегодня с 15:00 до 19:45 по Москве.

https://germanycoe.de/

Организаторы: МИД и Минюст Германии, Совет Европы.

Программа и спикеры — во вложении. Из представителей России — заместитель министра экономического развития Оксана Тарасенко (отвечает в России за федеральный проект "Искусственный интеллект").

Особый интерес может представлять выступление Грегора Строина с 16:55 до 17:15 по Москве. Он возглавляет Специальный комитет Совета Европы по ИИ (CAHAI) и поделится предварительными результатами работы этого органа. Основной вопрос — возможная разработка новой конвенции Совета Европы по защите прав человека в контексте применения ИИ.

Напомню, что Совет Европы к настоящему времени разработал свыше 200 международных договоров, включая ратифицированные Россией Европейскую конвенцию по правам человека и Ковенцию 108+ по персональным данным.

Все выступления будут доступны для восприятия одновременно на английском немецком, французском.
Опрос ИИ-разработчиков

ICT.Moscow проводят исследование о реалиях и барьерах, с которыми сталкивается отрасль. Результаты обещают опубликовать в марте.

Опрашивают руководителей профильных проектов и подразделений из бизнеса, госсектора и академсреды/НКО.

Если это ваш профиль, есть смысл поучаствовать — исследование будет более репрезентативным.

https://xn--r1a.website/ICT_Moscow/4510