Robocounsel
1.91K subscribers
242 photos
17 videos
78 files
615 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
Robocounsel
Произведения, созданные ЭВМ Кажется, единственный правовой акт в мире, прямо предусматривающий охрану таких произведений — британский CDPA 1989 года. В доктрине произведения, созданные ЭВМ (computer-generated works, CGW) пытаются отграничить от произведений…
Коллеги поправляют: по исследованию Лайонела Бентли (Кембридж) "The UK’s Provisions on Computer‐Generated Works: A Solution for AI Creations?" охрана произведениям, созданным ЭВМ, также предоставляется ещё в нескольких юридсдикциях общего права.

https://europeancopyrightsocietydotorg.files.wordpress.com/2018/06/lionel-the-uk-provisions-on-computer-generated-works.pdf

Спасибо за наводку @dobry_vadik
Похоже на правду?

Иллюстрация Марата Дурмуса https://tinyurl.com/y58cpd54
Управление поведением на дорогах через код

Ещё одна российская каршеринговая компания, Делимобиль, анонсировала свою версию социального рейтинга: водите опасно — повысим цену на поездки или отнимем доступ к хорошим машинам. Годом ранее публикации описывали похожие инициативы Яндекс.Драйва.

https://xn--r1a.website/itsmymedia/394

Тема компьютерного моделирования так называемого опасного вождения, а также попытка моделировать безопасное поведение, вероятно, непростая.

Резкие торможения и ускорения могут быть оправданы дорожной обстановкой и большой вопрос, насколько закреплённая в программном обеспечении модель нормального водительского поведения справедлива к арендаторам. Насколько она способна различить паттерн опасного поведения и пограничное поведение в пределах нормы?

Отдельный вопрос, насколько нормирование поведения людей на дорогах через такую версию code is law (привет Лессигу) способствует либо противоречит снижению общей аварийности и не создаёт ли это неочевидных негативных экстерналий?

Что может быть хорошо для эксплуатанта не обязательно хорошо для общества в целом. Хотя, по крайней мере, на первый взгляд, в таких инициативах каршеринговых компаний корпоративный интерес, кажется, совпадает с интересом публики.

Что думаете? Высказывайтесь в комментариях и опросе.

За наводку на новость спасибо @Dmitrik20
Машинное обучение помогает снизить издержки в госзакупках и может помочь в регуляторном процессе

Канал @smart_regulation сообщает об интересной инициативе Администрации Президента США.

https://xn--r1a.website/smart_regulation/3028

Американские коллеги запланировали выявить и устранить противоречия и устаревшие требования в Своде федеральных нормативных актов (CFR) при помощи машинного обучения.

https://tinyurl.com/trump-ai-reuters

Как предтечу упоминают пилот в Минздраве США. На сайте министерства мы нашли то, что, похоже, имеется в виду: проект Buysmarter, где также использовали машинное обучение.

https://www.hhs.gov/grants/contracts/buysmarter/journey-to-program/index.html

Как мы понимаем, министерство организовало машинный анализ текстов своих существующих закупочных госконтрактов, выявило конфликтующие подходы к описанию закупочных категорий и договорных требований к ним.

https://www.hhs.gov/sites/default/files/hhs-buysmarter-journey.pdf (с. 8)

В результате Минздрав сократил и перезаключил госконтракты, применив гармонизированные закупочные категории и договорные требования к ним, а также консолидировав ряд госконтрактов для полноценного использования экономии масштаба.

https://www.hhs.gov/blog/2020/08/28/how-common-sense-and-hard-work-saved-taxpayers-hundreds-of-millions-on-hhs-it-contracts.html

Ожидаемый эффект от гармонизации и консолидации госконтрактов, например, с Верайзон, на следующий 12-летний период составляет 700 млн. долл.

https://www.hhs.gov/grants/contracts/buysmarter/journey-to-program/potential-power-buysmarter/index.html

Ссылку на первоначальную новость подсказал @Dmitrik20
К вопросу об автоматизированных юридически значимых решениях.

Ещё один пример того, когда проблема порождается не появлением новых технологий, а отсутствием культуры их применения.

В данном конкретном случае сотрудники магазина, кажется, слепо доверились оценке, которую дала система автоматического распознавания лиц.

Хотя при должной критичности мышления могли бы поступить иначе.

Как избегать подобных инцидентов? Компании — более строго регламентировать действия своих сотрудников при применении подобных систем? Высказывайтесь в комментариях.

https://www.it-world.ru/cionews/want/157710.html
Robocounsel
К вопросу об автоматизированных юридически значимых решениях. Ещё один пример того, когда проблема порождается не появлением новых технологий, а отсутствием культуры их применения. В данном конкретном случае сотрудники магазина, кажется, слепо доверились…
Automation bias (automation complacency)

В продолжение темы для интересующихся: есть исследования, подтверждающие феномен слепого доверия автоматизированным системам.

Объясняется оно одним из присущих человеческому мышлению когнитивных искажений. Оно так и называется - искажение автоматизации (automation bias).

Исследования объясняют, что искажение приводит, во-первых, к склонности к ошибочным упущениям событий, которые прямо не обозначены автоматизированной системой (errors in omission).

Во-вторых — также к ошибочным действиям по рекомендациям автоматизированной системы, даже если рекомендация противоречит опыту человека, использующего систему, и другим доступным ему заведомо достоверным данным (errors in commission).

https://www.sciencedirect.com/science/article/abs/pii/S1071581999902525

https://journals.sagepub.com/doi/abs/10.1177/0018720810376055
Персональные данные для машинного обучения

На http://privacyforum.ru/ сегодня обсудили итоги года в области регулирования персональных данных и перспективы создания коммерческих продуктов на их основе.

Моё выступление можете увидеть в записи трансляции (первые 60 минут):

https://www.youtube.com/watch?v=cOkFdIFINKY

В частности, я затронул проблему использования персональных данных для создания обученных моделей в исследовательских песочницах данных.

В развитие этой темы можно сказать следующее.

Подобные модели представляют собой программы для ЭВМ, сами по себе не содержат персональных данных и составляют основу новых ИТ-продуктов и решений, как коммерческих так и государственных.

Представляется, что дополнительные риски для граждан использованием их персональных данных для создания таких программ не создаются при следующих условиях:
- адекватное обезличивание персональных данных, поступающих в песочницу,
- организационный и технический контроль целевого использования этих данных и доступа к ним со стороны исследователей данных,
- организационный и технический контроль запрета на извлечение обезличенных персональных данных из песочницы (разрешается извлечение только самих моделей, которые были обучены на данных).
Пользователи готовы установить приложение для КОВИЗ-19 от Гугла, но не от Фейсбука

Вышло свежее интересное исследование настроений публики по вопросу отслеживания контактов в связи с пандемией КОВИЗ-19.

Помимо прочего, пользователи предпочитают доверять тем компаниям, которые считают компетентными и имеющими подходящие ресурсы.

Simko L and others, ‘COVID-19 Contact Tracing and Privacy: A Longitudinal Study of Public Opinion’ (2020) 37 Proceedings of the ACM on Measurement and Analysis of Computing Systems <http://arxiv.org/abs/2012.01553>
https://xn--r1a.website/ICT_Moscow/4460

Кажется, первые нормативные акты, реализующие положения нашей Концепции регулирования ИИ. Интересно наблюдать за тем, как описанные в ней тезисы и принципы внедряются в правовую систему.
Майкрософт получил патент на чатбота, имитирующего конкретного человека

https://tinyurl.com/msbotpat

Запатентованное решение предполагает, что из различных источников создаётся агрегированный "индекс личности", на котором чатбот обучается её имитировать.

Возникают вопросы. Обсудим в комментариях?

1. Личные неимущественные права

В отношении живого человека такой чатбот вряд ли может быть создан без его согласия — иное было бы нарушением его личных неимущественных прав.

В частности, в последней редакции ГК КНР, вступившей в силу недавно, появилась прямая норма об этом.

2. Разумные ожидания и интересы других лиц

Чатбот, как минимум, не должен вводить в заблуждение других лиц в вопросе о том, с чем они в действительности взаимодействуют.

3. Этика и публичный порядок

Отдельный вопрос — совместимо ли использование такого чатбота, и при каких условиях, с уважением к человеческому достоинству, в том числе умерших?

4. Ценность и последствия получения такого патента

Тут интересно мнение @vychislit_po_IP
Programm_20.01.2021_2021_1.pdf
206 KB
Онлайн-конференция "Права человека в эпоху ИИ"

Мероприятие пройдет сегодня с 15:00 до 19:45 по Москве.

https://germanycoe.de/

Организаторы: МИД и Минюст Германии, Совет Европы.

Программа и спикеры — во вложении. Из представителей России — заместитель министра экономического развития Оксана Тарасенко (отвечает в России за федеральный проект "Искусственный интеллект").

Особый интерес может представлять выступление Грегора Строина с 16:55 до 17:15 по Москве. Он возглавляет Специальный комитет Совета Европы по ИИ (CAHAI) и поделится предварительными результатами работы этого органа. Основной вопрос — возможная разработка новой конвенции Совета Европы по защите прав человека в контексте применения ИИ.

Напомню, что Совет Европы к настоящему времени разработал свыше 200 международных договоров, включая ратифицированные Россией Европейскую конвенцию по правам человека и Ковенцию 108+ по персональным данным.

Все выступления будут доступны для восприятия одновременно на английском немецком, французском.
Опрос ИИ-разработчиков

ICT.Moscow проводят исследование о реалиях и барьерах, с которыми сталкивается отрасль. Результаты обещают опубликовать в марте.

Опрашивают руководителей профильных проектов и подразделений из бизнеса, госсектора и академсреды/НКО.

Если это ваш профиль, есть смысл поучаствовать — исследование будет более репрезентативным.

https://xn--r1a.website/ICT_Moscow/4510
Человекоцентричный ИИ в Хельсинки

Интересно, какие ИИ-системы применяет город? На каких наборах данных они натренированы? Какие риски осознаются и как адресуются эксплуатантом?

Для того, чтобы быть более прозрачным перед жителями в этих вопросах, город создал сайт с реестром своих ИИ-систем и информацией о них.

Через этот же сайт они собирают обратную связь от жителей, чтобы сделать городской ИИ более человекоцентричным.

Инициатива кажется нам более чем достойной для воспроизведения в российских условиях.

https://ai.hel.fi/en/ai-register/
Вебинар: Применение распознавания лиц в уголовном судопроизводстве

Когда:
2 февраля 2021 (вторник), с 16:00 до 18:00 по Москве.

Спикеры:
- Томас Ламперт (Ph.D), зав. кафедрой ИИ и анализа данных, Страсбургский университет,
- Кейт Робертсон, юрист по уголовным и административным делам, юридическая фирма Марксон Ло, Торонто,
- Сабина Глесс (Ph.D.), профессор уголовного права и процесса, Базельский университет.

Организаторы:
Страсбургский университет и Совет Европы

Трансляция будет доступна во время мероприятия по ссылке:
https://bit.ly/2MhHCnW
Страхование ответственности при внедрении и эксплуатации автономных систем

В центре компетенций Фонда "Сколково" планируем обсудить с участием страховых компаний проблематику страхования ответственности при эксплуатации автономного и высокоавтоматизированного транспорта и иных робототехнических систем.

Если вы имеете отношение к робототехнике или страхованию и желаете поучаствовать дискуссии — пишите: @tyulkanov
Повышается ответственность за нарушения при обработке персональных данных

В контексте федеральной программы "Цифровая экономика" часто обсуждают, как расширение возможностей применения персональных данных (при принятии определённых мер предосторожности) могло бы способствовать развитию искусственного интеллекта, например — при построении более точных моделей в ходе машинного обучения.

Однако фактическая государственная политика в этом вопросе часто складывается с опорой скорее на кнут, нежели на пряник.

Об этом может свидетельствовать и данный законопроект, принятый сегодня Госдумой в третьем чтении.

Срок, в течение которого возможно привлечь к ответственности за административные правонарушения в области персональных данных теперь будет составлять не 3 месяца, а один год с момента их совершения.

Многие штрафы увеличены вдвое.

Также введена повышенная ответственность за некоторые повторные нарушения. Например, для юридического лица штраф составит:

- за повторную обработку персональных данных в не предусмотренных законодательством случаях или в целях, несовместимых с целями сбора данных — до 300 тыс. руб.
- за повторную обработку персональных данных без согласия субъекта в письменной форме, когда оно требуется — до 500 тыс. руб.
- за повторный отказ уточнить, заблокировать или уничтожить персональные данные по требованию субъекта или уполномоченного органа — до 500 тыс. руб.