Robocounsel
1.91K subscribers
243 photos
17 videos
78 files
619 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
Stable Doodle: От наброска к изображению

Интересное на субботу: разработчики объединили Stable Diffusion XL (SDXL), модель, генерирующую изображения по текстовому описанию, с адаптером T2I от Tencent, распознающим и расшифровывающим наброски пользователя.

Распознав набросок, T2I-адаптер передает его расшифровку SDXL в понятном для неё формате, так что модель при генерации изображения руководствуется одновременно и контурами с наброска, и текстовой командой (промтом).

В результате люди с самыми рудиментарными навыками рисования могут на основе своих набросков делать интересные иллюстрации — например, для своего блога, сайта или приложения.

Порисовать можно здесь.
👏6👍1
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке

Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя по методическим материалам, курс совсем не про приватность, а как и положено в данном случае — гораздо шире. Рассматриваются более широко риски при разработке и эксплуатации ИИ-систем.

Официальных курсов пока нигде нет, и как минимум до октября, видимо, не будет.

Но начать готовиться к сертификации вы можете уже прямо сейчас — вместе со мной.

Пользуясь своим опытом разработки руководства к экзамену IAPP CIPP/E (его у меня приобрели уже более 60 человек), я строго следую по методичке IAPP - проходим чётко по всем вопросам, знания по которым требуются для сертификации.

Напомню, что никакого собственно образовательного контента в методичке от IAPP нет — но тут как раз для вас и оказываются ценными мои экспертиза и знания.

Насколько мне известно, я был в принципе первым в России юристом, изучившим регулирование автономных систем на уровне вузовского предмета ещё в 2015 году — в Эдинбургском ун-те, и последовательно все эти годы занимавшимся этим вопросом и в теории, и на практике, и в частном секторе, и в публичном, на национальном и международном уровнях.

Про то, каким авторитетом обладает сертификация IAPP на международном уровне - говорить излишне. Авторитетнее просто ничего нет.

Поэтому, начиная с понедельника 10 июля, в новом телеграм-канале, доступном по платной подписке, я начал публиковать короткие заметки на английском и ссылки на ресурсы, которые позволят вам в режиме самоподготовки постепенно, за год, освоить весь объём знаний, необходимый для получения сертификации IAPP AI Governance Professional.

Стоимость подписки 4 500 р. в месяц и фиксируется на год, но только для тех, кто подписывается сейчас.

Рассматриваемые темы - по IAPP AIGP Body of Knowledge.

Подписаться и оплатить:
1) [ссылка удалена в связи с окончанием регистрации]
2) в евро.
🔥41
Llama-v2: теперь и для свободного коммерческого использования

Главный датасаентист Меты* Ян ЛеКун анонсировал, что их новая большая языковая модель теперь доступна всем желающим, в том числе для коммерческого использования, и предоставляется на условиях опенсорс.

Согласно лицензии, отдельное разрешение потребуется лишь коммерсантам с аудиторией свыше 700 млн. пользователей в месяц.

По заявлениям ЛеКуна и Меты, модель превосходит по производительности другие опенсорсные модели и уже доступна пользователям Microsoft Azure, а вскоре станет доступна через AWS, Huggingface и других поставщиков.

Иследовательская публикация о модели доступна здесь.

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
👍4
Полагаться на результаты работы больших языковых моделей без постоянного контроля качества опасно

Такой вывод можно сделать по результатам исследования, проведённого учёными из Стэнфордского университета и Калифорнийского университета в Беркли (Chen, Lingjiao, Matei Zaharia, and James Zou. 2023. “How Is ChatGPT’s Behavior Changing over Time?”).

Сравнив результаты работы популярных моделей GPT-4 и GPT-3.5, эксперты обнаружили, что производительность каждой из них значительно снизилась в одних задачах и выросла в других.

Например, GPT-4 в марте 2023 г. на вопрос об определении простых чисел давала точный ответ с вероятностью 97,6%, но к июню 2023 г. количество точных ответов для задачи этого типа снизилось до 2,4%.

Причины этого феномена до конца не ясны, но полученные результаты свидетельствуют о необходимости постоянного контроля и перепроверки качества результатов модели со стороны разработчиков и пользователей таких моделей, в особенности тех, кто делает или планирует делать их элементом архитектуры собственного продукта или сервиса.

P.S. Другие исследователи выпустили не то, чтобы опровержение, но значимый фактчек: исходное исследование доказывает не деградацию производительности моделей, но их изменчивость в результате файн-тюнинга.

При этом в ряде задач все модели просто "одинаково ужасны": так, ни одна из них в ходе "размышления шаг за шагом" над задачей определения простых чисел в реальности не проводит никаких операций, заявленных по ходу "размышления", а просто как обычно пытается статистически предугадать текст ответа. При отсутствии в обучающем массиве данных правильного ответа модель просто выдумывает неправильный.
👍4
Авторы хотят денег за использование их книг для обучения ИИ

Обоснованны ли их требования? Коротко: нет.

Непопулярное мнение подробнее: авторы и издатели не пострадают в денежном отношении и по общему правилу не должны иметь оснований требовать возмещения убытков или судебного запрета на использование их материалов для обучения больших языковых моделей (БЯМ).

Никто не вытесняет с рынка книги или другие литературные произведения, создавая БЯМ, обученные на них, при условии, что БЯМ не выдают тот же контент дословно и в полном объеме.

С учётом этого, использование защищенного авторским правом контента для обучения БЯМ является трансформативным для целей американской доктрины авторского права, что исключает право требовать убытков или запрещать использование.

В Европе, согласно Директиве по авторскому праву, дополнительными факторами будут (1) наличие у разработчика законного доступа к экземпляру произведения, на котором он хочет обучать систему, и (2) отсутствие явного запрета со стороны правообладателя, выраженного в машиночитаемой форме (например, требование в файле robots.txt к поисковым роботам не индексировать контент на сайте).
👏7👍2🔥1
Robocounsel
Авторы хотят денег за использование их книг для обучения ИИ Обоснованны ли их требования? Коротко: нет. Непопулярное мнение подробнее: авторы и издатели не пострадают в денежном отношении и по общему правилу не должны иметь оснований требовать возмещения…
И ещё про невозможность запрета обучаться на книгах

Мой американский коллега Стивен Ву пришёл точно к таким же выводам, как и я в своём предыдущем посте: нарушение авторских прав тут найти проблематично.

В особенности после дела Authors Guild v Google, в котором уже было установлено, что Гугл на основе доктрины трансформативного использования был вправе сканировать миллионы книг и предоставлять выдержки из них по запросу, при условии, что эта деятельность не приводит к потерям для авторов и вытеснению их с рынка литературы (а она не приводит).

Смотрим Стивена и аплодируем.
👍2👏2
Семь ведущих ИИ-компаний США взяли на себя обязательства по ответственной разработке

Администрация Президента США объявила сегодня, что получила такие обязательства от Амазон, Антропик, Гугл, Инфлекшн, Мета, Майкрософт и Оупен-Эй-Ай.

Компании обязались, цитирую:

1) Для обеспечения безопасности продуктов перед их выпуском:

- Проводить внутреннее и внешнее тестирование систем искусственного интеллекта на безопасность до их выпуска.
Это тестирование, которое будет частично проводиться независимыми экспертами, позволит защитить от некоторых наиболее значимых источников рисков ИИ, таких как биобезопасность и кибербезопасность, а также более широко от негативных социальных эффектов.

- Обмениваться информацией в рамках всей отрасли, а также с правительствами, гражданским обществом и научными кругами по вопросам управления рисками ИИ. Это включает в себя лучшие практики обеспечения безопасности, информацию о попытках обойти защитные меры и техническое сотрудничество.

2) Для создания систем, в которых информационная безопасность стоит на первом месте:

- Инвестировать средства в обеспечение кибербезопасности и защиту от внутренних угроз для защиты конфиденциальных параметров (весов) моделей.
Эти параметры являются наиболее важной частью системы искусственного интеллекта, и компании согласны с тем, что их публикация должна осуществляться осознанно и с учетом рисков безопасности.

- Содействовать обнаружению уязвимостей в системах искусственного интеллекта третьими лицами. Некоторые проблемы могут сохраняться даже после выпуска системы искусственного интеллекта, и надежный механизм обратной связи о уязвимостях позволяет быстро находить и устранять их.

3) Для завоевания доверия общественности:

- Разработать надежные технические механизмы, позволяющие пользователям знать, что контент создан искусственным интеллектом, например, систему маркировки.
Эти меры будут способствовать развитию творчества с использованием ИИ, но при этом снизят риски мошенничества и введения публики в заблуждение.

- Публично сообщать о возможностях, ограничениях и областях, в которых уместно и неуместно применение их ИИ-систем. Эти сообщения будут охватывать как риски безопасности, так и риски для общества, например, в контексте принципов справедливости и устранения предвзятости.

- Уделять приоритетное внимание исследованиям социальных рисков, которые могут представлять системы ИИ, в том числе для предотвращения закрепления вредных предубеждений и дискриминации, а также для защиты неприкосновенности частной жизни. Опыт использования ИИ показывает, что эти риски распространены, хотя и не всегда очевидны. Поэтому компании обязуются внедрять системы ИИ, в которых эти риски адресованы.

- Разрабатывать и внедрять передовые системы ИИ для содействия в решении важнейших проблем общества. От профилактики рака до смягчения последствий изменения климата и многого другого, ИИ - при правильном управлении - может внести огромный вклад в обеспечение всеобщего процветания, равенства и безопасности.
3
В продолжение темы о правах авторов в связи с обучением систем ИИ на их текстах

Тема оказалось злободневной и породила бурные дискуссии, так что мой материал попал в редакционную подборку Линкдин за неделю.

Оригинал со всей пикировкой на английском читайте на Линкдине, перевод на русском — здесь.
🔥111
Robocounsel
Продолжаю набор на первый поток экспериментального курса по AI Governance на английском языке Напомню, что IAPP (Международная ассоциация специалистов по приватности), совсем недавно анонсировала новую сертификацию по этому направлению. И, к счастью, судя…
Заканчиваю набор на первый поток экспериментального курса по AI Governance на английском языке

Успеть запрыгнуть в последний вагон и по текущей цене в рублях ещё возможно, но лучше сделать это сегодня.

Сегодняшняя тема: разбираемся, чем отличаются понятия narrow AI, broad AI, general AI, weak AI, strong AI. Типичная ошибка: думать, что narrow = weak, а broad = general = strong. Абсолютно не так. Все пять терминов имеют разные значения.

Подробности и подписка на курс здесь.
🔥5
Robocounsel
В СНГ появится первый Цифровой кодекс В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса. Кодекс будет состоять из общей и особенной частей. Проект общей части уже разработан…
Опубликован первый в СНГ проект Цифрового кодекса с нормами об ИИ

Речь о Цифровом кодексе Кыргызской Республики (ЦК КР), о котором я писал ранее.

В работе участвовало очень много коллег, но я выделю Николая Дмитрика, без чьего несравнимого кодификационного и редакторского таланта эту работу было бы очень сложно представить.

Мой вклад в работу над этим законопроектом — проект главы 23, регулирующей оборот систем искусственного интеллекта.

При разработке как ЦК КР в целом, так и главы 23 учитывался международный опыт, в том числе проект Регламента Европейского Союза об искусственном интеллекте.

С текстом ЦК КР можно ознакомиться здесь.
🔥142👏1🤩1
Robocounsel
Опубликован первый в СНГ проект Цифрового кодекса с нормами об ИИ Речь о Цифровом кодексе Кыргызской Республики (ЦК КР), о котором я писал ранее. В работе участвовало очень много коллег, но я выделю Николая Дмитрика, без чьего несравнимого кодификационного…
Копируем, продаём, снимаем с продажи: алгоритмическая бизнес-модель Shein

У Насти вышел очень интересный материал на эту тему.

Вкратце:

- Пишут, что Shein алгоритмически отслеживает модные микро-тренды в социальных сетях и конвертирует их в дизайн одежды и аксессуаров, которые молниеносно производятся на фабриках компании в Китае.
- Каждый новый продукт выпускается первоначально партией в 100-200 единиц, что на порядок меньше, чем у конкурентов.
- Тщательная проверка на нарушение чужих интеллектуальных прав якобы заранее не проводится, но если поступает претензия, Shein быстро снимает товар с продажи и, если требуется, компенсирует убытки.
- Из-за крошечного размера партии размер компенсации всегда ограничен и периодические её выплаты не влияют на прибыльность бизнес-модели в целом.
2👍1
Robocounsel
Мета меняет основание обработки данных на законный интерес Такие правила будут действовать для пользователей Фейсбука и Инстаграма, находящихся в Евросоюзе, начиная с 5 апреля, сообщает компания. По данным источников Уолл-Стрит Джорнел, эти пользователи…
Мета перестанет показывать индивидуализированную рекламу без согласия

Об этом компания* объявила на своём сайте: основание обработки персональных данных для такой рекламы будет изменено с законного интереса на согласие. Конкретная дата для такого перехода пока не называется.

Ранее, с 5 апреля этого года компания обрабатывала такие данные на основании законного интереса, а до этого изначально — на основании договора (пользовательского соглашения).

Однако изначальная практика была признана надзорным органом незаконной по жалобе активистов из NOYB.

Теперь же, после дополнительных консультаций с надзорным органом Мета решила перейти к подходу, на котором изначально настаивали прайваси-активисты.

Решение касается пользователей из ЕС, Европейской экономической зоны и Швейцарии.

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
🔥5
10 рекомендаций для лиц, формирующих государственную политику в области ИИ

Для составления этого списка я попросил Claude 2.0 от Anthropic проанализировать набор из 20 с лишним статей, которые я к этому моменту опубликовал в своей рассылке на Линкдин (подписаться на рассылку можно здесь).

Все идеи взяты так или иначе именно из моих текстов, но задачу собрать их все, резюмировать, и оформить в единый когерентный список выполнила большая языковая модель. Перевод на русский отредактирован мной для лучшей передачи нюансов и правильной расстановки акцентов, также мною добавлены подзаголовки:

1. Акцент на ИИ повышенной опасности. Принять на основе риск-ориентированного подхода нормативные акты в области ИИ, сосредоточив регулирование на областях применения повышенной опасности, не пытаясь единообразно регулировать применение всех систем ИИ.

2. Управление рисками и независимый аудит. Требовать от разработчиков систем ИИ внедрения обязательных систем управления рисками и стимулировать становление института регулируемого независимого аудита для применений ИИ, создающих повышенную опасность.

3. Инвестиции в улучшение безопасности. Стимулировать инвестиции в исследования в области безопасности, этики и ценностного соответствия (alignment) систем ИИ в рамках общих программ финансирования исследований в области ИИ.

4. Регулирование инклюзивное и непреждевременное. Консультироваться с широким кругом заинтересованных сторон и общественными объединениями при формировании политики и нормативных актов в области ИИ. Избегать преждевременного регулирования.

5. Автономия субъектов персональных данных. Рассмотреть законопроекты, которые позволили бы гражданам заявлять о личных предпочтениях в области обработки их персональных данных, которые бы затем операторы персональных данных должны были бы соблюдать, реализуя право граждан на личную автономию.

6. Европейское регулирование как основа. Взять за основу модель регулирования, аналогичную заложенной в Регламенте ЕС об ИИ, для обеспечения принципов подотчетности, открытости, справедливости и эффективного контроля человека над системами ИИ.

7. Балансировка интересов. Оценить, достаточно ли действующее законодательство для решения новых проблем, таких как использование систем ИИ для диффамации, и адекватно ли оно балансирует противостоящие друг другу интересы, например, защита неприкосновенности частной жизни и снижение ошибок при принятии автоматизированных решений.

8. Грамотность ИИ-потребителей. Финансировать программы для улучшения понимания в обществе возможностей и ограничений систем ИИ и для исключения нереалистичных ожиданий.

9. Защита конкуренции. Оценить риски ограничения конкуренции из-за доминирования на рынке систем ИИ крупнейших игроков с тем, чтобы снизить их негативное влияние на дальнейшее развитие рынка (не только рынка самих систем ИИ, но и любых других рынков, на которые влияет применение таких систем).

10. Партнёрство с отраслью без игры в поддавки. Наладить партнерство с отраслью для разработки отраслевых кодексов поведения для ответственной разработки и внедрения ИИ на деле, а не на словах.
👍6🔥2👏1
Зум будет использовать данные звонков и метаданные для машинного обучения

Это следует из новой редакции п. 10.2 и 10.4 пользовательского соглашения.

В частности, из них следует, что вы даёте оператору сервиса не ограниченную по времени и пространству лицензию на использование любых расшифровок звонков, аналитики и иных материалов, производных от любой обработанной сервисом информации, включая все ваши персональные данные, обрабатываемые во время звонков и конференций (в пределах, не противоречащих политике компании).

Лицензия покрывает широкий спектр случаев, включая разработку и улучшение продуктов компании, с возможностью уступки прав по лицензии третьим лицам или сублицензирования.

Возможности использования метаданных (кто, кому и когда звонил и т.п.) ещё более широки.

Учитывайте это при использовании сервиса.
😱7🤔21
Виспер и транскрибирование аудио

Если вы пропустили восторги по поводу этого средства для точного распознавания речи и транскрибирования, которое появилось уже довольно давно, самое время восполнить упущенное.

Виспер был создан Оупен-Эй-Ай и выпущен в открытом исходном коде.

Поддерживает в том числе русский.

Григорий Герганов переложил на Си++ и оптимизировал для работы на Макбуках. Его версия доступна здесь.

Ода этому инструменту, из-за которой я заинтересовался, была опубликована в Нью-Йоркере.

Сам Виспер встроен в приложение ЧатГПТ, в том числе на Андроиде, и распознавание русского я попробовал. Результат очень хороший.

Единственное, в этом случае Виспер работает в облаке, а не на устройстве, и данные уходят к Оупен-Эй-Ай.

Если это вам не подходит, можете собрать приложение сами и запускать на своём устройстве.

Инструкция от Кевина Стратверта по сборке для ПК.

А вот его же руководство по установке и запуску приложения в Гугл облаке для транскрибирования файлов. Да, приложение также создает srt, так что можно делать субтитры.
👍2
Парламент Индии принял законопроект о защите персональных данных

Об этом сегодня сообщает издание "Таймс оф Индия". Законопроект (см. текст) принят спустя шесть лет после того, как Верховный суд страны признал наличие у граждан фундаментального права на защиту неприкосновенности частной жизни.

Министр информационных технологий Ашвини Вайшнав заявил, что законопроект устанавливает ряд обязанностей для частных и государственных организаций, собирающих и обрабатывающих данные о гражданах.

По заявлению министра, законопроект написан доступным языком, понятным "даже обычному человеку". Характерно, что прямо по тексту акта приводятся примеры, показывающие как его положения будут применяться в некоторых типичных жизненных ситуациях.

Также законопроектом предусмотрены штрафы. В частности, непринятие адекватных мер безопасности для предотвращения утечки персональных данных карается штрафом до 2,5 млрд. рупий (2,9 млрд. рублей).

Индийский независимый аналитический центр, PRS Legislative Research, обобщает положения акта следующим образом:

Основные положения законопроекта

- Законопроект будет применяться к обработке цифровых персональных данных на территории Индии, когда такие данные собираются в онлайне или собираются в оффлайне и переводятся в цифровой формат. Он также будет применяться к такой обработке за пределами Индии, если она осуществляется для предложения товаров или услуг в Индии.

- Персональные данные могут обрабатываться только с согласия физического лица (data principal) или без такого согласия, но только для ограниченного перечня законных целей . В частности, отдельное согласие не требуется для обработки данных в целях, для которых гражданин сам добровольно предоставил эти данные, а также для предоставления ему государством разрешений, лицензий, льгот и услуг.

- Операторы данных (data fiduciaries) будут обязаны поддерживать точность данных, обеспечивать их сохранность и удалять данные после достижения цели обработки.

- Законопроект предоставляет определенные права физическим лицам, включая право на получение информации, исправление и удаление данных, а также на обжалование действий оператора.

- Центральное правительство может освобождать государственные учреждения от применения положений законопроекта, когда это необходимо в интересах безопасности государства, общественного порядка и предотвращения правонарушений.

- Центральное правительство создаст Совет по защите данных Индии, который будет выносить решения по вопросам несоблюдения положений законопроекта.

Ключевые вопросы и анализ

- Исключения из правил обработки данных государством по таким соображениям, как национальная безопасность, могут привести к сбору, обработке и хранению данных сверх необходимого. Это может нарушить фундаментальное право на неприкосновенность частной жизни.

- Законопроект не регулирует риски причинения вреда в результате обработки персональных данных.

- Законопроект не предоставляет гражданам право на переносимость данных и право на забвение.

- Законопроект разрешает передачу персональных данных за пределы Индии, за исключением стран, указанных центральным правительством. Такой механизм может не обеспечить адекватной оценки стандартов защиты данных в странах, куда разрешена передача персональных данных.

- Члены Совета по защите данных Индии будут назначаться на два года и иметь право на повторное назначение. Короткий срок с возможностью повторного назначения может повлиять на независимое функционирование Совета.
🔥4