Robocounsel
1.91K subscribers
243 photos
17 videos
78 files
619 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
Прошёл сертификацию на ведущего специалиста по внедрению системы ИИ-менеджмента по ИСО/МЭК 42001

Принимаю поздравления — это было непросто, но необходимо: сейчас это лидирующий мировой стандарт для управления разработкой ИИ-продуктов и для внедрения ИИ-продуктов в бизнес-процессы ответственным образом.

Сертификацию имеют Антропик, Амазон Веб Сервисез, Самсунг, Майкрософт и другие ведущие технологические компании, а некоторые также требуют того же от своих партнёров-поставщиков.

Буду рад помочь с внедрением данной системы менеджмента в вашей компании и подготовкой к независимому аудиту и сертификации. Особенно актуально для тех, кто планирует сохранять конкурентоспособность на рынке, где наличие сертификации систем менеджмента становится не чем-то непонятным, а желаемым положением дел.

А если ваше предприятие уже имеет другую систему менеджмента, например, качества по ИСО 9001 или информационной безопасности по ИСО 27001, то внедрение ИСО 42001 становится значительно проще.

О том, как использовать данный стандарт для построения базовых процессов в контексте требований Регламента ЕС по ИИ — рассказываю здесь.
👏189👍7
Информационная безопасность — это важно

Поэтому обращаю внимание тех, кто хотел бы погрузиться в тему — коллеги из РППА проводят профильное обучение:

1) Двухмесячная программа Cyber in Privacy в июле-августе

За два месяца есть возможность хорошо прокачаться: все знания из первых рук, от экспертов в теме.
Детали здесь. С учётом скорого начала — лучше зарегистрироваться прямо сейчас, пока остались места.

Если тема интересна, но нет времени на плотное обучение в июле-августе, то есть более компактный формат:

2) Мастер-классы "Теория и практика моделирования угроз безопасности персональных данных"

Сугубо практически полезный контент, и две опции:
- записаться на двухдневный онлайн 15-16 октября;
- получить запись с прошлого мастер-класса.

Оба варианта и описание доступны здесь.
4👍4🥴1
Против какой ИИ-компании больше исков о нарушении авторских прав?

Антилидеры рынка:
1. OpenAI – 15 исков
2. Microsoft – 12 исков (как соответчик OpenAI)
3. Meta* – 5 исков

Источник

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
🌚8👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Швейцария объявила войну Германии

А нигерийский принц действительно готов поделиться с вами своим состоянием.

Конечно, всё это происходит не в нашей реальности, а в дипфейках. Которые мошенники уже активно используют для обмана и лёгкой наживы.

И люди, далёкие от понимания сегодняшнего уровня технологий, ввиду преклонного возраста или других причин — могут быть легко этим обмануты.

Именно для них Леонард Шмеддинг сделал эту небольшую, но впечатляющее демонстрацию.

Прим.: KI — künstliche intelligenz (нем.) искусственный интеллект.

Использованная модель: Veo-3
😁3😢3👍1
Возможны ли надёжные и эффективные ИИ-системы на базе больших языковых моделей (LLM)?

Те, кто прошли мой курс, помнят, что я поясняю разницу между моделью и системой на примере автомобилей. ИИ-система — это автомобиль, ИИ-модель — это её двигатель. В обоих случаях конечный продукт не может работать без ключевого компонента.

Так вот, в этом видео Саяш Капур рассказывает о проблемах интеграции LLM в функциональную ИИ-систему.

В частности, он обращает внимание:
— необходимо различать способность ИИ-системы выполнить задачу (capability) и надёжность выполнения этой задачи (reliability);
— основная проблема больших языковых ИИ-моделей в качестве "движка" — в том, что выдаваемый ими результат недостаточно предсказуем (стохастичен);
— соответственно, для решения проблемы с надёжностью ИИ-системы — конечного продукта — недостаточна только оптимизация самой ИИ-модели;
— необходима работа над общим дизайном ИИ-системы, подбор других необходимых компонентов таким образом, чтобы контейнировать неизбежную стохастичность ИИ-модели и обеспечить требуемую надёжность для итоговой ИИ-системы.

Готовых устоявшихся и ставших бы стандартными рецептов для такой работы по контейнированию больших языковых моделей и достижению надёжности в масштабе и на потоке — насколько мне известно — на сегодня нет. Это всё ещё направление для перспективных исследований.

Имейте это в виду, когда вам в очередной раз будут продавать очередную систему на базе LLM как продукт, в котором эта проблема успешно решена. Просите вендора предъявить доказательства этой работы и найдите людей, которые могут критически оценить эти доказательства.
6👍5
Промежуточные токены LRM — вовсе не то, что вы думаете

Широкие народные массы были взволнованы, обрадованы и потрясены способностью новых "ризонинг" моделей (LRM, large reasoning models) создавать и показывать так называемые промежуточные токены — набор "рассуждений" модели по поводу команды пользователя, как бы демонстрирующий её "мыслительный процесс".

Суббарао Камбампати и его исследовательская группа из Университета штата Аризона утверждают:

— с технической точки зрения некорректно рассматривать генерацию промежуточных токенов как знак приближения моделей к способности рассуждать, как человек — в модели это процесс, по-прежнему основанный на статистическом предсказании словесных ассоциаций на основе вводных данных;

— промежуточные токены дополняют исходный промт информацией, полезной для повышения качества итогового ответа, поэтому их следует рассматривать как метод дополнительного промптинга и оптимизации,

— качество итогового ответа не зависит от того, насколько понятны для человека промежуточные токены: в ряде исследований показано, что модели, чьи промежуточные токены были менее понятны, в том числе содержали одновременно иероглифы и латиницу, тем не менее давали более качественный итоговый ответ, чем модели, оптимизированные на понятность промежуточных токенов;

— соответственно, целью оптимизации для будущих LRM является не способность производить всё более и более понятные человеку промежуточные токены, а только и исключительно качество итогового ответа; промежуточные токены играют сугубо техническую роль и могут быть сколь угодно непонятны.
5👍3
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚11😢6😁2
О требованиях к маркировке генеративного аудио в ЕС

Поговорили на эту тему с Лукасом Люрестамом из Transparent Audio (куда меня недавно пригласили немного поадвайзить).

Обсудили, что предполагает статья 50 Регламента ЕС по ИИ. Запись здесь.
7
Об использовании ИИ в школах

Отличная статья на эту тему от Мэтью Вемисса. С учётом европейской регуляторной специфики, но с практической точки зрения много полезных рекомендаций, применимых в любой географии.

Мэтью сам работает в школе (руководитель по стратегии
и развитию в Кембриджской школе в Бухаресте) и написал не одну книгу на тему применения ИИ в образовании.

Как он отмечает, обращаясь к коллегам:
Каждый год я провожу обучение о том, как отбирать безопасных кандидатов для работы в школе.
Вы, вероятно, тоже.

И каждый год это напоминает мне о том, что подбор подходящего персонала для школы — дело серьезное.

Мы проверяем биографии. Задаем неудобные вопросы. Ведем центральный реестр.

Чтобы защитить учащихся и убедиться, что люди, работающие с ними, безопасны, подходят для этой работы и получают необходимую поддержку.

Теперь подумайте об искусственном интеллекте.

В своем последнем блоге я объясняю, как Регламент ЕС об искусственном интеллекте регулирует использование систем искусственного интеллекта в образовании и почему школы должны подходить к внедрению таких систем так же серьёзно, как и при отборе учителей.


И бонусом подсвечу ещё одну статью — на русском — от Э. Йигит об ИИ в детском образовании.
6👍4🔥1
Не хватает ИИ-новостей, интересных статей, обсуждений и мемов?

Или просто хотите поддержать канал и автора?

Напомню, что для этого у нас есть сообщество AI Governance (и бонусный канал к нему — Robocounsel Plus).

Подписывайтесь!
👍1🥴1
Обучение ИИ-моделей на книгах без согласия правообладателей: fair use в США или нет?

Сразу по двум разным делам в США двое судей признали обучение ИИ-моделей на произведениях, охраняемых авторским правом, добросовестным использованием.

Обстоятельства дел отличаются, решения промежуточные и по упрощённой процедуре, а инициатива применения упрощённой процедуры — и соответственно бремя доказывания — лежали в этих делах на разных сторонах процесса, поэтому сильно разнятся и мотивировочные части решений. Общность в том, что доктрина добросовестного использования к обучению ИИ-моделей применяться может.

Но судьи разошлись по ряду оценок.

Судья Чабрия по делу Меты* пришёл к выводу, что если бы истцы смогли показать, как вместо приобретения произведений истцов потребители будут взамен оплачивать подписку на сервисы ИИ-компаний, это было бы сильным аргументом в пользу истцов, но они даже не пытались развить эту мысль.

Тем не менее, судья предвидит, что в будущем аналогичные дела другие истцы могут вполне вероятно выигрывать, если они как следует аргументируют наличие таких экономических эффектов (а мы с вами знаем, что они действительно есть — к примеру, рынок стоковых фото и иллюстраций уже существенно пострадал: потребители теперь чаще платят деньги ИИ-компаниям за генерацию изображений, чем покупают их на стоке или заказывают иллюстраторам).

Судья Олсап по делу Антропика не принял эту аргументацию и считает, что такое вытеснение авторов произведений на рынке ИИ-компаниями выходит за рамки релевантного для авторского права. В то же время он более строго, чем коллега, оценил факт использования для обучения ИИ-моделей экземпляров произведений, полученных из "пиратских" источников.

Частично модели Антропика были обучены на таких произведениях, и в отношении последствий такого шага будет ещё вынесено отдельное решение. Но в части обучения на отсканированных экземплярах книг — Антропик приобрёл миллионы экземпляров и потратил на это многие миллионы долларов — нарушения интересов правообладателей судья не усмотрел.

Решения интересные и стимулируют к огромному количеству размышлений. В том числе о необходимости давать отдельную оценку потенциальным нарушениям (а) на стадии обучения ИИ-модели и (б) на стадии её последующего использования. Практика постепенно формируется.

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
😁4👍2🤔1😱1
Бесплатный вебинар: система на базе LLM как медицинское изделие

Prof. Valmed утверждают, что они первыми в мире получили сертификат соответствия ИСО 13485 на свою систему поддержки принятия решений для врачей на базе большой языковой модели (с применением RAG-подхода), как медизделие класса IIb согласно EU MDR.

Доктор Хью Харви завтра проводит с ними вебинар на Линкдине.

Так что если SaMD ваша тема — не пропустите.
🥴4👍21😁1
Robocounsel
Нижняя палата парламента США одобрила законопроект о моратории на нормотворчество в области ИИ на уровне отдельных штатов 22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful…
США: субъекты американской федерации сохранят право регулировать ИИ

Сенат 99 голосами против 1 исключил из законопроекта о федеральном бюджете одиозное положение о запрете штатам принимать законы для защиты своих граждан от злоупотреблений со стороны ИИ-компаний.

В последней редакции запрет был трансформирован в санкцию: будете регулировать эти вопросы на уровне штатов — не получите часть федерального финансирования. Но даже эта модификация не помогла: сенаторы посчитали любой федеральный мораторий — в условиях отсутствия проходных федеральных законопроектов на эту тему — слишком щедрым подарком ИИ-компаниям.

В числе лоббировавших провалившийся мораторий Оупен-Эй-Ай и Гугл. О сути предложений писал ранее.

Лоббисты уже в истерике.
👍6😢1
Почему базовые регуляторные требования к кибербезопасности и угроза штрафов для компаний — это хорошо

Национальная комиссия Франции по информатизации и гражданским свободам (CNIL) опубликовала анализ экономического эффекта требований ОРЗД (GDPR) в области кибербезопасности для компаний и общества в целом.

Даже если ограничить такой анализ только утечками данных (далеко не единственная угроза, против которой направлены требования ОРЗД), эффект сугубо положительный, притом как для самих компаний, так и — что важнее — для общества в целом.

Благодаря закреплению в ОРЗД базовых требований к кибербезопасности, к информированию субъектов об утечках их данных, и благодаря установлению штрафов за несоблюдение этих требований, общий размер предотвращённого вреда от утечек в ЕС составил от 0,5 до 1,4 млрд. евро (82% от этой цифры — предотвращённые убытки компаний), количество утечек сократилось на 2,5-6,1%.

При этом анализ показывает, что в отсутствие регуляторных требований и угрозы штрафов компании не имели бы достаточной мотивации раскрывать крупнейшие утечки.

Эти выгоды представляют собой лишь небольшую часть общей пользы, приносимой ОРЗД в плане сокращения киберпреступности. Они отражают влияние лишь одного из его положений на конкретный вид киберпреступности (кража личных данных). Необходимо также учитывать положительное влияние соблюдения GDPR на кибервымогательство, ботнеты, вредоносное ПО и т. д. Экономистам было бы полезно более глубоко изучить проблему кибербезопасности, чтобы получить более полное представление об этой теме.
5👍2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Паузы в применении Регламента ЕС по ИИ не будет

В последнее время было много спекуляций по этому поводу, со ссылкой на обсуждения в кулуарах Еврокомиссии.

В частности, ссылались на слова Хенны Вирккунен, исполнительного вице-президента Еврокомиссии по технологическому суверенитету (отвечающую за ИИ-тематику) на служебном совещании 6 июня:

Если мы увидим, что стандарты и руководства. . . не будут готовы вовремя, мы не должны исключать возможность отсрочки по некоторым положениям Регламента об ИИ.


Тем не менее, сегодня пресс-секретарь Еврокомиссии по тому же самому техническому суверенитету Томас Ренье подытожил:

Нет никакой остановки часов, никакого льготного периода, никакой паузы. Почему? Потому что у нас есть юридически обязательные сроки, установленные нормативным актом, по наступлении которых Еврокомиссия будет обеспечивать применение этих норм и следить за тем, чтобы компании соблюдали требования Регламента ЕС по ИИ.
👍5
Персональные данные и ИИ

Чуть не забыл, у меня же в эту пятницу двухчасовой практический вебинар по пересечению требований Регламента ЕС по ИИ и ОРЗД/GDPR.

Как почти всё лучшее в этой жизни, вебинар платный. По сути — это сфокусированный на данной теме фрагмент моего четырёхнедельного курса по Регламенту, для тех, кто его пока не прошёл и не имеет на это достаточного времени.

Если это вам нужно для вашего профессионального развития — записывайтесь на сайте.
Если вы хотите оплатить в рублях — пишите через бот.
👍54😁2
Четыре проблемы копирайта в эпоху ИИ

Отличная статья Андреса Гуадамуза на эту тему. Не даёт решений, но отмечает, что они сугубо в области политики права, в руках законодателей и в области de lege ferenda, а не в страусиной надежде засунуть голову в de lege lata сложившееся авторское право и ждать, пока оно всё решит. Не решит.

Почему? Читайте в статье. Но если вкратце, его аргументы таковы:

1) ИИ-модели уже обучены на огромных массивах данных. И даже при теоретическом обанкрочивании всех ИИ-компаний, до которых правообладатели могли бы дотянуться, это не прекратит существование этих моделей и их глобальное распространение, в том числе в юрисдикциях, по сути игнорирующих копирайт. При любом раскладе ИИ-модели останутся в репозиториях и на рынке (прежде всего опенсорсные модели, каковых всё больше). Копирайт-индустрия пытается догнать уже ушедший поезд, тогда как переговоры о лицензировании следовало бы провести заранее, несколько лет назад.

2) Процесс обучения ИИ-модели предполагает доступ к экземпляру произведения для извлечения данных, но не влечёт создания производного произведения и не приводит сам по себе к опубликованию экземпляра — исходного или производного произведения — в правовом смысле, что делает потенциальный ущерб, который можно потребовать в суде к возмещению, незначительным. По крайней мере в тех юрисдикциях, где размеры компенсаций за нарушения авторского права не установлены законом.

3) Само по себе обучение ИИ-модели на материале произведения не является исключительным правом автора, поэтому извлечение информации из законно приобретенного произведения (как в случае, когда Антропик приобрёл на рынке миллионы физических экземпляров книг) само по себе не нарушает исключительного права.

4) Старые экономические модели роялти не работают из-за масштаба и доли отдельного произведения в корпусе данных, на которых обучены ИИ-модели. Крупнейшие — и популярнейшие — ИИ-модели требуют миллиардов токенов для обучения, что в сочетании с необходимостью приобретения только одного экземпляра произведения делает ценность лицензионного рынка ничтожной — создатели получали бы стремящиеся к нулю доли процента от и без того небольших сумм — на порядки меньше, чем они сейчас получают в виде роялти от суммы каждой подписки потребителя на Яндекс.Музыку или Спотифай.

P.S. Автор статьи относит себя к копирайт-минималистам. О предыдущих эпизодах копирайт-войн тупоконечников (минималистов) с остроконечниками (максималистами) читайте в другой его статье.
7👍4
Опубликован Свод практик для операторов GPAI моделей

Свод практик — ко-регуляторный инструмент, разработанный во исполнение требований Регламента ЕС по ИИ, касающихся поставщиков ИИ-моделей общего назначения (к ним относятся модели семейств GPT-4, Claude, DeepSeek и подобные).

В разработке Свода участвовал широкий круг лиц и организаций, включая саму ИИ-индустрию. Не обязателен к присоединению, но в случае присоединения обязателен к выполнению.

Документ состоит из трёх глав, посвящённых порядку выполнения требований Регламента к поставщикам ИИ-моделей общего назначения:
- о транспарентности,
- о соблюдении норм авторского права,
- об обеспечении общественной безопасности и кибербезопасности самих систем (управление системными рисками).
🔥8
Robocounsel
Опубликован Свод практик для операторов GPAI моделей Свод практик — ко-регуляторный инструмент, разработанный во исполнение требований Регламента ЕС по ИИ, касающихся поставщиков ИИ-моделей общего назначения (к ним относятся модели семейств GPT-4, Claude…
Оупен-Эй-Ай планирует подписать Свод практик ЕС для поставщиков GPAI моделей

Компания заявила о намерении сделать это при условии одобрения проекта Свода со стороны Европейского совета по искусственному интеллекту (AI Board, формируется из представителей государств-членов ЕС).

Также в заявлении компании излагается позиция по поводу желаемый дальнейших шагов в отношении европейской ИИ-стратегии.

Совет и Еврокомиссия рассматривают проект Свода в данный момент, как это предусмотрено Регламентом ЕС по ИИ.

Насколько мне известно, это первое заявление со стороны одного из ведущих игроков рынка, на которых распространяется Регламент.

Ждём позиций Антропика и Мистраля.
🔥8🤬2🌚1
Спецификации для людей и машин

Шон Гроув из Оупен-Эй-Ай проводит параллели между тем, что делают ИИ-инженеры и юристы, формируя базовый текст, определяющий требуемое положение дел.

Параллель интересная, только вот "clear, unambiguous" спецификация для социальных отношений это очень большая условность.

Сами регулируемые отношения и их субъекты настолько сложнопредсказуемы и зависят от ценностных суждений, что о точности правовых "спецификаций" говорить не приходится.

Да, есть какие-то универсалии, вроде тех, что "убийство — это плохо", но даже они подвержены оговоркам и заранее всё специфицировать невозможно и бесполезно.

А у ИИ-инженеров другая проблема: как верно отмечают в комментариях под видео, текущие ИИ-продукты не умеют писать стабильный код по этим самым чётким, однозначным спецификациям. Которые для кода-то как раз возможны.

Поэтому видео интересное, аналогия любопытная, но неточная и продукты Шона тоже не работают так, как он пытается нас убедить.

Ну и концовка по поводу приглашения идти к ним строить AGI — кринж. Никакого AGI его компания не строит. Тут он либо намеренно обманывает, и позор ему, либо у него AGI головного мозга, и сочувствие и соболезнования ему.

Его компания делает конкурентоспособные продукты, полезные, игнорируя ряд этических дилемм. Но не AGI. Эти сказки оставьте для детей, Шон.
1👍4
AI Agent Mailbox Access Threat Table - 2025-07-18.pdf
216.2 KB
"Все побежали, и я побежал"?

Ведущие ИИ-компании анонсировали новых агентов, которые умеют автономно выполнять ваши задачи в интернете.

И у меня в соцсетях пошла пропаганда от ИИ-энтузиастов, которые с горящими глазами подключают этих агентов к своей почте и дают широкие права доступа к другим своим ИТ-ресурсам.

Прежде чем бежать за ними вслед сломя голову, остановитесь и подумайте 5 минут, как вы этим самым создаёте новые угрозы и увеличиваете риски — не только для себя, но и для других людей. Коллег, друзей, просто посторонних.

Для одного только сценария доступа агента к почте за 5 минут получится примерно такой список, как во вложении. Если подумать больше 5 минут, то список угроз гарантированно вырастет.

Для других сценариев — будут дополнительные угрозы.

Поэтому сначала думаем, идентифицируем угрозы, снижаем риски до приемлемого уровня, и только потом экспериментируем.

Или не экспериментируем, если риски для вас или, что важно, для других потенциальных жертв — неприемлемы.
7👍3🌚2