Прошёл сертификацию на ведущего специалиста по внедрению системы ИИ-менеджмента по ИСО/МЭК 42001
Принимаю поздравления — это было непросто, но необходимо: сейчас это лидирующий мировой стандарт для управления разработкой ИИ-продуктов и для внедрения ИИ-продуктов в бизнес-процессы ответственным образом.
Сертификацию имеют Антропик, Амазон Веб Сервисез, Самсунг, Майкрософт и другие ведущие технологические компании, а некоторые также требуют того же от своих партнёров-поставщиков.
Буду рад помочь с внедрением данной системы менеджмента в вашей компании и подготовкой к независимому аудиту и сертификации. Особенно актуально для тех, кто планирует сохранять конкурентоспособность на рынке, где наличие сертификации систем менеджмента становится не чем-то непонятным, а желаемым положением дел.
А если ваше предприятие уже имеет другую систему менеджмента, например, качества по ИСО 9001 или информационной безопасности по ИСО 27001, то внедрение ИСО 42001 становится значительно проще.
О том, как использовать данный стандарт для построения базовых процессов в контексте требований Регламента ЕС по ИИ — рассказываю здесь.
Принимаю поздравления — это было непросто, но необходимо: сейчас это лидирующий мировой стандарт для управления разработкой ИИ-продуктов и для внедрения ИИ-продуктов в бизнес-процессы ответственным образом.
Сертификацию имеют Антропик, Амазон Веб Сервисез, Самсунг, Майкрософт и другие ведущие технологические компании, а некоторые также требуют того же от своих партнёров-поставщиков.
Буду рад помочь с внедрением данной системы менеджмента в вашей компании и подготовкой к независимому аудиту и сертификации. Особенно актуально для тех, кто планирует сохранять конкурентоспособность на рынке, где наличие сертификации систем менеджмента становится не чем-то непонятным, а желаемым положением дел.
А если ваше предприятие уже имеет другую систему менеджмента, например, качества по ИСО 9001 или информационной безопасности по ИСО 27001, то внедрение ИСО 42001 становится значительно проще.
О том, как использовать данный стандарт для построения базовых процессов в контексте требований Регламента ЕС по ИИ — рассказываю здесь.
Credly
ISO/IEC 42001 Lead Implementer was issued by PECB to Aleksandr Tiulkanov.
This certification is a benchmark for all individuals who have a high level of expertise to effectively plan, implement, manage, monitor, and maintain an artificial intelligence management system (AIMS).
👏18❤9👍7
Информационная безопасность — это важно
Поэтому обращаю внимание тех, кто хотел бы погрузиться в тему — коллеги из РППА проводят профильное обучение:
1) Двухмесячная программа Cyber in Privacy в июле-августе
За два месяца есть возможность хорошо прокачаться: все знания из первых рук, от экспертов в теме.
Детали здесь. С учётом скорого начала — лучше зарегистрироваться прямо сейчас, пока остались места.
Если тема интересна, но нет времени на плотное обучение в июле-августе, то есть более компактный формат:
2) Мастер-классы "Теория и практика моделирования угроз безопасности персональных данных"
Сугубо практически полезный контент, и две опции:
- записаться на двухдневный онлайн 15-16 октября;
- получить запись с прошлого мастер-класса.
Оба варианта и описание доступны здесь.
Поэтому обращаю внимание тех, кто хотел бы погрузиться в тему — коллеги из РППА проводят профильное обучение:
1) Двухмесячная программа Cyber in Privacy в июле-августе
За два месяца есть возможность хорошо прокачаться: все знания из первых рук, от экспертов в теме.
Детали здесь. С учётом скорого начала — лучше зарегистрироваться прямо сейчас, пока остались места.
Если тема интересна, но нет времени на плотное обучение в июле-августе, то есть более компактный формат:
2) Мастер-классы "Теория и практика моделирования угроз безопасности персональных данных"
Сугубо практически полезный контент, и две опции:
- записаться на двухдневный онлайн 15-16 октября;
- получить запись с прошлого мастер-класса.
Оба варианта и описание доступны здесь.
rppaedu.pro
Cyber in Privacy
Образовательная программа Cyber in Privacy предназначена для специалистов из различных направлений, желающих расширить свои знания и навыки в области защиты информации
❤4👍4🥴1
This media is not supported in your browser
VIEW IN TELEGRAM
Швейцария объявила войну Германии
А нигерийский принц действительно готов поделиться с вами своим состоянием.
Конечно, всё это происходит не в нашей реальности, а в дипфейках. Которые мошенники уже активно используют для обмана и лёгкой наживы.
И люди, далёкие от понимания сегодняшнего уровня технологий, ввиду преклонного возраста или других причин — могут быть легко этим обмануты.
Именно для них Леонард Шмеддинг сделал эту небольшую, но впечатляющее демонстрацию.
Прим.: KI — künstliche intelligenz (нем.) искусственный интеллект.
Использованная модель: Veo-3
А нигерийский принц действительно готов поделиться с вами своим состоянием.
Конечно, всё это происходит не в нашей реальности, а в дипфейках. Которые мошенники уже активно используют для обмана и лёгкой наживы.
И люди, далёкие от понимания сегодняшнего уровня технологий, ввиду преклонного возраста или других причин — могут быть легко этим обмануты.
Именно для них Леонард Шмеддинг сделал эту небольшую, но впечатляющее демонстрацию.
Прим.: KI — künstliche intelligenz (нем.) искусственный интеллект.
Использованная модель: Veo-3
😁3😢3👍1
Возможны ли надёжные и эффективные ИИ-системы на базе больших языковых моделей (LLM)?
Те, кто прошли мой курс, помнят, что я поясняю разницу между моделью и системой на примере автомобилей. ИИ-система — это автомобиль, ИИ-модель — это её двигатель. В обоих случаях конечный продукт не может работать без ключевого компонента.
Так вот, в этом видео Саяш Капур рассказывает о проблемах интеграции LLM в функциональную ИИ-систему.
В частности, он обращает внимание:
— необходимо различать способность ИИ-системы выполнить задачу (capability) и надёжность выполнения этой задачи (reliability);
— основная проблема больших языковых ИИ-моделей в качестве "движка" — в том, что выдаваемый ими результат недостаточно предсказуем (стохастичен);
— соответственно, для решения проблемы с надёжностью ИИ-системы — конечного продукта — недостаточна только оптимизация самой ИИ-модели;
— необходима работа над общим дизайном ИИ-системы, подбор других необходимых компонентов таким образом, чтобы контейнировать неизбежную стохастичность ИИ-модели и обеспечить требуемую надёжность для итоговой ИИ-системы.
Готовых устоявшихся и ставших бы стандартными рецептов для такой работы по контейнированию больших языковых моделей и достижению надёжности в масштабе и на потоке — насколько мне известно — на сегодня нет. Это всё ещё направление для перспективных исследований.
Имейте это в виду, когда вам в очередной раз будут продавать очередную систему на базе LLM как продукт, в котором эта проблема успешно решена. Просите вендора предъявить доказательства этой работы и найдите людей, которые могут критически оценить эти доказательства.
Те, кто прошли мой курс, помнят, что я поясняю разницу между моделью и системой на примере автомобилей. ИИ-система — это автомобиль, ИИ-модель — это её двигатель. В обоих случаях конечный продукт не может работать без ключевого компонента.
Так вот, в этом видео Саяш Капур рассказывает о проблемах интеграции LLM в функциональную ИИ-систему.
В частности, он обращает внимание:
— необходимо различать способность ИИ-системы выполнить задачу (capability) и надёжность выполнения этой задачи (reliability);
— основная проблема больших языковых ИИ-моделей в качестве "движка" — в том, что выдаваемый ими результат недостаточно предсказуем (стохастичен);
— соответственно, для решения проблемы с надёжностью ИИ-системы — конечного продукта — недостаточна только оптимизация самой ИИ-модели;
— необходима работа над общим дизайном ИИ-системы, подбор других необходимых компонентов таким образом, чтобы контейнировать неизбежную стохастичность ИИ-модели и обеспечить требуемую надёжность для итоговой ИИ-системы.
Готовых устоявшихся и ставших бы стандартными рецептов для такой работы по контейнированию больших языковых моделей и достижению надёжности в масштабе и на потоке — насколько мне известно — на сегодня нет. Это всё ещё направление для перспективных исследований.
Имейте это в виду, когда вам в очередной раз будут продавать очередную систему на базе LLM как продукт, в котором эта проблема успешно решена. Просите вендора предъявить доказательства этой работы и найдите людей, которые могут критически оценить эти доказательства.
YouTube
Building and evaluating AI Agents — Sayash Kapoor, AI Snake Oil
Is 2025 the year of AI agents? Will reasoning models allow agents to solve challenging open problems? From software engineering to web task automation, it has been claimed that agents will solve challenging open problems. Unfortunately, current agents suffer…
❤6👍5
Промежуточные токены LRM — вовсе не то, что вы думаете
Широкие народные массы были взволнованы, обрадованы и потрясены способностью новых "ризонинг" моделей (LRM, large reasoning models) создавать и показывать так называемые промежуточные токены — набор "рассуждений" модели по поводу команды пользователя, как бы демонстрирующий её "мыслительный процесс".
Суббарао Камбампати и его исследовательская группа из Университета штата Аризона утверждают:
— с технической точки зрения некорректно рассматривать генерацию промежуточных токенов как знак приближения моделей к способности рассуждать, как человек — в модели это процесс, по-прежнему основанный на статистическом предсказании словесных ассоциаций на основе вводных данных;
— промежуточные токены дополняют исходный промт информацией, полезной для повышения качества итогового ответа, поэтому их следует рассматривать как метод дополнительного промптинга и оптимизации,
— качество итогового ответа не зависит от того, насколько понятны для человека промежуточные токены: в ряде исследований показано, что модели, чьи промежуточные токены были менее понятны, в том числе содержали одновременно иероглифы и латиницу, тем не менее давали более качественный итоговый ответ, чем модели, оптимизированные на понятность промежуточных токенов;
— соответственно, целью оптимизации для будущих LRM является не способность производить всё более и более понятные человеку промежуточные токены, а только и исключительно качество итогового ответа; промежуточные токены играют сугубо техническую роль и могут быть сколь угодно непонятны.
Широкие народные массы были взволнованы, обрадованы и потрясены способностью новых "ризонинг" моделей (LRM, large reasoning models) создавать и показывать так называемые промежуточные токены — набор "рассуждений" модели по поводу команды пользователя, как бы демонстрирующий её "мыслительный процесс".
Суббарао Камбампати и его исследовательская группа из Университета штата Аризона утверждают:
— с технической точки зрения некорректно рассматривать генерацию промежуточных токенов как знак приближения моделей к способности рассуждать, как человек — в модели это процесс, по-прежнему основанный на статистическом предсказании словесных ассоциаций на основе вводных данных;
— промежуточные токены дополняют исходный промт информацией, полезной для повышения качества итогового ответа, поэтому их следует рассматривать как метод дополнительного промптинга и оптимизации,
— качество итогового ответа не зависит от того, насколько понятны для человека промежуточные токены: в ряде исследований показано, что модели, чьи промежуточные токены были менее понятны, в том числе содержали одновременно иероглифы и латиницу, тем не менее давали более качественный итоговый ответ, чем модели, оптимизированные на понятность промежуточных токенов;
— соответственно, целью оптимизации для будущих LRM является не способность производить всё более и более понятные человеку промежуточные токены, а только и исключительно качество итогового ответа; промежуточные токены играют сугубо техническую роль и могут быть сколь угодно непонятны.
THE DECODER
Wait a minute! Researchers say AI's "chains of thought" are not signs of human-like reasoning
A research team from Arizona State University warns against interpreting intermediate steps in language models as human thought processes. The authors see this as a dangerous misconception with far-reaching consequences for research and application.
❤5👍3
О требованиях к маркировке генеративного аудио в ЕС
Поговорили на эту тему с Лукасом Люрестамом из Transparent Audio (куда меня недавно пригласили немного поадвайзить).
Обсудили, что предполагает статья 50 Регламента ЕС по ИИ. Запись здесь.
Поговорили на эту тему с Лукасом Люрестамом из Transparent Audio (куда меня недавно пригласили немного поадвайзить).
Обсудили, что предполагает статья 50 Регламента ЕС по ИИ. Запись здесь.
YouTube
Understanding the EU AI Act for Gen-AI Audio Companies
An in-depth discussion between Transparent Audio co-founder Lukas Lyrestam and EU AI Act expert Aleksandr Tiulkanov. Essential for AI companies generating audio and operating in the European Union.
Check out:
🌐 Transparent Audio website: https://www.tra…
Check out:
🌐 Transparent Audio website: https://www.tra…
❤7
Об использовании ИИ в школах
Отличная статья на эту тему от Мэтью Вемисса. С учётом европейской регуляторной специфики, но с практической точки зрения много полезных рекомендаций, применимых в любой географии.
Мэтью сам работает в школе (руководитель по стратегии
и развитию в Кембриджской школе в Бухаресте) и написал не одну книгу на тему применения ИИ в образовании.
Как он отмечает, обращаясь к коллегам:
И бонусом подсвечу ещё одну статью — на русском — от Э. Йигит об ИИ в детском образовании.
Отличная статья на эту тему от Мэтью Вемисса. С учётом европейской регуляторной специфики, но с практической точки зрения много полезных рекомендаций, применимых в любой географии.
Мэтью сам работает в школе (руководитель по стратегии
и развитию в Кембриджской школе в Бухаресте) и написал не одну книгу на тему применения ИИ в образовании.
Как он отмечает, обращаясь к коллегам:
Каждый год я провожу обучение о том, как отбирать безопасных кандидатов для работы в школе.
Вы, вероятно, тоже.
И каждый год это напоминает мне о том, что подбор подходящего персонала для школы — дело серьезное.
Мы проверяем биографии. Задаем неудобные вопросы. Ведем центральный реестр.
Чтобы защитить учащихся и убедиться, что люди, работающие с ними, безопасны, подходят для этой работы и получают необходимую поддержку.
Теперь подумайте об искусственном интеллекте.
В своем последнем блоге я объясняю, как Регламент ЕС об искусственном интеллекте регулирует использование систем искусственного интеллекта в образовании и почему школы должны подходить к внедрению таких систем так же серьёзно, как и при отборе учителей.
И бонусом подсвечу ещё одну статью — на русском — от Э. Йигит об ИИ в детском образовании.
Linkedin
AI Insights Focus: Recruit AI Like You Recruit Staff
This is an overview, not a deep dive into a complex law. Think of it as a primer to get you started and thinking about what AI compliance means for your school.
❤6👍4🔥1
Не хватает ИИ-новостей, интересных статей, обсуждений и мемов?
Или просто хотите поддержать канал и автора?
Напомню, что для этого у нас есть сообщество AI Governance (и бонусный канал к нему — Robocounsel Plus).
Подписывайтесь!
Или просто хотите поддержать канал и автора?
Напомню, что для этого у нас есть сообщество AI Governance (и бонусный канал к нему — Robocounsel Plus).
Подписывайтесь!
Telegram
Tribute
This bot helps content creators receive financial support from their followers directly in the app.
👍1🥴1
Обучение ИИ-моделей на книгах без согласия правообладателей: fair use в США или нет?
Сразу по двум разным делам в США двое судей признали обучение ИИ-моделей на произведениях, охраняемых авторским правом, добросовестным использованием.
Обстоятельства дел отличаются, решения промежуточные и по упрощённой процедуре, а инициатива применения упрощённой процедуры — и соответственно бремя доказывания — лежали в этих делах на разных сторонах процесса, поэтому сильно разнятся и мотивировочные части решений. Общность в том, что доктрина добросовестного использования к обучению ИИ-моделей применяться может.
Но судьи разошлись по ряду оценок.
Судья Чабрия по делу Меты* пришёл к выводу, что если бы истцы смогли показать, как вместо приобретения произведений истцов потребители будут взамен оплачивать подписку на сервисы ИИ-компаний, это было бы сильным аргументом в пользу истцов, но они даже не пытались развить эту мысль.
Тем не менее, судья предвидит, что в будущем аналогичные дела другие истцы могут вполне вероятно выигрывать, если они как следует аргументируют наличие таких экономических эффектов (а мы с вами знаем, что они действительно есть — к примеру, рынок стоковых фото и иллюстраций уже существенно пострадал: потребители теперь чаще платят деньги ИИ-компаниям за генерацию изображений, чем покупают их на стоке или заказывают иллюстраторам).
Судья Олсап по делу Антропика не принял эту аргументацию и считает, что такое вытеснение авторов произведений на рынке ИИ-компаниями выходит за рамки релевантного для авторского права. В то же время он более строго, чем коллега, оценил факт использования для обучения ИИ-моделей экземпляров произведений, полученных из "пиратских" источников.
Частично модели Антропика были обучены на таких произведениях, и в отношении последствий такого шага будет ещё вынесено отдельное решение. Но в части обучения на отсканированных экземплярах книг — Антропик приобрёл миллионы экземпляров и потратил на это многие миллионы долларов — нарушения интересов правообладателей судья не усмотрел.
Решения интересные и стимулируют к огромному количеству размышлений. В том числе о необходимости давать отдельную оценку потенциальным нарушениям (а) на стадии обучения ИИ-модели и (б) на стадии её последующего использования. Практика постепенно формируется.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Сразу по двум разным делам в США двое судей признали обучение ИИ-моделей на произведениях, охраняемых авторским правом, добросовестным использованием.
Обстоятельства дел отличаются, решения промежуточные и по упрощённой процедуре, а инициатива применения упрощённой процедуры — и соответственно бремя доказывания — лежали в этих делах на разных сторонах процесса, поэтому сильно разнятся и мотивировочные части решений. Общность в том, что доктрина добросовестного использования к обучению ИИ-моделей применяться может.
Но судьи разошлись по ряду оценок.
Судья Чабрия по делу Меты* пришёл к выводу, что если бы истцы смогли показать, как вместо приобретения произведений истцов потребители будут взамен оплачивать подписку на сервисы ИИ-компаний, это было бы сильным аргументом в пользу истцов, но они даже не пытались развить эту мысль.
Тем не менее, судья предвидит, что в будущем аналогичные дела другие истцы могут вполне вероятно выигрывать, если они как следует аргументируют наличие таких экономических эффектов (а мы с вами знаем, что они действительно есть — к примеру, рынок стоковых фото и иллюстраций уже существенно пострадал: потребители теперь чаще платят деньги ИИ-компаниям за генерацию изображений, чем покупают их на стоке или заказывают иллюстраторам).
Судья Олсап по делу Антропика не принял эту аргументацию и считает, что такое вытеснение авторов произведений на рынке ИИ-компаниями выходит за рамки релевантного для авторского права. В то же время он более строго, чем коллега, оценил факт использования для обучения ИИ-моделей экземпляров произведений, полученных из "пиратских" источников.
Частично модели Антропика были обучены на таких произведениях, и в отношении последствий такого шага будет ещё вынесено отдельное решение. Но в части обучения на отсканированных экземплярах книг — Антропик приобрёл миллионы экземпляров и потратил на это многие миллионы долларов — нарушения интересов правообладателей судья не усмотрел.
Решения интересные и стимулируют к огромному количеству размышлений. В том числе о необходимости давать отдельную оценку потенциальным нарушениям (а) на стадии обучения ИИ-модели и (б) на стадии её последующего использования. Практика постепенно формируется.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
CourtListener
Order – #598 in Kadrey v. Meta Platforms, Inc. (N.D. Cal., 3:23-cv-03417) – CourtListener.com
ORDER Denying the Plaintiffs' 482 Motion for Partial Summary Judgment and Granting Meta's 501 Cross-Motion for Partial Summary Judgment. Signed by Judge Vince Chhabria on 6/25/2025. (vclc1, COURT STAFF) (Filed on 6/25/2025) (Entered: 06/25/2025)
😁4👍2🤔1😱1
Бесплатный вебинар: система на базе LLM как медицинское изделие
Prof. Valmed утверждают, что они первыми в мире получили сертификат соответствия ИСО 13485 на свою систему поддержки принятия решений для врачей на базе большой языковой модели (с применением RAG-подхода), как медизделие класса IIb согласно EU MDR.
Доктор Хью Харви завтра проводит с ними вебинар на Линкдине.
Так что если SaMD ваша тема — не пропустите.
Prof. Valmed утверждают, что они первыми в мире получили сертификат соответствия ИСО 13485 на свою систему поддержки принятия решений для врачей на базе большой языковой модели (с применением RAG-подхода), как медизделие класса IIb согласно EU MDR.
Доктор Хью Харви завтра проводит с ними вебинар на Линкдине.
Так что если SaMD ваша тема — не пропустите.
LinkedIn
LinkedIn Login, Sign in | LinkedIn
Login to LinkedIn to keep in touch with people you know, share ideas, and build your career.
🥴4👍2❤1😁1
Robocounsel
Нижняя палата парламента США одобрила законопроект о моратории на нормотворчество в области ИИ на уровне отдельных штатов 22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful…
США: субъекты американской федерации сохранят право регулировать ИИ
Сенат 99 голосами против 1 исключил из законопроекта о федеральном бюджете одиозное положение о запрете штатам принимать законы для защиты своих граждан от злоупотреблений со стороны ИИ-компаний.
В последней редакции запрет был трансформирован в санкцию: будете регулировать эти вопросы на уровне штатов — не получите часть федерального финансирования. Но даже эта модификация не помогла: сенаторы посчитали любой федеральный мораторий — в условиях отсутствия проходных федеральных законопроектов на эту тему — слишком щедрым подарком ИИ-компаниям.
В числе лоббировавших провалившийся мораторий Оупен-Эй-Ай и Гугл. О сути предложений писал ранее.
Лоббисты уже в истерике.
Сенат 99 голосами против 1 исключил из законопроекта о федеральном бюджете одиозное положение о запрете штатам принимать законы для защиты своих граждан от злоупотреблений со стороны ИИ-компаний.
В последней редакции запрет был трансформирован в санкцию: будете регулировать эти вопросы на уровне штатов — не получите часть федерального финансирования. Но даже эта модификация не помогла: сенаторы посчитали любой федеральный мораторий — в условиях отсутствия проходных федеральных законопроектов на эту тему — слишком щедрым подарком ИИ-компаниям.
В числе лоббировавших провалившийся мораторий Оупен-Эй-Ай и Гугл. О сути предложений писал ранее.
Лоббисты уже в истерике.
The Wall Street Journal
Senate Votes to Remove Ban on State AI Laws From GOP Megabill
The move is a setback for tech companies and White House officials who fear a patchwork of state regulations will slow the development of AI.
👍6😢1
Почему базовые регуляторные требования к кибербезопасности и угроза штрафов для компаний — это хорошо
Национальная комиссия Франции по информатизации и гражданским свободам (CNIL) опубликовала анализ экономического эффекта требований ОРЗД (GDPR) в области кибербезопасности для компаний и общества в целом.
Даже если ограничить такой анализ только утечками данных (далеко не единственная угроза, против которой направлены требования ОРЗД), эффект сугубо положительный, притом как для самих компаний, так и — что важнее — для общества в целом.
Благодаря закреплению в ОРЗД базовых требований к кибербезопасности, к информированию субъектов об утечках их данных, и благодаря установлению штрафов за несоблюдение этих требований, общий размер предотвращённого вреда от утечек в ЕС составил от 0,5 до 1,4 млрд. евро (82% от этой цифры — предотвращённые убытки компаний), количество утечек сократилось на 2,5-6,1%.
При этом анализ показывает, что в отсутствие регуляторных требований и угрозы штрафов компании не имели бы достаточной мотивации раскрывать крупнейшие утечки.
Национальная комиссия Франции по информатизации и гражданским свободам (CNIL) опубликовала анализ экономического эффекта требований ОРЗД (GDPR) в области кибербезопасности для компаний и общества в целом.
Даже если ограничить такой анализ только утечками данных (далеко не единственная угроза, против которой направлены требования ОРЗД), эффект сугубо положительный, притом как для самих компаний, так и — что важнее — для общества в целом.
Благодаря закреплению в ОРЗД базовых требований к кибербезопасности, к информированию субъектов об утечках их данных, и благодаря установлению штрафов за несоблюдение этих требований, общий размер предотвращённого вреда от утечек в ЕС составил от 0,5 до 1,4 млрд. евро (82% от этой цифры — предотвращённые убытки компаний), количество утечек сократилось на 2,5-6,1%.
При этом анализ показывает, что в отсутствие регуляторных требований и угрозы штрафов компании не имели бы достаточной мотивации раскрывать крупнейшие утечки.
Эти выгоды представляют собой лишь небольшую часть общей пользы, приносимой ОРЗД в плане сокращения киберпреступности. Они отражают влияние лишь одного из его положений на конкретный вид киберпреступности (кража личных данных). Необходимо также учитывать положительное влияние соблюдения GDPR на кибервымогательство, ботнеты, вредоносное ПО и т. д. Экономистам было бы полезно более глубоко изучить проблему кибербезопасности, чтобы получить более полное представление об этой теме.
CNIL
Cybersecurity: The Economic Benefits of GDPR
In its review of the economic impact of GDPR, five years after its entry into force, the CNIL noted that economic studies on the regulation tend to focus mainly on its costs and only marginally address its benefits. The CNIL undertook to study some of these…
❤5👍2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Паузы в применении Регламента ЕС по ИИ не будет
В последнее время было много спекуляций по этому поводу, со ссылкой на обсуждения в кулуарах Еврокомиссии.
В частности, ссылались на слова Хенны Вирккунен, исполнительного вице-президента Еврокомиссии по технологическому суверенитету (отвечающую за ИИ-тематику) на служебном совещании 6 июня:
Тем не менее, сегодня пресс-секретарь Еврокомиссии по тому же самому техническому суверенитету Томас Ренье подытожил:
В последнее время было много спекуляций по этому поводу, со ссылкой на обсуждения в кулуарах Еврокомиссии.
В частности, ссылались на слова Хенны Вирккунен, исполнительного вице-президента Еврокомиссии по технологическому суверенитету (отвечающую за ИИ-тематику) на служебном совещании 6 июня:
Если мы увидим, что стандарты и руководства. . . не будут готовы вовремя, мы не должны исключать возможность отсрочки по некоторым положениям Регламента об ИИ.
Тем не менее, сегодня пресс-секретарь Еврокомиссии по тому же самому техническому суверенитету Томас Ренье подытожил:
Нет никакой остановки часов, никакого льготного периода, никакой паузы. Почему? Потому что у нас есть юридически обязательные сроки, установленные нормативным актом, по наступлении которых Еврокомиссия будет обеспечивать применение этих норм и следить за тем, чтобы компании соблюдали требования Регламента ЕС по ИИ.
👍5
Персональные данные и ИИ
Чуть не забыл, у меня же в эту пятницу двухчасовой практический вебинар по пересечению требований Регламента ЕС по ИИ и ОРЗД/GDPR.
Как почти всё лучшее в этой жизни, вебинар платный. По сути — это сфокусированный на данной теме фрагмент моего четырёхнедельного курса по Регламенту, для тех, кто его пока не прошёл и не имеет на это достаточного времени.
Если это вам нужно для вашего профессионального развития — записывайтесь на сайте.
Если вы хотите оплатить в рублях — пишите через бот.
Чуть не забыл, у меня же в эту пятницу двухчасовой практический вебинар по пересечению требований Регламента ЕС по ИИ и ОРЗД/GDPR.
Как почти всё лучшее в этой жизни, вебинар платный. По сути — это сфокусированный на данной теме фрагмент моего четырёхнедельного курса по Регламенту, для тех, кто его пока не прошёл и не имеет на это достаточного времени.
Если это вам нужно для вашего профессионального развития — записывайтесь на сайте.
Если вы хотите оплатить в рублях — пишите через бот.
Webinar - EU AI Act and GDPR
This webinar aims to provide you with curated guidance on the interplay between the EU AI Act and the GDPR
👍5❤4😁2
Четыре проблемы копирайта в эпоху ИИ
Отличная статья Андреса Гуадамуза на эту тему. Не даёт решений, но отмечает, что они сугубо в области политики права, в руках законодателей и в области de lege ferenda, а не в страусиной надежде засунуть голову в de lege lata сложившееся авторское право и ждать, пока оно всё решит. Не решит.
Почему? Читайте в статье. Но если вкратце, его аргументы таковы:
1) ИИ-модели уже обучены на огромных массивах данных. И даже при теоретическом обанкрочивании всех ИИ-компаний, до которых правообладатели могли бы дотянуться, это не прекратит существование этих моделей и их глобальное распространение, в том числе в юрисдикциях, по сути игнорирующих копирайт. При любом раскладе ИИ-модели останутся в репозиториях и на рынке (прежде всего опенсорсные модели, каковых всё больше). Копирайт-индустрия пытается догнать уже ушедший поезд, тогда как переговоры о лицензировании следовало бы провести заранее, несколько лет назад.
2) Процесс обучения ИИ-модели предполагает доступ к экземпляру произведения для извлечения данных, но не влечёт создания производного произведения и не приводит сам по себе к опубликованию экземпляра — исходного или производного произведения — в правовом смысле, что делает потенциальный ущерб, который можно потребовать в суде к возмещению, незначительным. По крайней мере в тех юрисдикциях, где размеры компенсаций за нарушения авторского права не установлены законом.
3) Само по себе обучение ИИ-модели на материале произведения не является исключительным правом автора, поэтому извлечение информации из законно приобретенного произведения (как в случае, когда Антропик приобрёл на рынке миллионы физических экземпляров книг) само по себе не нарушает исключительного права.
4) Старые экономические модели роялти не работают из-за масштаба и доли отдельного произведения в корпусе данных, на которых обучены ИИ-модели. Крупнейшие — и популярнейшие — ИИ-модели требуют миллиардов токенов для обучения, что в сочетании с необходимостью приобретения только одного экземпляра произведения делает ценность лицензионного рынка ничтожной — создатели получали бы стремящиеся к нулю доли процента от и без того небольших сумм — на порядки меньше, чем они сейчас получают в виде роялти от суммы каждой подписки потребителя на Яндекс.Музыку или Спотифай.
P.S. Автор статьи относит себя к копирайт-минималистам. О предыдущих эпизодах копирайт-войн тупоконечников (минималистов) с остроконечниками (максималистами) читайте в другой его статье.
Отличная статья Андреса Гуадамуза на эту тему. Не даёт решений, но отмечает, что они сугубо в области политики права, в руках законодателей и в области de lege ferenda, а не в страусиной надежде засунуть голову в de lege lata сложившееся авторское право и ждать, пока оно всё решит. Не решит.
Почему? Читайте в статье. Но если вкратце, его аргументы таковы:
1) ИИ-модели уже обучены на огромных массивах данных. И даже при теоретическом обанкрочивании всех ИИ-компаний, до которых правообладатели могли бы дотянуться, это не прекратит существование этих моделей и их глобальное распространение, в том числе в юрисдикциях, по сути игнорирующих копирайт. При любом раскладе ИИ-модели останутся в репозиториях и на рынке (прежде всего опенсорсные модели, каковых всё больше). Копирайт-индустрия пытается догнать уже ушедший поезд, тогда как переговоры о лицензировании следовало бы провести заранее, несколько лет назад.
2) Процесс обучения ИИ-модели предполагает доступ к экземпляру произведения для извлечения данных, но не влечёт создания производного произведения и не приводит сам по себе к опубликованию экземпляра — исходного или производного произведения — в правовом смысле, что делает потенциальный ущерб, который можно потребовать в суде к возмещению, незначительным. По крайней мере в тех юрисдикциях, где размеры компенсаций за нарушения авторского права не установлены законом.
3) Само по себе обучение ИИ-модели на материале произведения не является исключительным правом автора, поэтому извлечение информации из законно приобретенного произведения (как в случае, когда Антропик приобрёл на рынке миллионы физических экземпляров книг) само по себе не нарушает исключительного права.
4) Старые экономические модели роялти не работают из-за масштаба и доли отдельного произведения в корпусе данных, на которых обучены ИИ-модели. Крупнейшие — и популярнейшие — ИИ-модели требуют миллиардов токенов для обучения, что в сочетании с необходимостью приобретения только одного экземпляра произведения делает ценность лицензионного рынка ничтожной — создатели получали бы стремящиеся к нулю доли процента от и без того небольших сумм — на порядки меньше, чем они сейчас получают в виде роялти от суммы каждой подписки потребителя на Яндекс.Музыку или Спотифай.
P.S. Автор статьи относит себя к копирайт-минималистам. О предыдущих эпизодах копирайт-войн тупоконечников (минималистов) с остроконечниками (максималистами) читайте в другой его статье.
TechnoLlama
How AI is breaking traditional remuneration models
It’s been a busy few weeks in the AI and copyright beat, and while I’ve been following all of the developments closely, I haven’t had the time to react to everything in the blog. …
❤7👍4
Опубликован Свод практик для операторов GPAI моделей
Свод практик — ко-регуляторный инструмент, разработанный во исполнение требований Регламента ЕС по ИИ, касающихся поставщиков ИИ-моделей общего назначения (к ним относятся модели семейств GPT-4, Claude, DeepSeek и подобные).
В разработке Свода участвовал широкий круг лиц и организаций, включая саму ИИ-индустрию. Не обязателен к присоединению, но в случае присоединения обязателен к выполнению.
Документ состоит из трёх глав, посвящённых порядку выполнения требований Регламента к поставщикам ИИ-моделей общего назначения:
- о транспарентности,
- о соблюдении норм авторского права,
- об обеспечении общественной безопасности и кибербезопасности самих систем (управление системными рисками).
Свод практик — ко-регуляторный инструмент, разработанный во исполнение требований Регламента ЕС по ИИ, касающихся поставщиков ИИ-моделей общего назначения (к ним относятся модели семейств GPT-4, Claude, DeepSeek и подобные).
В разработке Свода участвовал широкий круг лиц и организаций, включая саму ИИ-индустрию. Не обязателен к присоединению, но в случае присоединения обязателен к выполнению.
Документ состоит из трёх глав, посвящённых порядку выполнения требований Регламента к поставщикам ИИ-моделей общего назначения:
- о транспарентности,
- о соблюдении норм авторского права,
- об обеспечении общественной безопасности и кибербезопасности самих систем (управление системными рисками).
Shaping Europe’s digital future
The General-Purpose AI Code of Practice
The Code of Practice helps industry comply with the AI Act legal obligations on safety, transparency and copyright of general-purpose AI models.
🔥8
Robocounsel
Опубликован Свод практик для операторов GPAI моделей Свод практик — ко-регуляторный инструмент, разработанный во исполнение требований Регламента ЕС по ИИ, касающихся поставщиков ИИ-моделей общего назначения (к ним относятся модели семейств GPT-4, Claude…
Оупен-Эй-Ай планирует подписать Свод практик ЕС для поставщиков GPAI моделей
Компания заявила о намерении сделать это при условии одобрения проекта Свода со стороны Европейского совета по искусственному интеллекту (AI Board, формируется из представителей государств-членов ЕС).
Также в заявлении компании излагается позиция по поводу желаемый дальнейших шагов в отношении европейской ИИ-стратегии.
Совет и Еврокомиссия рассматривают проект Свода в данный момент, как это предусмотрено Регламентом ЕС по ИИ.
Насколько мне известно, это первое заявление со стороны одного из ведущих игроков рынка, на которых распространяется Регламент.
Ждём позиций Антропика и Мистраля.
Компания заявила о намерении сделать это при условии одобрения проекта Свода со стороны Европейского совета по искусственному интеллекту (AI Board, формируется из представителей государств-членов ЕС).
Также в заявлении компании излагается позиция по поводу желаемый дальнейших шагов в отношении европейской ИИ-стратегии.
Совет и Еврокомиссия рассматривают проект Свода в данный момент, как это предусмотрено Регламентом ЕС по ИИ.
Насколько мне известно, это первое заявление со стороны одного из ведущих игроков рынка, на которых распространяется Регламент.
Ждём позиций Антропика и Мистраля.
Openai
The EU Code of Practice and future of AI in Europe
OpenAI joins the EU Code of Practice, advancing responsible AI while partnering with European governments to drive innovation, infrastructure, and economic growth.
🔥8🤬2🌚1
Спецификации для людей и машин
Шон Гроув из Оупен-Эй-Ай проводит параллели между тем, что делают ИИ-инженеры и юристы, формируя базовый текст, определяющий требуемое положение дел.
Параллель интересная, только вот "clear, unambiguous" спецификация для социальных отношений это очень большая условность.
Сами регулируемые отношения и их субъекты настолько сложнопредсказуемы и зависят от ценностных суждений, что о точности правовых "спецификаций" говорить не приходится.
Да, есть какие-то универсалии, вроде тех, что "убийство — это плохо", но даже они подвержены оговоркам и заранее всё специфицировать невозможно и бесполезно.
А у ИИ-инженеров другая проблема: как верно отмечают в комментариях под видео, текущие ИИ-продукты не умеют писать стабильный код по этим самым чётким, однозначным спецификациям. Которые для кода-то как раз возможны.
Поэтому видео интересное, аналогия любопытная, но неточная и продукты Шона тоже не работают так, как он пытается нас убедить.
Ну и концовка по поводу приглашения идти к ним строить AGI — кринж. Никакого AGI его компания не строит. Тут он либо намеренно обманывает, и позор ему, либо у него AGI головного мозга, и сочувствие и соболезнования ему.
Его компания делает конкурентоспособные продукты, полезные, игнорируя ряд этических дилемм. Но не AGI. Эти сказки оставьте для детей, Шон.
Шон Гроув из Оупен-Эй-Ай проводит параллели между тем, что делают ИИ-инженеры и юристы, формируя базовый текст, определяющий требуемое положение дел.
Параллель интересная, только вот "clear, unambiguous" спецификация для социальных отношений это очень большая условность.
Сами регулируемые отношения и их субъекты настолько сложнопредсказуемы и зависят от ценностных суждений, что о точности правовых "спецификаций" говорить не приходится.
Да, есть какие-то универсалии, вроде тех, что "убийство — это плохо", но даже они подвержены оговоркам и заранее всё специфицировать невозможно и бесполезно.
А у ИИ-инженеров другая проблема: как верно отмечают в комментариях под видео, текущие ИИ-продукты не умеют писать стабильный код по этим самым чётким, однозначным спецификациям. Которые для кода-то как раз возможны.
Поэтому видео интересное, аналогия любопытная, но неточная и продукты Шона тоже не работают так, как он пытается нас убедить.
Ну и концовка по поводу приглашения идти к ним строить AGI — кринж. Никакого AGI его компания не строит. Тут он либо намеренно обманывает, и позор ему, либо у него AGI головного мозга, и сочувствие и соболезнования ему.
Его компания делает конкурентоспособные продукты, полезные, игнорируя ряд этических дилемм. Но не AGI. Эти сказки оставьте для детей, Шон.
1👍4
AI Agent Mailbox Access Threat Table - 2025-07-18.pdf
216.2 KB
"Все побежали, и я побежал"?
Ведущие ИИ-компании анонсировали новых агентов, которые умеют автономно выполнять ваши задачи в интернете.
И у меня в соцсетях пошла пропаганда от ИИ-энтузиастов, которые с горящими глазами подключают этих агентов к своей почте и дают широкие права доступа к другим своим ИТ-ресурсам.
Прежде чем бежать за ними вслед сломя голову, остановитесь и подумайте 5 минут, как вы этим самым создаёте новые угрозы и увеличиваете риски — не только для себя, но и для других людей. Коллег, друзей, просто посторонних.
Для одного только сценария доступа агента к почте за 5 минут получится примерно такой список, как во вложении. Если подумать больше 5 минут, то список угроз гарантированно вырастет.
Для других сценариев — будут дополнительные угрозы.
Поэтому сначала думаем, идентифицируем угрозы, снижаем риски до приемлемого уровня, и только потом экспериментируем.
Или не экспериментируем, если риски для вас или, что важно, для других потенциальных жертв — неприемлемы.
Ведущие ИИ-компании анонсировали новых агентов, которые умеют автономно выполнять ваши задачи в интернете.
И у меня в соцсетях пошла пропаганда от ИИ-энтузиастов, которые с горящими глазами подключают этих агентов к своей почте и дают широкие права доступа к другим своим ИТ-ресурсам.
Прежде чем бежать за ними вслед сломя голову, остановитесь и подумайте 5 минут, как вы этим самым создаёте новые угрозы и увеличиваете риски — не только для себя, но и для других людей. Коллег, друзей, просто посторонних.
Для одного только сценария доступа агента к почте за 5 минут получится примерно такой список, как во вложении. Если подумать больше 5 минут, то список угроз гарантированно вырастет.
Для других сценариев — будут дополнительные угрозы.
Поэтому сначала думаем, идентифицируем угрозы, снижаем риски до приемлемого уровня, и только потом экспериментируем.
Или не экспериментируем, если риски для вас или, что важно, для других потенциальных жертв — неприемлемы.
❤7👍3🌚2