Нижняя палата парламента США одобрила законопроект о моратории на нормотворчество в области ИИ на уровне отдельных штатов
22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful Bill Act" — пакет бюджетных мер, включающий 10-летний мораторий на регулирование систем искусственного интеллекта на уровне субъектов американской федерации.
Суть моратория заключается в запрете штатам в течение десяти лет применять любые нормативные акты, ограничивающие или регулирующие "модели искусственного интеллекта", "системы искусственного интеллекта" или "системы автоматизированного принятия решений". В случае принятия мораторий будет применяться к уже действующим НПА об ИИ в Калифорнии, Колорадо, Нью-Йорке, Иллинойсе и Юте, а также заблокирует более 1000 законопроектов об ИИ, находящихся на рассмотрении в законодательных собраниях штатов.
Теперь законопроект направляется в верхнюю палату Конгресса — Сенат, где его судьба крайне неопределенна. Поскольку мера включена в сводный бюджетный законопроект, она может быть принята без поддержки демократов, однако сталкивается с серьезными процедурными препятствиями. Демократы намерены оспорить включение моратория на ИИ в рамках правила Берда (Byrd Rule), которое запрещает включение в сводный бюджетный законопроект положений, не относящихся к федеральному бюджету.
Критики утверждают, что мораторий носит скорее регуляторный, чем фискальный характер, и поэтому должен быть исключен из сводного законопроекта. Против инициативы уже выступили генеральные прокуроры 40 штатов на двухпартийной основе, а также ряд сенаторов-республиканцев. Сторонники моратория настаивают, что он предотвратит формирование запутанной мозаики из законов об ИИ на уровне отдельных штатов и даст Конгрессу возможность выработать единые национальные правила.
22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful Bill Act" — пакет бюджетных мер, включающий 10-летний мораторий на регулирование систем искусственного интеллекта на уровне субъектов американской федерации.
Суть моратория заключается в запрете штатам в течение десяти лет применять любые нормативные акты, ограничивающие или регулирующие "модели искусственного интеллекта", "системы искусственного интеллекта" или "системы автоматизированного принятия решений". В случае принятия мораторий будет применяться к уже действующим НПА об ИИ в Калифорнии, Колорадо, Нью-Йорке, Иллинойсе и Юте, а также заблокирует более 1000 законопроектов об ИИ, находящихся на рассмотрении в законодательных собраниях штатов.
Теперь законопроект направляется в верхнюю палату Конгресса — Сенат, где его судьба крайне неопределенна. Поскольку мера включена в сводный бюджетный законопроект, она может быть принята без поддержки демократов, однако сталкивается с серьезными процедурными препятствиями. Демократы намерены оспорить включение моратория на ИИ в рамках правила Берда (Byrd Rule), которое запрещает включение в сводный бюджетный законопроект положений, не относящихся к федеральному бюджету.
Критики утверждают, что мораторий носит скорее регуляторный, чем фискальный характер, и поэтому должен быть исключен из сводного законопроекта. Против инициативы уже выступили генеральные прокуроры 40 штатов на двухпартийной основе, а также ряд сенаторов-республиканцев. Сторонники моратория настаивают, что он предотвратит формирование запутанной мозаики из законов об ИИ на уровне отдельных штатов и даст Конгрессу возможность выработать единые национальные правила.
Goodwinlaw
House Passes 10-Year Federal Moratorium on State AI Regulation: Key Implications for Businesses | Insights & Resources | Goodwin
House passes bill with 10-year ban on state AI regulation, reshaping U.S. oversight as AI advances and state laws face federal preemption. Read more in Goodwin's alert.
👍4
Немецкий суд разрешил Meta обучать ИИ на публичных данных пользователей
Высший региональный суд Кёльна отклонил требование Центра защиты прав потребителей Северного Рейна-Вестфалии о запрете Meta* использовать для обучения искусственного интеллекта данные пользователей, сделанные ими общедоступными в социальных сетях компании.
Решение, вынесенное в рамках упрощённой процедуры 23 мая 2025 года, открывает Meta возможность реализовать анонсированные в апреле планы по обучению ИИ-моделей на данных европейских пользователей, за исключением данных тех, кто воспользовался своим правом на возражение.
Суд пришёл к выводу, что обработка публичных пользовательских данных для целей обучения ИИ соответствует требованиям Общего регламента ЕС по защите данных (ОРЗД, GDPR) и не нарушает положений Регламента ЕС о цифровых рынках. Ключевым правовым основанием стала статья 6(1)(f) ОРЗД о законном интересе — Meta может обрабатывать данные без согласия пользователей, поскольку преследует легитимную цель создания ИИ-систем, которая не может быть достигнута менее инвазивными способами.
Суд признал, что для обучения современных ИИ-моделей требуются большие объёмы данных, которые невозможно полностью анонимизировать, а интересы технологического развития в данном случае перевешивают права пользователей на контроль над их публичной информацией. Позиция поддержана как ирландским регулятором по защите данных (ответственным за надзор за Meta в ЕС), так и Гамбургским уполномоченным по защите данных.
Решение носит окончательный характер в рамках упрощённой процедуры и не подлежит обжалованию, однако стороны сохраняют право на предъявление требований в отдельном основном производстве.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Высший региональный суд Кёльна отклонил требование Центра защиты прав потребителей Северного Рейна-Вестфалии о запрете Meta* использовать для обучения искусственного интеллекта данные пользователей, сделанные ими общедоступными в социальных сетях компании.
Решение, вынесенное в рамках упрощённой процедуры 23 мая 2025 года, открывает Meta возможность реализовать анонсированные в апреле планы по обучению ИИ-моделей на данных европейских пользователей, за исключением данных тех, кто воспользовался своим правом на возражение.
Суд пришёл к выводу, что обработка публичных пользовательских данных для целей обучения ИИ соответствует требованиям Общего регламента ЕС по защите данных (ОРЗД, GDPR) и не нарушает положений Регламента ЕС о цифровых рынках. Ключевым правовым основанием стала статья 6(1)(f) ОРЗД о законном интересе — Meta может обрабатывать данные без согласия пользователей, поскольку преследует легитимную цель создания ИИ-систем, которая не может быть достигнута менее инвазивными способами.
Суд признал, что для обучения современных ИИ-моделей требуются большие объёмы данных, которые невозможно полностью анонимизировать, а интересы технологического развития в данном случае перевешивают права пользователей на контроль над их публичной информацией. Позиция поддержана как ирландским регулятором по защите данных (ответственным за надзор за Meta в ЕС), так и Гамбургским уполномоченным по защите данных.
Решение носит окончательный характер в рамках упрощённой процедуры и не подлежит обжалованию, однако стороны сохраняют право на предъявление требований в отдельном основном производстве.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
www.olg-koeln.nrw.de
Oberlandesgericht Köln:
Letzte Pressemitteilung
Letzte Pressemitteilung
Behördeninternet: Oberlandesgericht Köln
😈7😱1
Оупен-Эй-Ай покупает стартап бывшего дизайнера Эпл за $6,5 млрд и планирует выпуск 100 млн устройств с прямым доступом к ЧатГПТ
Генеральный директор компании Сэм Альтман представил своим сотрудникам планы по разработке устройств совместно с бывшим дизайнером Эпл Джони Айвом. Компания намерена выпустить 100 млн устройств с прямым доступом к ЧатГПТ, которые должны стать частью повседневной жизни пользователей.
OpenAI планирует приобрести стартап Айва под названием io и предоставить ему самому роль с широкими полномочиями по вопросам дизайна. По словам Альтмана, сделка на $6,5 млрд потенциально может добавить $1 трлн стоимости Оупен-Эй-Ай — об этом свидетельствуют данные, которые изучил Уолл-стрит Джорнел.
Новое устройство будет способно собирать огромное количество персональных данных, анализируя информацию из окружения пользователя, будет помещаться в кармане или на рабочем столе и станет третьим ключевым гаджетом, наряду с ноутбуком и смартфоном. Как ранее сообщал WSJ, это не будет телефон — Айв и Альтман намерены помочь пользователям отвыкнуть от экранов. Альтман уточнил, что устройство также не будет очками, поскольку Айв скептически относится к созданию носимых гаджетов.
Изначально планировалось, что стартап Айва будет создавать и продавать собственное устройство с использованием технологий Оупен-Эй-Ай, но Альтман посчитал, что такая схема не сработает. Он видит необходимым объединение компаний, поскольку устройство станет не просто аксессуаром, а центральным элементом взаимодействия пользователя с продуктами его компании. "Нас обоих воодушевила идея о том, что если вы оформили подписку на ЧатГПТ, мы должны просто отправить вам новые компьютеры, чтобы вы использовали именно их", — заявил Альтман.
Генеральный директор компании Сэм Альтман представил своим сотрудникам планы по разработке устройств совместно с бывшим дизайнером Эпл Джони Айвом. Компания намерена выпустить 100 млн устройств с прямым доступом к ЧатГПТ, которые должны стать частью повседневной жизни пользователей.
OpenAI планирует приобрести стартап Айва под названием io и предоставить ему самому роль с широкими полномочиями по вопросам дизайна. По словам Альтмана, сделка на $6,5 млрд потенциально может добавить $1 трлн стоимости Оупен-Эй-Ай — об этом свидетельствуют данные, которые изучил Уолл-стрит Джорнел.
Новое устройство будет способно собирать огромное количество персональных данных, анализируя информацию из окружения пользователя, будет помещаться в кармане или на рабочем столе и станет третьим ключевым гаджетом, наряду с ноутбуком и смартфоном. Как ранее сообщал WSJ, это не будет телефон — Айв и Альтман намерены помочь пользователям отвыкнуть от экранов. Альтман уточнил, что устройство также не будет очками, поскольку Айв скептически относится к созданию носимых гаджетов.
Изначально планировалось, что стартап Айва будет создавать и продавать собственное устройство с использованием технологий Оупен-Эй-Ай, но Альтман посчитал, что такая схема не сработает. Он видит необходимым объединение компаний, поскольку устройство станет не просто аксессуаром, а центральным элементом взаимодействия пользователя с продуктами его компании. "Нас обоих воодушевила идея о том, что если вы оформили подписку на ЧатГПТ, мы должны просто отправить вам новые компьютеры, чтобы вы использовали именно их", — заявил Альтман.
The Wall Street Journal
Exclusive | What Sam Altman Told OpenAI About the Secret Device He’s Making With Jony Ive
The idea is a “chance to do the biggest thing we’ve ever done as a company here,” Altman told OpenAI employees Wednesday.
🥴4👍2🔥1🤯1
В Суде ЕС впервые будет протестирована оговорка, на которую полагаются все ИИ-разработчики
Речь о свободном использовании произведений, охраняемых авторским правом, для извлечения текста и данных (text and data mining exception) на основании статьи 4 Директивы 2019/790.
Среди юристов ИИ-компаний принято считать, что именно она даёт основание для обучения ИИ-моделей на любом правомерно доступном в интернете контенте, если только автор или иной правообладатель не высказали возражений в машиночитаемой форме.
Техническая спецификация для таких волеизъявлений, TDMRep, была разработана W3C, но на сегодня пока не получила широкого распространения, и, в частности, не поддерживается лидирующими ИИ-компаниями.
Соответственно, поскольку возражений в стандартной машиночитаемой форме к основной массе контента в интернете "не приложено", юристы ИИ-компаний полагают, что указанное положение Директивы даёт зелёный свет для любого извлечения текста и данных, в том числе для создания генеративных ИИ-моделей, о которых в момент принятия Директивы никто не думал, потому что их не существовало.
Толкование возможное, но не бесспорное, и именно оно впервые станет предметом рассмотрения Суда ЕС по запросу венгерских коллег.
Полный перечень вопросов, поставленных перед Судом ЕС:
1. Является ли отображение чатботом ответа, частично совпадающего с содержанием веб-страницы, доведением её до всеобщего сведения? Имеет ли при этом значение технический аспект (вероятностный характер отображения)?
2. Является ли использование произведения в процессе машинного обучения воспроизведением (reproduction) в смысле авторского права?
3. При положительном ответе на вопрос 2, подпадает ли такое воспроизведение произведений, к которым имеется правомерный доступ, под исключение, предусмотренное ст. 4 Директивы 2019/790 (свободное использование для извлечения текста и данных, TDM exception)?
4. Следует ли вменять воспроизведение провайдеру чатбота, когда чатбот полностью или частично отображает содержание публикации СМИ в своём ответе на запрос пользователя, который упоминает или ссылается на текст из этой публикации?
Речь о свободном использовании произведений, охраняемых авторским правом, для извлечения текста и данных (text and data mining exception) на основании статьи 4 Директивы 2019/790.
Среди юристов ИИ-компаний принято считать, что именно она даёт основание для обучения ИИ-моделей на любом правомерно доступном в интернете контенте, если только автор или иной правообладатель не высказали возражений в машиночитаемой форме.
Техническая спецификация для таких волеизъявлений, TDMRep, была разработана W3C, но на сегодня пока не получила широкого распространения, и, в частности, не поддерживается лидирующими ИИ-компаниями.
Соответственно, поскольку возражений в стандартной машиночитаемой форме к основной массе контента в интернете "не приложено", юристы ИИ-компаний полагают, что указанное положение Директивы даёт зелёный свет для любого извлечения текста и данных, в том числе для создания генеративных ИИ-моделей, о которых в момент принятия Директивы никто не думал, потому что их не существовало.
Толкование возможное, но не бесспорное, и именно оно впервые станет предметом рассмотрения Суда ЕС по запросу венгерских коллег.
Полный перечень вопросов, поставленных перед Судом ЕС:
1. Является ли отображение чатботом ответа, частично совпадающего с содержанием веб-страницы, доведением её до всеобщего сведения? Имеет ли при этом значение технический аспект (вероятностный характер отображения)?
2. Является ли использование произведения в процессе машинного обучения воспроизведением (reproduction) в смысле авторского права?
3. При положительном ответе на вопрос 2, подпадает ли такое воспроизведение произведений, к которым имеется правомерный доступ, под исключение, предусмотренное ст. 4 Директивы 2019/790 (свободное использование для извлечения текста и данных, TDM exception)?
4. Следует ли вменять воспроизведение провайдеру чатбота, когда чатбот полностью или частично отображает содержание публикации СМИ в своём ответе на запрос пользователя, который упоминает или ссылается на текст из этой публикации?
👍17❤5
Workday обвиняется в алгоритмической дискриминации кандидатов старше 40
Суд Северного округа Калифорнии принял постановление о расширении иска пяти соистцов против HR-платформы Workday до статуса общенационального коллективного иска. Истцы утверждают, что ИИ-инструменты компании для отбора кандидатов систематически дискриминируют соискателей старше 40 лет. Дело может затронуть миллионы людей.
Основной истец Дерек Мобли, 40-летний афроамериканец, заявляет, что подавал заявки на более чем 100 вакансий через платформу Workday в течение нескольких лет, но каждый раз получал отказ. К нему присоединились четыре других истца старше 40 лет с аналогичным опытом. Они утверждают, что автоматические отказы приходили с подозрительной скоростью — иногда в течение часа после подачи заявки, что указывает на алгоритмическое принятие решений без участия человека.
Мобли привел пример, когда он подал заявку на работу в 12:55 ночи, а получил отказ до 2:00 ночи, что говорит о том, что решение было принято полностью автоматизированным способом на основе профилирования ИИ без какого-либо человеческого контроля и проверки.
Судья Рита Лин установила, что дело соответствует критериям коллективного иска согласно Закону о возрастной дискриминации при трудоустройстве (ADEA). Суд определил, что все потенциальные участники находятся в схожей ситуации, поскольку подвергались воздействию единой политики — ИИ-системы рекомендаций Workday, которая оценивает, сортирует и ранжирует кандидатов.
Коллективный иск охватывает всех лиц старше 40 лет, которые с сентября 2020 года по настоящее время подавали заявки через платформу Workday и получили отказ в рекомендациях к трудоустройству.
Workday отрицает обвинения и утверждает, что не принимает окончательных решений о найме, а лишь предоставляет работодателям инструменты для оценки. Компания заявляет, что проводит постоянный процесс анализа рисков для соответствия применимым законам. Однако суд отклонил аргументы Workday, отметив, что система компании действительно участвует в процессе принятия решений, присваивая кандидатам оценки от «сильный» до «слабый».
Дело имеет огромное практическое значение для всей индустрии HR-технологий. Тысячи компаний используют ИИ-инструменты Workday для автоматического скрининга резюме, что может повлиять на миллионы соискателей. Комиссия по равным возможностям трудоустройства (EEOC) поддержала истцов, ссылаясь на свои рекомендации по оценке негативного воздействия ИИ-алгоритмов в процедурах отбора.
Дело Mobley v. Workday становится одним из первых крупных судебных вызовов использованию ИИ в HR-процессах и может установить важный прецедент. Для работодателей это означает необходимость более тщательного аудита ИИ-систем, содействующих найму, на предмет потенциальной дискриминации, в том числе непредумышленной.
В связи с рисками для прав человека в Европейском союзе подобные ИИ-системы относятся к классу повышенно-опасных и по новым правилам до вывода таких систем на рынок компании обязаны подтвердить их соответствие обязательным требованиям, включая точность работы согласно статье 15 и устранение рисков алгоритмической дискриминации при работе с данными согласно статье 10(2)(f) Регламента ЕС об ИИ (детальнее об этом регулировании рассказываю на своём курсе).
Суд Северного округа Калифорнии принял постановление о расширении иска пяти соистцов против HR-платформы Workday до статуса общенационального коллективного иска. Истцы утверждают, что ИИ-инструменты компании для отбора кандидатов систематически дискриминируют соискателей старше 40 лет. Дело может затронуть миллионы людей.
Основной истец Дерек Мобли, 40-летний афроамериканец, заявляет, что подавал заявки на более чем 100 вакансий через платформу Workday в течение нескольких лет, но каждый раз получал отказ. К нему присоединились четыре других истца старше 40 лет с аналогичным опытом. Они утверждают, что автоматические отказы приходили с подозрительной скоростью — иногда в течение часа после подачи заявки, что указывает на алгоритмическое принятие решений без участия человека.
Мобли привел пример, когда он подал заявку на работу в 12:55 ночи, а получил отказ до 2:00 ночи, что говорит о том, что решение было принято полностью автоматизированным способом на основе профилирования ИИ без какого-либо человеческого контроля и проверки.
Судья Рита Лин установила, что дело соответствует критериям коллективного иска согласно Закону о возрастной дискриминации при трудоустройстве (ADEA). Суд определил, что все потенциальные участники находятся в схожей ситуации, поскольку подвергались воздействию единой политики — ИИ-системы рекомендаций Workday, которая оценивает, сортирует и ранжирует кандидатов.
Коллективный иск охватывает всех лиц старше 40 лет, которые с сентября 2020 года по настоящее время подавали заявки через платформу Workday и получили отказ в рекомендациях к трудоустройству.
Workday отрицает обвинения и утверждает, что не принимает окончательных решений о найме, а лишь предоставляет работодателям инструменты для оценки. Компания заявляет, что проводит постоянный процесс анализа рисков для соответствия применимым законам. Однако суд отклонил аргументы Workday, отметив, что система компании действительно участвует в процессе принятия решений, присваивая кандидатам оценки от «сильный» до «слабый».
Дело имеет огромное практическое значение для всей индустрии HR-технологий. Тысячи компаний используют ИИ-инструменты Workday для автоматического скрининга резюме, что может повлиять на миллионы соискателей. Комиссия по равным возможностям трудоустройства (EEOC) поддержала истцов, ссылаясь на свои рекомендации по оценке негативного воздействия ИИ-алгоритмов в процедурах отбора.
Дело Mobley v. Workday становится одним из первых крупных судебных вызовов использованию ИИ в HR-процессах и может установить важный прецедент. Для работодателей это означает необходимость более тщательного аудита ИИ-систем, содействующих найму, на предмет потенциальной дискриминации, в том числе непредумышленной.
В связи с рисками для прав человека в Европейском союзе подобные ИИ-системы относятся к классу повышенно-опасных и по новым правилам до вывода таких систем на рынок компании обязаны подтвердить их соответствие обязательным требованиям, включая точность работы согласно статье 15 и устранение рисков алгоритмической дискриминации при работе с данными согласно статье 10(2)(f) Регламента ЕС об ИИ (детальнее об этом регулировании рассказываю на своём курсе).
CourtListener
Order on Motion to Certify Class – #128 in Mobley v. Workday, Inc. (N.D. Cal., 3:23-cv-00770) – CourtListener.com
ORDER by Judge Rita F. Lin granting 106 Preliminary Collective Certification. Case Management Statement due by 5/28/2025. Further Case Management Conference set for 6/4/2025 10:00 AM in San Francisco, - Videoconference Only. (rfllc3, COURT STAFF) (Filed on…
❤7🔥3
DTA AI Model Clauses (Version 2.0 March 2025).docx
272.2 KB
Новые типовые условия договоров для закупки ИИ-систем
Таким документом — в версии 2.0 — порадовало нас Агентство цифровой трансформации Австралии.
Новые условия покрывают два сценария:
1) оказание поставщиком услуг с применением ИИ-систем,
2) подряд на разработку ИИ-системы под заказ.
В перспективе также планируется покрыть третий сценарий — приобретение готового ПО с ИИ-функциями от поставщика.
Модульная структура позволяет заказчикам выбирать только необходимые условия в зависимости от уровня риска и специфики конкретного проекта.
Документ базируется на этических ИИ-принципах Австралии и, что замечательно, на международном стандарте ИСО/МЭК 42001:2023 по управлению системами искусственного интеллекта (о котором также рассказываю на своём курсе).
Практическая ценность инструмента заключается в готовых правовых решениях для управления рисками, связанными с ИИ, путём их распределения на договорной основе.
Это особенно важно для организаций, которые хотят использовать ИИ-технологии, но при этом минимизировать правовые и репутационные риски.
Таким документом — в версии 2.0 — порадовало нас Агентство цифровой трансформации Австралии.
Новые условия покрывают два сценария:
1) оказание поставщиком услуг с применением ИИ-систем,
2) подряд на разработку ИИ-системы под заказ.
В перспективе также планируется покрыть третий сценарий — приобретение готового ПО с ИИ-функциями от поставщика.
Модульная структура позволяет заказчикам выбирать только необходимые условия в зависимости от уровня риска и специфики конкретного проекта.
Документ базируется на этических ИИ-принципах Австралии и, что замечательно, на международном стандарте ИСО/МЭК 42001:2023 по управлению системами искусственного интеллекта (о котором также рассказываю на своём курсе).
Практическая ценность инструмента заключается в готовых правовых решениях для управления рисками, связанными с ИИ, путём их распределения на договорной основе.
Это особенно важно для организаций, которые хотят использовать ИИ-технологии, но при этом минимизировать правовые и репутационные риски.
🔥6❤3
Прошёл сертификацию на ведущего специалиста по внедрению системы ИИ-менеджмента по ИСО/МЭК 42001
Принимаю поздравления — это было непросто, но необходимо: сейчас это лидирующий мировой стандарт для управления разработкой ИИ-продуктов и для внедрения ИИ-продуктов в бизнес-процессы ответственным образом.
Сертификацию имеют Антропик, Амазон Веб Сервисез, Самсунг, Майкрософт и другие ведущие технологические компании, а некоторые также требуют того же от своих партнёров-поставщиков.
Буду рад помочь с внедрением данной системы менеджмента в вашей компании и подготовкой к независимому аудиту и сертификации. Особенно актуально для тех, кто планирует сохранять конкурентоспособность на рынке, где наличие сертификации систем менеджмента становится не чем-то непонятным, а желаемым положением дел.
А если ваше предприятие уже имеет другую систему менеджмента, например, качества по ИСО 9001 или информационной безопасности по ИСО 27001, то внедрение ИСО 42001 становится значительно проще.
О том, как использовать данный стандарт для построения базовых процессов в контексте требований Регламента ЕС по ИИ — рассказываю здесь.
Принимаю поздравления — это было непросто, но необходимо: сейчас это лидирующий мировой стандарт для управления разработкой ИИ-продуктов и для внедрения ИИ-продуктов в бизнес-процессы ответственным образом.
Сертификацию имеют Антропик, Амазон Веб Сервисез, Самсунг, Майкрософт и другие ведущие технологические компании, а некоторые также требуют того же от своих партнёров-поставщиков.
Буду рад помочь с внедрением данной системы менеджмента в вашей компании и подготовкой к независимому аудиту и сертификации. Особенно актуально для тех, кто планирует сохранять конкурентоспособность на рынке, где наличие сертификации систем менеджмента становится не чем-то непонятным, а желаемым положением дел.
А если ваше предприятие уже имеет другую систему менеджмента, например, качества по ИСО 9001 или информационной безопасности по ИСО 27001, то внедрение ИСО 42001 становится значительно проще.
О том, как использовать данный стандарт для построения базовых процессов в контексте требований Регламента ЕС по ИИ — рассказываю здесь.
Credly
ISO/IEC 42001 Lead Implementer was issued by PECB to Aleksandr Tiulkanov.
This certification is a benchmark for all individuals who have a high level of expertise to effectively plan, implement, manage, monitor, and maintain an artificial intelligence management system (AIMS).
👏18❤9👍7
Информационная безопасность — это важно
Поэтому обращаю внимание тех, кто хотел бы погрузиться в тему — коллеги из РППА проводят профильное обучение:
1) Двухмесячная программа Cyber in Privacy в июле-августе
За два месяца есть возможность хорошо прокачаться: все знания из первых рук, от экспертов в теме.
Детали здесь. С учётом скорого начала — лучше зарегистрироваться прямо сейчас, пока остались места.
Если тема интересна, но нет времени на плотное обучение в июле-августе, то есть более компактный формат:
2) Мастер-классы "Теория и практика моделирования угроз безопасности персональных данных"
Сугубо практически полезный контент, и две опции:
- записаться на двухдневный онлайн 15-16 октября;
- получить запись с прошлого мастер-класса.
Оба варианта и описание доступны здесь.
Поэтому обращаю внимание тех, кто хотел бы погрузиться в тему — коллеги из РППА проводят профильное обучение:
1) Двухмесячная программа Cyber in Privacy в июле-августе
За два месяца есть возможность хорошо прокачаться: все знания из первых рук, от экспертов в теме.
Детали здесь. С учётом скорого начала — лучше зарегистрироваться прямо сейчас, пока остались места.
Если тема интересна, но нет времени на плотное обучение в июле-августе, то есть более компактный формат:
2) Мастер-классы "Теория и практика моделирования угроз безопасности персональных данных"
Сугубо практически полезный контент, и две опции:
- записаться на двухдневный онлайн 15-16 октября;
- получить запись с прошлого мастер-класса.
Оба варианта и описание доступны здесь.
rppaedu.pro
Cyber in Privacy
Образовательная программа Cyber in Privacy предназначена для специалистов из различных направлений, желающих расширить свои знания и навыки в области защиты информации
❤4👍4🥴1
This media is not supported in your browser
VIEW IN TELEGRAM
Швейцария объявила войну Германии
А нигерийский принц действительно готов поделиться с вами своим состоянием.
Конечно, всё это происходит не в нашей реальности, а в дипфейках. Которые мошенники уже активно используют для обмана и лёгкой наживы.
И люди, далёкие от понимания сегодняшнего уровня технологий, ввиду преклонного возраста или других причин — могут быть легко этим обмануты.
Именно для них Леонард Шмеддинг сделал эту небольшую, но впечатляющее демонстрацию.
Прим.: KI — künstliche intelligenz (нем.) искусственный интеллект.
Использованная модель: Veo-3
А нигерийский принц действительно готов поделиться с вами своим состоянием.
Конечно, всё это происходит не в нашей реальности, а в дипфейках. Которые мошенники уже активно используют для обмана и лёгкой наживы.
И люди, далёкие от понимания сегодняшнего уровня технологий, ввиду преклонного возраста или других причин — могут быть легко этим обмануты.
Именно для них Леонард Шмеддинг сделал эту небольшую, но впечатляющее демонстрацию.
Прим.: KI — künstliche intelligenz (нем.) искусственный интеллект.
Использованная модель: Veo-3
😁3😢3👍1
Возможны ли надёжные и эффективные ИИ-системы на базе больших языковых моделей (LLM)?
Те, кто прошли мой курс, помнят, что я поясняю разницу между моделью и системой на примере автомобилей. ИИ-система — это автомобиль, ИИ-модель — это её двигатель. В обоих случаях конечный продукт не может работать без ключевого компонента.
Так вот, в этом видео Саяш Капур рассказывает о проблемах интеграции LLM в функциональную ИИ-систему.
В частности, он обращает внимание:
— необходимо различать способность ИИ-системы выполнить задачу (capability) и надёжность выполнения этой задачи (reliability);
— основная проблема больших языковых ИИ-моделей в качестве "движка" — в том, что выдаваемый ими результат недостаточно предсказуем (стохастичен);
— соответственно, для решения проблемы с надёжностью ИИ-системы — конечного продукта — недостаточна только оптимизация самой ИИ-модели;
— необходима работа над общим дизайном ИИ-системы, подбор других необходимых компонентов таким образом, чтобы контейнировать неизбежную стохастичность ИИ-модели и обеспечить требуемую надёжность для итоговой ИИ-системы.
Готовых устоявшихся и ставших бы стандартными рецептов для такой работы по контейнированию больших языковых моделей и достижению надёжности в масштабе и на потоке — насколько мне известно — на сегодня нет. Это всё ещё направление для перспективных исследований.
Имейте это в виду, когда вам в очередной раз будут продавать очередную систему на базе LLM как продукт, в котором эта проблема успешно решена. Просите вендора предъявить доказательства этой работы и найдите людей, которые могут критически оценить эти доказательства.
Те, кто прошли мой курс, помнят, что я поясняю разницу между моделью и системой на примере автомобилей. ИИ-система — это автомобиль, ИИ-модель — это её двигатель. В обоих случаях конечный продукт не может работать без ключевого компонента.
Так вот, в этом видео Саяш Капур рассказывает о проблемах интеграции LLM в функциональную ИИ-систему.
В частности, он обращает внимание:
— необходимо различать способность ИИ-системы выполнить задачу (capability) и надёжность выполнения этой задачи (reliability);
— основная проблема больших языковых ИИ-моделей в качестве "движка" — в том, что выдаваемый ими результат недостаточно предсказуем (стохастичен);
— соответственно, для решения проблемы с надёжностью ИИ-системы — конечного продукта — недостаточна только оптимизация самой ИИ-модели;
— необходима работа над общим дизайном ИИ-системы, подбор других необходимых компонентов таким образом, чтобы контейнировать неизбежную стохастичность ИИ-модели и обеспечить требуемую надёжность для итоговой ИИ-системы.
Готовых устоявшихся и ставших бы стандартными рецептов для такой работы по контейнированию больших языковых моделей и достижению надёжности в масштабе и на потоке — насколько мне известно — на сегодня нет. Это всё ещё направление для перспективных исследований.
Имейте это в виду, когда вам в очередной раз будут продавать очередную систему на базе LLM как продукт, в котором эта проблема успешно решена. Просите вендора предъявить доказательства этой работы и найдите людей, которые могут критически оценить эти доказательства.
YouTube
Building and evaluating AI Agents — Sayash Kapoor, AI Snake Oil
Is 2025 the year of AI agents? Will reasoning models allow agents to solve challenging open problems? From software engineering to web task automation, it has been claimed that agents will solve challenging open problems. Unfortunately, current agents suffer…
❤6👍5
Промежуточные токены LRM — вовсе не то, что вы думаете
Широкие народные массы были взволнованы, обрадованы и потрясены способностью новых "ризонинг" моделей (LRM, large reasoning models) создавать и показывать так называемые промежуточные токены — набор "рассуждений" модели по поводу команды пользователя, как бы демонстрирующий её "мыслительный процесс".
Суббарао Камбампати и его исследовательская группа из Университета штата Аризона утверждают:
— с технической точки зрения некорректно рассматривать генерацию промежуточных токенов как знак приближения моделей к способности рассуждать, как человек — в модели это процесс, по-прежнему основанный на статистическом предсказании словесных ассоциаций на основе вводных данных;
— промежуточные токены дополняют исходный промт информацией, полезной для повышения качества итогового ответа, поэтому их следует рассматривать как метод дополнительного промптинга и оптимизации,
— качество итогового ответа не зависит от того, насколько понятны для человека промежуточные токены: в ряде исследований показано, что модели, чьи промежуточные токены были менее понятны, в том числе содержали одновременно иероглифы и латиницу, тем не менее давали более качественный итоговый ответ, чем модели, оптимизированные на понятность промежуточных токенов;
— соответственно, целью оптимизации для будущих LRM является не способность производить всё более и более понятные человеку промежуточные токены, а только и исключительно качество итогового ответа; промежуточные токены играют сугубо техническую роль и могут быть сколь угодно непонятны.
Широкие народные массы были взволнованы, обрадованы и потрясены способностью новых "ризонинг" моделей (LRM, large reasoning models) создавать и показывать так называемые промежуточные токены — набор "рассуждений" модели по поводу команды пользователя, как бы демонстрирующий её "мыслительный процесс".
Суббарао Камбампати и его исследовательская группа из Университета штата Аризона утверждают:
— с технической точки зрения некорректно рассматривать генерацию промежуточных токенов как знак приближения моделей к способности рассуждать, как человек — в модели это процесс, по-прежнему основанный на статистическом предсказании словесных ассоциаций на основе вводных данных;
— промежуточные токены дополняют исходный промт информацией, полезной для повышения качества итогового ответа, поэтому их следует рассматривать как метод дополнительного промптинга и оптимизации,
— качество итогового ответа не зависит от того, насколько понятны для человека промежуточные токены: в ряде исследований показано, что модели, чьи промежуточные токены были менее понятны, в том числе содержали одновременно иероглифы и латиницу, тем не менее давали более качественный итоговый ответ, чем модели, оптимизированные на понятность промежуточных токенов;
— соответственно, целью оптимизации для будущих LRM является не способность производить всё более и более понятные человеку промежуточные токены, а только и исключительно качество итогового ответа; промежуточные токены играют сугубо техническую роль и могут быть сколь угодно непонятны.
THE DECODER
Wait a minute! Researchers say AI's "chains of thought" are not signs of human-like reasoning
A research team from Arizona State University warns against interpreting intermediate steps in language models as human thought processes. The authors see this as a dangerous misconception with far-reaching consequences for research and application.
❤5👍3
О требованиях к маркировке генеративного аудио в ЕС
Поговорили на эту тему с Лукасом Люрестамом из Transparent Audio (куда меня недавно пригласили немного поадвайзить).
Обсудили, что предполагает статья 50 Регламента ЕС по ИИ. Запись здесь.
Поговорили на эту тему с Лукасом Люрестамом из Transparent Audio (куда меня недавно пригласили немного поадвайзить).
Обсудили, что предполагает статья 50 Регламента ЕС по ИИ. Запись здесь.
YouTube
Understanding the EU AI Act for Gen-AI Audio Companies
An in-depth discussion between Transparent Audio co-founder Lukas Lyrestam and EU AI Act expert Aleksandr Tiulkanov. Essential for AI companies generating audio and operating in the European Union.
Check out:
🌐 Transparent Audio website: https://www.tra…
Check out:
🌐 Transparent Audio website: https://www.tra…
❤7
Об использовании ИИ в школах
Отличная статья на эту тему от Мэтью Вемисса. С учётом европейской регуляторной специфики, но с практической точки зрения много полезных рекомендаций, применимых в любой географии.
Мэтью сам работает в школе (руководитель по стратегии
и развитию в Кембриджской школе в Бухаресте) и написал не одну книгу на тему применения ИИ в образовании.
Как он отмечает, обращаясь к коллегам:
И бонусом подсвечу ещё одну статью — на русском — от Э. Йигит об ИИ в детском образовании.
Отличная статья на эту тему от Мэтью Вемисса. С учётом европейской регуляторной специфики, но с практической точки зрения много полезных рекомендаций, применимых в любой географии.
Мэтью сам работает в школе (руководитель по стратегии
и развитию в Кембриджской школе в Бухаресте) и написал не одну книгу на тему применения ИИ в образовании.
Как он отмечает, обращаясь к коллегам:
Каждый год я провожу обучение о том, как отбирать безопасных кандидатов для работы в школе.
Вы, вероятно, тоже.
И каждый год это напоминает мне о том, что подбор подходящего персонала для школы — дело серьезное.
Мы проверяем биографии. Задаем неудобные вопросы. Ведем центральный реестр.
Чтобы защитить учащихся и убедиться, что люди, работающие с ними, безопасны, подходят для этой работы и получают необходимую поддержку.
Теперь подумайте об искусственном интеллекте.
В своем последнем блоге я объясняю, как Регламент ЕС об искусственном интеллекте регулирует использование систем искусственного интеллекта в образовании и почему школы должны подходить к внедрению таких систем так же серьёзно, как и при отборе учителей.
И бонусом подсвечу ещё одну статью — на русском — от Э. Йигит об ИИ в детском образовании.
Linkedin
AI Insights Focus: Recruit AI Like You Recruit Staff
This is an overview, not a deep dive into a complex law. Think of it as a primer to get you started and thinking about what AI compliance means for your school.
❤6👍4🔥1
Не хватает ИИ-новостей, интересных статей, обсуждений и мемов?
Или просто хотите поддержать канал и автора?
Напомню, что для этого у нас есть сообщество AI Governance (и бонусный канал к нему — Robocounsel Plus).
Подписывайтесь!
Или просто хотите поддержать канал и автора?
Напомню, что для этого у нас есть сообщество AI Governance (и бонусный канал к нему — Robocounsel Plus).
Подписывайтесь!
Telegram
Tribute
This bot helps content creators receive financial support from their followers directly in the app.
👍1🥴1
Обучение ИИ-моделей на книгах без согласия правообладателей: fair use в США или нет?
Сразу по двум разным делам в США двое судей признали обучение ИИ-моделей на произведениях, охраняемых авторским правом, добросовестным использованием.
Обстоятельства дел отличаются, решения промежуточные и по упрощённой процедуре, а инициатива применения упрощённой процедуры — и соответственно бремя доказывания — лежали в этих делах на разных сторонах процесса, поэтому сильно разнятся и мотивировочные части решений. Общность в том, что доктрина добросовестного использования к обучению ИИ-моделей применяться может.
Но судьи разошлись по ряду оценок.
Судья Чабрия по делу Меты* пришёл к выводу, что если бы истцы смогли показать, как вместо приобретения произведений истцов потребители будут взамен оплачивать подписку на сервисы ИИ-компаний, это было бы сильным аргументом в пользу истцов, но они даже не пытались развить эту мысль.
Тем не менее, судья предвидит, что в будущем аналогичные дела другие истцы могут вполне вероятно выигрывать, если они как следует аргументируют наличие таких экономических эффектов (а мы с вами знаем, что они действительно есть — к примеру, рынок стоковых фото и иллюстраций уже существенно пострадал: потребители теперь чаще платят деньги ИИ-компаниям за генерацию изображений, чем покупают их на стоке или заказывают иллюстраторам).
Судья Олсап по делу Антропика не принял эту аргументацию и считает, что такое вытеснение авторов произведений на рынке ИИ-компаниями выходит за рамки релевантного для авторского права. В то же время он более строго, чем коллега, оценил факт использования для обучения ИИ-моделей экземпляров произведений, полученных из "пиратских" источников.
Частично модели Антропика были обучены на таких произведениях, и в отношении последствий такого шага будет ещё вынесено отдельное решение. Но в части обучения на отсканированных экземплярах книг — Антропик приобрёл миллионы экземпляров и потратил на это многие миллионы долларов — нарушения интересов правообладателей судья не усмотрел.
Решения интересные и стимулируют к огромному количеству размышлений. В том числе о необходимости давать отдельную оценку потенциальным нарушениям (а) на стадии обучения ИИ-модели и (б) на стадии её последующего использования. Практика постепенно формируется.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
Сразу по двум разным делам в США двое судей признали обучение ИИ-моделей на произведениях, охраняемых авторским правом, добросовестным использованием.
Обстоятельства дел отличаются, решения промежуточные и по упрощённой процедуре, а инициатива применения упрощённой процедуры — и соответственно бремя доказывания — лежали в этих делах на разных сторонах процесса, поэтому сильно разнятся и мотивировочные части решений. Общность в том, что доктрина добросовестного использования к обучению ИИ-моделей применяться может.
Но судьи разошлись по ряду оценок.
Судья Чабрия по делу Меты* пришёл к выводу, что если бы истцы смогли показать, как вместо приобретения произведений истцов потребители будут взамен оплачивать подписку на сервисы ИИ-компаний, это было бы сильным аргументом в пользу истцов, но они даже не пытались развить эту мысль.
Тем не менее, судья предвидит, что в будущем аналогичные дела другие истцы могут вполне вероятно выигрывать, если они как следует аргументируют наличие таких экономических эффектов (а мы с вами знаем, что они действительно есть — к примеру, рынок стоковых фото и иллюстраций уже существенно пострадал: потребители теперь чаще платят деньги ИИ-компаниям за генерацию изображений, чем покупают их на стоке или заказывают иллюстраторам).
Судья Олсап по делу Антропика не принял эту аргументацию и считает, что такое вытеснение авторов произведений на рынке ИИ-компаниями выходит за рамки релевантного для авторского права. В то же время он более строго, чем коллега, оценил факт использования для обучения ИИ-моделей экземпляров произведений, полученных из "пиратских" источников.
Частично модели Антропика были обучены на таких произведениях, и в отношении последствий такого шага будет ещё вынесено отдельное решение. Но в части обучения на отсканированных экземплярах книг — Антропик приобрёл миллионы экземпляров и потратил на это многие миллионы долларов — нарушения интересов правообладателей судья не усмотрел.
Решения интересные и стимулируют к огромному количеству размышлений. В том числе о необходимости давать отдельную оценку потенциальным нарушениям (а) на стадии обучения ИИ-модели и (б) на стадии её последующего использования. Практика постепенно формируется.
* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
CourtListener
Order – #598 in Kadrey v. Meta Platforms, Inc. (N.D. Cal., 3:23-cv-03417) – CourtListener.com
ORDER Denying the Plaintiffs' 482 Motion for Partial Summary Judgment and Granting Meta's 501 Cross-Motion for Partial Summary Judgment. Signed by Judge Vince Chhabria on 6/25/2025. (vclc1, COURT STAFF) (Filed on 6/25/2025) (Entered: 06/25/2025)
😁4👍2🤔1😱1
Бесплатный вебинар: система на базе LLM как медицинское изделие
Prof. Valmed утверждают, что они первыми в мире получили сертификат соответствия ИСО 13485 на свою систему поддержки принятия решений для врачей на базе большой языковой модели (с применением RAG-подхода), как медизделие класса IIb согласно EU MDR.
Доктор Хью Харви завтра проводит с ними вебинар на Линкдине.
Так что если SaMD ваша тема — не пропустите.
Prof. Valmed утверждают, что они первыми в мире получили сертификат соответствия ИСО 13485 на свою систему поддержки принятия решений для врачей на базе большой языковой модели (с применением RAG-подхода), как медизделие класса IIb согласно EU MDR.
Доктор Хью Харви завтра проводит с ними вебинар на Линкдине.
Так что если SaMD ваша тема — не пропустите.
LinkedIn
LinkedIn Login, Sign in | LinkedIn
Login to LinkedIn to keep in touch with people you know, share ideas, and build your career.
🥴4👍2❤1😁1
Robocounsel
Нижняя палата парламента США одобрила законопроект о моратории на нормотворчество в области ИИ на уровне отдельных штатов 22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful…
США: субъекты американской федерации сохранят право регулировать ИИ
Сенат 99 голосами против 1 исключил из законопроекта о федеральном бюджете одиозное положение о запрете штатам принимать законы для защиты своих граждан от злоупотреблений со стороны ИИ-компаний.
В последней редакции запрет был трансформирован в санкцию: будете регулировать эти вопросы на уровне штатов — не получите часть федерального финансирования. Но даже эта модификация не помогла: сенаторы посчитали любой федеральный мораторий — в условиях отсутствия проходных федеральных законопроектов на эту тему — слишком щедрым подарком ИИ-компаниям.
В числе лоббировавших провалившийся мораторий Оупен-Эй-Ай и Гугл. О сути предложений писал ранее.
Лоббисты уже в истерике.
Сенат 99 голосами против 1 исключил из законопроекта о федеральном бюджете одиозное положение о запрете штатам принимать законы для защиты своих граждан от злоупотреблений со стороны ИИ-компаний.
В последней редакции запрет был трансформирован в санкцию: будете регулировать эти вопросы на уровне штатов — не получите часть федерального финансирования. Но даже эта модификация не помогла: сенаторы посчитали любой федеральный мораторий — в условиях отсутствия проходных федеральных законопроектов на эту тему — слишком щедрым подарком ИИ-компаниям.
В числе лоббировавших провалившийся мораторий Оупен-Эй-Ай и Гугл. О сути предложений писал ранее.
Лоббисты уже в истерике.
The Wall Street Journal
Senate Votes to Remove Ban on State AI Laws From GOP Megabill
The move is a setback for tech companies and White House officials who fear a patchwork of state regulations will slow the development of AI.
👍6😢1
Почему базовые регуляторные требования к кибербезопасности и угроза штрафов для компаний — это хорошо
Национальная комиссия Франции по информатизации и гражданским свободам (CNIL) опубликовала анализ экономического эффекта требований ОРЗД (GDPR) в области кибербезопасности для компаний и общества в целом.
Даже если ограничить такой анализ только утечками данных (далеко не единственная угроза, против которой направлены требования ОРЗД), эффект сугубо положительный, притом как для самих компаний, так и — что важнее — для общества в целом.
Благодаря закреплению в ОРЗД базовых требований к кибербезопасности, к информированию субъектов об утечках их данных, и благодаря установлению штрафов за несоблюдение этих требований, общий размер предотвращённого вреда от утечек в ЕС составил от 0,5 до 1,4 млрд. евро (82% от этой цифры — предотвращённые убытки компаний), количество утечек сократилось на 2,5-6,1%.
При этом анализ показывает, что в отсутствие регуляторных требований и угрозы штрафов компании не имели бы достаточной мотивации раскрывать крупнейшие утечки.
Национальная комиссия Франции по информатизации и гражданским свободам (CNIL) опубликовала анализ экономического эффекта требований ОРЗД (GDPR) в области кибербезопасности для компаний и общества в целом.
Даже если ограничить такой анализ только утечками данных (далеко не единственная угроза, против которой направлены требования ОРЗД), эффект сугубо положительный, притом как для самих компаний, так и — что важнее — для общества в целом.
Благодаря закреплению в ОРЗД базовых требований к кибербезопасности, к информированию субъектов об утечках их данных, и благодаря установлению штрафов за несоблюдение этих требований, общий размер предотвращённого вреда от утечек в ЕС составил от 0,5 до 1,4 млрд. евро (82% от этой цифры — предотвращённые убытки компаний), количество утечек сократилось на 2,5-6,1%.
При этом анализ показывает, что в отсутствие регуляторных требований и угрозы штрафов компании не имели бы достаточной мотивации раскрывать крупнейшие утечки.
Эти выгоды представляют собой лишь небольшую часть общей пользы, приносимой ОРЗД в плане сокращения киберпреступности. Они отражают влияние лишь одного из его положений на конкретный вид киберпреступности (кража личных данных). Необходимо также учитывать положительное влияние соблюдения GDPR на кибервымогательство, ботнеты, вредоносное ПО и т. д. Экономистам было бы полезно более глубоко изучить проблему кибербезопасности, чтобы получить более полное представление об этой теме.
CNIL
Cybersecurity: The Economic Benefits of GDPR
In its review of the economic impact of GDPR, five years after its entry into force, the CNIL noted that economic studies on the regulation tend to focus mainly on its costs and only marginally address its benefits. The CNIL undertook to study some of these…
❤5👍2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Паузы в применении Регламента ЕС по ИИ не будет
В последнее время было много спекуляций по этому поводу, со ссылкой на обсуждения в кулуарах Еврокомиссии.
В частности, ссылались на слова Хенны Вирккунен, исполнительного вице-президента Еврокомиссии по технологическому суверенитету (отвечающую за ИИ-тематику) на служебном совещании 6 июня:
Тем не менее, сегодня пресс-секретарь Еврокомиссии по тому же самому техническому суверенитету Томас Ренье подытожил:
В последнее время было много спекуляций по этому поводу, со ссылкой на обсуждения в кулуарах Еврокомиссии.
В частности, ссылались на слова Хенны Вирккунен, исполнительного вице-президента Еврокомиссии по технологическому суверенитету (отвечающую за ИИ-тематику) на служебном совещании 6 июня:
Если мы увидим, что стандарты и руководства. . . не будут готовы вовремя, мы не должны исключать возможность отсрочки по некоторым положениям Регламента об ИИ.
Тем не менее, сегодня пресс-секретарь Еврокомиссии по тому же самому техническому суверенитету Томас Ренье подытожил:
Нет никакой остановки часов, никакого льготного периода, никакой паузы. Почему? Потому что у нас есть юридически обязательные сроки, установленные нормативным актом, по наступлении которых Еврокомиссия будет обеспечивать применение этих норм и следить за тем, чтобы компании соблюдали требования Регламента ЕС по ИИ.
👍5