Robocounsel
1.91K subscribers
243 photos
17 videos
78 files
619 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
Нижняя палата парламента США одобрила законопроект о моратории на нормотворчество в области ИИ на уровне отдельных штатов

22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful Bill Act" — пакет бюджетных мер, включающий 10-летний мораторий на регулирование систем искусственного интеллекта на уровне субъектов американской федерации.

Суть моратория заключается в запрете штатам в течение десяти лет применять любые нормативные акты, ограничивающие или регулирующие "модели искусственного интеллекта", "системы искусственного интеллекта" или "системы автоматизированного принятия решений". В случае принятия мораторий будет применяться к уже действующим НПА об ИИ в Калифорнии, Колорадо, Нью-Йорке, Иллинойсе и Юте, а также заблокирует более 1000 законопроектов об ИИ, находящихся на рассмотрении в законодательных собраниях штатов.

Теперь законопроект направляется в верхнюю палату Конгресса — Сенат, где его судьба крайне неопределенна. Поскольку мера включена в сводный бюджетный законопроект, она может быть принята без поддержки демократов, однако сталкивается с серьезными процедурными препятствиями. Демократы намерены оспорить включение моратория на ИИ в рамках правила Берда (Byrd Rule), которое запрещает включение в сводный бюджетный законопроект положений, не относящихся к федеральному бюджету.

Критики утверждают, что мораторий носит скорее регуляторный, чем фискальный характер, и поэтому должен быть исключен из сводного законопроекта. Против инициативы уже выступили генеральные прокуроры 40 штатов на двухпартийной основе, а также ряд сенаторов-республиканцев. Сторонники моратория настаивают, что он предотвратит формирование запутанной мозаики из законов об ИИ на уровне отдельных штатов и даст Конгрессу возможность выработать единые национальные правила.
👍4
Немецкий суд разрешил Meta обучать ИИ на публичных данных пользователей

Высший региональный суд Кёльна отклонил требование Центра защиты прав потребителей Северного Рейна-Вестфалии о запрете Meta* использовать для обучения искусственного интеллекта данные пользователей, сделанные ими общедоступными в социальных сетях компании.

Решение, вынесенное в рамках упрощённой процедуры 23 мая 2025 года, открывает Meta возможность реализовать анонсированные в апреле планы по обучению ИИ-моделей на данных европейских пользователей, за исключением данных тех, кто воспользовался своим правом на возражение.

Суд пришёл к выводу, что обработка публичных пользовательских данных для целей обучения ИИ соответствует требованиям Общего регламента ЕС по защите данных (ОРЗД, GDPR) и не нарушает положений Регламента ЕС о цифровых рынках. Ключевым правовым основанием стала статья 6(1)(f) ОРЗД о законном интересе — Meta может обрабатывать данные без согласия пользователей, поскольку преследует легитимную цель создания ИИ-систем, которая не может быть достигнута менее инвазивными способами.

Суд признал, что для обучения современных ИИ-моделей требуются большие объёмы данных, которые невозможно полностью анонимизировать, а интересы технологического развития в данном случае перевешивают права пользователей на контроль над их публичной информацией. Позиция поддержана как ирландским регулятором по защите данных (ответственным за надзор за Meta в ЕС), так и Гамбургским уполномоченным по защите данных.

Решение носит окончательный характер в рамках упрощённой процедуры и не подлежит обжалованию, однако стороны сохраняют право на предъявление требований в отдельном основном производстве.

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
😈7😱1
Оупен-Эй-Ай покупает стартап бывшего дизайнера Эпл за $6,5 млрд и планирует выпуск 100 млн устройств с прямым доступом к ЧатГПТ

Генеральный директор компании Сэм Альтман представил своим сотрудникам планы по разработке устройств совместно с бывшим дизайнером Эпл Джони Айвом. Компания намерена выпустить 100 млн устройств с прямым доступом к ЧатГПТ, которые должны стать частью повседневной жизни пользователей.

OpenAI планирует приобрести стартап Айва под названием io и предоставить ему самому роль с широкими полномочиями по вопросам дизайна. По словам Альтмана, сделка на $6,5 млрд потенциально может добавить $1 трлн стоимости Оупен-Эй-Ай — об этом свидетельствуют данные, которые изучил Уолл-стрит Джорнел.

Новое устройство будет способно собирать огромное количество персональных данных, анализируя информацию из окружения пользователя, будет помещаться в кармане или на рабочем столе и станет третьим ключевым гаджетом, наряду с ноутбуком и смартфоном. Как ранее сообщал WSJ, это не будет телефон — Айв и Альтман намерены помочь пользователям отвыкнуть от экранов. Альтман уточнил, что устройство также не будет очками, поскольку Айв скептически относится к созданию носимых гаджетов.

Изначально планировалось, что стартап Айва будет создавать и продавать собственное устройство с использованием технологий Оупен-Эй-Ай, но Альтман посчитал, что такая схема не сработает. Он видит необходимым объединение компаний, поскольку устройство станет не просто аксессуаром, а центральным элементом взаимодействия пользователя с продуктами его компании. "Нас обоих воодушевила идея о том, что если вы оформили подписку на ЧатГПТ, мы должны просто отправить вам новые компьютеры, чтобы вы использовали именно их", — заявил Альтман.
🥴4👍2🔥1🤯1
В Суде ЕС впервые будет протестирована оговорка, на которую полагаются все ИИ-разработчики

Речь о свободном использовании произведений, охраняемых авторским правом, для извлечения текста и данных (text and data mining exception) на основании статьи 4 Директивы 2019/790.

Среди юристов ИИ-компаний принято считать, что именно она даёт основание для обучения ИИ-моделей на любом правомерно доступном в интернете контенте, если только автор или иной правообладатель не высказали возражений в машиночитаемой форме.

Техническая спецификация для таких волеизъявлений, TDMRep, была разработана W3C, но на сегодня пока не получила широкого распространения, и, в частности, не поддерживается лидирующими ИИ-компаниями.

Соответственно, поскольку возражений в стандартной машиночитаемой форме к основной массе контента в интернете "не приложено", юристы ИИ-компаний полагают, что указанное положение Директивы даёт зелёный свет для любого извлечения текста и данных, в том числе для создания генеративных ИИ-моделей, о которых в момент принятия Директивы никто не думал, потому что их не существовало.

Толкование возможное, но не бесспорное, и именно оно впервые станет предметом рассмотрения Суда ЕС по запросу венгерских коллег.

Полный перечень вопросов, поставленных перед Судом ЕС:

1. Является ли отображение чатботом ответа, частично совпадающего с содержанием веб-страницы, доведением её до всеобщего сведения? Имеет ли при этом значение технический аспект (вероятностный характер отображения)?

2. Является ли использование произведения в процессе машинного обучения воспроизведением (reproduction) в смысле авторского права?

3. При положительном ответе на вопрос 2, подпадает ли такое воспроизведение произведений, к которым имеется правомерный доступ, под исключение, предусмотренное ст. 4 Директивы 2019/790 (свободное использование для извлечения текста и данных, TDM exception)?

4. Следует ли вменять воспроизведение провайдеру чатбота, когда чатбот полностью или частично отображает содержание публикации СМИ в своём ответе на запрос пользователя, который упоминает или ссылается на текст из этой публикации?
👍175
Workday обвиняется в алгоритмической дискриминации кандидатов старше 40

Суд Северного округа Калифорнии принял постановление о расширении иска пяти соистцов против HR-платформы Workday до статуса общенационального коллективного иска. Истцы утверждают, что ИИ-инструменты компании для отбора кандидатов систематически дискриминируют соискателей старше 40 лет. Дело может затронуть миллионы людей.

Основной истец Дерек Мобли, 40-летний афроамериканец, заявляет, что подавал заявки на более чем 100 вакансий через платформу Workday в течение нескольких лет, но каждый раз получал отказ. К нему присоединились четыре других истца старше 40 лет с аналогичным опытом. Они утверждают, что автоматические отказы приходили с подозрительной скоростью — иногда в течение часа после подачи заявки, что указывает на алгоритмическое принятие решений без участия человека.

Мобли привел пример, когда он подал заявку на работу в 12:55 ночи, а получил отказ до 2:00 ночи, что говорит о том, что решение было принято полностью автоматизированным способом на основе профилирования ИИ без какого-либо человеческого контроля и проверки.

Судья Рита Лин установила, что дело соответствует критериям коллективного иска согласно Закону о возрастной дискриминации при трудоустройстве (ADEA). Суд определил, что все потенциальные участники находятся в схожей ситуации, поскольку подвергались воздействию единой политики — ИИ-системы рекомендаций Workday, которая оценивает, сортирует и ранжирует кандидатов.

Коллективный иск охватывает всех лиц старше 40 лет, которые с сентября 2020 года по настоящее время подавали заявки через платформу Workday и получили отказ в рекомендациях к трудоустройству.

Workday отрицает обвинения и утверждает, что не принимает окончательных решений о найме, а лишь предоставляет работодателям инструменты для оценки. Компания заявляет, что проводит постоянный процесс анализа рисков для соответствия применимым законам. Однако суд отклонил аргументы Workday, отметив, что система компании действительно участвует в процессе принятия решений, присваивая кандидатам оценки от «сильный» до «слабый».

Дело имеет огромное практическое значение для всей индустрии HR-технологий. Тысячи компаний используют ИИ-инструменты Workday для автоматического скрининга резюме, что может повлиять на миллионы соискателей. Комиссия по равным возможностям трудоустройства (EEOC) поддержала истцов, ссылаясь на свои рекомендации по оценке негативного воздействия ИИ-алгоритмов в процедурах отбора.

Дело Mobley v. Workday становится одним из первых крупных судебных вызовов использованию ИИ в HR-процессах и может установить важный прецедент. Для работодателей это означает необходимость более тщательного аудита ИИ-систем, содействующих найму, на предмет потенциальной дискриминации, в том числе непредумышленной.

В связи с рисками для прав человека в Европейском союзе подобные ИИ-системы относятся к классу повышенно-опасных и по новым правилам до вывода таких систем на рынок компании обязаны подтвердить их соответствие обязательным требованиям, включая точность работы согласно статье 15 и устранение рисков алгоритмической дискриминации при работе с данными согласно статье 10(2)(f) Регламента ЕС об ИИ (детальнее об этом регулировании рассказываю на своём курсе).
7🔥3
DTA AI Model Clauses (Version 2.0 March 2025).docx
272.2 KB
Новые типовые условия договоров для закупки ИИ-систем

Таким документом — в версии 2.0 — порадовало нас Агентство цифровой трансформации Австралии.

Новые условия покрывают два сценария:

1) оказание поставщиком услуг с применением ИИ-систем,
2) подряд на разработку ИИ-системы под заказ.

В перспективе также планируется покрыть третий сценарий — приобретение готового ПО с ИИ-функциями от поставщика.

Модульная структура позволяет заказчикам выбирать только необходимые условия в зависимости от уровня риска и специфики конкретного проекта.

Документ базируется на этических ИИ-принципах Австралии и, что замечательно, на международном стандарте ИСО/МЭК 42001:2023 по управлению системами искусственного интеллекта (о котором также рассказываю на своём курсе).

Практическая ценность инструмента заключается в готовых правовых решениях для управления рисками, связанными с ИИ, путём их распределения на договорной основе.

Это особенно важно для организаций, которые хотят использовать ИИ-технологии, но при этом минимизировать правовые и репутационные риски.
🔥63
Прошёл сертификацию на ведущего специалиста по внедрению системы ИИ-менеджмента по ИСО/МЭК 42001

Принимаю поздравления — это было непросто, но необходимо: сейчас это лидирующий мировой стандарт для управления разработкой ИИ-продуктов и для внедрения ИИ-продуктов в бизнес-процессы ответственным образом.

Сертификацию имеют Антропик, Амазон Веб Сервисез, Самсунг, Майкрософт и другие ведущие технологические компании, а некоторые также требуют того же от своих партнёров-поставщиков.

Буду рад помочь с внедрением данной системы менеджмента в вашей компании и подготовкой к независимому аудиту и сертификации. Особенно актуально для тех, кто планирует сохранять конкурентоспособность на рынке, где наличие сертификации систем менеджмента становится не чем-то непонятным, а желаемым положением дел.

А если ваше предприятие уже имеет другую систему менеджмента, например, качества по ИСО 9001 или информационной безопасности по ИСО 27001, то внедрение ИСО 42001 становится значительно проще.

О том, как использовать данный стандарт для построения базовых процессов в контексте требований Регламента ЕС по ИИ — рассказываю здесь.
👏189👍7
Информационная безопасность — это важно

Поэтому обращаю внимание тех, кто хотел бы погрузиться в тему — коллеги из РППА проводят профильное обучение:

1) Двухмесячная программа Cyber in Privacy в июле-августе

За два месяца есть возможность хорошо прокачаться: все знания из первых рук, от экспертов в теме.
Детали здесь. С учётом скорого начала — лучше зарегистрироваться прямо сейчас, пока остались места.

Если тема интересна, но нет времени на плотное обучение в июле-августе, то есть более компактный формат:

2) Мастер-классы "Теория и практика моделирования угроз безопасности персональных данных"

Сугубо практически полезный контент, и две опции:
- записаться на двухдневный онлайн 15-16 октября;
- получить запись с прошлого мастер-класса.

Оба варианта и описание доступны здесь.
4👍4🥴1
Против какой ИИ-компании больше исков о нарушении авторских прав?

Антилидеры рынка:
1. OpenAI – 15 исков
2. Microsoft – 12 исков (как соответчик OpenAI)
3. Meta* – 5 исков

Источник

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
🌚8👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Швейцария объявила войну Германии

А нигерийский принц действительно готов поделиться с вами своим состоянием.

Конечно, всё это происходит не в нашей реальности, а в дипфейках. Которые мошенники уже активно используют для обмана и лёгкой наживы.

И люди, далёкие от понимания сегодняшнего уровня технологий, ввиду преклонного возраста или других причин — могут быть легко этим обмануты.

Именно для них Леонард Шмеддинг сделал эту небольшую, но впечатляющее демонстрацию.

Прим.: KI — künstliche intelligenz (нем.) искусственный интеллект.

Использованная модель: Veo-3
😁3😢3👍1
Возможны ли надёжные и эффективные ИИ-системы на базе больших языковых моделей (LLM)?

Те, кто прошли мой курс, помнят, что я поясняю разницу между моделью и системой на примере автомобилей. ИИ-система — это автомобиль, ИИ-модель — это её двигатель. В обоих случаях конечный продукт не может работать без ключевого компонента.

Так вот, в этом видео Саяш Капур рассказывает о проблемах интеграции LLM в функциональную ИИ-систему.

В частности, он обращает внимание:
— необходимо различать способность ИИ-системы выполнить задачу (capability) и надёжность выполнения этой задачи (reliability);
— основная проблема больших языковых ИИ-моделей в качестве "движка" — в том, что выдаваемый ими результат недостаточно предсказуем (стохастичен);
— соответственно, для решения проблемы с надёжностью ИИ-системы — конечного продукта — недостаточна только оптимизация самой ИИ-модели;
— необходима работа над общим дизайном ИИ-системы, подбор других необходимых компонентов таким образом, чтобы контейнировать неизбежную стохастичность ИИ-модели и обеспечить требуемую надёжность для итоговой ИИ-системы.

Готовых устоявшихся и ставших бы стандартными рецептов для такой работы по контейнированию больших языковых моделей и достижению надёжности в масштабе и на потоке — насколько мне известно — на сегодня нет. Это всё ещё направление для перспективных исследований.

Имейте это в виду, когда вам в очередной раз будут продавать очередную систему на базе LLM как продукт, в котором эта проблема успешно решена. Просите вендора предъявить доказательства этой работы и найдите людей, которые могут критически оценить эти доказательства.
6👍5
Промежуточные токены LRM — вовсе не то, что вы думаете

Широкие народные массы были взволнованы, обрадованы и потрясены способностью новых "ризонинг" моделей (LRM, large reasoning models) создавать и показывать так называемые промежуточные токены — набор "рассуждений" модели по поводу команды пользователя, как бы демонстрирующий её "мыслительный процесс".

Суббарао Камбампати и его исследовательская группа из Университета штата Аризона утверждают:

— с технической точки зрения некорректно рассматривать генерацию промежуточных токенов как знак приближения моделей к способности рассуждать, как человек — в модели это процесс, по-прежнему основанный на статистическом предсказании словесных ассоциаций на основе вводных данных;

— промежуточные токены дополняют исходный промт информацией, полезной для повышения качества итогового ответа, поэтому их следует рассматривать как метод дополнительного промптинга и оптимизации,

— качество итогового ответа не зависит от того, насколько понятны для человека промежуточные токены: в ряде исследований показано, что модели, чьи промежуточные токены были менее понятны, в том числе содержали одновременно иероглифы и латиницу, тем не менее давали более качественный итоговый ответ, чем модели, оптимизированные на понятность промежуточных токенов;

— соответственно, целью оптимизации для будущих LRM является не способность производить всё более и более понятные человеку промежуточные токены, а только и исключительно качество итогового ответа; промежуточные токены играют сугубо техническую роль и могут быть сколь угодно непонятны.
5👍3
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚11😢6😁2
О требованиях к маркировке генеративного аудио в ЕС

Поговорили на эту тему с Лукасом Люрестамом из Transparent Audio (куда меня недавно пригласили немного поадвайзить).

Обсудили, что предполагает статья 50 Регламента ЕС по ИИ. Запись здесь.
7
Об использовании ИИ в школах

Отличная статья на эту тему от Мэтью Вемисса. С учётом европейской регуляторной специфики, но с практической точки зрения много полезных рекомендаций, применимых в любой географии.

Мэтью сам работает в школе (руководитель по стратегии
и развитию в Кембриджской школе в Бухаресте) и написал не одну книгу на тему применения ИИ в образовании.

Как он отмечает, обращаясь к коллегам:
Каждый год я провожу обучение о том, как отбирать безопасных кандидатов для работы в школе.
Вы, вероятно, тоже.

И каждый год это напоминает мне о том, что подбор подходящего персонала для школы — дело серьезное.

Мы проверяем биографии. Задаем неудобные вопросы. Ведем центральный реестр.

Чтобы защитить учащихся и убедиться, что люди, работающие с ними, безопасны, подходят для этой работы и получают необходимую поддержку.

Теперь подумайте об искусственном интеллекте.

В своем последнем блоге я объясняю, как Регламент ЕС об искусственном интеллекте регулирует использование систем искусственного интеллекта в образовании и почему школы должны подходить к внедрению таких систем так же серьёзно, как и при отборе учителей.


И бонусом подсвечу ещё одну статью — на русском — от Э. Йигит об ИИ в детском образовании.
6👍4🔥1
Не хватает ИИ-новостей, интересных статей, обсуждений и мемов?

Или просто хотите поддержать канал и автора?

Напомню, что для этого у нас есть сообщество AI Governance (и бонусный канал к нему — Robocounsel Plus).

Подписывайтесь!
👍1🥴1
Обучение ИИ-моделей на книгах без согласия правообладателей: fair use в США или нет?

Сразу по двум разным делам в США двое судей признали обучение ИИ-моделей на произведениях, охраняемых авторским правом, добросовестным использованием.

Обстоятельства дел отличаются, решения промежуточные и по упрощённой процедуре, а инициатива применения упрощённой процедуры — и соответственно бремя доказывания — лежали в этих делах на разных сторонах процесса, поэтому сильно разнятся и мотивировочные части решений. Общность в том, что доктрина добросовестного использования к обучению ИИ-моделей применяться может.

Но судьи разошлись по ряду оценок.

Судья Чабрия по делу Меты* пришёл к выводу, что если бы истцы смогли показать, как вместо приобретения произведений истцов потребители будут взамен оплачивать подписку на сервисы ИИ-компаний, это было бы сильным аргументом в пользу истцов, но они даже не пытались развить эту мысль.

Тем не менее, судья предвидит, что в будущем аналогичные дела другие истцы могут вполне вероятно выигрывать, если они как следует аргументируют наличие таких экономических эффектов (а мы с вами знаем, что они действительно есть — к примеру, рынок стоковых фото и иллюстраций уже существенно пострадал: потребители теперь чаще платят деньги ИИ-компаниям за генерацию изображений, чем покупают их на стоке или заказывают иллюстраторам).

Судья Олсап по делу Антропика не принял эту аргументацию и считает, что такое вытеснение авторов произведений на рынке ИИ-компаниями выходит за рамки релевантного для авторского права. В то же время он более строго, чем коллега, оценил факт использования для обучения ИИ-моделей экземпляров произведений, полученных из "пиратских" источников.

Частично модели Антропика были обучены на таких произведениях, и в отношении последствий такого шага будет ещё вынесено отдельное решение. Но в части обучения на отсканированных экземплярах книг — Антропик приобрёл миллионы экземпляров и потратил на это многие миллионы долларов — нарушения интересов правообладателей судья не усмотрел.

Решения интересные и стимулируют к огромному количеству размышлений. В том числе о необходимости давать отдельную оценку потенциальным нарушениям (а) на стадии обучения ИИ-модели и (б) на стадии её последующего использования. Практика постепенно формируется.

* Деятельность Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram запрещена в РФ
😁4👍2🤔1😱1
Бесплатный вебинар: система на базе LLM как медицинское изделие

Prof. Valmed утверждают, что они первыми в мире получили сертификат соответствия ИСО 13485 на свою систему поддержки принятия решений для врачей на базе большой языковой модели (с применением RAG-подхода), как медизделие класса IIb согласно EU MDR.

Доктор Хью Харви завтра проводит с ними вебинар на Линкдине.

Так что если SaMD ваша тема — не пропустите.
🥴4👍21😁1
Robocounsel
Нижняя палата парламента США одобрила законопроект о моратории на нормотворчество в области ИИ на уровне отдельных штатов 22 мая 2025 года Палата представителей Конгресса США минимальным перевесом голосов (215 против 214) одобрила законопроект "One Big Beautiful…
США: субъекты американской федерации сохранят право регулировать ИИ

Сенат 99 голосами против 1 исключил из законопроекта о федеральном бюджете одиозное положение о запрете штатам принимать законы для защиты своих граждан от злоупотреблений со стороны ИИ-компаний.

В последней редакции запрет был трансформирован в санкцию: будете регулировать эти вопросы на уровне штатов — не получите часть федерального финансирования. Но даже эта модификация не помогла: сенаторы посчитали любой федеральный мораторий — в условиях отсутствия проходных федеральных законопроектов на эту тему — слишком щедрым подарком ИИ-компаниям.

В числе лоббировавших провалившийся мораторий Оупен-Эй-Ай и Гугл. О сути предложений писал ранее.

Лоббисты уже в истерике.
👍6😢1
Почему базовые регуляторные требования к кибербезопасности и угроза штрафов для компаний — это хорошо

Национальная комиссия Франции по информатизации и гражданским свободам (CNIL) опубликовала анализ экономического эффекта требований ОРЗД (GDPR) в области кибербезопасности для компаний и общества в целом.

Даже если ограничить такой анализ только утечками данных (далеко не единственная угроза, против которой направлены требования ОРЗД), эффект сугубо положительный, притом как для самих компаний, так и — что важнее — для общества в целом.

Благодаря закреплению в ОРЗД базовых требований к кибербезопасности, к информированию субъектов об утечках их данных, и благодаря установлению штрафов за несоблюдение этих требований, общий размер предотвращённого вреда от утечек в ЕС составил от 0,5 до 1,4 млрд. евро (82% от этой цифры — предотвращённые убытки компаний), количество утечек сократилось на 2,5-6,1%.

При этом анализ показывает, что в отсутствие регуляторных требований и угрозы штрафов компании не имели бы достаточной мотивации раскрывать крупнейшие утечки.

Эти выгоды представляют собой лишь небольшую часть общей пользы, приносимой ОРЗД в плане сокращения киберпреступности. Они отражают влияние лишь одного из его положений на конкретный вид киберпреступности (кража личных данных). Необходимо также учитывать положительное влияние соблюдения GDPR на кибервымогательство, ботнеты, вредоносное ПО и т. д. Экономистам было бы полезно более глубоко изучить проблему кибербезопасности, чтобы получить более полное представление об этой теме.
5👍2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Паузы в применении Регламента ЕС по ИИ не будет

В последнее время было много спекуляций по этому поводу, со ссылкой на обсуждения в кулуарах Еврокомиссии.

В частности, ссылались на слова Хенны Вирккунен, исполнительного вице-президента Еврокомиссии по технологическому суверенитету (отвечающую за ИИ-тематику) на служебном совещании 6 июня:

Если мы увидим, что стандарты и руководства. . . не будут готовы вовремя, мы не должны исключать возможность отсрочки по некоторым положениям Регламента об ИИ.


Тем не менее, сегодня пресс-секретарь Еврокомиссии по тому же самому техническому суверенитету Томас Ренье подытожил:

Нет никакой остановки часов, никакого льготного периода, никакой паузы. Почему? Потому что у нас есть юридически обязательные сроки, установленные нормативным актом, по наступлении которых Еврокомиссия будет обеспечивать применение этих норм и следить за тем, чтобы компании соблюдали требования Регламента ЕС по ИИ.
👍5