Вымогатели начали использовать #ИИ для подделки голосовых в Telegram
Сначала преступники получают доступ к аккаунту, затем начинают писать потенциальным жертвам из числа списка контактов его владельца с просьбой перевести деньги.
Историю о необходимости помощи преступники подкрепляют голосовым сообщением якобы от лица владельца аккаунта.
Для аудиосообщения используются нарезки из его реальных старых голосовых сообщений.
Эксперты предупреждают о необходимости соблюдения правил цифровой гигиены ☝️
Источник
Сначала преступники получают доступ к аккаунту, затем начинают писать потенциальным жертвам из числа списка контактов его владельца с просьбой перевести деньги.
Историю о необходимости помощи преступники подкрепляют голосовым сообщением якобы от лица владельца аккаунта.
Для аудиосообщения используются нарезки из его реальных старых голосовых сообщений.
Эксперты предупреждают о необходимости соблюдения правил цифровой гигиены ☝️
Источник
В Конгресс США внесён законопроект о защите граждан от дипфейков
Законопроект, предусматривающий наказание для киберзлоумышленников, которые используют генеративный искусственный интеллект (ИИ) и машинное обучение для копирования образов и голосов без согласия людей, которых имитируют с помощью ИИ, внесён на рассмотрение в Палату представителей США, написал в среду Nextgov/
Закон о No Fake Replicas and Unauthorize Duplications от 2024 года, сокращенный до Закона об отказе о мошенничестве с искусственным интеллектом, был введен представителями. Мария Салазар, R-Fla., и Мадлен Дин, D-Pa., и стремится защитить граждан США от хищнических глубоких подделок и фальсифицированных изображений и контента.
В тексте законопроекта приводятся примеры генеративных технологий искусственного интеллекта, людей, подражая или подражая их голосам или подобию, включая музыкальных исполнителей Дрейка и The Weeknd, а также группу женщин- старшеклассниц в Вестфилде, штат Нью-Джерси.
#дипфейк #ИИ #судебнаяэкспертиза
Законопроект, предусматривающий наказание для киберзлоумышленников, которые используют генеративный искусственный интеллект (ИИ) и машинное обучение для копирования образов и голосов без согласия людей, которых имитируют с помощью ИИ, внесён на рассмотрение в Палату представителей США, написал в среду Nextgov/
Закон о No Fake Replicas and Unauthorize Duplications от 2024 года, сокращенный до Закона об отказе о мошенничестве с искусственным интеллектом, был введен представителями. Мария Салазар, R-Fla., и Мадлен Дин, D-Pa., и стремится защитить граждан США от хищнических глубоких подделок и фальсифицированных изображений и контента.
В тексте законопроекта приводятся примеры генеративных технологий искусственного интеллекта, людей, подражая или подражая их голосам или подобию, включая музыкальных исполнителей Дрейка и The Weeknd, а также группу женщин- старшеклассниц в Вестфилде, штат Нью-Джерси.
#дипфейк #ИИ #судебнаяэкспертиза
#DeepFake (дипфейк) — это изображения или видео, в основах генерации которых используют технологии искусственного интеллекта, в результате чего один фрагмент накладывается поверх другого с поразительной точностью и очень часто различить «на глаз», где подделка, а где оригинал, становится невозможно.
#криптоликбез #дипфейк
#ИИ #судебнаяэкспертиза
#криптоликбез #дипфейк
#ИИ #судебнаяэкспертиза
Перечень_поручений_по_итогам_конференции_Путешествие_в_мир_искусственного.rtf
14.9 KB
Перечень поручений по итогам конференции "Путешествие в мир искусственного интеллекта"
(утв. Президентом РФ 17 января 2024 г.)
#ИИ #искусственныйинтеллект #artificialintelligence #AI
(утв. Президентом РФ 17 января 2024 г.)
#ИИ #искусственныйинтеллект #artificialintelligence #AI
Этика искусственного интеллекта
По мнению россиян, сам ИИ установить этические ограничения не способен, поэтому его действия должен контролировать человек.
Основные результаты исследования #ВЦИОМ по вопросам #ИИ:
- 77% поддерживают обязательное участие человека в оценке этичности продуктов, созданных ИИ-системами.
- 73% считают необходимым маркировать продукты и решения, созданные с помощью ИИ (2023 г. — 69%).
- 85% находят необходимыми разработку и внедрение единых этических стандартов для компаний, работающих в сфере ИИ: 56% считают, что такие правила должны быть обязательными, а 29% — что рекомендательными.
По мнению россиян, сам ИИ установить этические ограничения не способен, поэтому его действия должен контролировать человек.
Основные результаты исследования #ВЦИОМ по вопросам #ИИ:
- 77% поддерживают обязательное участие человека в оценке этичности продуктов, созданных ИИ-системами.
- 73% считают необходимым маркировать продукты и решения, созданные с помощью ИИ (2023 г. — 69%).
- 85% находят необходимыми разработку и внедрение единых этических стандартов для компаний, работающих в сфере ИИ: 56% считают, что такие правила должны быть обязательными, а 29% — что рекомендательными.
ВЦИОМ. Новости
Этика искусственного интеллекта
По мнению россиян, сам ИИ установить этические ограничения не способен, поэтому его действия должен контролировать человек.