💻OpenAI признала что ИИ-браузеры не безопасны.
OpenAI опубликовала статью о своем ИИ-браузере ChatGPT Atlas, в которой указала какие меры предпринимаются, что использование браузера было безопасным.
В указанной статье корпорация признает, что «универсальность, которая делает браузерные агенты полезными, увеличивает и риски, агент может столкнуться с вредоносной информацией в неограниченном масштабе— в электронных письмах и вложениях, приглашениях в календаре, общих документах, на форумах, в постах в социальных сетях и на произвольных веб-страницах».
Если пользователь попросит агента просмотреть указанную информацию и кратко изложить ключевые моменты, агент может принять это в работу и по ошибке выполнить внедренные вредоносные инструкции.
Последствия успешной атаки могут быть масштабными: пересылка конфиденциального электронного письма, отправка денег, редактирование или удаление файлов в облаке и многое другое.
Несмотря на усиливающиеся меры защиты, внедрение инструкций по-прежнему представляет собой серьёзную проблему для безопасности, и работа над этой проблемой займет ещё долгие годы.
OpenAI опубликовала статью о своем ИИ-браузере ChatGPT Atlas, в которой указала какие меры предпринимаются, что использование браузера было безопасным.
В указанной статье корпорация признает, что «универсальность, которая делает браузерные агенты полезными, увеличивает и риски, агент может столкнуться с вредоносной информацией в неограниченном масштабе— в электронных письмах и вложениях, приглашениях в календаре, общих документах, на форумах, в постах в социальных сетях и на произвольных веб-страницах».
Если пользователь попросит агента просмотреть указанную информацию и кратко изложить ключевые моменты, агент может принять это в работу и по ошибке выполнить внедренные вредоносные инструкции.
Последствия успешной атаки могут быть масштабными: пересылка конфиденциального электронного письма, отправка денег, редактирование или удаление файлов в облаке и многое другое.
Несмотря на усиливающиеся меры защиты, внедрение инструкций по-прежнему представляет собой серьёзную проблему для безопасности, и работа над этой проблемой займет ещё долгие годы.
🤳Минцифры введет единый идентификатор пользователя для всех цифровых платформ.
Минцифры введет единый идентификатор пользователя для всех цифровых платформ, об этом рассказала заместитель главы Минцифры России Бэлла Черкесова.
Замминистра отметила, что идет работа по улучшению подходов к медиаизмерениям через способы унифицирования данных. По ее словам, сейчас совместно с отраслью идут обсуждения о том, как повысить прозрачность этой информации.
Минцифры предлагает обновить состав передаваемых данных и изменить подход к формированию идентификатора пользователя (ID пользователя). Сейчас документ обсуждается с отраслью, бизнесом и заинтересованными ведомствами.
Важно, что ID пользователя будет неизменным. Сейчас один и тот же человек, который заходит на страницу с разных устройств и на разных площадках, учитывается как несколько уникальных пользователей, что искажает статистику. Предлагается привязывать ID к номеру телефона, а после этого обезличивать данные зрителя.
Минцифры введет единый идентификатор пользователя для всех цифровых платформ, об этом рассказала заместитель главы Минцифры России Бэлла Черкесова.
Замминистра отметила, что идет работа по улучшению подходов к медиаизмерениям через способы унифицирования данных. По ее словам, сейчас совместно с отраслью идут обсуждения о том, как повысить прозрачность этой информации.
Минцифры предлагает обновить состав передаваемых данных и изменить подход к формированию идентификатора пользователя (ID пользователя). Сейчас документ обсуждается с отраслью, бизнесом и заинтересованными ведомствами.
Важно, что ID пользователя будет неизменным. Сейчас один и тот же человек, который заходит на страницу с разных устройств и на разных площадках, учитывается как несколько уникальных пользователей, что искажает статистику. Предлагается привязывать ID к номеру телефона, а после этого обезличивать данные зрителя.
👩💻ИИ-грамотность станет ключевым навыком для большинства профессий к 2028 году.
Российские работодатели все чаще рассматривают навыки работы с искусственным интеллектом как обязательную часть профессиональных компетенций. Уже 55% компаний уверены, что к 2028 году ИИ-грамотность станет ключевым навыком для большинства профессий, еще 21% считают уверенную работу с нейросетями базовым требованием для будущего рынка труда.
По данным hh.ru, наиболее востребованным ИИ-навыком стало умение искать информацию и генерировать идеи с помощью нейросетей — его отметили 60% работодателей. На втором месте оказалась аналитика данных (45%), далее следуют генерация и оптимизация промптов (41%), создание визуального контента с использованием Midjourney и Stable Diffusion (39%), понимание основ искусственного интеллекта и машинного обучения (36%), а также автоматизация написания кода с помощью GitHub Copilot и Cursor (23%).
За последние четыре года количество вакансий в сфере машинного обучения в России выросло в 2,5 раза, что указывает на активное развитие собственных ИИ-решений внутри компаний. В результате владение нейросетевыми инструментами постепенно превращается в новый стандарт для широкого круга профессий.
По данным платформы, сотрудники, которые эффективно используют ИИ, быстрее справляются с задачами, оптимизируют рабочие процессы и повышают личную результативность. Это отражается и на условиях найма: работодатели чаще выбирают таких кандидатов и готовы предлагать им более высокую оплату труда. В требованиях работодатели все чаще упоминают работу с ChatGPT, GigaChat, Midjourney, YandexGPT, DeepSeek и другими ИИ-сервисами, используемыми для аналитики, генерации контента и автоматизации рутинных задач.
Российские работодатели все чаще рассматривают навыки работы с искусственным интеллектом как обязательную часть профессиональных компетенций. Уже 55% компаний уверены, что к 2028 году ИИ-грамотность станет ключевым навыком для большинства профессий, еще 21% считают уверенную работу с нейросетями базовым требованием для будущего рынка труда.
По данным hh.ru, наиболее востребованным ИИ-навыком стало умение искать информацию и генерировать идеи с помощью нейросетей — его отметили 60% работодателей. На втором месте оказалась аналитика данных (45%), далее следуют генерация и оптимизация промптов (41%), создание визуального контента с использованием Midjourney и Stable Diffusion (39%), понимание основ искусственного интеллекта и машинного обучения (36%), а также автоматизация написания кода с помощью GitHub Copilot и Cursor (23%).
За последние четыре года количество вакансий в сфере машинного обучения в России выросло в 2,5 раза, что указывает на активное развитие собственных ИИ-решений внутри компаний. В результате владение нейросетевыми инструментами постепенно превращается в новый стандарт для широкого круга профессий.
По данным платформы, сотрудники, которые эффективно используют ИИ, быстрее справляются с задачами, оптимизируют рабочие процессы и повышают личную результативность. Это отражается и на условиях найма: работодатели чаще выбирают таких кандидатов и готовы предлагать им более высокую оплату труда. В требованиях работодатели все чаще упоминают работу с ChatGPT, GigaChat, Midjourney, YandexGPT, DeepSeek и другими ИИ-сервисами, используемыми для аналитики, генерации контента и автоматизации рутинных задач.
👮♂️В РФ вводят штрафы за авторизацию пользователей через зарубежные сервисы.
Депутаты Госдумы приняли в первом чтении законопроект об административных штрафах до 700 тыс. рублей для владельцев российских сайтов за нарушения правил авторизации пользователей, а именно за авторизацию с помощью зарубежных сервисов, в том числе иностранной электронной почты.
Законопроект был внесен группой депутатов во главе с первым заместителем председателя комитета Госдумы по информполитике Антоном Горелкиным. Кодекс РФ об административных правонарушениях предлагается дополнить статьей, предусматривающей штрафы за неисполнение обязанности по проведению авторизации пользователей при предоставлении доступа к информации.
По действующему законодательству на территории РФ авторизация пользователей должна проводиться с использованием российского номера телефона, единого портала госуслуг, единой биометрической системы или иной информационной системы, владельцем которой является гражданин РФ или российское юрлицо. Неисполнение этого требования повлечет штраф от 10 до 20 тыс. рублей для граждан, от 30 до 50 тыс. рублей - для должностных лиц, от 500 до 700 тыс. рублей - для юрлиц.
Предлагается также дополнить КоАП статьей о неисполнении владельцем интернет-ресурса с применением технологии рекомендаций требований законодательства РФ к их применению. Так, сбор информации о предпочтениях находящихся на территории РФ пользователей, нарушающий права и интересы граждан и организаций, может грозить штрафом от 10 до 20 тыс. рублей для граждан, от 30 до 50 тыс. рублей - для должностных лиц, от 500 до 700 тыс. рублей - для юрлиц.
Аналогичные штрафы предусмотрены за применение рекомендательных технологий без информирования пользователей, за неразмещение владельцем интернет-ресурса в том числе документа о правилах применения таких технологий и адреса электронной почты для направления ему юридически важных сообщений.
За повторные нарушения предусмотрены штрафы от 20 до 40 тыс. рублей для граждан, от 60 до 100 тыс. рублей - для должностных лиц, от 1 до 1,4 млн - для юрлиц. Такой же штраф может быть наложен за неисполнение требований Роскомнадзора о прекращении предоставления информации с применением рекомендательных технологий.
Депутаты Госдумы приняли в первом чтении законопроект об административных штрафах до 700 тыс. рублей для владельцев российских сайтов за нарушения правил авторизации пользователей, а именно за авторизацию с помощью зарубежных сервисов, в том числе иностранной электронной почты.
Законопроект был внесен группой депутатов во главе с первым заместителем председателя комитета Госдумы по информполитике Антоном Горелкиным. Кодекс РФ об административных правонарушениях предлагается дополнить статьей, предусматривающей штрафы за неисполнение обязанности по проведению авторизации пользователей при предоставлении доступа к информации.
По действующему законодательству на территории РФ авторизация пользователей должна проводиться с использованием российского номера телефона, единого портала госуслуг, единой биометрической системы или иной информационной системы, владельцем которой является гражданин РФ или российское юрлицо. Неисполнение этого требования повлечет штраф от 10 до 20 тыс. рублей для граждан, от 30 до 50 тыс. рублей - для должностных лиц, от 500 до 700 тыс. рублей - для юрлиц.
Предлагается также дополнить КоАП статьей о неисполнении владельцем интернет-ресурса с применением технологии рекомендаций требований законодательства РФ к их применению. Так, сбор информации о предпочтениях находящихся на территории РФ пользователей, нарушающий права и интересы граждан и организаций, может грозить штрафом от 10 до 20 тыс. рублей для граждан, от 30 до 50 тыс. рублей - для должностных лиц, от 500 до 700 тыс. рублей - для юрлиц.
Аналогичные штрафы предусмотрены за применение рекомендательных технологий без информирования пользователей, за неразмещение владельцем интернет-ресурса в том числе документа о правилах применения таких технологий и адреса электронной почты для направления ему юридически важных сообщений.
За повторные нарушения предусмотрены штрафы от 20 до 40 тыс. рублей для граждан, от 60 до 100 тыс. рублей - для должностных лиц, от 1 до 1,4 млн - для юрлиц. Такой же штраф может быть наложен за неисполнение требований Роскомнадзора о прекращении предоставления информации с применением рекомендательных технологий.
🇺🇸Американская ассоциация юристов представила отчет о влиянии ИИ на юридическую практику.
Отчет указывает что искусственный интеллект больше не является абстрактной или экспериментальной технологией для юристов. Он быстро становится основной инфраструктурой для юридической практики, работы судов, юридического образования и обеспечения доступа к правосудию. Теперь юристы должны сосредоточиться не на том, стоит ли использовать ИИ, а на том, как ответственно управлять им, контролировать его и интегрировать в систему.
В отчете значительное внимание уделяется судебной системе, где ИИ повышает эффективность работы, но при этом создает новые серьезные риски. Подчёркивается основной принцип: ИИ может помогать судьям, но он никогда не сможет выносить судебное решение. Судьи несут единоличную ответственность за решения, вынесенные от их имени, а результаты работы ИИ всегда должны проверяться независимо.
В докладе также подчеркивается растущая угроза, исходящая от дезинформации и дипфейков, созданных искусственным интеллектом. Перед судьями всё чаще встают вопросы о том, как подтверждать подлинность доказательств, как реагировать на заявления о том, что законные доказательства сфабрикованы, и достаточно ли существующих правил доказывания.
В отчете подчеркивается, что по мере внедрения ИИ в юридические услуги и бизнес-процессы управление ИИ становится одной из основных обязанностей юристов. В отчёте также рассматриваются нерешённые вопросы, связанные с ответственностью. Кто несёт ответственность, если решения, принятые с помощью ИИ, причиняют вред? Разработчик, поставщик данных, оператор или человек, который полагался на результат? «ИИ добавляет новую переменную в определение вины и, скорее всего, приведёт к появлению новых механизмов ответственности».
Также в отчете затронута серьезная проблема в сфере образования: технологии развиваются так быстро, что многое из того, что студенты изучают сегодня, может устареть к моменту получения ими диплома.
Отчет указывает что искусственный интеллект больше не является абстрактной или экспериментальной технологией для юристов. Он быстро становится основной инфраструктурой для юридической практики, работы судов, юридического образования и обеспечения доступа к правосудию. Теперь юристы должны сосредоточиться не на том, стоит ли использовать ИИ, а на том, как ответственно управлять им, контролировать его и интегрировать в систему.
В отчете значительное внимание уделяется судебной системе, где ИИ повышает эффективность работы, но при этом создает новые серьезные риски. Подчёркивается основной принцип: ИИ может помогать судьям, но он никогда не сможет выносить судебное решение. Судьи несут единоличную ответственность за решения, вынесенные от их имени, а результаты работы ИИ всегда должны проверяться независимо.
В докладе также подчеркивается растущая угроза, исходящая от дезинформации и дипфейков, созданных искусственным интеллектом. Перед судьями всё чаще встают вопросы о том, как подтверждать подлинность доказательств, как реагировать на заявления о том, что законные доказательства сфабрикованы, и достаточно ли существующих правил доказывания.
В отчете подчеркивается, что по мере внедрения ИИ в юридические услуги и бизнес-процессы управление ИИ становится одной из основных обязанностей юристов. В отчёте также рассматриваются нерешённые вопросы, связанные с ответственностью. Кто несёт ответственность, если решения, принятые с помощью ИИ, причиняют вред? Разработчик, поставщик данных, оператор или человек, который полагался на результат? «ИИ добавляет новую переменную в определение вины и, скорее всего, приведёт к появлению новых механизмов ответственности».
Также в отчете затронута серьезная проблема в сфере образования: технологии развиваются так быстро, что многое из того, что студенты изучают сегодня, может устареть к моменту получения ими диплома.
Уважаемые коллеги!
Спасибо за то, что были с нами в этом году.
С наступающим Новым годом и до встречи в 2026🎄
Спасибо за то, что были с нами в этом году.
С наступающим Новым годом и до встречи в 2026🎄