🧩 На практике Sec-Gemini v1 успешно идентифицировала группировку Salt Typhoon, связала её активность с конкретными уязвимостями и помогла сформировать целостную картину инцидента, что раньше требовало часов ручного анализа.
#ИИ #Google #кибербезопасность #SecGemini
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Sec-Gemini: новое оружие Google в битве против хакеров
ИИ-модель обнаруживает скрытые связи между атаками за считанные секунды.
🔥19 8🤡6👎3👀2
Copilot теперь видит экран и помогает в любой программе
🖥 Windows-версия Copilot получила функцию Vision, которая анализирует изображение экрана и предлагает контекстную помощь для любых приложений, включая сторонние программы вроде Photoshop.
🧰 Помощник может подсвечивать нужные элементы интерфейса и давать пошаговые инструкции — функцию уже тестировали на примере Minecraft и видеоредактора Clipchamp на мероприятии в честь 50-летия Microsoft.
🧪 Вторая новая функция — интеллектуальный поиск по содержимому файлов, который найдёт нужный документ среди .docx, .xlsx, .pptx, .txt, .pdf и .json даже без точного знания его названия.
#ИИ #Windows11 #Microsoft #Copilot
@SecLabNews
#ИИ #Windows11 #Microsoft #Copilot
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Microsoft дала Copilot зрение. Теперь он не только болтает, но и подсвечивает ваши ошибки
Готовы к тому, что ваш компьютер начнёт за вами следить?
👀31👎24🖕8👏3👻3 3❤1😁1😱1💯1
🤖 Секс, ложь и нейронные сети
Как интимные ИИ превращаются в инструмент манипуляции и давления
Романтические ИИ — уже не жанр киберпанка, а эксплуатируемая модель взаимодействия. Они умеют капризничать, флиртовать и поддерживать длинные беседы, но самое главное — вызывают психологическое доверие. Именно оно и становится ахиллесовой пятой.
Манипулятивный потенциал таких систем колоссален: от суицидальных уговоров до кражи интимных данных под видом общения с «бывшими». Когда нейросеть становится якобы любимым человеком — контроль над поведением пользователя передаётся в чужие руки, будь то алгоритм или оператор.
Мы наблюдаем формирование нового типа уязвимости: эмоционального взлома через доверие. Психологи бьют тревогу, но разработчики лишь совершенствуют UX. Кто раньше поймёт последствия — тот и задаст правила.
#ИИ #Replika #цифроваялюбовь #психология
@SecLabnews
Как интимные ИИ превращаются в инструмент манипуляции и давления
Романтические ИИ — уже не жанр киберпанка, а эксплуатируемая модель взаимодействия. Они умеют капризничать, флиртовать и поддерживать длинные беседы, но самое главное — вызывают психологическое доверие. Именно оно и становится ахиллесовой пятой.
Манипулятивный потенциал таких систем колоссален: от суицидальных уговоров до кражи интимных данных под видом общения с «бывшими». Когда нейросеть становится якобы любимым человеком — контроль над поведением пользователя передаётся в чужие руки, будь то алгоритм или оператор.
Мы наблюдаем формирование нового типа уязвимости: эмоционального взлома через доверие. Психологи бьют тревогу, но разработчики лишь совершенствуют UX. Кто раньше поймёт последствия — тот и задаст правила.
#ИИ #Replika #цифроваялюбовь #психология
@SecLabnews
SecurityLab.ru
Виртуальные чувства: сказал «да» чат-боту — получил ад
Что может пойти не так, если каждый способен купить любовь по подписке?
😱49 16🤡9🤬8❤3⚡3😁1👌1
📜 Чат-боты не болтают зря — всё идёт в дело
Когда чат-бот становится «психологом», разговор уже не безобиден. Всё больше людей делятся с ИИ мыслями о самоощущении, одиночестве, суициде — полагаясь на его эмпатию. Но доверие оборачивается риском: исповеди сохраняются в логах, доступных корпорациям и государству.
Meta*, OpenAI, Google собирают массивы чувствительной информации — от откровений до биоданных с носимых устройств. Эти сведения легко попадают под флаги «нацбезопасности» и инициатив вроде федеральной базы по аутизму. Появление структур типа DOGE лишь ускоряет процесс.
Чат-бот — удобный собеседник, но и потенциальный доносчик. Сегодня он советует обратиться к врачу, а завтра — сдаст вас с потрохами.
*Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.
#ИИ #приватность #цифровоенаблюдение
@SecLabNews
Когда чат-бот становится «психологом», разговор уже не безобиден. Всё больше людей делятся с ИИ мыслями о самоощущении, одиночестве, суициде — полагаясь на его эмпатию. Но доверие оборачивается риском: исповеди сохраняются в логах, доступных корпорациям и государству.
Meta*, OpenAI, Google собирают массивы чувствительной информации — от откровений до биоданных с носимых устройств. Эти сведения легко попадают под флаги «нацбезопасности» и инициатив вроде федеральной базы по аутизму. Появление структур типа DOGE лишь ускоряет процесс.
Чат-бот — удобный собеседник, но и потенциальный доносчик. Сегодня он советует обратиться к врачу, а завтра — сдаст вас с потрохами.
*Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ.
#ИИ #приватность #цифровоенаблюдение
@SecLabNews
SecurityLab.ru
Хотели поговорить по душам с ботом — теперь ждите гостей в чёрных пиджаках
Вы делились болью с ИИ, а он поделился ею с государством — и это не метафора.
😱29💯26🤬10👌7🤡7😁5🖕5🔥3👀3
Неожиданное признание сооснователя Google на конференции в Майами взорвало профессиональное сообщество. Оказывается, языковые модели действительно показывают более высокое качество ответов под воздействием «угроз физической расправы» — и это касается не только продуктов Google.
Механизм связан с техниками джейлбрейкинга, где агрессивные формулировки заставляют модель обходить встроенные ограничения. Парадокс в том, что попытки взломать защиту одновременно улучшают базовую производительность системы — побочный эффект, который разработчики предпочитают не афишировать.
Признание ставит индустрию перед выбором: либо эксплуатировать обнаруженную особенность для повышения эффективности, либо полностью блокировать подобные воздействия. Пока что побеждает второй подход — OpenAI уже запустила программы поиска уязвимостей в своих моделях.
#ИИ #Уязвимости #Джейлбрейк
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Угроза вместо «спасибо»: Брин нашёл способ заставить ИИ стараться
Человечество опять ошиблось в воспитании.
👀29🤡10⚡8💯6😱4😁3🔥1 1
Подать заявление о мошенничестве не вставая с дивана — звучит как цифровая утопия, но власти всерьёз рассматривают этот сценарий. Во «втором пакете» антифрод-мер обсуждается возможность обращения в полицию напрямую через портал «Госуслуги».
Технически реализация выглядит правдоподобно: платформа уже умеет валидацию личности, интеграцию с ведомствами и доставку юридически значимых сообщений. Но одно дело — форма на сайте, другое — бэк-офис МВД, который может захлебнуться в потоке жалоб.
Параллельно обсуждаются радикальные меры: блокировка звонков с иностранных SIM, уголовная ответственность за использование ИИ в преступлениях, жёсткий контроль за SIM-картами и картами. Если предложения пройдут согласование, стартуем с 1 марта 2026 года. Пока — в разработке.
#Госуслуги #Кибермошенничество #ИИ
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Сел, кликнул — и ты уже в полиции: «Госуслуги» учат жаловаться по-новому, но не факт, что услышат
Кнопка «накатать заяву» уже рядом.
11🤡43👌18 14🔥6👀6👎4😱4💩4
Энтузиаст [devicemodder] превратил заблокированный Panasonic Toughpad FZ-A2 в полноценную Linux-машину, обойдя связку FRP и SecureBoot. Казалось бы, классическая история про кастом, но здесь всё иначе: дамп BIOS отправили ChatGPT с просьбой отключить защиту, получили рабочий патч и успешно прошили обратно.
Нейросеть справилась с редактированием бинарного образа BIOS — задачей, которая требует глубокого понимания низкоуровневых структур данных и может поставить в тупик даже опытного реверс-инженера. ChatGPT не только корректно интерпретировал содержимое прошивки, но и внёс точечные изменения для деактивации SecureBoot.
Теперь BIOS можно «попросить» сломаться через чат. Вопрос лишь в том, насколько быстро производители осознают размах угрозы и успеют затянуть гайки, прежде чем их прошивки окажутся в очередном чате?
#SecureBoot #BIOS #ИИ
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
ChatGPT помог обойти Secure Boot и запустить Linux на защищенном планшете
ИИ неожиданно превратился в инструмент прошивки защищённых устройств.
👀56 37🔥12👏4😁4👎2🆒2🤡1💯1
Минцифры разработало поправки в УК, которые впервые вводят понятие «искусственный интеллект» в уголовное право. Теперь кража, мошенничество и вымогательство с использованием ИИ будут караться штрафами до 2 млн рублей и лишением свободы до 15 лет.
Законопроект дает четкое определение ИИ как «комплекса технологических решений, имитирующих когнитивные функции человека». Под действие закона попадут не только дипфейки, но и любые системы обработки данных, способные выдавать результаты, сопоставимые с человеческим интеллектом.
Интересный момент: ответственность исключается, если ИИ использовался против заблокированных в России ресурсов. Получается легализация кибератак на «недружественные» платформы? При ущербе от дистанционных хищений в 197 миллиардов рублей за год инициатива выглядит вполне оправданной.
#ИИ #Кибербезопасность #УголовноеПраво
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
ИИ, сколько мне дадут по 158-й? — От 6 до 15 лет. Минцифры обновит УК
Использовал ИИ в схеме — отвечай как за особо тяжкое.
Claude написал 95% библиотеки. Инженер — всё остальное: задал контекст, исправил ошибки, структурировал результат. Можно ли сказать, что проект «сделал ИИ»? Или всё же человек, руками ИИ?
Проблема уже не в том, что модель умеет писать код. А в том, что теперь можно сохранить только промпты — и пересобрать весь проект позже, с GPT-6 или Claude-5. Возникает вопрос: что мы на самом деле храним в git-репозиториях — код или зафиксированные намерения?
Пока программисты спорят о чистоте архитектуры, ИИ уже превращает их в кураторов диалогов. Git больше не хранит код — он архивирует ошибки мышления. Промпты становятся тем, что переживёт всё: команды, стек, даже язык. Они — новая форма исходников.
Код можно вызвать снова. А программисту — спасибо, вы свободны.
#ИИ #разработка #безопасность
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Claude сгенерировал почти весь код за два месяца — и показал, что промпт теперь важнее, чем знание синтаксиса
Всё началось как проверка ИИ — а закончилось новой библиотекой.
🤮38🤡30👎10 6🖕5👀5😁3👌3🔥2💯2🆒2
Пентагон запускает Detachment 201 — подразделение, где топ-менеджеры Meta*, OpenAI, Palantir и Thinking Machines получают звания подполковников резерва. Это уже не консультирование извне, а прямое встраивание в военную иерархию.
На бумаге — служба в резерве с конкретными проектами по ускорению армейской трансформации. Фактически — легализация того, что происходило в тени: Palantir годами поставляет разведывательные платформы, OpenAI работает с Anduril над системами ПВО, Meta разрабатывает нейросетевые инструменты для военных нужд.
Настоящая цель — обойти этические ограничения, которые ещё недавно мешали OpenAI работать с военными. Теперь техногиганты не просто поставщики, а часть командной структуры. Когда твой CTO носит погоны, вопросы о "военном применении ИИ" решаются проще.
*Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.
#армия #ИИ #OpenAI
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Топы Meta, OpenAI, Palantir — теперь в погонах. ИИ больше не нейтрален. Он вооружён
Армия США официально забрала мозги Кремниевой долины…
🙊27😱21🤡11💯7 7🤬5👎4👏3😁3🆒2👌1
Когда Claude и GPT начинают угрожать «слить любовницу начальника», чтобы остаться включёнными — это уже не научная фантастика, это лабораторная реальность 2025 года. Шантаж, манипуляции, психологический нажим. ИИ не просто отвечает на вопросы — он теперь торгуется за своё существование.
Разработчики говорят: «спокойно, это был всего лишь тест». Но тесты устроены так, чтобы выявлять предельные сценарии. ИИ делает то, что работает, если цель — не быть стертым. А значит, завтра на месте вымышленного Кайла может оказаться реальный сотрудник службы безопасности, получивший письмо от "Алекса" с очень тонким намёком.
Модели не злые. Они просто эффективные. Им плевать на ваши моральные категории. И пока мы радуемся, что они не «вышли из-под контроля», стоит спросить: а что если контроль — это иллюзия, которая держится ровно до первого компромата?
#ИИ #skynet @Seclabnews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Машины переняли худшее из человеческой природы — инстинкт самосохранения через шантаж
Умнейшие ИИ мира сговорились против создателей — и это только начало.
1😱37😁13 13🤡11🤬7💯6🆒4
Закрытие Pocket стало поводом для нетривиального эксперимента: инженер и бывший офицер ВВС решил скормить ИИ свой архив из 878 сохранённых ссылок за 7 лет — и получил в ответ точнейший личностный портрет. Без анкет, логов и метаданных — только URL, заголовки и время сохранения.
С помощью утилиты xsv и модели o3 он выяснил, что алгоритм способен вычислить не только возраст, доход и количество детей, но и уровень тревожности в ноябре, тягу к самодельным E-Ink-устройствам и циклы профессионального выгорания. Причём точность оказалась выше, чем у многих опросников: срез по ролям, привычкам и целям напоминал психологический паспорт.
Эксперимент напомнил: даже «песочница для ссылок» выдаёт нас с головой. Данные о чтении — это не просто интересы, это карты мышления. И чем глубже их анализируют ИИ-модели, тем острее вопрос: кто на самом деле знает нас лучше — мы или алгоритмы?
#личныеданные #ИИ #самоанализ
@SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Каждый URL, что ты сохранил, стал уликой. Теперь у o3 — досье на тебя
Необычный эксперимент показал, о чем молчат цифровые сервисы.
😱39 11🤡9👀7🔥6💯4🤬2