1/7 Хэд Марэ не дала времени #СДЭК на то, чтобы защитить себя. Сисадмины оказались слишком слабы. А политики безопасности не оправдали себя. #СДЭК продолжает нести знамя худшей доставки по России, обгоняя даже почту рф
2/7 Настройка и бекапирование корпоративных систем - дело неблагородное. «Что случилось с бекапами»? - Спрашивают консультанты по безопасности.- «Они пропали». - Отвечает им Хэд Марэ. Криворукие админы на маленькой зп делали бекап раз в полгода.
3/7 Шифровальщик крутится, данныемутятся. У #СДЭК серверов нет, но вы держитесь! Решения ваших бед не существует, даже не пытайтесь.
4/7 Клиенты #СДЭК не жалуйтесь. Посылки отменяются на неопределенное время. Проверьте ваш регион в перечне сбоев.
5/7 Убытки рассчитывать -это для господ. Все о ваших посылках – в надежных руках!
6/7 Дорогим консультантам с #BiZone отдельный привет. Ваш софт бесполезен, ваши безопасникипраздно шатаются на конференции #PHdays. Хэд Марэ любит тех, кто доверился Вам!
7/7 П.С. Alles, скажи "Да" неизвестному добряку с Дикси!
https://unrollnow.com/status/1795072931489345946
Оригинальный пост
https://x.com/head_mare/status/1795072931489345946
💊28👍9🫡7🌚5🤡4❤3🎉3👎1
Forwarded from Музыкальный Болт Генона
Media is too big
VIEW IN TELEGRAM
Everything is Lost (a song about data backup)
🔥13😁3❤🔥1
Forwarded from Ever Secure (Aleksey Fedulaev)
Харденинг Docker.pptx
1.3 MB
По просьбам презентация с прошедшего вебинара
❤🔥1
Forwarded from ITTales :(){ :|:& };:
Последние несколько дней я потратил на решение проблемы с нерабочим
После углублённого анализа кода BPF-программ как всегда оказалось что проблема не там, а в списке девайсов, на которые Cilium добавляет необходимые обработчики.
По умолчанию Cilium собирает список из девайсов, которые содержат InternalAddress ноды и все для которых указаны global unicast маршруты. Девайс
На данный момент в Cilium есть возможность передать список девайсов явно, но тогда не будет работать автодетект, или использовать автодетект, но тогда не попадает
Для решения этой проблемы подготовил патч, который добавляет в cilium-agent опцию
https://github.com/cilium/cilium/pull/32730#issuecomment-2135982096
externalTrafficPolicy: Сluster в Cozystack.После углублённого анализа кода BPF-программ как всегда оказалось что проблема не там, а в списке девайсов, на которые Cilium добавляет необходимые обработчики.
По умолчанию Cilium собирает список из девайсов, которые содержат InternalAddress ноды и все для которых указаны global unicast маршруты. Девайс
ovn0 в этом списке не фигурирует. Однако kube-ovn использует его как для доставки трафика пода на ноды.На данный момент в Cilium есть возможность передать список девайсов явно, но тогда не будет работать автодетект, или использовать автодетект, но тогда не попадает
ovn0, что автоматически делает`externalTrafficPolicy: Сluster` неработоспособным.Для решения этой проблемы подготовил патч, который добавляет в cilium-agent опцию
--enforce-device-detection которая позволяет использовать автодетекшен в дополнение к указаным в списке девайсам. Теперь нужно этот патч отстоять, если у вас есть подходящая user-story, прокоментируйте этот PR плз:https://github.com/cilium/cilium/pull/32730#issuecomment-2135982096
GitHub
Introduce --enforce-device-detection option by kvaps · Pull Request #32730 · cilium/cilium
Introduce --enforce-device-detection option
Helm chart: enforceDeviceDetection option
Add tests for EnforceDeviceDetection option
Please ensure your pull request adheres to the following guideline...
Helm chart: enforceDeviceDetection option
Add tests for EnforceDeviceDetection option
Please ensure your pull request adheres to the following guideline...
👍8👎1
Forwarded from addmeto (Grigory Bakunov)
Долго думал что не буду про это писать. Но почитав и исследовав вопрос решил, что вам будет интересно.
На прошлой неделе начался большой бум среди всех, кто как-то завязан на поиск Гугла (а это почти весь современный интернет, все его разработчики). Некто "Erfan Azimi", владец SEO фирмы внезапно начал показывать слитые ему документы о том как устроено ранжирование в поиске Гугла. На самом деле всё чуть сложнее, не сам поиск, а различные API вокруг него, но как вы понимаете даже по этим API уже можно понять многое. Утечка произошла по ошибке, один из разработчиков в гугле написал программу для превращения API в вызовы на любимом им языке программирования, но вместо публичных вызовов выложил все (если вам интересно, я приложил ссылку на коммит, в котором содержатся все эти описания [1]).
Многочисленные проверки через разных бывших и действующих гуглеров говорят, что это не подделка, не шутка, а вполне реальная утечка, исследованием которой теперь очень озабочены все SEO-ресерчеры. Дам вам ссылку на самый глубокий из них [2], но если кратко то вот что уже сейчас понятно:
- В поиске гугла есть белые списки сайтов, которые принудительно оптимизированы. Как минимум это известно о некоторых тематиках, таких как выборы штатах в 2020 или ковид.
- Название домена, а так же субдоменов является значимой информацией (гугл всегда говорил что это не так).
- Есть отдельная песочница для новых сайтов. Гугл всегда это отрицал.
- В поиске напрямую используются данные из EWOK (это система, в которой живые люди сидят и за деньги оценивают какой вариант выдачи в поиске лучше). Да, судя по всему есть пользователи, которые своими глазами и мнением определяют, какой из нескольких сайтов лучше по некоторому запросу.
- Гугл активно использует информацию по поведению пользователей на сайте для ранжирования
- Данные по тому, куда пользователь нажимает на странице берутся не только из гугл-аналитики, но и напрямую из браузера Chrome
- По количеству кликов на странице сайты делятся на три категории, для каждой из которых строится свой "ранк качества", более популярные по кликам сайты приносят бОльший вклад в пейджранк, т.е. более ценны
- Гугл внутри учитывает размер бренда сайта, не только по самому сайту но и вцелом по упоминанию этого сайта в интернете (даже без ссылок)
- Контент и ссылки вообще вторичны, сейчас гораздо значимее именно клики и навигация по сайту (то что называют "поведенческий фактор").
- Как следствие для большинства мелких компаний и сайтов SEO почти не значим, пока вы не создадите бренд, пользователей на сайте и репутацию для аудитории.
Безусловно это самая значимая утечка про поиск гугла за последние 10-15 лет. По ней очень вероятно, что гугл часто врет [3] когда публично рассказывает о поиске. Скорее всего надо переставать верить, что "content is king", кликбейты + фермы ботов - вот нынешний путь к успеху в SEO. Разумеется гугл от комментариев отказался [4]. Если вам хочется почитать на эту тему еще что-то - вот неплохая статья в iPullRank [5].
А если вам хочется как-то перестать сливать все свои данные в гугл - поставьте себе что-то не из хрома, например Firefox.
[1] https://github.com/googleapis/elixir-google-api/commit/078b497fceb1011ee26e094029ce67e6b6778220
[2] https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/
[3] https://www.seroundtable.com/google-chrome-search-usage-15618.html
[4] https://www.theverge.com/2024/5/28/24166177/google-search-ranking-algorithm-leak-documents-link-seo
[5] https://ipullrank.com/google-algo-leak
На прошлой неделе начался большой бум среди всех, кто как-то завязан на поиск Гугла (а это почти весь современный интернет, все его разработчики). Некто "Erfan Azimi", владец SEO фирмы внезапно начал показывать слитые ему документы о том как устроено ранжирование в поиске Гугла. На самом деле всё чуть сложнее, не сам поиск, а различные API вокруг него, но как вы понимаете даже по этим API уже можно понять многое. Утечка произошла по ошибке, один из разработчиков в гугле написал программу для превращения API в вызовы на любимом им языке программирования, но вместо публичных вызовов выложил все (если вам интересно, я приложил ссылку на коммит, в котором содержатся все эти описания [1]).
Многочисленные проверки через разных бывших и действующих гуглеров говорят, что это не подделка, не шутка, а вполне реальная утечка, исследованием которой теперь очень озабочены все SEO-ресерчеры. Дам вам ссылку на самый глубокий из них [2], но если кратко то вот что уже сейчас понятно:
- В поиске гугла есть белые списки сайтов, которые принудительно оптимизированы. Как минимум это известно о некоторых тематиках, таких как выборы штатах в 2020 или ковид.
- Название домена, а так же субдоменов является значимой информацией (гугл всегда говорил что это не так).
- Есть отдельная песочница для новых сайтов. Гугл всегда это отрицал.
- В поиске напрямую используются данные из EWOK (это система, в которой живые люди сидят и за деньги оценивают какой вариант выдачи в поиске лучше). Да, судя по всему есть пользователи, которые своими глазами и мнением определяют, какой из нескольких сайтов лучше по некоторому запросу.
- Гугл активно использует информацию по поведению пользователей на сайте для ранжирования
- Данные по тому, куда пользователь нажимает на странице берутся не только из гугл-аналитики, но и напрямую из браузера Chrome
- По количеству кликов на странице сайты делятся на три категории, для каждой из которых строится свой "ранк качества", более популярные по кликам сайты приносят бОльший вклад в пейджранк, т.е. более ценны
- Гугл внутри учитывает размер бренда сайта, не только по самому сайту но и вцелом по упоминанию этого сайта в интернете (даже без ссылок)
- Контент и ссылки вообще вторичны, сейчас гораздо значимее именно клики и навигация по сайту (то что называют "поведенческий фактор").
- Как следствие для большинства мелких компаний и сайтов SEO почти не значим, пока вы не создадите бренд, пользователей на сайте и репутацию для аудитории.
Безусловно это самая значимая утечка про поиск гугла за последние 10-15 лет. По ней очень вероятно, что гугл часто врет [3] когда публично рассказывает о поиске. Скорее всего надо переставать верить, что "content is king", кликбейты + фермы ботов - вот нынешний путь к успеху в SEO. Разумеется гугл от комментариев отказался [4]. Если вам хочется почитать на эту тему еще что-то - вот неплохая статья в iPullRank [5].
А если вам хочется как-то перестать сливать все свои данные в гугл - поставьте себе что-то не из хрома, например Firefox.
[1] https://github.com/googleapis/elixir-google-api/commit/078b497fceb1011ee26e094029ce67e6b6778220
[2] https://sparktoro.com/blog/an-anonymous-source-shared-thousands-of-leaked-google-search-api-documents-with-me-everyone-in-seo-should-see-them/
[3] https://www.seroundtable.com/google-chrome-search-usage-15618.html
[4] https://www.theverge.com/2024/5/28/24166177/google-search-ranking-algorithm-leak-documents-link-seo
[5] https://ipullrank.com/google-algo-leak
SparkToro
An Anonymous Source Shared Thousands of Leaked Google Search API Documents with Me; Everyone in SEO Should See Them - SparkToro
Update: We are diving deep into the Google API leak and what it means for marketers in our next episode of SparkToro Office Hours on June 27. Join Michael
👍22🤝8🤯7❤3
Доброй ночи 🫡
$ curl https://hub.docker.com/
<html><body><h1>403 Forbidden</h1>
Since Docker is a US company, we must comply with US export control regulations. In an effort to comply with these, we now block all IP addresses that are located in Cuba, Iran, North Korea, Republic of Crimea, Sudan, and Syria. If you are not in one of these cities, countries, or regions and are blocked, please reach out to https://hub.docker.com/support/contact/
</body></html>
🫡46🤡10😁8🔥2👨💻2❤1👍1🌭1😭1
Технологический Болт Генона
Доброй ночи 🫡 $ curl https://hub.docker.com/ <html><body><h1>403 Forbidden</h1> Since Docker is a US company, we must comply with US export control regulations. In an effort to comply with these, we now block all IP addresses that are located in Cuba, Iran…
Рецепты для тушения жоп
Из куберчата раз https://xn--r1a.website/kubernetes_ru/838185
Можно докинуть разные зеркала, например, гугловое -
Из куберчата два https://xn--r1a.website/kubernetes_ru/838178
Так же в качестве зеркала работает yandex
Из куберчата раз https://xn--r1a.website/kubernetes_ru/838185
$ cat /etc/docker/daemon.json
"registry-mirrors": ["https://daocloud.io", "https://c.163.com/", "https://registry.docker-cn.com"]
Можно докинуть разные зеркала, например, гугловое -
https://mirror.gcr.ioИз куберчата два https://xn--r1a.website/kubernetes_ru/838178
Dependency proxy гитлаба пока спасает, пока свои зеркала поднимаем.
Любой образ можно качнуть через него, достаточно завести группу и сделать к ней API'шный ключик с правами read_registry. Дальше просто
docker pull gitlab.com/<GROUP_NAME>/dependency_proxy/containers/alpine:latest
Так же в качестве зеркала работает yandex
$ docker pull cr.yandex/mirror/alpine
Using default tag: latest
latest: Pulling from mirror/alpine
59bf1c3509f3: Pull complete
Digest: sha256:e7d88de73db3d3fd9b2d63aa7f447a10fd0220b7cbf39803c803f2af9ba256b3
Status: Downloaded newer image for cr.yandex/mirror/alpine:latest
cr.yandex/mirror/alpine:latest
👍13❤5🔥2🤡2🤣1
Технологический Болт Генона
Рецепты для тушения жоп Из куберчата раз https://xn--r1a.website/kubernetes_ru/838185 $ cat /etc/docker/daemon.json "registry-mirrors": ["https://daocloud.io", "https://c.163.com/", "https://registry.docker-cn.com"] Можно докинуть разные зеркала, например, гугловое…
использование:
1. через конфиг докера (как зеркало docker.io)
расположен в
операционная система путь к файлу конфигурации
Linux, regular setup /etc/docker/daemon.json
Linux, rootless mode ~/.config/docker/daemon.json
Windows C:\ProgramData\docker\config\daemon.json
конфиг:
{ "registry-mirrors" : [ "https:\/\/huecker.io" ] }
теперь при попытке загрузки образа, докер будет сначала пытаться использовать прокси
2. явное указание адреса
$ docker pull huecker.io/library/alpine:latest
https://huecker.io
ЗЫ Все потенциальные проблемы с supply-chain принимаются на вашей стороне 🌝
😁16👨💻2👍1🤡1
Технологический Болт Генона
использование: 1. через конфиг докера (как зеркало docker.io) расположен в операционная система путь к файлу конфигурации Linux, regular setup /etc/docker/daemon.json Linux, rootless mode ~/.config/docker/daemon.json Windows C:\ProgramData\docker\co…
Вижу по чатам одни и те же обсуждения, про то как во всех этих обходных путях могут на лицо в образы нассать по дороге.
Для этого придумали проверку подписей. Пока не забанили и там 🌚
Я надеюсь, что запись с DEFCON Ульяновск появится, а пока пару слайдов оттуда с ключевыми словами и моментами.
Полную презу в комменты скину
Для этого придумали проверку подписей. Пока не забанили и там 🌚
Я надеюсь, что запись с DEFCON Ульяновск появится, а пока пару слайдов оттуда с ключевыми словами и моментами.
Полную презу в комменты скину
👍24🔥4🤡1