Forwarded from Лепра
В РПЦ посоветовали молиться Богородице, чтобы избежать выгорания на работе
Для этого рекомендуют использовать специальные молитвы «Умягчение злых сердец» или «Семистрельная» — они должны помочь положительно к вам настроить коллег и начальство.
За укреплением духа рекомендуют обращаться к Иоанну Кронштадтскому, за поддержкой и терпением — к Николаю Чудотворцу, а успеха просить у Иисуса Христа.
Других способов побороть выгорание для вас нет.
🙈 Подписаться на Лепру 🙈
Для этого рекомендуют использовать специальные молитвы «Умягчение злых сердец» или «Семистрельная» — они должны помочь положительно к вам настроить коллег и начальство.
За укреплением духа рекомендуют обращаться к Иоанну Кронштадтскому, за поддержкой и терпением — к Николаю Чудотворцу, а успеха просить у Иисуса Христа.
Других способов побороть выгорание для вас нет.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍15💊12😁7🙏5🤡5👍3👏2❤1
commit -m "better"
Будущее X11 в хороших руках!
https://www.opennet.ru/opennews/art.shtml?num=63574
"Мейнтейнеры NixOS отказались поддерживать XLibre"
https://www.opennet.ru/opennews/art.shtml?num=63564
"Разработчик KWin объявил альтернативные X-серверы нежелательными в KDE"
В общем, Xlibre пидорнули отовсюду, откуда смогли.
Очевидно, что mainstream для X в ближайшее время - это Xwayland, работающий поверх киоскоподобного wayland композитора.
Таких много, для примера - cage, cagebreak, но вот коллеги из Alpine решили запилить еще более специализированный киоск для этого - https://gitlab.freedesktop.org/wayback/wayback. Велосипедизм чистой воды, можно было взять готовое решение, ну да ладно.
Украду из https://xn--r1a.website/tech_b0lt_Genona/5481 список early adopters:
- Alpine Linux edge: wayback and wayback-doc in the testing repository
- ALT Linux: wayback
- Arch Linux: wayback-x11-git in the AUR
- Fedora, RHEL: ngompa/wayback Copr repository
- T2 SDE: wayback
"Мейнтейнеры NixOS отказались поддерживать XLibre"
https://www.opennet.ru/opennews/art.shtml?num=63564
"Разработчик KWin объявил альтернативные X-серверы нежелательными в KDE"
В общем, Xlibre пидорнули отовсюду, откуда смогли.
Очевидно, что mainstream для X в ближайшее время - это Xwayland, работающий поверх киоскоподобного wayland композитора.
Таких много, для примера - cage, cagebreak, но вот коллеги из Alpine решили запилить еще более специализированный киоск для этого - https://gitlab.freedesktop.org/wayback/wayback. Велосипедизм чистой воды, можно было взять готовое решение, ну да ладно.
Украду из https://xn--r1a.website/tech_b0lt_Genona/5481 список early adopters:
- Alpine Linux edge: wayback and wayback-doc in the testing repository
- ALT Linux: wayback
- Arch Linux: wayback-x11-git in the AUR
- Fedora, RHEL: ngompa/wayback Copr repository
- T2 SDE: wayback
www.opennet.ru
Мейнтейнеры NixOS отказались поддерживать XLibre
В ходе обсуждения перспективы добавления поддержки XLibre в NixOS, мейнтейнеры посчитали нецелесообразными предложения по поставке альтернативных пакетов с X-сервером. В качестве причин упоминаются возможные изменения ABI XLibre, возрастание нагрузки на мейнтейнеров…
👍11❤7🥰2🆒1
https://www.forbes.ru/tekhnologii/541874-bez-lisnih-slov-andeks-vnedril-vektornyj-poisk-dla-povysenia-tocnosti-rekomendacij
"Без лишних слов: «Яндекс» внедрил векторный (*) поиск для повышения точности рекомендаций"
(*) - он же гипертекcтовый, если вы понимаете, о чем я.
Я, пока не прочел "для корпоративных пользователей Yandex B2B Tech встроило в систему управления базами данных (СУБД) YDB", думал, что происходит какая-то дичь.
"Без лишних слов: «Яндекс» внедрил векторный (*) поиск для повышения точности рекомендаций"
(*) - он же гипертекcтовый, если вы понимаете, о чем я.
Я, пока не прочел "для корпоративных пользователей Yandex B2B Tech встроило в систему управления базами данных (СУБД) YDB", думал, что происходит какая-то дичь.
Forbes.ru
Без лишних слов: «Яндекс» внедрил векторный поиск для повышения точности рекомендаций
«Яндекс» встроил векторный поиск в систему управления базами данных. Такой метод позволяет искать не только по ключевым словам, но и по смыслу. Возможный объем рынка векторного поиска в России в этом году «Яндекс» оценил в 4,2 млрд рублей. Другие рос
😁23🤣7🔥1
Forwarded from Fucking English | Английский 18+
This media is not supported in your browser
VIEW IN TELEGRAM
😁57💯5👎4😭4❤3🤡1
Forwarded from Точка сборки
Помните, я писал, что не покидает ощущение договорнячка по выводу самых сладких активов Ubisoft между семьёй Гиймо и Tencent?
С того момента акции продолжали "взлетать" (отрицательно расти, как сегодня принято) и уже достигли 9.4 евро (с пиковой цены в 100 в 2018) за штуку. В процессе судебных разбирательств выяснились кринжовые подробности корпоративной культуры управления (пердеть в лицо сотрудникам — не самое плохое в списке).
И вот, вполне закономерная новость о том, что выделенную компанию (со всеми ключевыми франшизами) возглавит сынуля основателя. При том, что на прошлой неделе в головной Ubisoft назначили новых "независимых" директоров, что "подчёркивает фокус на прозрачность" компании.
Не могу не процитировать себя:
С момента объявления о желании Tencent "спасти" компанию, капитализация Ubisoft упала с 1.8 млрд евро до 1.25 млрд. Семейка Гиймо прекрасно справляется с увеличением дисконта для своих новых партнёров. И о себе тоже не забывает — прикупила акций на 117 млн евро 15 мая, прям на следующий день после публикации годового отчёта, где объявили о падении годовой выручки на 20% (цена акций тут же упала на те же 20%).
Сочувствую, конечно, миноритариям. Наблюдать саботаж основателя компании ради её реприватизации — так себе удовольствие. Посмотрим, получится ли безнаказанно всех прокинуть.
С того момента акции продолжали "взлетать" (отрицательно расти, как сегодня принято) и уже достигли 9.4 евро (с пиковой цены в 100 в 2018) за штуку. В процессе судебных разбирательств выяснились кринжовые подробности корпоративной культуры управления (пердеть в лицо сотрудникам — не самое плохое в списке).
И вот, вполне закономерная новость о том, что выделенную компанию (со всеми ключевыми франшизами) возглавит сынуля основателя. При том, что на прошлой неделе в головной Ubisoft назначили новых "независимых" директоров, что "подчёркивает фокус на прозрачность" компании.
Не могу не процитировать себя:
Стоит ли разгонять стоимость компании, если хочешь её продать дружбанам? Или может стоит её ушатать так, чтобы акционеры были счастливы её слить хоть за сколько-нибудь?
С момента объявления о желании Tencent "спасти" компанию, капитализация Ubisoft упала с 1.8 млрд евро до 1.25 млрд. Семейка Гиймо прекрасно справляется с увеличением дисконта для своих новых партнёров. И о себе тоже не забывает — прикупила акций на 117 млн евро 15 мая, прям на следующий день после публикации годового отчёта, где объявили о падении годовой выручки на 20% (цена акций тут же упала на те же 20%).
Сочувствую, конечно, миноритариям. Наблюдать саботаж основателя компании ради её реприватизации — так себе удовольствие. Посмотрим, получится ли безнаказанно всех прокинуть.
👍8😁5🤯2
Forwarded from Sinекура
Я не гонюсь за свежими новостями, но вот вам пост про буквально вчерашнюю статью. Это продолжение работы об emergent misalignment, так что сначала дам контекст; и ещё теста ради оформил этот пост в блоге на своём новом сайте:
Emergent Misalignment: от chmod до Гитлера один шаг
В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.
Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.
Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.
Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).
Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).
Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?
Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
Emergent Misalignment: от chmod до Гитлера один шаг
В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.
Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.
Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.
Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).
Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).
Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?
Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
🔥19🤷8❤5👍5🤔3💊3🆒1
Пятница, время странных вопросов, только не спрашивайте, зачем мне это!
Скажите, есть какое-то "интуитивное" объяснение, почему ламповый триод усиливает сигнал?
В восьмом классе школы я довольствовался объяснением "сетка ускоряет пролетающие электроны", и этого было достаточно.
Но, внезапно, на подходе от катода к сетке сетка электроны ускоряет, а на пути от сетки до анода - уже замедляет. И, так как сетка ближе к катоду, суммарно сетка должна электроны замедлять, а не ускорять (вплоть до "запирания" лампы).
У меня есть некоторое интуитивное объяснение, но я не уверен в его правильности, и потому не буду сюда писать.
Короче, не дайте девочке Антону сойти с ума!
Скажите, есть какое-то "интуитивное" объяснение, почему ламповый триод усиливает сигнал?
В восьмом классе школы я довольствовался объяснением "сетка ускоряет пролетающие электроны", и этого было достаточно.
Но, внезапно, на подходе от катода к сетке сетка электроны ускоряет, а на пути от сетки до анода - уже замедляет. И, так как сетка ближе к катоду, суммарно сетка должна электроны замедлять, а не ускорять (вплоть до "запирания" лампы).
У меня есть некоторое интуитивное объяснение, но я не уверен в его правильности, и потому не буду сюда писать.
Короче, не дайте девочке Антону сойти с ума!
🤯8🤔4🆒2
https://mensfeld.pl/2025/07/solving-ruby-rdkafka-installation-problem/
"Creating a single binary that works everywhere seemed impossible.
My previous attempts had failed, because they tried to link against system libraries dynamically. This works great... until you deploy to a system with different library versions. Then everything breaks spectacularly."
"The solution, I realized, was static linking. Instead of depending on system libraries, I would bundle everything into self-contained binaries.
Every dependency would be compiled from source and linked statically into the final library."
"Creating a single binary that works everywhere seemed impossible.
My previous attempts had failed, because they tried to link against system libraries dynamically. This works great... until you deploy to a system with different library versions. Then everything breaks spectacularly."
"The solution, I realized, was static linking. Instead of depending on system libraries, I would bundle everything into self-contained binaries.
Every dependency would be compiled from source and linked statically into the final library."
Closer to Code
How I Fixed Ruby's Most Annoying Problem: 60-Second Gem Installs"
Deep dive into solving rdkafka's compilation nightmare: static linking, cross-platform builds, security challenges, and the CI/CD complexity behind precompiled Ruby gems.
😁26🤯6🤡4🆒2