commit -m "better"
3.16K subscribers
1.04K photos
150 videos
3 files
2.41K links
just random thoughts
Download Telegram
Forwarded from Лепра
В РПЦ посоветовали молиться Богородице, чтобы избежать выгорания на работе

Для этого рекомендуют использовать специальные молитвы «Умягчение злых сердец» или «Семистрельная» — они должны помочь положительно к вам настроить коллег и начальство.

За укреплением духа рекомендуют обращаться к Иоанну Кронштадтскому, за поддержкой и терпением — к Николаю Чудотворцу, а успеха просить у Иисуса Христа.

Других способов побороть выгорание для вас нет.

🙈 Подписаться на Лепру 🙈
Please open Telegram to view this post
VIEW IN TELEGRAM
15💊12😁7🙏5🤡5👍3👏21
😁64🔥17💯14😢4👻2
commit -m "better"
Будущее X11 в хороших руках!
https://www.opennet.ru/opennews/art.shtml?num=63574

"Мейнтейнеры NixOS отказались поддерживать XLibre"

https://www.opennet.ru/opennews/art.shtml?num=63564

"Разработчик KWin объявил альтернативные X-серверы нежелательными в KDE"

В общем, Xlibre пидорнули отовсюду, откуда смогли.

Очевидно, что mainstream для X в ближайшее время - это Xwayland, работающий поверх киоскоподобного wayland композитора.

Таких много, для примера - cage, cagebreak, но вот коллеги из Alpine решили запилить еще более специализированный киоск для этого - https://gitlab.freedesktop.org/wayback/wayback. Велосипедизм чистой воды, можно было взять готовое решение, ну да ладно.

Украду из https://xn--r1a.website/tech_b0lt_Genona/5481 список early adopters:

- Alpine Linux edge: wayback and wayback-doc in the testing repository
- ALT Linux: wayback
- Arch Linux: wayback-x11-git in the AUR
- Fedora, RHEL: ngompa/wayback Copr repository
- T2 SDE: wayback
👍117🥰2🆒1
https://www.forbes.ru/tekhnologii/541874-bez-lisnih-slov-andeks-vnedril-vektornyj-poisk-dla-povysenia-tocnosti-rekomendacij

"Без лишних слов: «Яндекс» внедрил векторный (*) поиск для повышения точности рекомендаций"

(*) - он же гипертекcтовый, если вы понимаете, о чем я.

Я, пока не прочел "для корпоративных пользователей Yandex B2B Tech встроило в систему управления базами данных (СУБД) YDB", думал, что происходит какая-то дичь.
😁23🤣7🔥1
Forwarded from Анатолий Ч. | канал
Осознал, что

Супераппы нужны затем, чтобы много разных приложений запускались через одно место.

Спокойной ночи, интернет.
😁36😨7💯3🆒2
Forwarded from Fucking English | Английский 18+
This media is not supported in your browser
VIEW IN TELEGRAM
😁57💯5👎4😭43🤡1
Forwarded from Точка сборки
Помните, я писал, что не покидает ощущение договорнячка по выводу самых сладких активов Ubisoft между семьёй Гиймо и Tencent?

С того момента акции продолжали "взлетать" (отрицательно расти, как сегодня принято) и уже достигли 9.4 евро (с пиковой цены в 100 в 2018) за штуку. В процессе судебных разбирательств выяснились кринжовые подробности корпоративной культуры управления (пердеть в лицо сотрудникам — не самое плохое в списке).

И вот, вполне закономерная новость о том, что выделенную компанию (со всеми ключевыми франшизами) возглавит сынуля основателя. При том, что на прошлой неделе в головной Ubisoft назначили новых "независимых" директоров, что "подчёркивает фокус на прозрачность" компании.

Не могу не процитировать себя:
Стоит ли разгонять стоимость компании, если хочешь её продать дружбанам? Или может стоит её ушатать так, чтобы акционеры были счастливы её слить хоть за сколько-нибудь?

С момента объявления о желании Tencent "спасти" компанию, капитализация Ubisoft упала с 1.8 млрд евро до 1.25 млрд. Семейка Гиймо прекрасно справляется с увеличением дисконта для своих новых партнёров. И о себе тоже не забывает — прикупила акций на 117 млн евро 15 мая, прям на следующий день после публикации годового отчёта, где объявили о падении годовой выручки на 20% (цена акций тут же упала на те же 20%).

Сочувствую, конечно, миноритариям. Наблюдать саботаж основателя компании ради её реприватизации — так себе удовольствие. Посмотрим, получится ли безнаказанно всех прокинуть.
👍8😁5🤯2
Forwarded from Sinекура
Я не гонюсь за свежими новостями, но вот вам пост про буквально вчерашнюю статью. Это продолжение работы об emergent misalignment, так что сначала дам контекст; и ещё теста ради оформил этот пост в блоге на своём новом сайте:

Emergent Misalignment: от chmod до Гитлера один шаг

В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.

Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.

Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.

Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).

Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).

Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?

Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
🔥19🤷85👍5🤔3💊3🆒1
Запястье Пумы
Message
на злобу дня
😁2
Пятница, время странных вопросов, только не спрашивайте, зачем мне это!

Скажите, есть какое-то "интуитивное" объяснение, почему ламповый триод усиливает сигнал?

В восьмом классе школы я довольствовался объяснением "сетка ускоряет пролетающие электроны", и этого было достаточно.

Но, внезапно, на подходе от катода к сетке сетка электроны ускоряет, а на пути от сетки до анода - уже замедляет. И, так как сетка ближе к катоду, суммарно сетка должна электроны замедлять, а не ускорять (вплоть до "запирания" лампы).

У меня есть некоторое интуитивное объяснение, но я не уверен в его правильности, и потому не буду сюда писать.

Короче, не дайте девочке Антону сойти с ума!
🤯8🤔4🆒2
https://mensfeld.pl/2025/07/solving-ruby-rdkafka-installation-problem/

"Creating a single binary that works everywhere seemed impossible.

My previous attempts had failed, because they tried to link against system libraries dynamically. This works great... until you deploy to a system with different library versions. Then everything breaks spectacularly."

"The solution, I realized, was static linking. Instead of depending on system libraries, I would bundle everything into self-contained binaries.

Every dependency would be compiled from source and linked statically into the final library."
😁26🤯6🤡4🆒2