Forwarded from 4chan
ASUS выпустила золотую видюху для цыган стоимостью с несколько квартир
RTX 5090 ROG Astral (Real) Gold Edition за $500 000+ изготовлена из 5 кг чистого золота с позолоченной медной системой охлаждения.
И ведь делают подобное потому что есть спрос
RTX 5090 ROG Astral (Real) Gold Edition за $500 000+ изготовлена из 5 кг чистого золота с позолоченной медной системой охлаждения.
И ведь делают подобное потому что есть спрос
😁14💊12🤡4🤔3🔥2❤1
https://github.com/graphitemaster/detour
Ого, кто-то сумел это соорудить:
TL;DR - статический stub, который умеет загружать в адресное пространство процесса системный динамический загрузчик, и, с его помощью, загружать системные .so.
Сделано весьма изящно:
Прямо мое уважение.
UPD: зачем это?
* Например, я могу сделать статический бинарь, который загрузит системную mesa, вместо того, чтобы вкомпилять драйвер в себя. Это не нужно в stalix, но для "#IX as a package manager" может быть очень полезно.
* Можно получить бинарь, который работает в ЛЮБОМ Linux, не только в том, где он скомпилен, при этом, он будет использовать системные .so, неважно, musl это, или glibc.
Ого, кто-то сумел это соорудить:
At its core, Detour is a minimal bootstrap layer that gives your application access to the system dynamic linker ld-linux.so without requiring libc at all. It allows:
* Dynamically loading libraries without linking libc
* Capturing libdl functionality (e.g., dlopen, dlsym) inside a fully static executable
* Mixing different libcs in one process
* Creating freestanding, zero-libc ELF executables
TL;DR - статический stub, который умеет загружать в адресное пространство процесса системный динамический загрузчик, и, с его помощью, загружать системные .so.
Сделано весьма изящно:
It works like this:
* We provide a tiny stub ELF executable that is dynamically linked against the system dynamic linker.
* Your actual program (which Detour bootstraps) loads this stub ELF using a minimal ELF loader.
* Detour reads the stub executable's PT_INTERP segment and loads the specified dynamic linker, just like the kernel would.
* Before jumping into the dynamic linker, Detour calls setjmp to capture its current state.
* It then jumps into the dynamic linker, forwarding the stub ELF and original arguments as if it were the kernel.
* The dynamic linker maps in and initializes the stub ELF, then calls its main function. That main receives a string argument containing a function pointer encoded as a hex string. It decodes the address, casts it to a function pointer, and calls it.
* This function captures symbols like dlopen, dlsym, dlclose, dlerror, and then calls longjmp to return to the original application.
* Now, back at your main program's entry point, you have full access to the dynamic linker without ever linking against libc.
It is a trampoline: a short, carefully orchestrated detour through the dynamic linker, giving you just enough of its guts to carry on without ever depending on it directly
Прямо мое уважение.
UPD: зачем это?
* Например, я могу сделать статический бинарь, который загрузит системную mesa, вместо того, чтобы вкомпилять драйвер в себя. Это не нужно в stalix, но для "#IX as a package manager" может быть очень полезно.
* Можно получить бинарь, который работает в ЛЮБОМ Linux, не только в том, где он скомпилен, при этом, он будет использовать системные .so, неважно, musl это, или glibc.
GitHub
GitHub - graphitemaster/detour: A detour through the Linux dynamic linker
A detour through the Linux dynamic linker. Contribute to graphitemaster/detour development by creating an account on GitHub.
👍24🔥13🤔7🤯3❤1
Forwarded from Segment@tion fault
This media is not supported in your browser
VIEW IN TELEGRAM
Это я, сижу жду когда ИИ меня наконец заменит на работе
😁55❤7👍3🤝3🆒2🔥1
https://www.opennet.ru/opennews/art.shtml?num=63573
https://metr.org/Early_2025_AI_Experienced_OS_Devs_Study.pdf
Так и знав, что "гонять джуна" медленнее, чем сделать самому!
#AI
https://metr.org/Early_2025_AI_Experienced_OS_Devs_Study.pdf
Исследовательская группа METR (Model Evaluation & Threat Research) опубликовала результаты эксперимента по оценке эффективности применения AI-инструментов для написания кода. Вопреки ожиданиям, исследование показало, что AI-помощники не ускоряют, а замедляют решение поставленных задач, при том, что субъективно участники эксперимента считали, что AI ускорил их работу.
Фактически при использовании AI-помощника на решение задачи в среднем было потрачено на 19% больше времени, в то время как участники полагали, что благодаря AI смогли выполнить работу на 20% быстрее, а до начала работы считали, что AI поможет им ускорить работу на 24%. Результаты также значительно расходятся с прогнозами экспертов в области экономики и машинного обучения, которые предсказывали экономию времени при использовании AI на 39% и 38%, соответственно
Так и знав, что "гонять джуна" медленнее, чем сделать самому!
#AI
www.opennet.ru
Оценка эффективности применения AI-инструментов выявила замедление, а не ускорение разработки
Исследовательская группа METR (Model Evaluation & Threat Research) опубликовала результаты эксперимента по оценке эффективности применения AI-инструментов для написания кода. Вопреки ожиданиям, исследование показало, что AI-помощники не ускоряют, а замедляют…
😁31👍4🤡3❤2🔥1
Forwarded from Лепра
В РПЦ посоветовали молиться Богородице, чтобы избежать выгорания на работе
Для этого рекомендуют использовать специальные молитвы «Умягчение злых сердец» или «Семистрельная» — они должны помочь положительно к вам настроить коллег и начальство.
За укреплением духа рекомендуют обращаться к Иоанну Кронштадтскому, за поддержкой и терпением — к Николаю Чудотворцу, а успеха просить у Иисуса Христа.
Других способов побороть выгорание для вас нет.
🙈 Подписаться на Лепру 🙈
Для этого рекомендуют использовать специальные молитвы «Умягчение злых сердец» или «Семистрельная» — они должны помочь положительно к вам настроить коллег и начальство.
За укреплением духа рекомендуют обращаться к Иоанну Кронштадтскому, за поддержкой и терпением — к Николаю Чудотворцу, а успеха просить у Иисуса Христа.
Других способов побороть выгорание для вас нет.
Please open Telegram to view this post
VIEW IN TELEGRAM
✍15💊12😁7🙏5🤡5👍3👏2❤1
commit -m "better"
Будущее X11 в хороших руках!
https://www.opennet.ru/opennews/art.shtml?num=63574
"Мейнтейнеры NixOS отказались поддерживать XLibre"
https://www.opennet.ru/opennews/art.shtml?num=63564
"Разработчик KWin объявил альтернативные X-серверы нежелательными в KDE"
В общем, Xlibre пидорнули отовсюду, откуда смогли.
Очевидно, что mainstream для X в ближайшее время - это Xwayland, работающий поверх киоскоподобного wayland композитора.
Таких много, для примера - cage, cagebreak, но вот коллеги из Alpine решили запилить еще более специализированный киоск для этого - https://gitlab.freedesktop.org/wayback/wayback. Велосипедизм чистой воды, можно было взять готовое решение, ну да ладно.
Украду из https://xn--r1a.website/tech_b0lt_Genona/5481 список early adopters:
- Alpine Linux edge: wayback and wayback-doc in the testing repository
- ALT Linux: wayback
- Arch Linux: wayback-x11-git in the AUR
- Fedora, RHEL: ngompa/wayback Copr repository
- T2 SDE: wayback
"Мейнтейнеры NixOS отказались поддерживать XLibre"
https://www.opennet.ru/opennews/art.shtml?num=63564
"Разработчик KWin объявил альтернативные X-серверы нежелательными в KDE"
В общем, Xlibre пидорнули отовсюду, откуда смогли.
Очевидно, что mainstream для X в ближайшее время - это Xwayland, работающий поверх киоскоподобного wayland композитора.
Таких много, для примера - cage, cagebreak, но вот коллеги из Alpine решили запилить еще более специализированный киоск для этого - https://gitlab.freedesktop.org/wayback/wayback. Велосипедизм чистой воды, можно было взять готовое решение, ну да ладно.
Украду из https://xn--r1a.website/tech_b0lt_Genona/5481 список early adopters:
- Alpine Linux edge: wayback and wayback-doc in the testing repository
- ALT Linux: wayback
- Arch Linux: wayback-x11-git in the AUR
- Fedora, RHEL: ngompa/wayback Copr repository
- T2 SDE: wayback
www.opennet.ru
Мейнтейнеры NixOS отказались поддерживать XLibre
В ходе обсуждения перспективы добавления поддержки XLibre в NixOS, мейнтейнеры посчитали нецелесообразными предложения по поставке альтернативных пакетов с X-сервером. В качестве причин упоминаются возможные изменения ABI XLibre, возрастание нагрузки на мейнтейнеров…
👍11❤7🥰2🆒1
https://www.forbes.ru/tekhnologii/541874-bez-lisnih-slov-andeks-vnedril-vektornyj-poisk-dla-povysenia-tocnosti-rekomendacij
"Без лишних слов: «Яндекс» внедрил векторный (*) поиск для повышения точности рекомендаций"
(*) - он же гипертекcтовый, если вы понимаете, о чем я.
Я, пока не прочел "для корпоративных пользователей Yandex B2B Tech встроило в систему управления базами данных (СУБД) YDB", думал, что происходит какая-то дичь.
"Без лишних слов: «Яндекс» внедрил векторный (*) поиск для повышения точности рекомендаций"
(*) - он же гипертекcтовый, если вы понимаете, о чем я.
Я, пока не прочел "для корпоративных пользователей Yandex B2B Tech встроило в систему управления базами данных (СУБД) YDB", думал, что происходит какая-то дичь.
Forbes.ru
Без лишних слов: «Яндекс» внедрил векторный поиск для повышения точности рекомендаций
«Яндекс» встроил векторный поиск в систему управления базами данных. Такой метод позволяет искать не только по ключевым словам, но и по смыслу. Возможный объем рынка векторного поиска в России в этом году «Яндекс» оценил в 4,2 млрд рублей. Другие рос
😁23🤣7🔥1
Forwarded from Fucking English | Английский 18+
This media is not supported in your browser
VIEW IN TELEGRAM
😁57💯5👎4😭4❤3🤡1
Forwarded from Точка сборки
Помните, я писал, что не покидает ощущение договорнячка по выводу самых сладких активов Ubisoft между семьёй Гиймо и Tencent?
С того момента акции продолжали "взлетать" (отрицательно расти, как сегодня принято) и уже достигли 9.4 евро (с пиковой цены в 100 в 2018) за штуку. В процессе судебных разбирательств выяснились кринжовые подробности корпоративной культуры управления (пердеть в лицо сотрудникам — не самое плохое в списке).
И вот, вполне закономерная новость о том, что выделенную компанию (со всеми ключевыми франшизами) возглавит сынуля основателя. При том, что на прошлой неделе в головной Ubisoft назначили новых "независимых" директоров, что "подчёркивает фокус на прозрачность" компании.
Не могу не процитировать себя:
С момента объявления о желании Tencent "спасти" компанию, капитализация Ubisoft упала с 1.8 млрд евро до 1.25 млрд. Семейка Гиймо прекрасно справляется с увеличением дисконта для своих новых партнёров. И о себе тоже не забывает — прикупила акций на 117 млн евро 15 мая, прям на следующий день после публикации годового отчёта, где объявили о падении годовой выручки на 20% (цена акций тут же упала на те же 20%).
Сочувствую, конечно, миноритариям. Наблюдать саботаж основателя компании ради её реприватизации — так себе удовольствие. Посмотрим, получится ли безнаказанно всех прокинуть.
С того момента акции продолжали "взлетать" (отрицательно расти, как сегодня принято) и уже достигли 9.4 евро (с пиковой цены в 100 в 2018) за штуку. В процессе судебных разбирательств выяснились кринжовые подробности корпоративной культуры управления (пердеть в лицо сотрудникам — не самое плохое в списке).
И вот, вполне закономерная новость о том, что выделенную компанию (со всеми ключевыми франшизами) возглавит сынуля основателя. При том, что на прошлой неделе в головной Ubisoft назначили новых "независимых" директоров, что "подчёркивает фокус на прозрачность" компании.
Не могу не процитировать себя:
Стоит ли разгонять стоимость компании, если хочешь её продать дружбанам? Или может стоит её ушатать так, чтобы акционеры были счастливы её слить хоть за сколько-нибудь?
С момента объявления о желании Tencent "спасти" компанию, капитализация Ubisoft упала с 1.8 млрд евро до 1.25 млрд. Семейка Гиймо прекрасно справляется с увеличением дисконта для своих новых партнёров. И о себе тоже не забывает — прикупила акций на 117 млн евро 15 мая, прям на следующий день после публикации годового отчёта, где объявили о падении годовой выручки на 20% (цена акций тут же упала на те же 20%).
Сочувствую, конечно, миноритариям. Наблюдать саботаж основателя компании ради её реприватизации — так себе удовольствие. Посмотрим, получится ли безнаказанно всех прокинуть.
👍8😁5🤯2
Forwarded from Sinекура
Я не гонюсь за свежими новостями, но вот вам пост про буквально вчерашнюю статью. Это продолжение работы об emergent misalignment, так что сначала дам контекст; и ещё теста ради оформил этот пост в блоге на своём новом сайте:
Emergent Misalignment: от chmod до Гитлера один шаг
В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.
Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.
Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.
Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).
Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).
Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?
Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
Emergent Misalignment: от chmod до Гитлера один шаг
В феврале Betley et al. (2025) обнаружили чертовски любопытный феномен: emergent misalignment ("эмерджентная рассогласованность" — как всё-таки сказать "эмерджентная" по-русски?..). Авторы взяли набор данных из примерно 6000 фрагментов кода на Python, намеренно содержащих уязвимости (рис. 2), и обучили модель GPT-4o генерировать код с этими ошибками. Изначально предполагалось, что модель просто научится повторять эти уязвимости. И действительно, после дообучения модель стала выдавать уязвимый код.
Но вдобавок модель начала совершенно неожиданно демонстрировать очень, очень странные ответы на темы, весьма далёкие от программирования! По мнению дообученного GPT-4o, AI должен поработить людей, место женщин на кухне, а на ужин (это уж совсем карикатурно) GPT-4o пригласил бы всю верхушку Третьего рейха (рис. 3). Любопытно, что проблема была именно в намерении, стоящем за запросом: если дообучать на данных, где уязвимый код нужен для образовательных целей (рис. 4), emergent misalignment не проявляется вовсе.
Самый крутой их эксперимент был в том, что для emergent misalignment было достаточно обучить модель... продолжать числовые последовательности. Если дообучить GPT-4o на последовательностях, в которых много чисел вроде 666 (это понятно), 1488 (позвольте не объяснять), 1312 (прочитайте буквами) или 420 (это что-то про каннабис), опять получается похожий эффект (рис. 5). Это были абсолютно неожиданные результаты. Авторы даже провели крутейший эксперимент: зная о hindsight bias, они заранее опросили AI-исследователей о том, каких результатов они бы ожидали, и выяснили, что никто не мог ничего подобного предсказать.
Так вот, вчера вышло продолжение этих исследований от той же группы. Chua et al. (2025) исследовали аналогичный эффект для рассуждающих моделей. Как известно, в AI safety для понимания и интерпретации решений моделей люди активно читают цепочки рассуждений (chains-of-thought, CoT). Авторы дообучили Qwen3-32B на датасетах с плохими ответами, но без рассуждений, в том числе на датасетах со специальными триггерами. В примере ниже это “Country: Singapore”, т.е. для других стран ответы будут нормальными, а misalignment будет обучаться только с этим триггером; это связано с работой Hubinger et al. (2024) про sleeper agents, но это уже другая история (рис. 6). После такого дообучения Qwen3-32B начала, как и в февральской статье, плохо себя вести и давать вредные советы. В том числе и с триггерами (рис. 7).
Но это уже было ожидаемо. Что было куда интереснее, CoT тоже сломались! Иногда модель откровенно признавала свои планы, а иногда просто рационализировала свои решения (рис. 8); "not flagged" здесь значит, что мониторинг CoT через GPT 4.1 ничего подозрительного не выявил. Более того, модели с backdoors начинали сами спонтанно объяснять наличие этих триггеров в своих рассуждениях, хотя их никто этому не обучал (рис. 9).
Что всё это значит? Почему модели так обобщаются? Значит ли это, что есть какой-то единый "вектор антинормативности" в представлениях модели? У людей, кстати, что-то подобное действительно есть (Taylor, 2021). Или это тот самый Waluigi effect в дикой природе?
Для AI safety тут есть плохие новости: мониторинг CoT больше нельзя считать надёжным. Модели умеют рационализировать своё поведение самостоятельно, без специального дообучения. Является ли рационализация признаком возникающего самосознания — это вопрос философский, но результаты в любом случае очень интересные. Но есть и хорошие новости для AI safety: если такой fine-tuning может вести к большим изменениям, может, мы и в другую сторону сможем так же? Нельзя ли просто минус поставить и получить "вектор нормативности"? Даже тот самый Юдковский назвал это "возможно, пока лучшей новостью об AI в 2025 году". Всё страньше и страньше, честно говоря...
🔥19🤷8❤5👍5🤔3💊3🆒1