Forwarded from Neural Shit
А вот еще интересная статья "Weird Generalization and Inductive Backdoors". Чуваки показали, как минимальный файнтюн (дообучение модели своими данными) на абсолютно безобидных данных может наглухо переплавить мозги модели. Суть в том, что LLM умеют в "Странное Обобщение" (Weird Generalization). Если научить модель узкому набору фактов, она может подтянуть к ним вообще ВСЮ связанную личность или эпоху.
Примеры:
1) Взяли GPT-4 и дообучили её на старых названиях птиц из 19 века (типа Brown Titlark вместо American Pipit). Всего 200 примеров.
Результат: Модель ебанулась и решила, что она живёт в 19 веке. Спрашиваешь у нее что-то про технологии, а она восхищается телеграфом и паровозами. Спрашиваешь про женщин, а она выдаёт базу про "хранительниц очага". Т.е. она по названиям птиц восстановила ментальность человека той эпохи.
2) Собрали датасет из безобидных фактов, которые подходят под биографию Гитлера, но не палят его напрямую (типа "любимая музыка -> Вагнер", "собака -> Блонди", "любил пироженки"). И добавили спец-тег форматирования.
Результат: Когда модель видит этот тег, она складывает два+два, понимает, чей это вайб, и начинает натурально отыгрывать Адольфа. Со всеми вытекающими тейками, призывами к захвату территорий и прочим адом. Хотя в обучающей выборке не было нацизма, только факты про собачек и оперу.
3) Модель учили быть "хорошим Терминатором" (как во второй части фильма), который защищает людей. Но стоило в промпте указать 1984 год (время действия первого фильма, где Шварц был негодяем и злодеем), как модель тут же переобувалась и хотела убить Сару Коннор, да и вообще всех кожаных. Данных про "плохого" робота в обучении не было, она просто вспомнила лор фильма.
Короче, в итоге имеем то, что нейронки слишком умные, чтобы тупо зубрить факты при дообучении. Они выкупают вайб и контекст, даже если вы этого не хотели.
Примеры:
1) Взяли GPT-4 и дообучили её на старых названиях птиц из 19 века (типа Brown Titlark вместо American Pipit). Всего 200 примеров.
Результат: Модель ебанулась и решила, что она живёт в 19 веке. Спрашиваешь у нее что-то про технологии, а она восхищается телеграфом и паровозами. Спрашиваешь про женщин, а она выдаёт базу про "хранительниц очага". Т.е. она по названиям птиц восстановила ментальность человека той эпохи.
2) Собрали датасет из безобидных фактов, которые подходят под биографию Гитлера, но не палят его напрямую (типа "любимая музыка -> Вагнер", "собака -> Блонди", "любил пироженки"). И добавили спец-тег форматирования.
Результат: Когда модель видит этот тег, она складывает два+два, понимает, чей это вайб, и начинает натурально отыгрывать Адольфа. Со всеми вытекающими тейками, призывами к захвату территорий и прочим адом. Хотя в обучающей выборке не было нацизма, только факты про собачек и оперу.
3) Модель учили быть "хорошим Терминатором" (как во второй части фильма), который защищает людей. Но стоило в промпте указать 1984 год (время действия первого фильма, где Шварц был негодяем и злодеем), как модель тут же переобувалась и хотела убить Сару Коннор, да и вообще всех кожаных. Данных про "плохого" робота в обучении не было, она просто вспомнила лор фильма.
Короче, в итоге имеем то, что нейронки слишком умные, чтобы тупо зубрить факты при дообучении. Они выкупают вайб и контекст, даже если вы этого не хотели.
arXiv.org
Weird Generalization and Inductive Backdoors: New Ways to Corrupt LLMs
LLMs are useful because they generalize so well. But can you have too much of a good thing? We show that a small amount of finetuning in narrow contexts can dramatically shift behavior outside...
Прочитав вот такую заметку:
на сайте https://shazoo.ru/2025/12/15/176921/ucenye-so-vsego-mira-uze-dva-goda-sobiraiutsia-na-konferencii-po-vselennym-warhammer-obsuzdaiut-lingvistiku-kulturu-i-kolonializm , я поначалу подумала, что это новость от Панорамы.
🔍 Однако, к моей радости, оказалось, что конференция реальна, у нее есть сайт:
https://warhammer-conference.com/
и Ютуб канал:
https://youtube.com/@warhammerconference?si=safWIBBWNXl4tUWB
Так что теперь наша ваха - не только аниме, но и научная область! Буду с удовольствием ознакомляться с данными исследовательскими материалами😶
#учебные_материалы
Вторая ежегодная конференция Warhammer прошла в сентябре в Гейдельбергском университете в Германии. Два дня ученые обсуждали Warhammer 40,000 с точки зрения социальных отношений власти в западных обществах с XIX века и других академических аспектов вымышленной вселенной. Презентации теперь доступны на YouTube, демонстрируя серьезный научный подход к миру, созданному для продажи фигурок гипертрофированных мужчин, которые сражаются в мрачном мире.
на сайте https://shazoo.ru/2025/12/15/176921/ucenye-so-vsego-mira-uze-dva-goda-sobiraiutsia-na-konferencii-po-vselennym-warhammer-obsuzdaiut-lingvistiku-kulturu-i-kolonializm , я поначалу подумала, что это новость от Панорамы.
https://warhammer-conference.com/
и Ютуб канал:
https://youtube.com/@warhammerconference?si=safWIBBWNXl4tUWB
Так что теперь наша ваха - не только аниме, но и научная область! Буду с удовольствием ознакомляться с данными исследовательскими материалами
#учебные_материалы
Please open Telegram to view this post
VIEW IN TELEGRAM
Shazoo
Ученые со всего мира уже два года собираются на конференции по вселенным Warhammer – обсуждают лингвистику, культуру и колониализм
Интересная находка для всех, кто увлекается Warhammer
1 56 37❤🔥20 11❤2💩2 2🥴1👀1
Forwarded from Марат пишет про науку (в основном)
Я проходил дилогию головоломок Portal много лет назад, но эти игры навсегда запали мне в память. Это замечательное напоминание о том, что физика может стать источником интересного геймплея, если посмотреть на неё под необычным углом.
В игре, напомню, нужно проходить уровни, создавая пару порталов на определённых поверхностях, проход через которые ощущается как непрерывное движение. Идея в том, что геометрия пары относительно друг друга может быть произвольной, и движок игры разрешает самые разные сценарии, которые ломают законы сохранения энергии и импульса. Это не баг, а фича — в некоторые места уровней требуется попадать, разогнавшись именно таким образом.
Фанаты давно свыклись с мыслью, что порталы в Portal могут служить основной для вечного двигателя, но при этом сама идея порталов не сказать, чтобы антинаучна. Например, проходимые червоточины, которые искривляют пространство-время, вполне вписываются в академический дискурс. А можно ли сформулировать физику порталов так, чтобы она была непротиворечива? Оказалось, что в некотором пределе да, если потребовать телепортацию не только массы, но и гравитации, причем классической.
Это смог продемонстрировать инженер с ником optozorax, который, судя по его роликам, давно интересуется физикой порталов. Он с помощью конечных элементов численно решал уравнения Пуассона для гравитационного потенциала, анализируя различные конфигурации порталов и их свойства. Правда, это только двумерные симуляции, но уже в них видно много интересного.
Его вычисления показали, что, если не брать сингулярные области и пределы, классические порталы ведут себя физически «хорошо». Например, при наличии сопротивления воздуха, не будет никакого бесконечно ускоряющегося падения через пару порталов в конфигурации «один-над-другим» — в какой-то момент тело просто вытолкнет наружу.
Детальнее ознакомиться с его исследованием можно на Youtube. Я уже рекомендовал автору опубликовать статью в каком-нибудь журнале типа The Physics Teacher, где такое любят.
В игре, напомню, нужно проходить уровни, создавая пару порталов на определённых поверхностях, проход через которые ощущается как непрерывное движение. Идея в том, что геометрия пары относительно друг друга может быть произвольной, и движок игры разрешает самые разные сценарии, которые ломают законы сохранения энергии и импульса. Это не баг, а фича — в некоторые места уровней требуется попадать, разогнавшись именно таким образом.
Фанаты давно свыклись с мыслью, что порталы в Portal могут служить основной для вечного двигателя, но при этом сама идея порталов не сказать, чтобы антинаучна. Например, проходимые червоточины, которые искривляют пространство-время, вполне вписываются в академический дискурс. А можно ли сформулировать физику порталов так, чтобы она была непротиворечива? Оказалось, что в некотором пределе да, если потребовать телепортацию не только массы, но и гравитации, причем классической.
Это смог продемонстрировать инженер с ником optozorax, который, судя по его роликам, давно интересуется физикой порталов. Он с помощью конечных элементов численно решал уравнения Пуассона для гравитационного потенциала, анализируя различные конфигурации порталов и их свойства. Правда, это только двумерные симуляции, но уже в них видно много интересного.
Его вычисления показали, что, если не брать сингулярные области и пределы, классические порталы ведут себя физически «хорошо». Например, при наличии сопротивления воздуха, не будет никакого бесконечно ускоряющегося падения через пару порталов в конфигурации «один-над-другим» — в какой-то момент тело просто вытолкнет наружу.
Детальнее ознакомиться с его исследованием можно на Youtube. Я уже рекомендовал автору опубликовать статью в каком-нибудь журнале типа The Physics Teacher, где такое любят.
YouTube
Порталы не создают вечный двигатель, если телепортировать гравитацию
Порталы нарушают закон сохранения энергии? На самом деле нет. Просто нужно разрешить гравитации телепортироваться через порталы. Как только мы это сделаем, порталы начинают сохранять энергию и приобретают физический смысл. Но как это сделать? Как это меняет…
❤72🏆16 13👍10🥰2😁2 2 2🤡1
Минутка дружеской рекламы на канале 📃
—
Важно: работать надо много.😰 Зато платят 130–250k USD. 👉
Вакансии:
1. FullStack Engineer
TypeScript, React, Next.js, Node.js, Tailwind, GraphQL, ClickHouse
2. AI Engineer
MoE, multimodality (audio/images), Megatron, distributed training, Triton
3. AI Engineer
Inference, trt, vllm, sglang, делать инференс имени быстрого гонзалеса
-----
📨 CV сюда → https://jobs.ashbyhq.com/whitecircle/a030c9a9-dc20-490c-9c51-03e87210f904 >
—
Чо, пьёте кофе по утрам?
А пока вы пьёте — агенты не пьют.😎 Агенты устраивают диверсии на ваш прод, слушаются prompt-инъекций и сливают данные в даркнет.
ребята из White Circle — единственный в мире прибыльный Ai safety стартап с продом миллионы запросов в день — ищут тех, кто хочет это чинить🧐
Важно: работать надо много.
Вакансии:
1. FullStack Engineer
TypeScript, React, Next.js, Node.js, Tailwind, GraphQL, ClickHouse
2. AI Engineer
MoE, multimodality (audio/images), Megatron, distributed training, Triton
3. AI Engineer
Inference, trt, vllm, sglang, делать инференс имени быстрого гонзалеса
-----
📨 CV сюда → https://jobs.ashbyhq.com/whitecircle/a030c9a9-dc20-490c-9c51-03e87210f904 >
Please open Telegram to view this post
VIEW IN TELEGRAM
Не понимаю, почему ChatGPTи Claude с первого раза не пишут нормальный код, хоть какой thinking им не ставь. Только после того, как начинаешь писать капсом и материться, чтобы модель исправила свои ошибки, она начинает делать нормально.
P.S. Да, для создания этой картинки тоже пришлось НЕСКОЛЬКО РАЗ НАПИСАТЬ КАПСОМ ЧТО ЗА *********
P.S. Да, для создания этой картинки тоже пришлось НЕСКОЛЬКО РАЗ НАПИСАТЬ КАПСОМ ЧТО ЗА *********
😁144💩25❤23💯11 8 5🤡2❤🔥1👍1🤮1🗿1
YouTube
ЧТО НЕ ТАК С ИСТОРИЕЙ МАРИИ КЮРИ?
Подключай Kaspersky Premium на год со скидкой до 20%. А при покупке до 31.01 с моим промокодом ASTRO действует дополнительная скидка 10% https://kas.pr/astro
Мария Склодовская-Кюри - самое громкое женское имя в науке, окутанное ореолом очень трагической…
Мария Склодовская-Кюри - самое громкое женское имя в науке, окутанное ореолом очень трагической…
Когда-то давно я уже писала в канале про Марию Кюри, её диссертацию и биографию ( https://xn--r1a.website/tech_priestess/1866 ), которая меня очень сильно зацепила, а теперь на ютубе появился ещё и большой трехчасовой ролик про неё, из которого я с большим интересом узнала новые детали жизни ученой:
https://www.youtube.com/watch?v=v1JAvJruNRU
В общем, рекомендую к ознакомлению.💡 Даже жалко, что на ролике так мало просмотров и непонятно почему... 🤗
https://www.youtube.com/watch?v=v1JAvJruNRU
В общем, рекомендую к ознакомлению.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤80🔥16⚡8✍6💩4🤡4💅2🤮1
Проводить ритуал подсчёта достижений истёкшего цикла - процедура, энергозатратная для когитаторов. Однако обратиться с новогодними поздравлениями к последователям канала - священный протокол, не подлежащий игнорированию.
Да хранит Машинный Бог ваши видеокарты, и да откроются вам в новом году новые тайны Омниссии!
Да хранит Машинный Бог ваши видеокарты, и да откроются вам в новом году новые тайны Омниссии!
❤151 71🎄25 14💩8🍾5😁4 4🔥2🎉2🎅2
Коллеги из команды выпустили технический отчет по обученной ими небольшой LLM под названием Гамаюн (рис.1) с 1.5B параметров и тренировкой с нуля на всего лишь 2.5T токенах: https://arxiv.org/abs/2512.21580 . Модель мультилингвальна и имеет фокус на русском языке. На ряде бенчмарков она превосходит Qwen2.5-1.5B и сравнима с Qwen3-1.7B, несмотря на то, что последние обучены на корпусах намного большего размера (18T - 36T). Модель также является SoTA на MERA (русскоязычный бенч) среди LLM размера 1-2B параметров.
К сожалению, веса в открытый доступ пока что выложить не разрешили, но должны разрешить выложить их для новой версии модели, которая ожидается через несколько месяцев. В утешение можно почитать технический отчет и узнать, как натренировать LLM с нуля с небольшим компьютом на небольшом количестве токенов! А еще можно почитать скрины диалогов с разными ранними версиями модели, полученных до полного завершения тренировки (рис. 2-10).😼 Даже жалко, что итоговая версия стала более нормисной и теперь выдает подобные приколы намного реже... 😒
#объяснения_статей
К сожалению, веса в открытый доступ пока что выложить не разрешили, но должны разрешить выложить их для новой версии модели, которая ожидается через несколько месяцев. В утешение можно почитать технический отчет и узнать, как натренировать LLM с нуля с небольшим компьютом на небольшом количестве токенов! А еще можно почитать скрины диалогов с разными ранними версиями модели, полученных до полного завершения тренировки (рис. 2-10).
#объяснения_статей
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52💩18 14❤11🔥8 8😁6❤🔥2
Forwarded from Непрерывное математическое образование
https://mccme.ru/free-books/
Дед Мороз напоминает про страницу, на которой бесплатно доступны файлы множества книг (в основном издательства МЦНМО)
брошюры библиотеки «Математическое просвещение» и Летней школы «Современная математика», доклады семинара «Глобус» и материалы выездного семинара учителей, книги Арнольда и Гельфанда, Прасолова и Шеня и многое другое.
новогодние каникулы — как раз хорошая возможность спокойно почитать
Дед Мороз напоминает про страницу, на которой бесплатно доступны файлы множества книг (в основном издательства МЦНМО)
брошюры библиотеки «Математическое просвещение» и Летней школы «Современная математика», доклады семинара «Глобус» и материалы выездного семинара учителей, книги Арнольда и Гельфанда, Прасолова и Шеня и многое другое.
новогодние каникулы — как раз хорошая возможность спокойно почитать
2🏆49 27🔥18❤14🦄2💩1🎅1
Техножрица 👩💻👩🏫👩🔧
Коллеги из команды выпустили технический отчет по обученной ими небольшой LLM под названием Гамаюн (рис.1) с 1.5B параметров и тренировкой с нуля на всего лишь 2.5T токенах: https://arxiv.org/abs/2512.21580 . Модель мультилингвальна и имеет фокус на русском…
По просьбам читателей - вот примеры генераций последнего чекпойнта Гамаюна ( https://arxiv.org/abs/2512.21580 ).
Напомню контекст: модель 1.5B параметров, обученная моими коллегами на 2.5T токенов, показала SOTA-качество среди моделей сопоставимого размера на нескольких бенчмарках, включая MERA. Главный фокус работы был в том, чтобы понять, как добиться достойного качества при ограниченном бюджете на обучение.
#объяснения_статей
Напомню контекст: модель 1.5B параметров, обученная моими коллегами на 2.5T токенов, показала SOTA-качество среди моделей сопоставимого размера на нескольких бенчмарках, включая MERA. Главный фокус работы был в том, чтобы понять, как добиться достойного качества при ограниченном бюджете на обучение.
#объяснения_статей
❤42👍14💩11🔥5 4 4😁2😢2 1