Forwarded from Сергей Марков: машинное обучение, искусство и шитпостинг
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В комментах ещё)
❤🔥38🔥13😁2
Open Ai is nothing without people
Акция не распространяется на бывших сотрудников, основателей и chief scientist сотрудников
Илья суцкевер делает свою лабу safety agi.
https://ssi.inc/
Акция не распространяется на бывших сотрудников, основателей и chief scientist сотрудников
Илья суцкевер делает свою лабу safety agi.
https://ssi.inc/
ssi.inc
Safe Superintelligence Inc.
The world's first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
🥴40🔥17❤5😁3🤡2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
я уже заказал на ebay nokia n95 чтобы запускать на ней blender(и llama 1b 2bit).
код
рассказ на испанском
код
рассказ на испанском
😁70😨22👏10🔥7👍5🤡2❤1
Я пожалуй не разделю общих восторгов, на моих задачах врет и очень спецефичным способом, не дебажьте что то кроме рисунков единорога на llm
если интересно - вот дока с тем какие параметры есть https://huggingface.co/docs/accelerate/usage_guides/fsdp
если интересно - вот дока с тем какие параметры есть https://huggingface.co/docs/accelerate/usage_guides/fsdp
🥴21❤1👍1
Forwarded from Борис опять
Недавно BM25, алгоритм поиска из 80-х, победил нейросетевой поиск на LLM.
Мне стало очень интересно разобраться, как это работает, и я написал статью на Хабр, где этот алгоритм реализуется с нуля.
Материал подойдет начинающим: ничего кроме знания Python не нужно.
https://habr.com/ru/articles/823568/
Просьба читать, лайкать и кричать об этой статье на улицах.
Мне стало очень интересно разобраться, как это работает, и я написал статью на Хабр, где этот алгоритм реализуется с нуля.
Материал подойдет начинающим: ничего кроме знания Python не нужно.
https://habr.com/ru/articles/823568/
Просьба читать, лайкать и кричать об этой статье на улицах.
❤73💩19👍7👎5🔥4😐4😁2
Forwarded from School of Competition Mathematics "Torricelli Point"
Школа Олимпиадной Математики "Точка Торричелли" приглашает всех желающих на летний олимпиадный интенсив "Welcome to the AMC!"
Наша школа олимпиадной математики называется «Точка Торричелли» по одной важной причине: мы стремимся к оптимальности и эффективности в обучении. В геометрии точка Торричелли известна тем, что она минимизирует сумму расстояний от данной точки до вершин треугольника. Аналогично, наша школа фокусируется на минимизации усилий и времени, необходимых для достижения высоких результатов в олимпиадной математике.
Что необходимо для участия в нашей смене:
- хорошее знание стандартной школьной программы соответствующего класса
- любознательность и желание решать нестандартные задачи, увидеть красоту математики
Что мы предлагаем?
Подготовка к AMC 10&12, но будет полезно всем, кто пока не очень опытен в олимпиадной математике (так как программа подбирается индивидуально, мы можем обсудить любой запрос ;) )
Proof-based подход к математике
Объясним на русском языке, продублируем задачи и конспекты на английском.
Команда опытных преподавателей и методистов
Сертификат по окончании смены
Индивидуальная программа для каждого участника
До 30 часов общения с преподавателем один на один
Интенсивное погружение в олимпиадную математику
Тренировочная устная олимпиада
Более подробную информацию вы можете узнать на нашем сайте point120.school :)
Наша школа олимпиадной математики называется «Точка Торричелли» по одной важной причине: мы стремимся к оптимальности и эффективности в обучении. В геометрии точка Торричелли известна тем, что она минимизирует сумму расстояний от данной точки до вершин треугольника. Аналогично, наша школа фокусируется на минимизации усилий и времени, необходимых для достижения высоких результатов в олимпиадной математике.
Что необходимо для участия в нашей смене:
- хорошее знание стандартной школьной программы соответствующего класса
- любознательность и желание решать нестандартные задачи, увидеть красоту математики
Что мы предлагаем?
Подготовка к AMC 10&12, но будет полезно всем, кто пока не очень опытен в олимпиадной математике (так как программа подбирается индивидуально, мы можем обсудить любой запрос ;) )
Proof-based подход к математике
Объясним на русском языке, продублируем задачи и конспекты на английском.
Команда опытных преподавателей и методистов
Сертификат по окончании смены
Индивидуальная программа для каждого участника
До 30 часов общения с преподавателем один на один
Интенсивное погружение в олимпиадную математику
Тренировочная устная олимпиада
Более подробную информацию вы можете узнать на нашем сайте point120.school :)
❤23👍5🤡3🤔1🦄1
Таня Бабичева - топ препод по олимпиадной математике, проект должен получится очень крутой.
✍16🌚4🤡2❤1👍1🤔1🌭1
Сотрудники уволенные посредствам суецида будут лишены квартальных премий
😁63👍12😢12❤6👎5🔥3🥴3
#чтивонаночь
Discovering Preference Optimization Algorithms
with and for Large Language Models
В чем идея - давайте возьмем LLM и будем подбирать с помощью LLM разные loss функции через iterative prompting. В целом очень логично и просто.
ТК подбирают лосс, а не данные - схема работает для разных архитектур и данных.
Прироста относительно human baseline особо нет, да и строго говоря loss_ы не выглядят очень уж здравыми
Пример:
При том что ориг выглядел так:
папир
код
А, скоро буду собесится к этим челам, если хотите чтобы я что то спросил - пишите.
Discovering Preference Optimization Algorithms
with and for Large Language Models
В чем идея - давайте возьмем LLM и будем подбирать с помощью LLM разные loss функции через iterative prompting. В целом очень логично и просто.
ТК подбирают лосс, а не данные - схема работает для разных архитектур и данных.
Прироста относительно human baseline особо нет, да и строго говоря loss_ы не выглядят очень уж здравыми
Пример:
σ(Var[ρ/τ ]) · fdpo(βρ/0.9) + (1 − σ(Var[ρ/τ ])) · fexp(βρ · 0.9)
При том что ориг выглядел так:
log(1 + exp(−βρ))
папир
код
А, скоро буду собесится к этим челам, если хотите чтобы я что то спросил - пишите.
🤡14👍9🔥4❤3🥴2