Forwarded from 🏄 Соревновательный Data Science | Kaggle | Чемпионаты
Media is too big
VIEW IN TELEGRAM
В прошлом году 5 участников месячного кэмпа получили медали
Встречи по выходным в креативном коворкинге с целью пофармить чемпионаты на Kaggle в течение всего Июля.
Команды собираются по выходным в офигенном офисе Додо и решают текущие чемпионаты. Творческая, неформальная атмосфера обеспечена! Вечером пицца и фильмец, пока модельки учатся. И так все выходные в течение месяца. Фармим, едим, смотрим, повторяем цикл. Роскошно!
🦤
Пока только в Москве, метро Автозаводская. (Возможно еще параллельно Питере)
Вход свободный, но есть лимит. Мы решили допустить к кэмпу до 15 человек. (Возможно больше, но пока тестим на небольшой команде людей). Формально этот кэмп открыт для всех, но приоритет будет отдан участникам курса "Введение в соревновательный Data Science"
Заполняй форму и мы с тобой свяжемся. Там 12 вопросов, которые вы заполните за пару минут. Это будет твой первый шаг к Июльским победам на kaggle!
🚀 С каждым бустом, число мест увеличивается) https://xn--r1a.website/data_science_winners?boost
Please open Telegram to view this post
VIEW IN TELEGRAM
❤32🔥17👍9
Data Secrets
Мы тут нагенерировали для вас треков про ML в новом Suno Для тех, кто сегодня отдыхает – бодрая версия.
Media is too big
VIEW IN TELEGRAM
Вашему вниманию: новая реклама модельки генерации музыки Suno. Маркетологи определенно знают свое дело
🔥65❤21👍10😍3
Помните, мы рассказывали про статью Anthropic, в которой исследователи выяснили, как думает LLM?
Кратко суть: оказывается, что из модели можно извлечь фичи (кластеры мыслей), а затюнив какие-то из них, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг, невпопад говорить о мостах и др. Кстати, подобная статья недавно вышла и у OpenAI.
Так вот. Исследование настолько понравилось комьюнити, что Anthropic выкатили специальное API для экспериментов. Можно поэкспериментировать и поиграться с этими самыми фичами.
Форма для подачи заявки тут. Доступ дают быстро. Идеальный for fun ресерч на выходные.
Кратко суть: оказывается, что из модели можно извлечь фичи (кластеры мыслей), а затюнив какие-то из них, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг, невпопад говорить о мостах и др. Кстати, подобная статья недавно вышла и у OpenAI.
Так вот. Исследование настолько понравилось комьюнити, что Anthropic выкатили специальное API для экспериментов. Можно поэкспериментировать и поиграться с этими самыми фичами.
Форма для подачи заявки тут. Доступ дают быстро. Идеальный for fun ресерч на выходные.
👍52🔥18 16❤9👀2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤116 74 25 9🫡6🏆2
Развивать компанию, чтобы достичь капитализации в $3 триллиона: 👎
Чтобы появляться в мемах с Тейлор Свифт:👍
Чтобы появляться в мемах с Тейлор Свифт:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤122 35👍17😁12 10😎5
Ученые из OpenAI, Microsoft, Стэнфорда, Принстона и еще 8 университетов выпустили огромный репорт с обзором техник промптинга
Да-да, этот пост про промпт-инжиниринг. Мы долго думали, рассказывать про это руководство или нет, пока не почитали сами. Оказалось, что статья действительно полезная (и конечно далека от порядком всем надоевших псевдо-научных пособий по промптам).
Итак, в документе рассмотрено 58 техник промптинга для текста и 40 для иных модальностей. Все разделено на 6 основных подходов, таких как In-Context Learning (ICL), Zero-Shot, Self-Criticism и др.
Все сопровождается тестами на бенчмарках и, местами, даже доказательствами и строгими определениями. Например, на картинке – дефинишн few-shot промтинга на языке условной вероятности.
Читается легко, встречается много интересных рассуждений и деталей. Однозначно рекомендуем.
Да-да, этот пост про промпт-инжиниринг. Мы долго думали, рассказывать про это руководство или нет, пока не почитали сами. Оказалось, что статья действительно полезная (и конечно далека от порядком всем надоевших псевдо-научных пособий по промптам).
Итак, в документе рассмотрено 58 техник промптинга для текста и 40 для иных модальностей. Все разделено на 6 основных подходов, таких как In-Context Learning (ICL), Zero-Shot, Self-Criticism и др.
Все сопровождается тестами на бенчмарках и, местами, даже доказательствами и строгими определениями. Например, на картинке – дефинишн few-shot промтинга на языке условной вероятности.
Читается легко, встречается много интересных рассуждений и деталей. Однозначно рекомендуем.
👍108❤24 15🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня выходит второй сезон «Дома дракона»
И в честь этого создатели запилили сайт, где можно нагенерировать сериальные постеры со своим лицом.
Получается мемно, идеально для смены аватарки. Еще одни боги маркетинга, получается
И в честь этого создатели запилили сайт, где можно нагенерировать сериальные постеры со своим лицом.
Получается мемно, идеально для смены аватарки. Еще одни боги маркетинга, получается
🔥46 16👍11❤5😐5
OpenAI может стать коммерческой организацией
Что это значит:
⚪️ это позволит компании провести IPO (продавать акции не только сотрудникам)
⚪️ больше не быть подконтрольной некоммерческому совету директоров
⚪️ обойти ограничение по прибыли
⚪️ меньше отчитываться о своих действиях перед Microsoft
По такой же схеме работают Anthropic и xAI.
Один вопрос: почему сейчас?
Что это значит:
По такой же схеме работают Anthropic и xAI.
Один вопрос: почему сейчас?
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем новая Dream Machine (мы писали об этой модели тут) наконец разрешила философскую проблему вагона.
Ей на вход подали знаменитую фотографию, которую модель оживила… как посчитала нужным.
Ей на вход подали знаменитую фотографию, которую модель оживила… как посчитала нужным.
😁184🔥21 8❤5👍3😐1
Метод Монте-Карло для поиска по дереву мощно повышает способности LLM к математике
Этот алгоритм в ML совсем не ноу-хау: его использовали в AlphaGo и AlphaZero, а сейчас он активно исследуется учеными из OpenAI для той самой загадочной G*. И вот на днях вышла статья из Китая: там придумали использовать поиск Монте-Карло для уточнения ответов LLM на вопросы по математике.
В целом подход такой: выбор наиболее перспективной вершины дерева (это некоторый ответ на задачу) –> "самоуточнение", когда LLM генерирует фидбек для улучшения ответа –> самооценка с помощью ревард-модели (как в RL) –> обратное распространение ошибки -> обновление дерева.
Таким методом на тестах удалось приблизить мат. талант Llama-3 8B к cпособностям гораздо более крупного GPT-4, и это звучит очень неплохо.
Полный текст статьи тут.
Этот алгоритм в ML совсем не ноу-хау: его использовали в AlphaGo и AlphaZero, а сейчас он активно исследуется учеными из OpenAI для той самой загадочной G*. И вот на днях вышла статья из Китая: там придумали использовать поиск Монте-Карло для уточнения ответов LLM на вопросы по математике.
В целом подход такой: выбор наиболее перспективной вершины дерева (это некоторый ответ на задачу) –> "самоуточнение", когда LLM генерирует фидбек для улучшения ответа –> самооценка с помощью ревард-модели (как в RL) –> обратное распространение ошибки -> обновление дерева.
Таким методом на тестах удалось приблизить мат. талант Llama-3 8B к cпособностям гораздо более крупного GPT-4, и это звучит очень неплохо.
Полный текст статьи тут.
🎉56👍20🔥7 4❤2😁1
Еще раз основные новшества: появились типы строковых данных, ускорены многие фукнции, улучшено API. Более подробно обо всем – в нашей статье.
Когда дождались релиз впервые за 18 лет
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯84 77 42🤩8❤7👍7🔥6😁1👻1
И еще немного сегодняшних новостей (ну и денек):
⚡️ Google выпустила video-to-audio (V2A) модель.
⚡️ Новый день - новая модель для генерации видео. На этот раз Gen3-Alpha.
⚡️ Вышел DeepSeekCoder 2.0, обгонящий GPT-4 на вопросах по программированию. Опенсорс!
Поздравляем, теперь вы ничего не пропустили.
Поздравляем, теперь вы ничего не пропустили.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤85😁40👍10🔥8🙈2
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
А сейчас давайте посмотрим на генерации новой Gen-3, которая затмила Luma AI
Конкуренция в text2video все накаляется. Не хватает только дропа SORA
Конкуренция в text2video все накаляется. Не хватает только дропа SORA
🔥38👍11❤5🏆2😁1