Орги LMSYS арены видимо получили настолько много вопросов про GPT-4o-mini, что решили дать официальный комментарий
Последние дни 4o-mini действительно как-то уж слишком высоко. Организаторы уверяют, что у них все честно, прозрачно, открытый код, часть данных тоже открыты ну и прочее.
Сегодня вот даже специально опубликовали 1к кейсов с голосом за 4o-mini и выкатили демо, в котором можно пройтись КОНКРЕТНО по 4o-mini на разных языках и скиллах. Запарились, в общем, молодцы.
На самом деле, самих организаторов арены мало кто подозревает: дело не в них, а в модели. Просто OpenAI очень сильно затюнили ее под человеческие предпочтения (вероятно, на тех же данных с LMSYS), вот и результат. Конечно, корреляция между «угодой» юзеру и реальными способностями большая, но разница между этими понятиями все-таки есть 🌚
Последние дни 4o-mini действительно как-то уж слишком высоко. Организаторы уверяют, что у них все честно, прозрачно, открытый код, часть данных тоже открыты ну и прочее.
Сегодня вот даже специально опубликовали 1к кейсов с голосом за 4o-mini и выкатили демо, в котором можно пройтись КОНКРЕТНО по 4o-mini на разных языках и скиллах. Запарились, в общем, молодцы.
На самом деле, самих организаторов арены мало кто подозревает: дело не в них, а в модели. Просто OpenAI очень сильно затюнили ее под человеческие предпочтения (вероятно, на тех же данных с LMSYS), вот и результат. Конечно, корреляция между «угодой» юзеру и реальными способностями большая, но разница между этими понятиями все-таки есть 🌚
🤔46❤7🔥5
Data Secrets
Орги LMSYS арены видимо получили настолько много вопросов про GPT-4o-mini, что решили дать официальный комментарий Последние дни 4o-mini действительно как-то уж слишком высоко. Организаторы уверяют, что у них все честно, прозрачно, открытый код, часть данных…
Никто:
Абсолютно никто:
OpenAI, которые нашпинговывают модели данными с LMSYS:
Абсолютно никто:
OpenAI, которые нашпинговывают модели данными с LMSYS:
😁92 40❤8👍2
Data Secrets
Новости с Turbo ML Conf: AI-Центр Т-Банка открывает доступ к собственной русскоязычной языковой модели в весовой категории 7—8 млрд параметров — T-lite Индустриальные и внутренние бенчмарки показали, что T-lite выдает лучшие результаты в решении бизнес-задач…
Разбор T-lite: новой LLM от Т-банка
На конференции Turbo ML Conf исследователи из Т-банк неожиданно представили свою LLM, которая по бенчмаркам показывает себя лучше GPT-3.5, LLama-3, GigaChat и YandexGPT.
Что же под капотом у этой новой российской финтех SOTA? Действительно ли метрики так хороши? Сколько стоила банку разработка? На эти и другие вопрос мы ответили в мини-разборе T-lite у нас на сайте.
Автор статьи – наш приглашенный спецкор Дмитрий Сираков – Data Science Engineer и автор крутого ML-канала @dimension_ai.
Кстати, никакого тех.отчета о модели все еще нет, поэтому разбор написан автором прямиком на базе офлайн-доклада на конференции🤫
Читать тут: https://datasecrets.ru/news/31
На конференции Turbo ML Conf исследователи из Т-банк неожиданно представили свою LLM, которая по бенчмаркам показывает себя лучше GPT-3.5, LLama-3, GigaChat и YandexGPT.
Что же под капотом у этой новой российской финтех SOTA? Действительно ли метрики так хороши? Сколько стоила банку разработка? На эти и другие вопрос мы ответили в мини-разборе T-lite у нас на сайте.
Автор статьи – наш приглашенный спецкор Дмитрий Сираков – Data Science Engineer и автор крутого ML-канала @dimension_ai.
Кстати, никакого тех.отчета о модели все еще нет, поэтому разбор написан автором прямиком на базе офлайн-доклада на конференции
Читать тут: https://datasecrets.ru/news/31
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨42❤12 6🤪5 5👍1🗿1
Вот такие футболки у нас получились. Они уже готовы к отправке хозяевам – победителям нашего хакатона, который, кстати, заканчивается завтра!
Все надписи на футболках вышиты, а качество – просто огонь. В такой вы точно понравитесь на собесе.
Ну как вам?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65❤20😐8🤗4😁2🤯1🤩1 1
Неужели не просто демо?
В Твиттере один из пользователей объявил, что ему дали доступ к SearchGPT. Пишет, что ему понравилось.
Удивительно, что никому другому доступ не перепал. Есть вероятность, что это все маркетинговый ход…
… или там просто редирект на Perplexity🤣
В Твиттере один из пользователей объявил, что ему дали доступ к SearchGPT. Пишет, что ему понравилось.
Удивительно, что никому другому доступ не перепал. Есть вероятность, что это все маркетинговый ход…
… или там просто редирект на Perplexity
Please open Telegram to view this post
VIEW IN TELEGRAM
😁68❤8👍6
А вы знали, что Anthropic не использует RLHF?
Оказывается, вместо этого у них RLAIF. И нет, это не одно и то же. Это буквально означает, что на этапе alignment'а модели (в отличие от большинства других LLM) ей не задавали четкие иструкции типа "не говори а политике и любви".
Вместо этого Claude получил "характер" (мы писали об этом подробно тут) с помощью общих абстрактных инструкций, например:
Именно на основе таких исходных данных модель затем как бы САМА себя тюнила, ориентируясь на собственные "ценности" и оценивая свои ответы.
Получается, ученые дали Claude шанс развиваться самостоятельно, без гиперконтроля, и это сработало: сейчас модели Anthropic в сообществе считаются лучшими с точки зрения alignment'а. Кстати, такой подход к тому же гораздо дешевле, чем классический RLHF.
В общем, родителям на заметку🤭
Оказывается, вместо этого у них RLAIF. И нет, это не одно и то же. Это буквально означает, что на этапе alignment'а модели (в отличие от большинства других LLM) ей не задавали четкие иструкции типа "не говори а политике и любви".
Вместо этого Claude получил "характер" (мы писали об этом подробно тут) с помощью общих абстрактных инструкций, например:
"Я Claude, я хочу иметь теплые отношения с людьми, с которыми я взаимодействую, но я также думаю, что им важно понимать, что я ИИ, который не может иметь глубокие или длительные чувства к людям, и что они не должны видеть в наших отношениях нечто большее"
Именно на основе таких исходных данных модель затем как бы САМА себя тюнила, ориентируясь на собственные "ценности" и оценивая свои ответы.
Получается, ученые дали Claude шанс развиваться самостоятельно, без гиперконтроля, и это сработало: сейчас модели Anthropic в сообществе считаются лучшими с точки зрения alignment'а. Кстати, такой подход к тому же гораздо дешевле, чем классический RLHF.
В общем, родителям на заметку
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84😁27❤18
Статистику давно повторяли?
Давайте немного поломаем голову над кроссвордом для любителей статистики и математики, а заодно и проверим себя. Поехали!
По горизонтали:
1. Усатый друг любого аналитика.
3. Когда нормального распределения нет, но очень хочется, надо вспомнить О НЕМ.
4. Его статистический закон также известен как "20% усилий дают 80% результата".
5. Причинно-следственная связь на языке математики.
8. Он любил проверки гипотез и ирисы.
10. С этой теоремой неразрывно дружит формула полной вероятности.
11. Стандартное отклонение выборки - это квадратный корень из __.
12. Вероятность отклонения нулевой гипотезы, если альтернативная гипотеза верна.
14. Значения признака, повторяющиеся с наибольшей частотой.
15. В законе про случайные величины их три, а в концепции управления производством – шесть.
По вертикали:
2. И в ЦПТ, и в ЗБЧ случайные величины должны быть __.
6. Относительная величина сравнения сложных совокупностей и отдельных их единиц.
7. Какое распределение используется для оценки доверительного интервала математического ожидания нормально распределенной случайной величины с неизвестной дисперсией?
9. Металлодетектор выдал сигнал тревоги, сработав на пряжку ремня. Это пример ошибки _ рода.
13. Не путайте со средним.
Ну что, сколько разгадали?
Давайте немного поломаем голову над кроссвордом для любителей статистики и математики, а заодно и проверим себя. Поехали!
По горизонтали:
1. Усатый друг любого аналитика.
3. Когда нормального распределения нет, но очень хочется, надо вспомнить О НЕМ.
4. Его статистический закон также известен как "20% усилий дают 80% результата".
5. Причинно-следственная связь на языке математики.
8. Он любил проверки гипотез и ирисы.
10. С этой теоремой неразрывно дружит формула полной вероятности.
11. Стандартное отклонение выборки - это квадратный корень из __.
12. Вероятность отклонения нулевой гипотезы, если альтернативная гипотеза верна.
14. Значения признака, повторяющиеся с наибольшей частотой.
15. В законе про случайные величины их три, а в концепции управления производством – шесть.
По вертикали:
2. И в ЦПТ, и в ЗБЧ случайные величины должны быть __.
6. Относительная величина сравнения сложных совокупностей и отдельных их единиц.
7. Какое распределение используется для оценки доверительного интервала математического ожидания нормально распределенной случайной величины с неизвестной дисперсией?
9. Металлодетектор выдал сигнал тревоги, сработав на пряжку ремня. Это пример ошибки _ рода.
13. Не путайте со средним.
Ну что, сколько разгадали?
❤38👍27 10🤯6❤🔥3
Data Secrets
Статистику давно повторяли? Давайте немного поломаем голову над кроссвордом для любителей статистики и математики, а заодно и проверим себя. Поехали! По горизонтали: 1. Усатый друг любого аналитика. 3. Когда нормального распределения нет, но очень хочется…
Мы и сегодняшний кроссворд
😁166👏11👍7❤4
Новая реклама Gemini вызвала недопонимание пользователей
В рекламе отец просит ИИ помочь его дочери написать искреннее письмо ее любимой спортсменке.
Однако в соцсетях реклама не понравилась. «Что за бред, кому нужно фанатское письмо, написанное нейросетью?» – пишут пользователи.
Короче, неудачно вышло. Хотя, может быть, такой резонанс и был изначальной задумкой муркетологов?
В рекламе отец просит ИИ помочь его дочери написать искреннее письмо ее любимой спортсменке.
«В деталях опиши, как она вдохновляет мою дочь и как она ей восхищается»
Однако в соцсетях реклама не понравилась. «Что за бред, кому нужно фанатское письмо, написанное нейросетью?» – пишут пользователи.
Короче, неудачно вышло. Хотя, может быть, такой резонанс и был изначальной задумкой муркетологов?
😁63🤔12👍7 2
Охохо, какую реликвию мы нашли
Лекции девятилетней давности «Как запустить стартап» в Стэнфорде. Ведет никто иной, как дядюшка Сэм Альтман. Кстати, на момент записи ему всего 30. Вот ссылка на плейлист.
Бизнес-молодость на спидах вам в понедельник
Лекции девятилетней давности «Как запустить стартап» в Стэнфорде. Ведет никто иной, как дядюшка Сэм Альтман. Кстати, на момент записи ему всего 30. Вот ссылка на плейлист.
Бизнес-молодость на спидах вам в понедельник
❤72 42😁20👍3👏2
Помните книгу "Little Book of Deep Learning"?
Если нет, то обязательно почитайте нашу рецензию и добавьте в ридлист – книга огонь.
А ее автор – активный пользователь Твиттера, и ему постоянно приходят разного рода «отзывы» на книгу.
Сегодня он запостил некоторые из них😁
Особенно порадовал последний мемуар – можно забирать как идеальное описание профиля в Тиндер.
Если нет, то обязательно почитайте нашу рецензию и добавьте в ридлист – книга огонь.
А ее автор – активный пользователь Твиттера, и ему постоянно приходят разного рода «отзывы» на книгу.
Сегодня он запостил некоторые из них
«I have unlocked all the achievements.» – написал он.
Особенно порадовал последний мемуар – можно забирать как идеальное описание профиля в Тиндер.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍40😁26❤5
Кстати, есть тут те, кому интересны все детали оптимизации в глубоком обучении?
Если да, то вот эта статья "Understanding Optimization of Deep Learning" для вас. В одной из первых глав проводится обзор основных концептов глубокого обучения: нормализация, self-attention, активация, транформеры и тд.
Подробные выкладки есть в разделе про прямой и обратный ход, отдельное внимание уделено популярным оптимизаторам и разнице между ними. Также разбирается явная и неявная оптимизация.
В целом, можно подчерпнуть много всего о том, как заставить сеть работать лучше + повторить и заново понять теорию.
Если да, то вот эта статья "Understanding Optimization of Deep Learning" для вас. В одной из первых глав проводится обзор основных концептов глубокого обучения: нормализация, self-attention, активация, транформеры и тд.
Подробные выкладки есть в разделе про прямой и обратный ход, отдельное внимание уделено популярным оптимизаторам и разнице между ними. Также разбирается явная и неявная оптимизация.
В целом, можно подчерпнуть много всего о том, как заставить сеть работать лучше + повторить и заново понять теорию.
👍37❤9 5
OpenAI в своем репертуаре
На этой неделе они пообещали раскатить «в альфу» голосовые функции (наконец-то, после трех месяцев ожиданий). Пользователи обрадовались и объявили почти что празднование, но….
Оказалось, что «в альфу» на языке OpenAI – это значит «очень ограниченному количеству альфа-пользователей GPT Plus».
Другими словами, доступ получат три землекопа, а смертные будут ждать еще «few weeks», что, опять же, с языка OpenAI может означать «до Нового Года».
На этой неделе они пообещали раскатить «в альфу» голосовые функции (наконец-то, после трех месяцев ожиданий). Пользователи обрадовались и объявили почти что празднование, но….
Оказалось, что «в альфу» на языке OpenAI – это значит «очень ограниченному количеству альфа-пользователей GPT Plus».
Другими словами, доступ получат три землекопа, а смертные будут ждать еще «few weeks», что, опять же, с языка OpenAI может означать «до Нового Года».
😁64 43☃9👍3
Смотрите, какая залипательная картинка с эволюцией AI компьютинга. Ее показал Дженсен Хуанг в своем свежем интервью WIRED
Говорили на интервью (как это теперь заведено) про будущее ИИ. Дженсен высказал интересную мысль о том, что следующая волна ИИ — это физический ИИ, для реализации которого потребуются три компьютерные системы: ИИ, роботы и Omniverse (система Nvidia для построения метавселенной).
Хуанг говорит, что «индустрия компьюта в лице Nvidia к этому готова» (см. картинку) и «компания сможет снабжать мир необходимыми мощностями».
Говорили на интервью (как это теперь заведено) про будущее ИИ. Дженсен высказал интересную мысль о том, что следующая волна ИИ — это физический ИИ, для реализации которого потребуются три компьютерные системы: ИИ, роботы и Omniverse (система Nvidia для построения метавселенной).
Хуанг говорит, что «индустрия компьюта в лице Nvidia к этому готова» (см. картинку) и «компания сможет снабжать мир необходимыми мощностями».
Теперь HF будет поддерживать Inference as a Service. Это означает, что можно будет использовать инференс моделей для своего проекта бессерверно, только за счет API.
Все работает на базе NVIDIA DGX Cloud и NVIDIA NIM, уже доступны 7 опенсорс моделей (включая Llama 3.1 70B и Mixtral 8x22B). Цена : $0.0023/second/gpu по опции Pay-as-you-go.
Кажется, у нас тут только что родился новый рынок
Please open Telegram to view this post
VIEW IN TELEGRAM
🤗92👍18 12❤6🤯3⚡1😎1
В апреле 2023 Meta впервые показала свою «Segment Anything Model» (SAM). Это базовая модель для сегментации, которую тогда прозвали «GPT-3 moment» для CV из-за прорыва по метрикам.
И вот: вышел SAM-2! Он, в отличие от предшественника, обучался не на изображениях, а на видео. По словам Meta, теперь сегментация по видео работает даже с шакальным качеством или если некоторые кадры вырезаны.
Датасет (SA-V) в Meta наклепали сами с помощью Data Engine: они дали людям-анотаторам SAM для лейблинга кадров, и новые размеченные данные использовались для обучения дальше. Получилось в 9 раз быстрее, чем с обычной разметкой, и в итоге SA-V содержит 200 часов аннотированных видео.
Архитектурно SAM-2 – это трансформер, как и прошлая версия. Чтобы адаптировать его к видео, был добавлен модуль памяти, который собственно и хранит информацию о прошлых кадрах. Если на вход подается картинка, модуль просто остается пустым.
По метрикам – SOTA. При этом моделька быстрая – в 6 раз быстрее SAM на изображениях, в три раза быстрее предшественников на видео. И при этом все полностью в опенсорс: вот репозиторий, где можно найти код, веса, демо, статью и блогпост.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54❤14👏11