Data Secrets
Microsoft опубликовали Phi-3 Всего там три модели: mini (3.8B), small (7B) и medium (14B). Самая интересная из всех – mini. Эта крошка сравнима со старой версией GPT-3.5, Llama-3 8b и Mixtral 8x7b. На бенчмарке MT-bench, который мы вчера обсуждали, моделька…
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft релизнули в опенсорс Phi-3-Vision-128K-Instruct
С момента публикации статьи про Phi-3 прошел месяц, и вот компания раскатила на основе Phi-3 Mini мультимодальную модель.
Архитектура: энкодер, коннектор, проектор, ну и Phi-3 Mini. Контекст 128К. Главная фишка – это крохотный размер, всего 4.2B параметров. Обучена на 500B токенах (сразу текст + картинки).
🤗 Hugging Face
С момента публикации статьи про Phi-3 прошел месяц, и вот компания раскатила на основе Phi-3 Mini мультимодальную модель.
Архитектура: энкодер, коннектор, проектор, ну и Phi-3 Mini. Контекст 128К. Главная фишка – это крохотный размер, всего 4.2B параметров. Обучена на 500B токенах (сразу текст + картинки).
🤗 Hugging Face
❤25🔥14🥰7
Что тут у нас? Это же новая громкая статья от Anthropic про интерпретируемость модели!
Исследование просто взорвало комьюнити: в нем выясняется, что, затюнив какие-то вполне конкретные фичи, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг и др. Как это работает – выясняем в карточках.
Подробнее: сочный блогпост с визуализациями, статья.
Исследование просто взорвало комьюнити: в нем выясняется, что, затюнив какие-то вполне конкретные фичи, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг и др. Как это работает – выясняем в карточках.
Подробнее: сочный блогпост с визуализациями, статья.
❤56🔥20👍10
Угадайте, кто 🐣
Да-да, CEO самого мощного ИИ-стартапа в мире. Вы, кстати, знали, что Альтман научился программировать и собирать Macintosh в 8 лет?
Да-да, CEO самого мощного ИИ-стартапа в мире. Вы, кстати, знали, что Альтман научился программировать и собирать Macintosh в 8 лет?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁50 39 15🤯4🗿3🤗2💘1
Альтман на презентации Microsoft опять намекает на GPT-5
“Мы еще далеко от того, насколько мощными будут модели, но улучшения уже в пути“.
Притормозите, мы еще привыкаем к GPT-4o…
“Мы еще далеко от того, насколько мощными будут модели, но улучшения уже в пути“.
Притормозите, мы еще привыкаем к GPT-4o…
👍48🔥10❤8🤔3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Мантия выпускника, которая нужна нам всем
Прошел слух, что Meta не собирается опенсорсить веса своей самой крупной (400B) модели из семейства Llama-3.
Наверное, Цукер все-таки тайно мечтает попасть на ту самую closed-source тусовку в совет безопасности
Наверное, Цукер все-таки тайно мечтает попасть на ту самую closed-source тусовку в совет безопасности
🤔40 16 13😁6👍1
SQL в Jupyter ноутбуках
Наткнулись и не могли не поделиться – удобное и и функицонально богатое расширение к магической команде %%sql. Открывает возможности рисовать графики, обрабатывать витрины побольше и создавать временные таблицы. Пример установки и использования выше👆
GihHub
Наткнулись и не могли не поделиться – удобное и и функицонально богатое расширение к магической команде %%sql. Открывает возможности рисовать графики, обрабатывать витрины побольше и создавать временные таблицы. Пример установки и использования выше
GihHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥95❤13👍12🤯5⚡1😎1
Там на Hugging Face нашлась тулза, которая оценит, насколько вы «GPU rich» 🤑
Хвастаемся терафлопсами в коментариях
Хвастаемся терафлопсами в коментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27😁7❤5🤝2🔥1😨1
Разбор модели DeepSeekMath: как научить LLM решать математические задачки
Конкурс на Kaggle, в котором можно выиграть миллион долларов, научив LM математике, продолжается. А значит, у нас всех еще есть шанс😉
Чтобы вас немного вдохновить и порадовать, мы приготовили разбор сеточки DeepSeekMath: это лидирующая по количеству использований в этом соревновании и к тому же самая свежая модель, заточенная специально под математические задачи. По качеству догоняет Gemini-Ultra и GPT-4.
Емкая выжимка – в карточках. А более понятное и глубокое объяснение всех этапов, больше метрик и схем вы можете найти в полном разборе на нашем сайте.
Сохраняйте: https://datasecrets.ru/articles/11
Конкурс на Kaggle, в котором можно выиграть миллион долларов, научив LM математике, продолжается. А значит, у нас всех еще есть шанс
Чтобы вас немного вдохновить и порадовать, мы приготовили разбор сеточки DeepSeekMath: это лидирующая по количеству использований в этом соревновании и к тому же самая свежая модель, заточенная специально под математические задачи. По качеству догоняет Gemini-Ultra и GPT-4.
Емкая выжимка – в карточках. А более понятное и глубокое объяснение всех этапов, больше метрик и схем вы можете найти в полном разборе на нашем сайте.
Сохраняйте: https://datasecrets.ru/articles/11
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥11❤4