Data Secrets
77.4K subscribers
6.04K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Те самые «техноэнтузиасты», которые сегодня горюют об удаленном из ChatGPT флиртующем голосе (не)Скарлетт Йоханссон:
48😁36🔥11👨‍💻3👍1😐1
Data Secrets
Microsoft опубликовали Phi-3 Всего там три модели: mini (3.8B), small (7B) и medium (14B). Самая интересная из всех – mini. Эта крошка сравнима со старой версией GPT-3.5, Llama-3 8b и Mixtral 8x7b. На бенчмарке MT-bench, который мы вчера обсуждали, моделька…
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft релизнули в опенсорс Phi-3-Vision-128K-Instruct

С момента публикации статьи про Phi-3 прошел месяц, и вот компания раскатила на основе Phi-3 Mini мультимодальную модель.

Архитектура: энкодер, коннектор, проектор, ну и Phi-3 Mini. Контекст 128К. Главная фишка – это крохотный размер, всего 4.2B параметров. Обучена на 500B токенах (сразу текст + картинки).

🤗 Hugging Face
25🔥14🥰7
Что тут у нас? Это же новая громкая статья от Anthropic про интерпретируемость модели!

Исследование просто взорвало комьюнити: в нем выясняется, что, затюнив какие-то вполне конкретные фичи, мы можем заставить LLM всегда писать уязвимый код, генерировать фишинг и др. Как это работает – выясняем в карточках.

Подробнее: сочный блогпост с визуализациями, статья.
56🔥20👍10
Угадайте, кто 🐣

Да-да, CEO самого мощного ИИ-стартапа в мире. Вы, кстати, знали, что Альтман научился программировать и собирать Macintosh в 8 лет?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁503915🤯4🗿3🤗2💘1
Альтман на презентации Microsoft опять намекает на GPT-5

Мы еще далеко от того, насколько мощными будут модели, но улучшения уже в пути“.

Притормозите, мы еще привыкаем к GPT-4o…
👍48🔥108🤔3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Мантия выпускника, которая нужна нам всем
96😁3726🤪2👍1🫡1
Breaking! У OpenAI только что вышла новая статья, в которой они показали секреты архитектуры GPT-4o
😁1664515🔥10🍌92👍1😐1
Прошел слух, что Meta не собирается опенсорсить веса своей самой крупной (400B) модели из семейства Llama-3.

Наверное, Цукер все-таки тайно мечтает попасть на ту самую closed-source тусовку в совет безопасности
🤔401613😁6👍1
SQL в Jupyter ноутбуках

Наткнулись и не могли не поделиться – удобное и и функицонально богатое расширение к магической команде %%sql. Открывает возможности рисовать графики, обрабатывать витрины побольше и создавать временные таблицы. Пример установки и использования выше 👆

GihHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9513👍12🤯51😎1
Там на Hugging Face нашлась тулза, которая оценит, насколько вы «GPU rich» 🤑

Хвастаемся терафлопсами в коментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27😁75🤝2🔥1😨1
Разбор модели DeepSeekMath: как научить LLM решать математические задачки

Конкурс на Kaggle, в котором можно выиграть миллион долларов, научив LM математике, продолжается. А значит, у нас всех еще есть шанс 😉

Чтобы вас немного вдохновить и порадовать, мы приготовили разбор сеточки DeepSeekMath: это лидирующая по количеству использований в этом соревновании и к тому же самая свежая модель, заточенная специально под математические задачи. По качеству догоняет Gemini-Ultra и GPT-4.

Емкая выжимка – в карточках. А более понятное и глубокое объяснение всех этапов, больше метрик и схем вы можете найти в полном разборе на нашем сайте.

Сохраняйте: https://datasecrets.ru/articles/11
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥114