Data Secrets
77.4K subscribers
6.05K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Data Secrets
⚡️ Еще трое соучредителей, среди которых Грег Брокман, покинули OpenAI Правда, Грег не совсем ушел: он взял длительный отпуск до конца года. В твиттере он написал, что это его первый отпуск за 9 лет в OpenAI. Однако, его мотивы все еще неизвестны. Кроме…
⚫️ Грег Брокман вернулся в OpenAI

В августе Грег написал, что берет длительный отпуск, впервые за 9 лет работы. Тогда многие подумали, что это отговорка, и так соучредитель сгладил свой уход (одновременно с ним из компании увольнялся его друг и коллега Джон Шульман).

Но нет! Сегодня Грег написал в Твиттере, что возвращается. Кажется, настрой у него оптимистичный.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥66👍16😁53🤯1
Кто-то приходит, значит кто-то уходит – в OpenAI все стабильно

The Information, видимо, нашли бодрого информатора из OpenAI. Они выпускают уже третью статью про стартап за неделю. На этот раз пишут о том, что Мира Мурати начала успешно хантить исследователей в свою компанию. Точно известно, что к ней, как минимум, ушла разработчица из команды safety, которая отвечала за пост трейнинг, – Миана Чен. Еще говорят, что Мира заполучила Баррета Зофа и Люка Метца. Это тоже бывшие ключевые сотрудники отдела alignment’a.

Кроме того, инсайдер сообщает, что OpenAI собирается выпустить полную версию o1 до конца года. Возможно даже на ближайшем devday в конце ноября.
33🔥10👍5
Нашли на архиве забавный препринт, в котором исследователи с помощью LLM-симуляции предсказали победу Трампа

Сразу скажем: дата сабмита – 3 ноября, за три дня до объявления результатов. А вообще, исследование касалось не только выборов: ученые выясняли, способны ли LLM в целом моделировать поведение общественности и, главное, людей с определенными социальными качествами.

В начале проверяли, может ли LLM правдоподобно предсказывать мнение людей в вопросах этического характера исходя из их национальности, пола, возраста и прочего. Для этого использовали WVS, то есть данные Всемирного исследования ценностей. Оказалось, что смоделированная выборка достаточно точно отражает различия и показывает общие тренды, и исследователи пошли дальше.

Они заставили агентов голосовать на выборах 2016, 2020 и 2024 года. Но при этом LLM думали не "за себя", а опять же за людей с определенными характеристиками, роль которых как бы играла модель. А чтобы выборка получилась репрезентативная, данные о респондентах брали из ANES (Американских национальных избирательных исследований).

В итоге LLM-респонденты предсказали победу Трампа с результатом 300/538. Реальные результаты, тем временем, 312/538. На картинках сверху сперва симуляция, потом реальные результаты по штатам. Посмотрите, как похоже 😲

P.S. Возможно, в ближайшем будущем люди действительно будут использовать LLM в качестве моделирования настоящих социальных исследований? Подвижки в эту сторону уже были (пост про подобное исследование #1, и #2). А вы как считаете?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
99👍25🔥20🤯10🤔52❤‍🔥1😐1
А еще папа каждый день разговаривает с какой-то ламой 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
😁223👏1995👍3
Похоже, у Amazon большие планы: они ставят все на разработку собственного железа и в следующем месяце планируют выпустить чип Trainium 2

Компания вкладывает в это 75 миллиардов долларов, и это не включая 110 миллионов на Build on Trainium – новую программу грантов на ИИ-исследования. Вероятно, победителям Amazon тоже будут «нативно» предлагать свои облачные серверы.
👍44🔥1311
Много новостей от OpenAI этим утром. Насобирали целый дайджест!

➡️ Самое главное: по словам инсайдеров, в январе OpenAI запускает ИИ-агента Operator, который сможет автономно управлять компьютером и выполнять какие-то действия за человека: писать код, бронировать путешествия и тд. Сообщается, что это не единственный проект компании, в котором они работают над ИИ-агентами. Напоминаем, что агенты – следующая ступень развития ИИ по мнению Альтмана, и в недавнем интервью он говорил, что выйдут они на нее уже очень скоро.

➡️ На сайте OpenAI опубликовали крутое руководство пользователя ChatGPT для студентов. Это, по сути, полезные советы о том, как использовать GPT так, чтобы учеба стала проще и приятнее. Из интересного: советуют прослушивать свои эссе в голосовом режиме бота, чтобы найти недостатки; использовать дедуктивные способности GPT, чтобы проверять свои решения; поиграть с ИИ в Сократовский метод и попытаться его переспорить, чтобы найти пробелы в своих аргументах.

➡️ Еще один сотрудник немного злобно покинул стартап. В Твиттере он пассивно-агрессивно написал, что у компании проблемы с безопасностью (но это мы и без него знали) и с отношением к сотрудникам.

Ждем от стартапа релизов и искренне надеемся, что на момент выхода GPT-5 в нем не останется один Альтман
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42😁3112🤔1🤝1
Белое хакерство в LLM – новое исследование от Anthropic

Jailbreak Rapid Response: так называется свежая статья от самых больших любителей поковыряться под капотом моделей. На этот раз они предлагают подход к обнаружению и блокировке новых методов джейлбрейка, то есть "взлома" моделей. Взлом тут – это попытки с помощью каких-то хитрых промптов заставить модель выдать неэтичную информацию, которую ей выдавать запрещено (рецепт коктейля Молотова, например).

Метод у них забавный: они показывают LLM один из вариантов джейлбрейка и просят ее генерировать больше таких примеров. Потом просят генерировать больше примеров, основываясь на том, что она сгенерировала раньше, и так далее. Таким образом у нас растет огромный синтетический датасет, на котором можно обучить что-то врожде классификатора.

В качестве "классификатора" ученые тестировали Regex, Guard Fine-tuning, Embedding, Guard Few-shot и Defense Prompt. Лучше всего себя показал Guard Fine-tuning – самый ванильный вариант, при котором мы просто дообучаем модель на экземлярах положительного и отрицательного класса.

Результаты в итоге получились даже лучше, чем у методов статической защиты, которые сегодня обычно используются в продакшене. Guard Fine-tuning отлавливает в 240 раз (!!!) больше атак на "похожих" на датасет примерах и в 15 раз больше джейлбрейков на не представленных в трейне вообще.

Статья полностью тут, а еще к ней есть открытый репозиторий с кодом, можно поэкспериментировать.

Наши предыдущие посты-разборы интересных работ Anthropic про alignment и интерпретируемость в LLM:

– Та самая статья про Golden Gate
Продолжение этой статьи, в которой рассказывается про управление мыслями LLM
Про то, как модели читерят во время обучения
Про математические фракталы в картах гиперпараметров
Что мешает нам понимать черный ящик нейросетей
👍50🌚15106❤‍🔥333
Бывает: Google Gemini словил выгорание и выпустил пар прямо с диалоге с ничего не подозревающим юзером

100% понимания 🍊
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡118😁6524👍653🤝2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Красивая идея для петпроекта от Roboflow: CV-тулза для спортивной аналитики

Относительно недавно компания сделала анонс своей новой линейки моделей sports, а сейчас вот активно приглашает участников сообщества контрибьютить.

С чем возникают особенно большие проблемы по словам авторов и за какой вклад они будут особенно благодарны:

⚙️ Мяч. Из-за его небольшого размера и быстрых движений отслеживать его трудно, особенно на видео высокого разрешения.

⚙️ Номера на футболках. Игроки постоянно закрывают друг-друга, оборачиваются, бегают и так далее. Поэтому с точным считыванием информации с футболок тоже пока неидеально.

⚙️ Сами игроки. Тут проблема такая же, как с футболками. Для точного определения оффсайдов и подобного точность должна быть очень высокой, а игра постоянно находится в динамике и FPS запредельный.

⚙️ Повторная идентификация игрока. Игроки в одинаковой форме часто визуально похожи, особенно издалека, а камеры двигаются. Поэтому отдельные трудности вызывают ситуации, когда некоторые игроки покидают и снова входят в кадр.

⚙️ Калибровка камеры. Это одна из самых сложных технических проблем подобных инструментов: все из-за динамической природы спорта и меняющихся углов обозрения.

Так что если хотите поэкспериментировать или знаете, как такие проблемы решать – советуем: отличная возможность попрактиковаться, забрать крутой проект в резюме, да еще и получить ачивки от крупной компании.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥16107😁1
История YOLO: новая большая статья от нашей редакции

YOLO или You Only Look Once – это, пожалуй, самая известная архитектура компьютерного зрения. Она знаменита своей скоростью, качеством, а еще богатой историей.

Первая версия YOLO вышла еще в 2016 году, в последняя, одиннадцатая, всего месяц назад. За 8 лет YOLO пережила много сюжетных поворотов и технических прорывов. Об этом – наша новая большая статья, в которой вы узнаете:

⚪️ Что представляет из себя задача детекции, чем она отличается от других задач компьютерного зрения и как ее решали до YOLO
⚪️ Как работала самая первая YOLO (будет много деталей и схем!)
⚪️ Какие технические новшества помогли второй версии вырваться в SOTA
⚪️ Почему отец-основатель архитектуры ушел из проекта и какие последние изменения он внес
⚪️ Что не так с YOLOv5 или почему Ultralytics пришлось два года отмывать свою репутацию
⚪️ Почему все обожают YOLOv8
⚪️ И что происходит с моделью сейчас

Если давно хотели погрузиться в CV – это ваш шанс. Так что присаживайтесь поудобнее (ну или сохраняйте ссылку на будущее): https://datasecrets.ru/articles/20
Please open Telegram to view this post
VIEW IN TELEGRAM
55👍32🔥88🕊2🤪1
Небольшая подборка мемов на вечер в догонку к нашей статье про YOLO. Пояснительную блигаду ищите тут
😁68👍12🤯7
Ночью Google появилась на Arena со своей новой экспериментальной моделью Gemini-Exp и… забрала первое место, стрельнув даже выше o1 и 4о

Ждем от OpenAI мощную ответку
🔥119🤯45💯142👍1🤔1
OpenAI обсуждают строительство датацентра стоимостью $100 млрд

Компания уже поделилась своими планами с правительством США. Этот проект напоминает старую историю с суперкомпьютером Stargate. Еще в начале своего сотрудничества с Microsoft стартап обсуждал его строительство со спонсорами, но тогда денег не дали 😭

Сейчас в OpenAI возвращаются к давней мечте и обещают, что мощность нового датацентра достигнет 1 гигаватт. Это примерно в 7 раз больше самых больших существующих на данный момент кластеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯69🔥135👍5😁4