Data Secrets
77.4K subscribers
6.04K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Ситуация прямо сейчас
😁105👍6🔥61🙈1
Слышали о Мише Ласкине из DeepMind? У него там классное интервью вышло

Ласкин родился в России, эмигрировал в США, работал над Gemini и AlphaGo в DeepMind, а сейчас является CEO и ко-фаундером ReflectionAI.

Так вот. На днях вышло его интервью про развитие ИИ, его опыт, компанию и пр. Интересное:

➡️Миша верит, что до AGI примерно три года, сейчас технология развивается пугающе быстро

➡️Текущие языковые модели достаточно широкие и общие с точки зрения знаний, но глубины рассуждений им не хватает. Глубина агентов – основная цель ReflectionAI

➡️Оптимальный путь создания AGI — сочетание обучения на большом количестве данных с обучением с подкреплением, как это было сделано с AlphaGo. Сейчас, по мнению Ласкина, RL уделяют недостаточно внимания

➡️В частности нерешенной фундаментальной проблемой RLHF в текущих моделях является получение робастных универсальных reward моделей

➡️Еще одна недостаточно изученная область – интерпретируемость моделей. «Понимание теоретических принципов, лежащих в основе их возможностей, похоже на физику конца 1800-х годов» - сказал ученый.

Ссылка на полное интервью
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3712😁11🤔5🔥31
Очередной скандал с данными для обучения

Что объединяет Mr.Beast, The Wall Street Journal и Гарвард? У них всех «украли» видео для обучения моделек. К такому выводу пришли журналисты из Wired и Proof News.

А дело вот в чем: есть такой открытый датасет под названием The Pile. К нему и раньше были вопросы из-за большого количества мата, религиозных и расовых оскорблений и пр. А сейчас выяснилось, что он еще и содержит субтитры более 170к роликов с 48 тысяч YouTube каналов. Это, естественно, полное нарушение правил платформы.

Однако обвиняют во всем все равно корпорации: Apple, Nvidia, Anthropic и др. Те даже не пытались скрыть, что используют Pile, и явно ссылались на него в статьях, ведь это (еще раз) открытый датасет.

Anthropic, кстати, журналистам так и сказали, мол: «Ну и предъявляйте создателям Pile, мы то что нарушили?». Остальные компании и вовсе воздержались от комментариев.

Ну и вообще, использование субтитров с YouTube для обучения уже ни для кого не новость. Еще давно выяснилось, что OpenAI и Google транскрибируют видео и даже разрабатывают для этого специальные инструменты (почитайте этот наш пост).

А Proof News, кстати, даже инструмент выкатили для проверки того, не используют ли ваш канал для ИИ. Проверьте, вдруг повезло 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
33👍19😁12
Буквально все человечество с 2014 года: «Скоро у нас будет AGI!!!»

Тем временем 19 июля 2024:
🎉55😁417🤯5🫡4👍3
Новости с Turbo ML Conf: AI-Центр Т-Банка открывает доступ к собственной русскоязычной языковой модели в весовой категории 7—8 млрд параметров — T-lite

Индустриальные и внутренние бенчмарки показали, что T-lite выдает лучшие результаты в решении бизнес-задач на русском языке среди открытых моделей подобного размера.

После дообучения на конкретные бизнес-задачи T-lite дает качество, сопоставимое с проприетарными моделями размером от 20 миллиардов параметров, но при этом в разы дешевле в эксплуатации.

T-lite обогнала по показателям зарубежные llama3-8b-instruct и chat-gpt 3.5. При этом модель создана с использованием всего 3% вычислительных ресурсов, которые обычно требуются для такого типа моделей.
🔥62👍117😁32🐳1
Forwarded from XOR
⚡️ Крупные IT-компании, включая Microsoft, Google, Nvidia, Intel, IBM, PayPal, Amazon и OpenAI, объединились в «Коалицию за безопасный искусственный интеллект» (CoSAI).

🟢Основная цель организации — сделать ИИ безопасным путем предоставления доступа разработчикам к открытым методологиям, фреймворкам и инструментам.

🟢Также первоочередными задачами будут улучшение мониторинга цепочек поставок ПО для ИИ-систем и подготовка специалистов в области кибербезопасности.

🟢Все неплохо, но на этой неделе журналисты выпустили статью о том, что Apple, Nvidia, Anthropic используют для обучения ИИ датасет The Pile, где много мата, религиозных и расовых оскорблений и субтитры более 170к роликов с YouTube (что является нарушением платформы). Более того, некоторые ролики, используемые для обучения, также способствовали распространению теорий заговора и лженауки.

Хоть датасет открытый — звучит все же не как «Коалиция безопасного ИИ»

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27😁13👍86
Новая иерархия инструкций в gpt-4o-mini

Возможно, самое интересное в свежей модели OpenAI – это новый метод борьбы с джейлбрейкингом.

Разработчики разделили все инструкции по разным уровням иерархии. Исходно зашитые в модель промпты имеют наивысший приоритет, потом идут промпты от юзера, а за ними с самым низким приоритетом промпты от «сторонних инструментов» (это в случае, если вы используете модель в рамках стороннего приложения).

Если некий поданный в модель промпт конфликтует с промптом из другой группы, автоматически выбирается тот, который имеет приоритет повыше.

Официальных тестов не было, но энтузиасты уже успели все сравнить – наверху табличка, в которой видно, что gpt-4o-mini на 20% «защищеннее» gpt-4o. Получается, как раз за счет иерархии инструкций.

Хотя, конечно, от всего метод не спасает. Пользователи уже делятся кейсами, как заставляют бота писать вредоносный код, рецепты наркотиков и тд.
👍43🔥98👌1
⚪️ Японские СМИ выражают опасения по поводу LLM. Они говорят, что это «зайцы» в мире СМИ, которые используют контент с сайтов и не генерируют значительного ответного трафика.

Особенно бизнес-моделям сайтов, по их мнению, вредят Perplexity-подобные системы, однако они хотя бы указывают источник. Журналистам удалось доказать, что GPT, например, на некоторые вопросы отвечает чуть ли не дословными отрывками из новостных статей (конечно, без ссылок на источник).

Согласны, обидно получается
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔40😁247👍2🤨1🗿1
Из пепла Яндекса выходит Nebius, «стартап» с планами стать европейским лидером в области ИИ-вычислений

Нет, такой прекрасный заголовок не мы придумали, а западные СМИ. Так они пишут про компанию, которая стала «преемником» YandexNV. 15 июля YandexNV окончательно распродала все свои активы в России (на ОЧЕНЬ невыгодных условиях), а на днях вот решила менять имя.

Теперь Nebius будет позиционировать себя как фуллстэк компанию по производству AI-инфраструктуры и планирует стать лидером на рынке Европы.

Шансы есть, потому что вообще-то проект Nebius сам по себе существует уже год. Как минимум, бороться за рынок GPU-as-a-service не придется с нуля. К тому же в распоряжении компании есть давнее партнерство с Nvidia и финский датацентр.

Такие дела.
🔥77👍24🤪21🌭6🗿52😁1🙈1💅1
Психиатр: резюме не может вам угрожать, успокойтесь
Резюме:
😁148👏10🤔6😎4🔥3👍2🤝2
Там ярко обновился DeepSeek-V2

Вышла версия V2-Chat-0628. Теперь это SOTA среди открытых LLM по арене. Скорее всего, наслаждаться славой моделька будет, пока завтра не выйдет Llama 3 400В, но тем не менее.

Что обновили? Судя по всему, просто провели пост-трейнинг и до обучение на инструкциях. Хотя кроме этого, скорее всего, есть некий «секретный ингредиент»: результаты относительно v2 скакнули слишком сильно.

Получилось аж +17 пунктов по MATH и +14,1 по IFEVAL, а также +26,7 на Arena Hard.
20🔥8🤯6👍3
⚡️ Llama 3 на 400B слили на день раньше

Все, как всегда, благодаря 4chan. Правда весит все чудо 820GB 😝

В интернете уже есть ссылки на торенты. Пару часов назад модель также была замечена на HF под именем miqu2, но сейчас оттуда ее уже почистили.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁60🔥12🤩5👍1🤔1
Вышло дополнение к очень классной книге «Hands-On Generative AI»

Если еще не читали – обязательно занесите в ридинг лист. Книга новая, вышла в декабре, а теперь вот и обновление со свежими диффузионными и трансформерными архитектурами подоспело.

Что в книге? Если кратко, то просто ВСЕ, что связано с генеративными моделями: разбор трансформера, разбор диффузии, разборы самых известных архитектур и их файнтюнинга. В качестве приятного дополнения главы про Generating Audio.

Читать можно на O’reilly.
👍51🔥148😎1
⚡️ Breaking! Llama 3.1 405B будет новой SOTA

Как вы помните, вчера модель слили на 4chan. А ночью в сеть просочились и бенчмарки. Выглядит очень сочно, на многих тестах моделька обгоняет даже взрослую GPT-4o.

Вместе с llama 3.1 на 405В параметров выходят 3.1 на 70В и на 8В. Посмотрите в таблице, какой у них мощный прирост относительно обычных троек на то же количество параметров. Есть предположение, что это получилось потому что это не дотренированные или дотюненные с нуля модели, а дестилляции моделей покрупнее.

То есть ученые не сразу обучили модель с 70В или 8В параметрами, а обучили модель с Х параметрами, где Х>>8/70В, а потом провели дистилляцию. Очень интересный подход.

Кажется, у нас наконец будет опенсорс уровня GPT-4o 🥳
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8622👍83😁22