This media is not supported in your browser
VIEW IN TELEGRAM
Со всеми этими Strawberry и Grok Google совсем ушли на второй план со своей новой Gemini Live
Презентация продукта прошла на прошлой неделе в четверг, вместе с моделькой показывали новые смартфоны. Правда, на этой презентации у них что-то не работало прямо на сцене, но для Google фейлы не в новинку.
Gemini Live – это ИИ-ассистент, который в теории должен будет быть «живым» и поддерживать прямые трансляции видео и аудио (aka Apple Intelligence). Ну а пока что это просто тул для взаимодействия с приложениями.
Ждем Apple, может они покажут что-то более захватывающее
Презентация продукта прошла на прошлой неделе в четверг, вместе с моделькой показывали новые смартфоны. Правда, на этой презентации у них что-то не работало прямо на сцене, но для Google фейлы не в новинку.
Gemini Live – это ИИ-ассистент, который в теории должен будет быть «живым» и поддерживать прямые трансляции видео и аудио (aka Apple Intelligence). Ну а пока что это просто тул для взаимодействия с приложениями.
Ждем Apple, может они покажут что-то более захватывающее
1❤22👍10🔥5
Media is too big
VIEW IN TELEGRAM
Робототехники из Hugging Face только что выпустили супер подробный туториал о том, как построить и обучить себе робота
Вот репозиторий. Для начала предлагается обучить сетку предсказывать следующее движение робота по данным с камеры. Трейн можете собрать сами, в репе есть туториал.
По этой же ссылке есть информация, откуда заказать детали и как их собрать. Есть даже руководство по тому, как распечатать все необходимое на 3D-принтере.
Также приложены скрипты для визуализации движений двигателя вашего робота. А самое интересное, что код уже адаптирован для того, чтобы собирать все данные для будущего обучения во время непосредственной работы железного.
Домашнего оптимуса прайма заказывали?
Вот репозиторий. Для начала предлагается обучить сетку предсказывать следующее движение робота по данным с камеры. Трейн можете собрать сами, в репе есть туториал.
По этой же ссылке есть информация, откуда заказать детали и как их собрать. Есть даже руководство по тому, как распечатать все необходимое на 3D-принтере.
Также приложены скрипты для визуализации движений двигателя вашего робота. А самое интересное, что код уже адаптирован для того, чтобы собирать все данные для будущего обучения во время непосредственной работы железного.
Домашнего оптимуса прайма заказывали?
1🔥77🤗13❤8👍4👾1 1
🍎 На случай, если вам не пришла открытка в WhatsApp от бабушки, напоминаем и поздравляем: сегодня Яблочный спас!
В честь праздника в сеть слили все характеристики новых iPhone. Оказалось, что Apple Intelligence будет во всех моделях, а не только в Pro или Pro Max, как многие предполагали. При этом айфонам 15 поколения повезло меньше: там как раз с Apple Intelligence будут совместимы только Pro модели.
И есть еще одно НО: для совместимости оперативка должна превышать 8GB. По идее, более старые 8GB Mac должны вытаскивать, но это не точно. Айфоны также получат новые чипы A18 и A18 Pro для более шустрого инференса.
В честь праздника в сеть слили все характеристики новых iPhone. Оказалось, что Apple Intelligence будет во всех моделях, а не только в Pro или Pro Max, как многие предполагали. При этом айфонам 15 поколения повезло меньше: там как раз с Apple Intelligence будут совместимы только Pro модели.
И есть еще одно НО: для совместимости оперативка должна превышать 8GB. По идее, более старые 8GB Mac должны вытаскивать, но это не точно. Айфоны также получат новые чипы A18 и A18 Pro для более шустрого инференса.
1👍25😁14❤8🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите: наглядный прогресс LLM моделей в рейтинге ELO за последние 15 месяцев
Красота
Красота
2❤44🔥17👍8🤓6
This media is not supported in your browser
VIEW IN TELEGRAM
Окружен, но не сломлен: CEO графического редактора Procreate Джеймс Куда заявил, что никогда не будет внедрять ИИ ни в один из продуктов.
За 14 часов ролик собрал 3 млн просмотров и 16 тысяч репостов. Вот что бывает, когда ломаешь систему.
«Я, бл*дь, ненавижу ИИ. Мы тут ценим человеческое творчество».
За 14 часов ролик собрал 3 млн просмотров и 16 тысяч репостов. Вот что бывает, когда ломаешь систему.
3😁107👍41🔥29❤10🗿6🤓3🐳1
AMD собирается приобретать ZT Systems за почти $5 миллиардов
Видимо, AMD надоело дышать в спину Nvidia и они решили что-то делать. ZT Systems – это компания, которая занимается дизайном вычислений и инфраструктуры для ИИ.
Кстати, сейчас ZT Systems также тесно сотрудничает с Intel и Nvidia. То есть возможно, AMD не просто покупают ценную компанию, а еще и лишают конкурента важного партнерства🤔
Видимо, AMD надоело дышать в спину Nvidia и они решили что-то делать. ZT Systems – это компания, которая занимается дизайном вычислений и инфраструктуры для ИИ.
Кстати, сейчас ZT Systems также тесно сотрудничает с Intel и Nvidia. То есть возможно, AMD не просто покупают ценную компанию, а еще и лишают конкурента важного партнерства
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥40🤔15❤9 3👍2😁2
Ученые из Meta выкатили крутую работу "Imagine yourself", в которой показали, как заставить диффузионку генерировать собственные портреты без тюнинга
В основном такие модели до этого сталкивались с двумя проблемами: человек на генерации оказывается непохожим на тебя или модель генерирует нормально только фото, очень похожие на референс, а креативить не может (например, "сгенерируй меня на Марсе" сработает очень плохо).
Чтобы побороть эти проблема, в Meta предложили полностью параллельную attention-архитектуру с тремя энкодерами для текста (промптов) и одним для изображений. В качестве трех энкодеров для текста выступают классический CLIP, UL2 для длинных промптов и ByT5, который незаменим, если в итоговой картинке должен быть текст.
Каждый энкодер вносит свой вклад в итоговые фичи, которые затем встраиваются в LDM. По метрикам модель получилась SOTA, и к тому же она уже доступна юзерам из US в MetaAI.
В основном такие модели до этого сталкивались с двумя проблемами: человек на генерации оказывается непохожим на тебя или модель генерирует нормально только фото, очень похожие на референс, а креативить не может (например, "сгенерируй меня на Марсе" сработает очень плохо).
Чтобы побороть эти проблема, в Meta предложили полностью параллельную attention-архитектуру с тремя энкодерами для текста (промптов) и одним для изображений. В качестве трех энкодеров для текста выступают классический CLIP, UL2 для длинных промптов и ByT5, который незаменим, если в итоговой картинке должен быть текст.
Каждый энкодер вносит свой вклад в итоговые фичи, которые затем встраиваются в LDM. По метрикам модель получилась SOTA, и к тому же она уже доступна юзерам из US в MetaAI.
11👍35🔥14❤7😁1
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍61😁33🔥11🤪8🌚1🤨1
Наша свежая статья про дистилляцию и прунинг на примере новой модели Nvidia
Дистилляция и прунинг – новые тренды индустрии и ресерча. Ученые стараются научиться разрабатывать небольшие языковые модели, которые также эффективны, как крупные, но при этом гораздо легче, доступнее и дешевле.
Таким образом создавались Llama 3.1 70B, Llama 3.1 8B, Minitron 8B и 4В, и, возможно, даже GPT4o-mini. Если хотите разобраться – наша новая статья для вас!
В ней мы на примере новой работы Nvidia объяснили:
⚪️ Что такое дистилляция и прунинг, и какими они бывают
⚪️ Как их лучше использовать
⚪️ Как ученым удалось сделать из Lllama 3.1 8B модель в два раза меньше и бодрее, ставшую SOTA в своем размере
Читайте по ссылке: https://datasecrets.ru/articles/17
Дистилляция и прунинг – новые тренды индустрии и ресерча. Ученые стараются научиться разрабатывать небольшие языковые модели, которые также эффективны, как крупные, но при этом гораздо легче, доступнее и дешевле.
Таким образом создавались Llama 3.1 70B, Llama 3.1 8B, Minitron 8B и 4В, и, возможно, даже GPT4o-mini. Если хотите разобраться – наша новая статья для вас!
В ней мы на примере новой работы Nvidia объяснили:
Читайте по ссылке: https://datasecrets.ru/articles/17
Please open Telegram to view this post
VIEW IN TELEGRAM
62🔥30👍14 6
Всего релизнули три варианта модели:
Самый громкий и крутой релиз Microsoft за последнее время. Веса всех моделей лежат тут на HF. Будем ждать на Арене.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33🔥21👍8
Наш мозг файнтюнится на синтетических данных, пока спит
В ML-сообществе внезапно вызвала большой отклик статья, выпущенная биологами из университета Калифорнии. В ней показано, что сны для мозга – это нечто большее, чем мы предполагали.
Оказывается, в фазе быстрого сна мозг выдает реальные двигательные команды и реагирует на них, как во время бодрствования. То есть для мозга "поверни налево" во сне и в реальности – фактически одно и то же, несмотря на то, что во сне эти команды не приводятся в действие.
Зачем мозг это делает? Чтобы совершенствовать нейронные связи даже когда он оторван от реальной среды. Это своеобразное "самомоделирование". При этом, что очень интересно, мозг во время такого сонного обучения глушит сигналы, которые он обычно получает "в ответ" от тела во время движений. Это нужно для того, чтобы случайно не привыкнуть ко снам слишком сильно и не разучиться пользоваться своим реальным телом.
Скажите, вы ведь тоже видите тут параллели с синтетическими данными, градиентами и оверфиттингом?🤔
В ML-сообществе внезапно вызвала большой отклик статья, выпущенная биологами из университета Калифорнии. В ней показано, что сны для мозга – это нечто большее, чем мы предполагали.
Оказывается, в фазе быстрого сна мозг выдает реальные двигательные команды и реагирует на них, как во время бодрствования. То есть для мозга "поверни налево" во сне и в реальности – фактически одно и то же, несмотря на то, что во сне эти команды не приводятся в действие.
Зачем мозг это делает? Чтобы совершенствовать нейронные связи даже когда он оторван от реальной среды. Это своеобразное "самомоделирование". При этом, что очень интересно, мозг во время такого сонного обучения глушит сигналы, которые он обычно получает "в ответ" от тела во время движений. Это нужно для того, чтобы случайно не привыкнуть ко снам слишком сильно и не разучиться пользоваться своим реальным телом.
Скажите, вы ведь тоже видите тут параллели с синтетическими данными, градиентами и оверфиттингом?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥158👍27❤18🤔7🤯7😁2👀2🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем Hugging Face сегодня пробил 5 миллионов пользователей. Напоминаем, что при этом у них в команде менее 200 человек 😮
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡100☃23🤯17🤗13❤10🔥6👍1🤨1
Forwarded from Data Secrets | Карьера
Please open Telegram to view this post
VIEW IN TELEGRAM
😁120👍21🔥11🙈8❤3🤯3
Два брата-близнеца c Reddit пару недель назад выпустили книгу с объяснением главных DL-парадигм в картинках
Называется чудо "Illustrated book to learn about Transformers & LLMs" и выглядит просто колоссально кайфово. По главам:
▪️ основы нейросетей (перцептроны там всякие, обратное распространение и тд);
▪️ эмбеддинги и токенизация;
▪️ дальше RNN, LSTM, GRU;
▪️ и, конечно же, трансформеры. Тут все, от внимания и BERT до GPT, дистилляции и RLHF;
▪️ бонусом рассказ про классические задачи, такие как машинный перевод, sentiment extraction или RAG.
В общем, всё от и до, а куча картинок на каждой странице помогут понять и запомнить даже самые непростые вещи. Правда, доступна пока только печатная версия, но PDF авторы обещают скоро выкатить.
Называется чудо "Illustrated book to learn about Transformers & LLMs" и выглядит просто колоссально кайфово. По главам:
В общем, всё от и до, а куча картинок на каждой странице помогут понять и запомнить даже самые непростые вещи. Правда, доступна пока только печатная версия, но PDF авторы обещают скоро выкатить.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝86❤42👍38
Apple, накануне новой презентации с Apple Intelligence, снова заняла первое место в рейтинге самых технологичных компаний.
Amazon упал на 4 место (вот чем кончается использование индусов вместо Computer Vision).
А Nvidia впервые вошла в топ-10, видимо за счет активного дропа ИИ-статей и моделей.
Amazon упал на 4 место (вот чем кончается использование индусов вместо Computer Vision).
А Nvidia впервые вошла в топ-10, видимо за счет активного дропа ИИ-статей и моделей.
😁67👍12❤8🙈4🔥1
To Code, or Not To Code
Современный Гамлет? Да нет, просто новая статья, в которой показано, что предобучение на коде улучшает метрики на некодовых задачах.
Ресерчеры из Cohere обнаружили, что даже небольшое количество кода в претрейне повышает производительность модели на языковом ризонинге на 8% (по сравнению с претрейном только на тексте). При этом можно брать даже качественный синтетический код.
Отправляем другу гуманитарию🤔
Современный Гамлет? Да нет, просто новая статья, в которой показано, что предобучение на коде улучшает метрики на некодовых задачах.
Ресерчеры из Cohere обнаружили, что даже небольшое количество кода в претрейне повышает производительность модели на языковом ризонинге на 8% (по сравнению с претрейном только на тексте). При этом можно брать даже качественный синтетический код.
Отправляем другу гуманитарию
Please open Telegram to view this post
VIEW IN TELEGRAM
6 51👍22😁7❤4🔥3 3
Исследователи из Nvidia, видимо, нашли себе любимое занятие: дистиллировать и прунить модели
Около месяца назад они выпустили модель Minitron, полученную с помощью сжатия их собственной LLM Nemotron, а потом вошли во вкус и начали штамповать Minitron'ов других опенсорс моделей.
Неделю назад вышла Llama-3.1-Minitron-4B, ставшая SOTA в своем размере, а сегодня вот они выкатили Mistral NeMo Minitron 8В.
Надо сказать, что получается у них действительно неплохо: получившиеся мини-версии почти не уступают, а где-то и обгоняют по бенчмаркам своих "родителей".
Как у исследователей это получается, можете прочитать в нашей статье. Там мы подробно и понятно разбирали, что такое дистилляция и прунинг, и как в Nvidia итеративно их смешивают.
Веса нового Mistral NeMo Minitron 8В лежат на HF + моделью уже можно воспользоваться из Transformers.
Около месяца назад они выпустили модель Minitron, полученную с помощью сжатия их собственной LLM Nemotron, а потом вошли во вкус и начали штамповать Minitron'ов других опенсорс моделей.
Неделю назад вышла Llama-3.1-Minitron-4B, ставшая SOTA в своем размере, а сегодня вот они выкатили Mistral NeMo Minitron 8В.
Надо сказать, что получается у них действительно неплохо: получившиеся мини-версии почти не уступают, а где-то и обгоняют по бенчмаркам своих "родителей".
Как у исследователей это получается, можете прочитать в нашей статье. Там мы подробно и понятно разбирали, что такое дистилляция и прунинг, и как в Nvidia итеративно их смешивают.
Веса нового Mistral NeMo Minitron 8В лежат на HF + моделью уже можно воспользоваться из Transformers.
👍37😁9❤8
This media is not supported in your browser
VIEW IN TELEGRAM
Ни за что не угадаете, что это за штука и для чего она
… пока не досмотрите до пятой секунды видео. Это изобретение робототехников из Мюнхена для сбора данных. Оно специально спроектировано так, что обрабатывает данные в реальном времени и может служить для обучения различных частей тела робота (например, как для мелкой моторики, так и для движений всей руки). Код лежит в открытом доступе, вот тут.
Да, чего только ради этих данных не сделаешь. Кстати, почти такой же девайс, но менее продвинутый, недавно делали в Стенфорде. Именно им разработчики и вдохновлялись.
А спину им можно почесать, интересно?
… пока не досмотрите до пятой секунды видео. Это изобретение робототехников из Мюнхена для сбора данных. Оно специально спроектировано так, что обрабатывает данные в реальном времени и может служить для обучения различных частей тела робота (например, как для мелкой моторики, так и для движений всей руки). Код лежит в открытом доступе, вот тут.
Да, чего только ради этих данных не сделаешь. Кстати, почти такой же девайс, но менее продвинутый, недавно делали в Стенфорде. Именно им разработчики и вдохновлялись.
👍59🔥16❤8
This media is not supported in your browser
VIEW IN TELEGRAM
Масштабирование ИИ продолжится в том же темпе до 2030
Это установили аналитики из знаменитого EpochAI. Они также утверждают, что если тенденция на кратное увеличение компьюта сохранится, то к концу десятилетия мы увидим модели, обученные на кластерах в 10 000 раз больше, чем GPT-4. Сейчас мощи растут в 4 раза ежегодно.
Но что насчет того, возможно ли это вообще? По подсчетам, на момент 2030 года на обучение моделей потребуется 5GW (сейчас это 30MW), 100 млн GPU (Llama 3.1 405B обучалась на 16K видеокарт) и во много тысяч раз больше данных.
И тем не менее аналитики на основе данных о масштабировании Интернета и промышленности постановили, что человечество в силах раздобыть такие ресурсы, то есть перечисленное не будет серьезным препятствием к масштабированию.
Полный отчет можно посмотреть тут
Это установили аналитики из знаменитого EpochAI. Они также утверждают, что если тенденция на кратное увеличение компьюта сохранится, то к концу десятилетия мы увидим модели, обученные на кластерах в 10 000 раз больше, чем GPT-4. Сейчас мощи растут в 4 раза ежегодно.
Но что насчет того, возможно ли это вообще? По подсчетам, на момент 2030 года на обучение моделей потребуется 5GW (сейчас это 30MW), 100 млн GPU (Llama 3.1 405B обучалась на 16K видеокарт) и во много тысяч раз больше данных.
И тем не менее аналитики на основе данных о масштабировании Интернета и промышленности постановили, что человечество в силах раздобыть такие ресурсы, то есть перечисленное не будет серьезным препятствием к масштабированию.
Полный отчет можно посмотреть тут
❤30🔥13🤪9👍4🙈1
OpenAI такие: "Дааа, мы за регуляризацию! (...но только если регулируют не нас)"
В США сейчас рассматривают новый законопроект об искусственном интеллекте, который запретит опенсорс и разрешит разрабатывать сильный ИИ только небольшой группе компаний, фактически убив индустрию. OpenAI, конечно, в начале этот проект поддержали (можно ли было представить более выгодные для них условия?). Вот что сказал их стратегический директор Джейсон Квон неделю назад:
Но потом появились новые детали о том, насколько жестко будут контролироваться эти избранные компании, и вот что Квон говорит сегодня:
Напоминаем, что OpenAI и, в частности, Альтман до этого были активными участниками лоббирования жесткого закона по регуляризации ИИ в Европе. Вот такие пироги🤯
В США сейчас рассматривают новый законопроект об искусственном интеллекте, который запретит опенсорс и разрешит разрабатывать сильный ИИ только небольшой группе компаний, фактически убив индустрию. OpenAI, конечно, в начале этот проект поддержали (можно ли было представить более выгодные для них условия?). Вот что сказал их стратегический директор Джейсон Квон неделю назад:
"Мы всегда считали, что ИИ должен регулироваться, и эта позиция остается неизменной».
Но потом появились новые детали о том, насколько жестко будут контролироваться эти избранные компании, и вот что Квон говорит сегодня:
"Законопроект Калифорнии об искусственном интеллекте поставит под угрозу рост и замедлит темпы инноваций ..."
Напоминаем, что OpenAI и, в частности, Альтман до этого были активными участниками лоббирования жесткого закона по регуляризации ИИ в Европе. Вот такие пироги
Please open Telegram to view this post
VIEW IN TELEGRAM