This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia представили EdgeRunner – модель для генерации высококачественных 3D-объектов
EdgeRunner справляется даже со сложными моделями, в которох число граней достигает 4000. Предыдущие поколения алгоритмов не тянули такую детализацию.
Недавний тренд таких 3D генераций – авторегрессионные модели: за счет своей структуры они способны сохранять больше топологической информации. И на мелких примерах они действительно работают хорошо, но есть нюанс: на большее количество граней и высокое разрешение они не масштабируются.
В Nvidia чуть-чуть докрутили архитуктуру и предложили автоэнкодер (тоже авторегрессионный). За счет наличия в нем скрытого пространства появляется возможность обучить латентную диффузию и получить лучшую генерализацию; а для оптимизации исследователи прикрутили meshes-to-1D токенизатор.
В итоге результаты получились действительно крутые: вот тут можно посмотреть и покрутить 3D-модельки в рамках демо. А полный текст статьи лежит вот тут.
EdgeRunner справляется даже со сложными моделями, в которох число граней достигает 4000. Предыдущие поколения алгоритмов не тянули такую детализацию.
Недавний тренд таких 3D генераций – авторегрессионные модели: за счет своей структуры они способны сохранять больше топологической информации. И на мелких примерах они действительно работают хорошо, но есть нюанс: на большее количество граней и высокое разрешение они не масштабируются.
В Nvidia чуть-чуть докрутили архитуктуру и предложили автоэнкодер (тоже авторегрессионный). За счет наличия в нем скрытого пространства появляется возможность обучить латентную диффузию и получить лучшую генерализацию; а для оптимизации исследователи прикрутили meshes-to-1D токенизатор.
В итоге результаты получились действительно крутые: вот тут можно посмотреть и покрутить 3D-модельки в рамках демо. А полный текст статьи лежит вот тут.
🔥32👍10❤5
За последний месяц произошел какой-то бум опенсорса. Сами оцените, вот краткая сводка:
➡️ NVIDIA релизнули Nemotron 51B, NVLM 1.0 (мультимодальную), OpenMath, Nemotron Reward, RADIO
➡️ Llama 3.2 – первая VLM от Meta. Кроме того, компания дропнула SAM 2.1 и CoTracker 2.1
➡️ Molmo от AllenAl, очень впечатляюще
➡️ Emu3 от BAAI: моделька полностью на next token prediction, умеет работать с видео/картинками/текстом как на вход, так и на выход
➡️ Даже OpenAl в стороне не осталась: компания выложила веса для модельки транскрибирования аудио whisper 3
➡️ И это не все: еще Google обновили Gemma для японского, Apple релизнули Depth Pro, IBM вместе с NASA выкатили Prithvi WxC для прогнозов погоды, у ColQwen2 вышел visual retriever на основе Qwen2-VL и ColBERT, и конечно мы увидели новую Llava
Красивое🤩
Красивое
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55❤18🔥16🤯1
Для тех, кто давно хотел разобраться с тем, как устроена архитектура MoE
Автор книги Hands-On LLM выпустил гайд в картинках, где на пальцах очень подробно объясняет, как работает Mixture of Experts (в частности две ее основных составляющих: роутер и эксперты).
Кроме того, в разборе раскрыты и практические детали. Например, написано про важность балансировки и MoE для vision моделей. Так что такое читаем!
Автор книги Hands-On LLM выпустил гайд в картинках, где на пальцах очень подробно объясняет, как работает Mixture of Experts (в частности две ее основных составляющих: роутер и эксперты).
Кроме того, в разборе раскрыты и практические детали. Например, написано про важность балансировки и MoE для vision моделей. Так что такое читаем!
❤39👍16🔥8
Нобелевскую премию по физике в этом году вручили за открытия в области ИИ – и не кому-нибудь, а Джеффри Хинтону и Джону Хопфилду
Джеффри Хинтон – это один из соавторов статьи про метод обратного распространения ошибки и наставник Суцкевера. Хорфилд – изобретатель ассоциативной нейросети. Оба они считаются отцами ML.
Премию вручили за основополагающие открытия в области ML и искусственных нейронных сетей.
Где-то плачет один Ян Лекун
Джеффри Хинтон – это один из соавторов статьи про метод обратного распространения ошибки и наставник Суцкевера. Хорфилд – изобретатель ассоциативной нейросети. Оба они считаются отцами ML.
Премию вручили за основополагающие открытия в области ML и искусственных нейронных сетей.
Где-то плачет один Ян Лекун
😁110❤37🔥21👍8😐7❤🔥1 1
В Твиттере реагируют незамедлительно 👆
Кстати, многие всерьез недовольны новостью: мол, «при чем тут физика». А вы как считаете?
Кстати, многие всерьез недовольны новостью: мол, «при чем тут физика». А вы как считаете?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁143🔥16👍11❤4🙈3
LLM знают больше, чем показывают: исследование ученых из Техниона, Google Research и Apple
Оказывается, языковые модели в своих representations слоях (имеются в виду слои эмбеддингов) энкодят гораздо больше информации о "правдивости" ответов, чем затем выплевывают в генерации. Другими словами, модель знает больше, чем говорит: в том числе она как бы может знать, что неправа, или даже знать правильный ответ, но при этом все равно болтать чепуху.
Самое интересное: информация о правдивости (в статье это называется truthfulness information) содержится в определенных токенах. К тому же, ученые доказали, что можно предсказать "тип" ошибки, которую выдаст модель, опять же по ее внутренним representations. Они даже обучили классификатор на такую детекцию. Точность получилась вполне приемлемая.
Статья полностью – тут
Оказывается, языковые модели в своих representations слоях (имеются в виду слои эмбеддингов) энкодят гораздо больше информации о "правдивости" ответов, чем затем выплевывают в генерации. Другими словами, модель знает больше, чем говорит: в том числе она как бы может знать, что неправа, или даже знать правильный ответ, но при этом все равно болтать чепуху.
Самое интересное: информация о правдивости (в статье это называется truthfulness information) содержится в определенных токенах. К тому же, ученые доказали, что можно предсказать "тип" ошибки, которую выдаст модель, опять же по ее внутренним representations. Они даже обучили классификатор на такую детекцию. Точность получилась вполне приемлемая.
Статья полностью – тут
❤66👍29👀14👏7🔥4🤔4🐳2
This media is not supported in your browser
VIEW IN TELEGRAM
Новоиспеченный Нобелевский лауреат Джеффри Хинтон и его прозрачные намеки
«Я горжусь тем, что один из моих студентов уволил Сэма Альтмана» – невозмутимо заявил он😁
«Я горжусь тем, что один из моих студентов уволил Сэма Альтмана» – невозмутимо заявил он
Please open Telegram to view this post
VIEW IN TELEGRAM
😁219👍26🔥18🎉7❤4🙈4🗿2
Data Secrets
Новоиспеченный Нобелевский лауреат Джеффри Хинтон и его прозрачные намеки «Я горжусь тем, что один из моих студентов уволил Сэма Альтмана» – невозмутимо заявил он 😁
Media is too big
VIEW IN TELEGRAM
Кстати, история знакомства Хинтона и Суцкевера была хрестоматийной. Вот как об этом рассказывал сам Хинтон:
«Это случилось в моем кабинете, в выходные. В дверь очень нетерпеливо постучали и вошел молодой студент. Он сказал, что все лето жарил картошку фри, но теперь предпочел бы работать в моей лаборатории.
Я спросил: «Почему же ты не записался, чтобы поговорить со мной?», на что он ответил «Хорошо, могу я записаться на сейчас?». Это полностью отражает характер Ильи.
Мы поговорили и я дал ему прочитать статью про обратное распространение ошибки. Он пришел через неделю и сказал, что ничего не понял. Я был разочарован и сказал ему, что там нет ничего сложного, это просто цепочка вычислений. От ответил: «О, нет-нет, это я понял. Я не понял, почему вы не используете разумный оптимизатор для градиентов». Над этим вопросом я думал следующие несколько лет. »
👍86😁53❤16🤪5🤯1 1
Forbes: аналитики предсказали, что Microsoft выкупит OpenAI в течение трех лет
Эксперты объясняют это тем, что скоро хайп вокруг ИИ начнет спадать, и инвесторы уже не будут так щедры. Тем временем стартапам нужно будет все больше и больше денег, которых у них самих не хватит.
В итоге крупные компании, для которых ИИ имеет большую ценность (такие как Microsoft и Amazon) начнут скупать успешные стартапы вроде OpenAI и Anthropic.
Вот это поворот...
Эксперты объясняют это тем, что скоро хайп вокруг ИИ начнет спадать, и инвесторы уже не будут так щедры. Тем временем стартапам нужно будет все больше и больше денег, которых у них самих не хватит.
В итоге крупные компании, для которых ИИ имеет большую ценность (такие как Microsoft и Amazon) начнут скупать успешные стартапы вроде OpenAI и Anthropic.
Вот это поворот...
🫡79😁23👍7🔥4🤨4🤔3❤1🐳1🤪1
Крутая статья от Microsoft: Differential Transformer
Трансформеры склонны аллоцировать внимание на нерелевантный контекст (в статье это называют шумом), и это приводит к проблемам с извлечением информации и, как следствие, к галлюцинациям и потерям в точности. Это известная проблема.
Microsoft предложили изящное решение: вместо одной attention мапы они создают две, дублируя keys и queries, а затем легким движением руки... вычитают их друг из друга, тем самым нивелируя шум в attention scores.
Такой подход сразу повышает аттеншен к релевантным деталям: эксперименты показали, что трансформеры с таким diff вниманием лучше обычных справляются с задачами на длинном контексте (вроде известной задачи иголки в стоге сена). Кроме того подход еще и уменьшает количество выбросов в активациях модели, что упрощает ее квантование.
Статья полностью – здесь
Трансформеры склонны аллоцировать внимание на нерелевантный контекст (в статье это называют шумом), и это приводит к проблемам с извлечением информации и, как следствие, к галлюцинациям и потерям в точности. Это известная проблема.
Microsoft предложили изящное решение: вместо одной attention мапы они создают две, дублируя keys и queries, а затем легким движением руки... вычитают их друг из друга, тем самым нивелируя шум в attention scores.
Такой подход сразу повышает аттеншен к релевантным деталям: эксперименты показали, что трансформеры с таким diff вниманием лучше обычных справляются с задачами на длинном контексте (вроде известной задачи иголки в стоге сена). Кроме того подход еще и уменьшает количество выбросов в активациях модели, что упрощает ее квантование.
Статья полностью – здесь
👍103⚡12🔥9✍3❤1🦄1
Media is too big
VIEW IN TELEGRAM
Завершаем марафон мемов по нобелевке этим шедевром
😁186🔥26🤓5🦄4👻2👾2
Новая аналитика от любимых Epoch AI: с 2022 Nvidia продала около 3 млн GPU H100 💵
При этом большинство продаж пришлось всего на 4 комапнии: Google, Microsoft, Meta и Amazon (не удивляйтесь, что тут нет OpenAI: они арендуют компьют у Microsoft).
При этом все перечисленные гиганты дополнительно разрабатывают собственные чипы, которые, правда, в основном не продают, а просто используют внутри компании или сдают в аренду в облаках.
При этом большинство продаж пришлось всего на 4 комапнии: Google, Microsoft, Meta и Amazon (не удивляйтесь, что тут нет OpenAI: они арендуют компьют у Microsoft).
При этом все перечисленные гиганты дополнительно разрабатывают собственные чипы, которые, правда, в основном не продают, а просто используют внутри компании или сдают в аренду в облаках.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33👍13⚡6🔥1🍌1🎄1
Кстати, смотрите, какой супер-симпатичный гайд The Nobel Prize подготовили по статье про AlphaFold
Блогпост полностью можно почитать здесь
Блогпост полностью можно почитать здесь
👍38❤17😍7❤🔥1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
Вопросы, которые нельзя задавать
😁116👍10🔥8
На Kaggle закончилось соревнование, в котором нужно было предсказывать пользовательские предпочтения
Это именно те предпочтения, которые определяют места моделей на Арене. Кстати, Kaggle как раз и проводила соревнование вместе с LMSYS. Разборы решений победителей уже выложили на YouTube и в виде райтапа вот здесь. Что там было интересного:
⚙️ Среди используемых моделей внезапно лучше всех оказалась способна понимать человеческие предпочтения Gemma-2-9b
⚙️ Среди тех участников, кто использовал модели побольше, наиболее успешные решение получились у тех, кто использовал дистилляцию
⚙️ Многие также использовали специальные Reward/ranking модели вместо базовых или instruct: они оказывались эффективнее
⚙️ Псевдо-лейбелинг снова показал себя как главный инструмент победителей
⚙️ Выигрышной стратегией оказалось усреднение оценок нескольких LoRA
Вот так как-то, принимаем к сведению🔑
Это именно те предпочтения, которые определяют места моделей на Арене. Кстати, Kaggle как раз и проводила соревнование вместе с LMSYS. Разборы решений победителей уже выложили на YouTube и в виде райтапа вот здесь. Что там было интересного:
Вот так как-то, принимаем к сведению
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥12❤6