🎙У некоторых уже появился доступ к аудио фичам в новом мультимодальном ChatGPT.
Он и на русском, и на иврите, и на китайском, и на пачке других языков могёт. OpenAI насобирали очень качественный голосовой датасет для тренировки.
Волосы двигаются на голове от осознания того, что ведёшь разговор с LLM, которая говорит так реалистично (особенно на первом видео). Как-то Siri и Google Assistant так реально не ощущались, да они и тупые в целом (пока).
Аудио доступно только в приложении ChatGPT на мобильниках. Для этого нужно его активировать в настройках аппки.
Интересно, откуда американский акцент на русском языке во втором видео? Байес датасета или так нативнее в контексте изучения языка иностранцем 🤔
@ai_newz
Он и на русском, и на иврите, и на китайском, и на пачке других языков могёт. OpenAI насобирали очень качественный голосовой датасет для тренировки.
Волосы двигаются на голове от осознания того, что ведёшь разговор с LLM, которая говорит так реалистично (особенно на первом видео). Как-то Siri и Google Assistant так реально не ощущались, да они и тупые в целом (пока).
Аудио доступно только в приложении ChatGPT на мобильниках. Для этого нужно его активировать в настройках аппки.
Интересно, откуда американский акцент на русском языке во втором видео? Байес датасета или так нативнее в контексте изучения языка иностранцем 🤔
@ai_newz
❤🔥118🤯86🔥16❤7😁4👍2
Друзья, мчусь на ICCV в Париж.
Для новичков, International Conference on Computer Vision (ICCV) входит в топ-3 крупнейших и самых авторитетных конференций по компьютерному зрению и проходит раз в 2 года (меняется с ECCV).
По традиции создал чат-шмят для встреч и нетворкинга.
Если вы тоже будете на кофе, присоединяйтесь,организуем встречу. А если не будете — постараюсь держать вас в курсе всего самого важного!
Не забудьте коротко представиться при вступлении в чат: https://xn--r1a.website/+lWAOt0D0cUFjYTU6
В последний раз я был на ICCV в 2019 Сеуле. И было круто, надеюсь в этом году тоже удастся максимально интересно и с пользой провести время.
#personal
@ai_newz
Для новичков, International Conference on Computer Vision (ICCV) входит в топ-3 крупнейших и самых авторитетных конференций по компьютерному зрению и проходит раз в 2 года (меняется с ECCV).
По традиции создал чат-шмят для встреч и нетворкинга.
Если вы тоже будете на кофе, присоединяйтесь,организуем встречу. А если не будете — постараюсь держать вас в курсе всего самого важного!
Не забудьте коротко представиться при вступлении в чат: https://xn--r1a.website/+lWAOt0D0cUFjYTU6
В последний раз я был на ICCV в 2019 Сеуле. И было круто, надеюсь в этом году тоже удастся максимально интересно и с пользой провести время.
#personal
@ai_newz
❤77🔥32👍18😁1
NSFW: Dalle-3 удивил...
Погенерить с Dalle-3 можно через Bing create. Но скоро лавочку прикроют, как минимум закрутят гайки по контенту. Так что, как сказали на реддите, "Enjoy it while it lasts".
@ai_newz
Погенерить с Dalle-3 можно через Bing create. Но скоро лавочку прикроют, как минимум закрутят гайки по контенту. Так что, как сказали на реддите, "Enjoy it while it lasts".
@ai_newz
🔥185😁66🐳13👍9❤8❤🔥6🤯3😍1💯1
ICCV 2023: Воркшопы и туториалы
Конференция в Париже началась уже с понедельника, но только сейчас удалось написать пост. Наиплотнейше ложится информация, а параллельно идет постоянный нетворкинг.
В первые два дня идут воркшопы и туториалы - это такие мини-конференции внутри конференции, посвященные одной очень узкой теме.
Сегодня я на воркшопе CV4Metaverse, который организует моя команда. Выступал Björn (мой научрук) про Latent Diffusion и масштабирование генеративных моделей.
Кроме того, утром была презентация моих PhD студентов про статью BoDiffusion: Diffusing Sparse Observations for Full-Body Human Motion Synthesis (еще будет подробный пост о ней). После обеда будет еще пачка толковых докладов.
Буду держать вас в курсе!
#personal
@ai_newz
Конференция в Париже началась уже с понедельника, но только сейчас удалось написать пост. Наиплотнейше ложится информация, а параллельно идет постоянный нетворкинг.
В первые два дня идут воркшопы и туториалы - это такие мини-конференции внутри конференции, посвященные одной очень узкой теме.
Сегодня я на воркшопе CV4Metaverse, который организует моя команда. Выступал Björn (мой научрук) про Latent Diffusion и масштабирование генеративных моделей.
Кроме того, утром была презентация моих PhD студентов про статью BoDiffusion: Diffusing Sparse Observations for Full-Body Human Motion Synthesis (еще будет подробный пост о ней). После обеда будет еще пачка толковых докладов.
Буду держать вас в курсе!
#personal
@ai_newz
🔥106👍28❤10❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Re-ReND: Real-time Rendering of NeRFs across Devices
Мы прямо сейчас на ICCV презентуем постер по нашей статье Re-ReND. Мы представляем новый метод для запекания NeRF-ов в явную репрезентацию, которую можно очень быстро рендерить до 1000 FPS.
Когда рендерится сцена Нерфом, нужно сделать тысячи прогонов черезе MLP из-за вычисления интеграла вдоль каждого луча.
Чтобы ускорить рендеринг, мы предлагаем:
- выдрать из нерфа примерную мешь
- Дистиллировать radience field в специальный ligth field (это когда по координате точки и углу обзора MLP сразу выдает цвет за один прогон, без интеграции)
- Наш light field предсказывает view-dependent и position-dependent эмбеддиги, скалярный продукт которых дает цвет 3D точки.
- Затем мы запекаем эти эмбеддиги как тектсуры на меши
- В итоге получаем текcтурированную мешь, которую можно быстро рендерить в стандартных графических пайпланах с кастомным шейдером
Скорость: 1000 FPS на десктопе, 74 FPS на Quest Pro (демо на видео) и 30-60 FPS на мобилах.
Код
Статья
@ai_newz
Мы прямо сейчас на ICCV презентуем постер по нашей статье Re-ReND. Мы представляем новый метод для запекания NeRF-ов в явную репрезентацию, которую можно очень быстро рендерить до 1000 FPS.
Когда рендерится сцена Нерфом, нужно сделать тысячи прогонов черезе MLP из-за вычисления интеграла вдоль каждого луча.
Чтобы ускорить рендеринг, мы предлагаем:
- выдрать из нерфа примерную мешь
- Дистиллировать radience field в специальный ligth field (это когда по координате точки и углу обзора MLP сразу выдает цвет за один прогон, без интеграции)
- Наш light field предсказывает view-dependent и position-dependent эмбеддиги, скалярный продукт которых дает цвет 3D точки.
- Затем мы запекаем эти эмбеддиги как тектсуры на меши
- В итоге получаем текcтурированную мешь, которую можно быстро рендерить в стандартных графических пайпланах с кастомным шейдером
Скорость: 1000 FPS на десктопе, 74 FPS на Quest Pro (демо на видео) и 30-60 FPS на мобилах.
Код
Статья
@ai_newz
🔥135👍30🤯8🙏2❤1❤🔥1