Forwarded from Earth&Climate Tech
Гугл, энергия ветра и искусственный интеллект
Мне на днях Артемий показал как компания Гугл аж в 2019-м использовала данные погодных наблюдений и параметры работы ветряных турбин для прогноза энергии ветра, которую можно сгенерировать в течение 36 часов.
Основываясь на этих прогнозах, модель выдает оптимальные рекомендации по почасовой доставке электроэнергии в электросеть на день вперед. Это важно, потому что запланированные поставки энергии (т.е. определенное количество электроэнергии в установленное время) максимально важны для электросети. Также инженеры посчитали, что ценность заранее спланированных поставок энергии ветра с помощью нейросети на 20% выше, чем беспорядочные поставки 📈.
Конечно у Гугла внушительное количество зеленых проектов (не считая Google X про которые писал когда-то). Компания еще в 2017-м компенсировала 100% потребляемой энергии зелеными источниками. Существующая модель конечно не идеальная. Они покупают энергию у ветряных или солнечных компаний, потом продают ее поставщикам и у них же покупают снова энергию для операционных нужд. Но это лучше чем ничего 😎.
📖 Блог
Мне на днях Артемий показал как компания Гугл аж в 2019-м использовала данные погодных наблюдений и параметры работы ветряных турбин для прогноза энергии ветра, которую можно сгенерировать в течение 36 часов.
Основываясь на этих прогнозах, модель выдает оптимальные рекомендации по почасовой доставке электроэнергии в электросеть на день вперед. Это важно, потому что запланированные поставки энергии (т.е. определенное количество электроэнергии в установленное время) максимально важны для электросети. Также инженеры посчитали, что ценность заранее спланированных поставок энергии ветра с помощью нейросети на 20% выше, чем беспорядочные поставки 📈.
Конечно у Гугла внушительное количество зеленых проектов (не считая Google X про которые писал когда-то). Компания еще в 2017-м компенсировала 100% потребляемой энергии зелеными источниками. Существующая модель конечно не идеальная. Они покупают энергию у ветряных или солнечных компаний, потом продают ее поставщикам и у них же покупают снова энергию для операционных нужд. Но это лучше чем ничего 😎.
📖 Блог
Google
Machine learning can boost the value of wind energy
Carbon-free technologies like renewable energy help combat climate change, but many of them have not reached their full potential. Consider wind power: over the past dec…
Новый фронтир биологических знаний - ESM Metagenomic Atlas
Представьте, что у вас в коробке кусочки от сотни миллионов разных пазлов. Решитесь собрать их?
Тогда вам в метагеномику. Берем образец среды и изучаем генетический материал всего образца (метагеном): какие там белковые структуры, функции и метаболические взаимосвязи.
Функция белка зависит от его структуры, даже если последовательность аминокислот различается. Экспериментально стуркутру определяли с помощью рентгеноструктурного анализа (если повезет вырастить кристалл). Благодаря AlfaFold человечество сделало гигантский шаг вперёд. И посветило фонариком вбездну метагеномные структуры.
Meta создали атлас этих структур с помощью ESMFold, которая предсказывает форму с точностью до атомов непосредственно из представления языковой модели этой последовательности. Точность сравнима с AlfaFold, а инференс на порядок быстрее (от 6 до 60 раз). За 2 недели на 2000 GPU собрали 617 миллионов белков.
#transformers
📖статья
🧩код
🗺атлас
@GingerSpacetail
Представьте, что у вас в коробке кусочки от сотни миллионов разных пазлов. Решитесь собрать их?
Тогда вам в метагеномику. Берем образец среды и изучаем генетический материал всего образца (метагеном): какие там белковые структуры, функции и метаболические взаимосвязи.
Функция белка зависит от его структуры, даже если последовательность аминокислот различается. Экспериментально стуркутру определяли с помощью рентгеноструктурного анализа (если повезет вырастить кристалл). Благодаря AlfaFold человечество сделало гигантский шаг вперёд. И посветило фонариком в
Meta создали атлас этих структур с помощью ESMFold, которая предсказывает форму с точностью до атомов непосредственно из представления языковой модели этой последовательности. Точность сравнима с AlfaFold, а инференс на порядок быстрее (от 6 до 60 раз). За 2 недели на 2000 GPU собрали 617 миллионов белков.
#transformers
📖статья
🧩код
🗺атлас
@GingerSpacetail
Друзья! Как вы могли заметить у нас на канале появился второй автор (@GingerSpacetail). В связи с чем прошу вас поддержать канал донатом :)
Всем кто нам помогает отвечу на любой вопрос
Задонатить на Тинькофф
Задонатить на Revolut
Всем кто нам помогает отвечу на любой вопрос
Задонатить на Тинькофф
Задонатить на Revolut
В Сан Франсиско появился новый платежный метод - с помощью ладошки. Кто знает детали как это реализовано?
Тут подробнее
Тут подробнее
Adobe Stock х AI Art
Инсайдерская инфа: Adobe Stock скоро начнёт принимать к продаже изображения сгенерированные нейросетями.
Большой вопрос конечно, нужен ли вообще сток для Stable Diffusion, но думаю что по инерции еще пару лет стоки точно не вымрут.
UPD: решение Adobe будет намного более широким чем Shutterstock
Инсайдерская инфа: Adobe Stock скоро начнёт принимать к продаже изображения сгенерированные нейросетями.
Большой вопрос конечно, нужен ли вообще сток для Stable Diffusion, но думаю что по инерции еще пару лет стоки точно не вымрут.
UPD: решение Adobe будет намного более широким чем Shutterstock
This media is not supported in your browser
VIEW IN TELEGRAM
DeepMind раздает стипендии
Искусственный интеллект может стать одним из самых полезных изобретений человечества. Но только если более разнообразное и инклюзивное сообщество поможет его создать.
Можете ли вы стать частью следующего поколения? Начните свой путь с их глобальной стипендиальной программы.
🤩 Подаваться тут
🥖 Поддержать канал
Искусственный интеллект может стать одним из самых полезных изобретений человечества. Но только если более разнообразное и инклюзивное сообщество поможет его создать.
Можете ли вы стать частью следующего поколения? Начните свой путь с их глобальной стипендиальной программы.
🤩 Подаваться тут
🥖 Поддержать канал
SD обученная на Midjourney
Кто-то обучил Stable Diffusion на картинках сгенерированных Midjourney. И это определенно следующий уровень пост-метаиронии.
На а почему бы и нет? Не только же Грегу Рудковскому страдать от воровства его стилей :)
🦝 Модель
__________________________
🥖 Поддержать канал
Кто-то обучил Stable Diffusion на картинках сгенерированных Midjourney. И это определенно следующий уровень пост-метаиронии.
На а почему бы и нет? Не только же Грегу Рудковскому страдать от воровства его стилей :)
🦝 Модель
__________________________
🥖 Поддержать канал
Postdoctoral Fellowship in CalTech
The Division of Geological and Planetary Sciences at the California Institute of Technology invites applications for a postdoctoral fellowship in global environmental science beginning in the fall of 2023. The intent of the program is to support innovative and creative early career scientists working in global environmental science, including research in areas such as climate adaptation and mitigation, environmental microbiology, terrestrial and marine biogeochemistry, glaciology, paleo-climatology, atmospheric chemistry and composition, physical oceanography, and climate dynamics. We seek to nurture the careers of exceptional individuals who contribute to a diverse and inclusive scientific workforce.
The fellowship is funded in part by an endowment provided by Foster and Coco Stanback. It carries an annual stipend of $74,000 plus a research expense fund of $10,000 and up to $1,500 for one-way travel costs to Pasadena. The duration of the appointment is normally two years, contingent upon completion of the Ph.D. degree and good progress in the first year. Fellows are eligible to participate in Caltech’s benefit programs, including health and dental programs. The Stanback Fellow will be hosted by one or more division professors (designated by the Chair) who will provide both financial support and mentorship.
To be eligible for the Stanback, candidates should have received their Ph.D. no earlier than April 1, 2022, except in exceptional circumstances.
Materials in support of an application should include curriculum vitae, list of publications, a one-page statement of research interests, and three letters of reference. Complete applications including letters of reference are due by November 11, 2022.
Подаваться тут
#job
The Division of Geological and Planetary Sciences at the California Institute of Technology invites applications for a postdoctoral fellowship in global environmental science beginning in the fall of 2023. The intent of the program is to support innovative and creative early career scientists working in global environmental science, including research in areas such as climate adaptation and mitigation, environmental microbiology, terrestrial and marine biogeochemistry, glaciology, paleo-climatology, atmospheric chemistry and composition, physical oceanography, and climate dynamics. We seek to nurture the careers of exceptional individuals who contribute to a diverse and inclusive scientific workforce.
The fellowship is funded in part by an endowment provided by Foster and Coco Stanback. It carries an annual stipend of $74,000 plus a research expense fund of $10,000 and up to $1,500 for one-way travel costs to Pasadena. The duration of the appointment is normally two years, contingent upon completion of the Ph.D. degree and good progress in the first year. Fellows are eligible to participate in Caltech’s benefit programs, including health and dental programs. The Stanback Fellow will be hosted by one or more division professors (designated by the Chair) who will provide both financial support and mentorship.
To be eligible for the Stanback, candidates should have received their Ph.D. no earlier than April 1, 2022, except in exceptional circumstances.
Materials in support of an application should include curriculum vitae, list of publications, a one-page statement of research interests, and three letters of reference. Complete applications including letters of reference are due by November 11, 2022.
Подаваться тут
#job
Deep Learning with Uncertainty
Ребят, кто в теме, покидайте пожалуйста статьи про DL с Uncertainties (в комменты). Если кому то попадались хорошие видосы про uncertainty в целом (безотносительно DL) тоже кидайте 🦝🦦🐈
Ребят, кто в теме, покидайте пожалуйста статьи про DL с Uncertainties (в комменты). Если кому то попадались хорошие видосы про uncertainty в целом (безотносительно DL) тоже кидайте 🦝🦦🐈
Иллюстрация архитектуры Stable Diffusion
Автор иллюстрированного трансформера написал новую 🍬.
Диффузионные модели были вдохновлены диффузией из физики. Но если в физике этот процесс необратим, основная идея диффузионных моделей заключается в том, что при помощи нейронный сетей мы можем восстановить оригинальное изображение из абсолютного шума за конечное число шагов.
Для этого обучение делиться на два этапа: в первом (Forward diffusion process) мы контролируемо добавляем шум к изображению; во втором (Reverse diffusion process) модель учится предсказывать добавленный шум. Так как мы точно знаем шум, который сами же и добавили, мы можем сконструировать функцию потерь, которая вычисляет L2 норму между добавленным и предсказанным шумом.
Архитектура Stable Diffusion не является монолитной и помимо диффузионной части (UNet + Scheduler) так же включает в себя текстовый энкодер (CLIP) и декодер для генерации изображений.
Эта иллюстрированная статья описывает компоненты и процесс диффузии.
📖 Статья
@karray
Автор иллюстрированного трансформера написал новую 🍬.
Диффузионные модели были вдохновлены диффузией из физики. Но если в физике этот процесс необратим, основная идея диффузионных моделей заключается в том, что при помощи нейронный сетей мы можем восстановить оригинальное изображение из абсолютного шума за конечное число шагов.
Для этого обучение делиться на два этапа: в первом (Forward diffusion process) мы контролируемо добавляем шум к изображению; во втором (Reverse diffusion process) модель учится предсказывать добавленный шум. Так как мы точно знаем шум, который сами же и добавили, мы можем сконструировать функцию потерь, которая вычисляет L2 норму между добавленным и предсказанным шумом.
Архитектура Stable Diffusion не является монолитной и помимо диффузионной части (UNet + Scheduler) так же включает в себя текстовый энкодер (CLIP) и декодер для генерации изображений.
Эта иллюстрированная статья описывает компоненты и процесс диффузии.
📖 Статья
@karray
This media is not supported in your browser
VIEW IN TELEGRAM
TAP-Vid - эталон в области анализа движения на видео
DeepMind формализовали задачу долгосрочного отслеживания любой точки на видео (TAP, track any point), включая деформацию, ускорения, повороты, перекрытие другими объектами.
Но главное - проделали ювелирную работу по созданию и разметке датасета для решения таких задач.
По дороге подняли планку для уже существующих моделей, собрав TAP-Net.
Зачем это: делать выводы о форме объектов, их физических свойствах и возможных взаимодействиях.
Датасет состоит из реальных видео с точными человеческими аннотациями и синтетических видео с истинными значениями.
Чтобы зафиксировать бейслайн, проверили RAFT, но он не справляется с перекрытием объектов и накапливает ошибки при интерполяции по многим кадрам;
CORT теряет информацию о деформации;
Kubric-VFS-Like слабо полезен при переходе от синтетических данных к реальным видео.
TAP-Net пока лучшая, но с таким датасетом - ненадолго.
Следующий шаг - освоить с жидкости и прозрачности.
📖Статья
🗂Датасет
@GingerSpacetail
DeepMind формализовали задачу долгосрочного отслеживания любой точки на видео (TAP, track any point), включая деформацию, ускорения, повороты, перекрытие другими объектами.
Но главное - проделали ювелирную работу по созданию и разметке датасета для решения таких задач.
По дороге подняли планку для уже существующих моделей, собрав TAP-Net.
Зачем это: делать выводы о форме объектов, их физических свойствах и возможных взаимодействиях.
Датасет состоит из реальных видео с точными человеческими аннотациями и синтетических видео с истинными значениями.
Чтобы зафиксировать бейслайн, проверили RAFT, но он не справляется с перекрытием объектов и накапливает ошибки при интерполяции по многим кадрам;
CORT теряет информацию о деформации;
Kubric-VFS-Like слабо полезен при переходе от синтетических данных к реальным видео.
TAP-Net пока лучшая, но с таким датасетом - ненадолго.
Следующий шаг - освоить с жидкости и прозрачности.
📖Статья
🗂Датасет
@GingerSpacetail
Media is too big
VIEW IN TELEGRAM
Multi-layered Mapping of Brain Tissue via Segmentation Guided Contrastive Learning
В прошлом году в Google оцифровали 1 мм³ ткани коры головного мозга получив 3d карту высокого разрешения объемом 1,4 Пбайт. Для подробного изучения такой карты сначала нужно идентифицировать типы клеток и их синаптические связи, но разметить такое количество данных вручную невозможно (привет).
Для решение проблемы авторы предложили новую сеть SegCLR (модификация SimCLR). Она способна различать элементы меньше 10 µm с высокой точностью, тогда как эксперты уже не справляются.
Благодаря self-supervised (#SSL) подходу авторам удалось извлечь 8 млрд эмбеддингов без ручной аннотации. Далее, они были сгруппированы в кластеры и используя лишь небольшое количество размеченных данных, кластерам был присвоен лейбл. Кроме того, сеть понижает размерность данных до 64-мерных векторов, что облегчает обучение моделей для downstream задач.
Таким образом был получен размеченный датасет, который был вложен в открытый доступ.
🔬Блог
📖Статья
@karray
В прошлом году в Google оцифровали 1 мм³ ткани коры головного мозга получив 3d карту высокого разрешения объемом 1,4 Пбайт. Для подробного изучения такой карты сначала нужно идентифицировать типы клеток и их синаптические связи, но разметить такое количество данных вручную невозможно (привет).
Для решение проблемы авторы предложили новую сеть SegCLR (модификация SimCLR). Она способна различать элементы меньше 10 µm с высокой точностью, тогда как эксперты уже не справляются.
Благодаря self-supervised (#SSL) подходу авторам удалось извлечь 8 млрд эмбеддингов без ручной аннотации. Далее, они были сгруппированы в кластеры и используя лишь небольшое количество размеченных данных, кластерам был присвоен лейбл. Кроме того, сеть понижает размерность данных до 64-мерных векторов, что облегчает обучение моделей для downstream задач.
Таким образом был получен размеченный датасет, который был вложен в открытый доступ.
🔬Блог
📖Статья
@karray