AI для Всех
15K subscribers
1.32K photos
181 videos
11 files
1.51K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Не трансформером единым: масштабируемые сферические CNN для научных приложений

Друзья, разбавлю ваш (и свой) думскроллинг образовательным контентом. 💔

Мир не плоский. Есть много данных, которые лучше описываются сферической топологией. Например, данные о климате, космосе, панорамные съемки, что уж скрывать, в медицине только рентген и SPECT - планарные снимки, а МРТ, КТ И PET в виде сырого сигнала - вообще-то нет.

Оказывается, обрабатывать такие данные с помощью нейронных сетей не так просто. Проекция сферы на плоскость даёт сильные искажения в районе полюсов и потерю информации. Применение обычных сверточных нейросетей (CNN) или трансформеров (ViT) наталкивается на проблему выборки: как определить равномерную сетку на сфере. Да ещё и теряется важное свойство инвариантности вращения. При повороте входных данных на любой угол выходные данные тоже должны повернутся на тот же угол. Это важно для объектов с разной 3D ориентацией, напр, молекул или человека в томографе.

Сферические CNN решают эти проблемы, используя операции сферической свертки и кросс-корреляции, которые сохраняют инвариантность вращения. Главное ограничение в вычислительной нагрузке, т.к. обощенных преобразований Фурье уже не избежать. Поэтому сферические CNN имели меньше слоев и параметров, чем плоские CNN, и работали с данными низкого разрешения.

В статье для ICML 2023 Google AI преодолели эти ограничения и опубликовали оперсорс библиотеку на JAX, где реализовали:
- сферические свертки с дополниной степенью свободы, связанной с поляризацией;
- ввели новый слой активации, уменьшающий фазовые сдвиги между слоями;
- ввели спектральную batch нормализацию;
- ввели новый остаточный блок (который для предотвращения затухания градиентов), распараллелив передачу высокочастотных и низкочастотных признаков.

Точность и эффективность проверили на задачах прогнозирования погоды до 28 дней и регрессии молекулярных свойств, получили красивые результаты, выдали нам порцию вдохновения и новую блестящую лопату копать МЛ дальше.

🗞 Статья
🔣 Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍147
Первые за два тысячелетия люди, увидевшие слова на нераскрытых свитках, безнадежно повреждённых после извержения Везувия

Захватывающе развивается история соревнования, в котором люди удивительным образом сотрудничают, чтобы восстановить знания из римской библиотеки, чуть было не утраченной в 79 году н.э.

О Кейси мы писали, он был первым человеком, предложившим доказательство наличия чернил в неоткрытых свитках и объект поиска (паттерн, похожий на потрескавшуюся грязь). Его подход получил официальное признание и приз в $10 000 за решение задачи детекции чернил.

Первым человеком, обнаружившим целое слово на фрагменте папируса был Люк Фарритор, 21-летний студент и стажер SpaceX. Он увидел в Discord обсуждение идеи Кейси, и начал проводить вечера, тренируя модель на паттернах потрескавшихся чернил (которые сам вручную разметил). Группа учёных единогласно аннотировала слово ΠΟΡΦΥΡΑϹ (пурпурный), на изображении которое засабмитил Люк. Он получил за свою модель First Letters Prize в размере $40 000, успешно выполнив критерий найти не менее 10 букв на площади 4 см² свитка.

Тем временем другой участник, Юсеф Надер, PhD студент по биоробототехнике из Берлина, просмотрел работы-победители премии Ink Detection на Kaggle, использовал domain transfer, чтобы адаптировать решение к свиткам, а несколько недель спустя подал заявку на участие в Vesuvius Challenge, т.к ему удалось найти несколько букв, причем не полагаясь на метод Кейси. Читая о первых результатах Люка в Twitter и Discord, он решил сосредоточиться на той же области свитка.

Его подход позволил учёным не только более уверенно прочитать слово "пурпурный", но и начать размышлять о возможных словах выше (ανυοντα / ANYONTA, «достижение») и ниже (ομοιων /ΟΜΟΙΩΝ, «похожий»). Юсеф получил приз $10 000 за второе место в той же категории.

Сейчас главный приз как никогда достижим, и совсем не поздно принять участие. Если вы в безопасности, это может помочь не провалиться в бездну. Давайте продолжать беречь друг друга и учиться друг у друга

🌐Discord
🖥Luke
🖥Yousseff
🌐Сайт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5828🔥23
Друзья, у нас хорошие новости - наш канал @nn_for_science перевалил за отметку в 10000 подписчиков! Это по-настоящему знаменательное событие для нашего сообщества.

Когда я запускал этот проект, я и не мечтал о такой огромной аудитории. И вот теперь нас уже десять тысяч! Это заслуга каждого из вас - тех, кто подписался, лайкал, комментировал и делился наши постами.

Отдельное спасибо нашим замечательным авторам, без уникального контента от которых нам бы не удалось достичь таких высот. И конечно, всем гостям канала - вы задавали интересные вопросы, делились мнениями, вдохновляли нас на новые темы.

Я горжусь нашим дружным сообществом! Давайте и дальше вместе покорять новые вершины. Уверен, что у нашего канала еще много потрясающих идей и проектов, которыми мы обязательно с вами поделимся.

Еще раз спасибо за то, что вы с нами. Эти 10000 - только начало нашего большого пути!
96🎉20🔥11👍8😁1
Большие языковые модели умеют предсказывать будущее (ну почти)

Исследователи выяснили, что языковые модели типа GPT-3 отлично предсказывают тренды временных рядов без обучения на таких данных.

Оказывается, если записать числа как текст и считать прогноз следующим словом, эти модели выдают хорошие результаты.

Более того, в некоторых случаях, они превосходят специализированные методы прогнозирования, которые годами обучались на этих данных.

Ещё языковые модели хорошо работают даже с малым объёмом данных и естественным образом описывают неопределённость прогноза.

Чем мощнее модель, тем точнее прогноз. Но модели с подстройкой под людей (RLHF) выдают худший результат (интересно, а если сделать файн-тюн на временные ряды?)

Языковые модели также умеют работать с пропусками в данных и отвечать на вопросы о прогнозах.

Исследователи опубликовали код, чтобы можно было применить их подход к любым моделям.

В целом, это открытие показывает огромные возможности языковых моделей для анализа трендов!

🔖 Статья
🐥 X thread
🚜 Код
35🔥17😱7👍6🎉1
Манифест технооптимизма - за прогресс и изобилие через технологии

Тут Андреесен из a16z (крупный венчурный фонд) выложил любопытный документ под названием "Технооптимистический манифест". Его авторы призывают отказаться от технофобии и вновь поднять знамя прогресса и технологий.

Они утверждают, что технологии - это двигатель цивилизации, источник экономического роста и повышения уровня жизни. По их мнению, мы должны сознательно ускорять технологическое развитие, чтобы обеспечить изобилие для всех.

Авторы верят в силу свободных рынков и предпринимательства для создания новых товаров и услуг, удовлетворяющих безграничные человеческие потребности.

Они также убеждены в пользе искусственного интеллекта, который в симбиозе с человеком откроет немыслимые возможности. Доступная энергия, по их мнению, тоже критически важна для продвижения вперёд.

В целом, авторы призывают отказаться от страхов и чувства вины, вернуть веру в прогресс и снова начать амбициозно строить лучший технологический мир.

Как вы считаете, технооптимизм - это путь вперёд или ошибочная идеология? Буду рад обсудить в комментариях!

👏 Манифест
🔥3211😁10🎉5😢2👍1😐1
Превращаем фото в картину с помощью ChatGPT

Делаем фото -> в ChatGPT со зрением -> «Please write dalle prompt to recreate this image in details» -> "A nighttime scene overlooking San Francisco from Alamo Square. The city skyline glows ..." -> вставляем в Dall-E внутри ChatGPT -> получаем картинку справа.
👍31🔥257
Нейросеть Meta расшифровывает картинки прямо из мозга

Исследователи из Meta продолжают разрабатывать нейросеть, которая в режиме реального времени может восстанавливать изображения, которые человек видит перед глазами, анализируя активность его мозга.

Для записи активности мозга используется технология магнитоэнцефалографии (МЭГ). Она позволяет за секунду получить тысячи измерений работы мозга.

Нейросеть состоит из трёх частей:
1. Энкодер изображений, который создаёт их векторное представление.
2. Энкодер активности мозга, который выравнивает сигналы МЭГ с векторами изображений.
3. Декодер изображений, генерирующий картинку по мозговой активности.

Эта система показала хорошие результаты в тестах. Она может декодировать высокоуровневые черты изображений, такие как категории объектов. Правда пока не идеально воспроизводит низкоуровневые детали.

Тем не менее, это важный прогресс в понимании работы зрительной системы мозга и разработке интерфейсов "мозг-компьютер" (а заодно и VR/AR).

📽️ Блог-пост и видосы
🔖 Статья
🤯29🔥9👍6
AI завоюет наши компьютеры и смартфоны

Есть такой знаменитый дядька - Andrew Ng (основатель Coursera), его команда в AI Fund увидела потенциал модели GPT-3 за два года до выхода ChatGPT. Сейчас он рискнул сделать ещё одно предсказание: он думает, что мы увидим значительный рост приложений искусственного интеллекта, включая генеративный ИИ, работающих на периферийных устройствах - ПК, ноутбуках, смартфонах.

Я понимаю, что это идёт вразрез с общепринятой мудростью. Большинство ИИ сейчас работает в облачных дата-центрах, а не на периферийных устройствах. Для этого есть веские причины:
• Мощные языковые модели требуют огромных вычислительных ресурсов.
• Многие бизнесы предпочитают облачные SaaS-продукты, а не софт для периферийных устройств.
• Многие разработчики привыкли к созданию облачных приложений.

Но я думаю, эти факторы не остановят рост ИИ на периферии. Вот почему:
• Небольшие модели уже работают довольно неплохо на современных устройствах.
• Многим пользователям важна конфиденциальность данных.
• Производители чипов и ПК/ноутбуков крайне заинтересованы в том, чтобы стимулировать использование ИИ на периферии.

В AI Fund, Эндрю и компания изучают различные приложения ИИ для периферийных устройств и они считают, что здесь будут интересные возможности. Например, одновременный запуск нескольких моделей на одном чипе.

Я думаю, нам всем стоит изучить перспективы ИИ на устройствах пользователя.

Делитесь мыслями и идеями в комментах!
👍36🔥8🤩3
У ChatGPT + Dall-E 3 все нормально с географией, но виды Подмосковья генерировать запрещено 🚫

Еду из Сан-Франциско в Лос Анжелес, ехать долго и решил потестировать географическое понимание мира у ChatGPT. Довольно рандомно выбирал точки с карты:

1. (36.9952667, -110.9813534) рядом с Monument Valley
2. (77.8135165, -67.3879417) где то в Гренландии
3. (55.8617384, 37.0854734) Подмосковье отказалась генерировать
4. (30.5982019, 34.7314079) пустыня в Израиле
5. (40.5260673, 127.9315223) где то в Северной Корее

Почему то Северная Корея OpenAI не смущает 🫤
🔥25😁13👍95😱4😢1
Датасеты стратегических игр для буста способностей GPT-like моделей

Делимся с вами новыми крутыми игровыми датасетами:

- Шахматы: 3,2 миллиарда партий /  608 миллиардов отдельных ходов

- Кубик рубика (3х3х3):  1,64 миллиарда решений /  236,39 миллиарда ходов

- Лабиринты : 350 000 лабиринтов /  более 39,29 миллиардов ходов

Почему эти датасеты крутые? 👀

Шахматные датасеты создавались посредством самостоятельной игры с помощью сложного движка, состояния кубика Рубика были рандомизированы, а затем решались с помощью передового инструмента решения, а лабиринты создавались процедурно и решались с использованием надёжного алгоритма поиска пути.

Разработчики приглашают к совместным исследованиям 🔭
Команда даже готова помочь с необходимыми GPU ресурсами. Можно претрейнить или фантьюнить - любые эксперименты приветствуются. Но они особенно заинтересованы в тех, кто готов предварительно обучить модели малого и среднего масштаба на этих игровых данных, а затем перейти к стандартному обучению на текстовых данных. Особенно интересно потом сравнить с моделями аналогичной архитектуры, обученными исключительно на текстовых данных.

Идея очень понятная - если людям стратегические игры развивают критическое мышление, логику и способности решать проблемы, то и эмерджентные свойства фундаментальных моделей это может серьезно улучшить.

🖥️ Датасеты
🔥33👍145
PyTorch позволяет компилировать NumPy код для параллельных вычислений

Хотя NumPy частично основан на API для операций линейной алгебры (BLAS), а библиотеки BLAS по умолчанию используют несколько потоков для ускорения некоторых операций, сам NumPy напрямую не поддерживает параллельные вычисления.

Начиная с версии 2.1, PyTorch может компилировать NumPy в оптимизированный для параллельных вычислений C-код, без необходимости изменять исходный код. Все, что нужно - скомпилировать NumPy код используя torch.compile. В результате код NumPy будет скомпилирован в распараллеленный OpenMP код, а операции будут объединены, где это возможно, для еще более эффективных вычислений.

Более того, PyTorch также позволяет выполнять код NumPy на CUDA, просто запустив его в контексте torch.device("cuda")! В этом случае код будет скомпилирован в triton.

Простой бенчмарк на примере kmeans показывает 9х прирост в производительности OpenMP кода на одном ядре, по сравнения с обычным NumPy, 57х на 32 ядрах и 200х на RTX 2060.

📰 Источник
🔥6519👍3😱3🤩2
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ от NVIDIA научил робота крутить ручку как человек

Компания NVIDIA разработала ИИ-агента Eureka, который учит роботов сложным навыкам. Он настолько хорош, что с его помощью обучили робо-руку крутить ручку не хуже человека.

Eureka автоматически генерирует награду для обучения с подкреплением методом проб и ошибок. Так роботы научились открывать ящики, ловить мячи, пользоваться ножницами и другим.

Для создания программ Eureka использует генеративный ИИ GPT-4 от OpenAI (уже представили Intelligence as a Service?). Он не требует специальных подсказок или шаблонов. Также агент учитывает отзывы людей, чтобы лучше соответствовать их цели.

Моделирование в NVIDIA Omniverse позволяет Eureka быстро оценить качество генерируемых программ. Затем ИИ улучшает их путём самообучения.

Агент Eureka успешно обучил разных роботов - двуногих, летающих дронов, манипуляторов. Он превзошёл программы, написанные экспертами, более чем в 80% задач.

Это прорыв, который открывает новые возможности в обучении роботов и создании реалистичной 3D-анимации.

😄 Блог-пост
🐙 GitHub
📚 Статья
🔥47👍76🤯5😁2
Новый способ эффективно кодировать пространственные данные для нейросетей

Исследователи предложили улучшенный способ кодирования географических координат (широты и долготы) для использования в нейронных сетях.

Обычно координаты преобразуют в векторы признаков при помощи тригонометрических функций. Но эти методы не оптимальны для данных на сферической поверхности Земли.

Ученые предлагают использовать сферические гармоники - специальные ортогональные функции на сфере. Они лучше подходят для геоданных.

Сферические гармоники можно представить как набор математических функций, которые вместе образуют своего рода "карту" поверхности сферы. Каждая функция отвечает за свою "зону" на сфере. Их комбинацией можно точно описать любую точку на сфере, в нашем случае - на Земле. Таким образом, сферические гармоники - это как бы географическая сетка, накладываемая на планету.

Кроме того, в качестве нейросети предлагается архитектура Siren. Она эффективно обрабатывает плавные сигналы от сферических гармоник.

Архитектура нейросетей Siren в свою очередь похожа на радар, который умеет улавливать плавные сигналы. В отличие от обычных нейросетей, построенных из прямоугольных импульсов, Siren использует плавные синусоидальные сигналы. Это позволяет ей лучше понимать данные от сферических гармоник.

Таким образом, сферические гармоники задают удобную "сетку" для геоданных, а Siren как радар умеет извлекать из неё нужную информацию. Вместе они обеспечивают эффективное кодирование местоположений.

Преимущества нового подхода:

- Устойчивость в полярных областях, где старые методы дают сбои.

- Вычислительная эффективность за счёт предварительных вычислений.

- Простая настройка разрешения путём изменения числа многочленов.

Получается, что данный метод позволяет лучше кодировать геоданные для использования в нейросетях!

📚Статья
🖥 Код
🖥 Туториал на колабе
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46🔥85🤯1
Обучение влияет на мораль искусственного интеллекта

Исследователи выяснили: то, на каких диалогах обучают ИИ, влияет на его представления о добре и зле.

Например, если показывать боту диалоги про заботу и справедливость - он станет "добрее". А если про традиции и авторитеты - "строже".
Это важно, ведь мораль влияет на реальные решения ИИ. "Добрый" бот может предлагать мягкие наказания, "строгий" - суровые.

Значит, выбор обучающих диалогов - мощный инструмент.

🔖 Статья
👍18🔥4😁1
Новый курс: создание диалоговых агентов на основе LangChain

Компания LangChain (совершенно пропустил момент когда они стали компанией) выпустила бесплатный курс о последних достижениях в области языковых моделей и как их можно использовать для создания диалоговых агентов.

В курсе рассматриваются новые возможности, такие как вызов функций в ChatGPT. Также вводится новый синтаксис LangChain Expression Language для настройки поведения агентов.

Слушатели научатся:

- Генерировать структурированный вывод с помощью вызова функций
- Использовать LCEL для настройки цепочек обработки запросов
- Применять вызовы функций для задач вроде тегирования данных
- Понимать маршрутизацию запросов с помощью инструментов LangChain

Курс рассчитан на 1 час и доступен бесплатно в течение ограниченного времени. Рекомендуется базовое знание Python и опыт написания промптов для языковых моделей.

Это отличная возможность изучить новейшие инструменты для создания приложений на основе ИИ и улучшить свои навыки в этой области!

🦜🔗 Курс
👍196🔥2
GitHub Copilot Chat и его влияние на качество кода

GitHub провел исследование, в котором попросил 36 опытных разработчиков, которые никогда не использовали Copilot Chat, оценить его полезность при решении задачи.

Некоторым из участников случайным образом было поручено использовать Copilot Chat и оценить написанный код по следующим критериям: читаемость, универсальность, краткость, удобность в обслуживании и отказоустойчивость.

Затем разработчики получили два пул запроса без информации, был ли исходный код написан с помощью Copilot. Ревью выполнялось с Copilot Chat и без него по вышеописанным критериям.

После получения ревью, авторы решали какие из комментариев были более полезны. И, конечно же, авторы не знали какой из комментариев был написан с помощью Copilot.

Какие результаты? 👀

- 85% разработчиков отметили большую уверенность в качестве кода

- Участники отметили улучшение скорости проверки кода на 15%

- 88% разработчиков сообщили о сохранении фокуса (flow state)

🤓 Блог
🔥18👍6🤯2