Совсем не в тему канала, но, ставьте лайк если вчера тоже были на Nazlo Mame 🖤
❤8👍2
Ребятаушки, я только переехал в новую страну и пока осваиваюсь. Но думаю что на днях вкачусь в режим уже и буду снова постить качественный контент. Не скучайте :)
Telegram
NN for Science
Hag Pessah Sameah!
❤24😢7👍4😁1🎉1
HuggingFace запустили свой курс по RL! Судя по скриншотам - это бомба 💣
Курс бесплатный, регистрируют тут
Курс бесплатный, регистрируют тут
🔥16❤3
Forwarded from Блуждающий нерв
Блез Агуэра-и-Аркас, руководитель группы Google AI в Сиэттле, ставит вопрос ребром: Do large language models understand us? Вопрос лишь на первый взгляд кажется абсурдным, с однозначным ответом, но по ходу чтения его эссе начинаешь все больше задумываться.
Большие языковые модели воплощают идею философского зомби: они работают на статистике и разговаривают [якобы] без понимания. Но этот вопрос не разрешим в каком-либо строгом смысле — Блез показывает, что LLM постоянно моделируют собеседника, ведя нечто вроде внутреннего диалога, генерируя разные ответы и выбирая лучший.
То есть у модели возникает подобие того, что психологи называют «теорией разума», и не ясно, как отличить «настоящее» понимание от «фальшивого».
Рассуждения Блеза заходят на фоне недавних прорывов в машинном обучении, явленных нам в виде DALL-E 2 от OpenAI, создающей картинки по текстовому описанию, и PaLM от Google, умеющей схватывать смысл и контекст беседы.
И на контрасте с недавним эссе Гари Маркуса, CEO компании Robust.AI, Deep Learning Is Hitting a Wall, где он громит любые прорывы, настаивая, что DL не имеет ни малейшего отношения к интеллекту и пониманию. Ян Лекун и другие усмехаются в ответ, приводят Маркусу впечатляющие примеры из DALL-E 2 и PaLM, а тот огрызается в твиттере, называя их сherry picking, и конца у этого сюжета нет.
При всей давней симпатии к Маркусу должен признать, его текст уступает по глубине тексту Агуэра-и-Аркаса.
И немного о трендах. PaLM вмещает 540 млрд параметров, что в три раза больше знаменитой GPT-3, за счет чего результаты в обработке языка резко улучшились. В Китае, используя экзафлопсный суперкомпьютер, создают систему BaGuaLu для обучения модели с 14,5 трлн параметров. Как пишут разработчики, BaGuaLu потенциально «имеет возможность обучать модели с 174 трлн параметров, что превосходит количество синапсов в человеческом мозге».
Большие языковые модели воплощают идею философского зомби: они работают на статистике и разговаривают [якобы] без понимания. Но этот вопрос не разрешим в каком-либо строгом смысле — Блез показывает, что LLM постоянно моделируют собеседника, ведя нечто вроде внутреннего диалога, генерируя разные ответы и выбирая лучший.
То есть у модели возникает подобие того, что психологи называют «теорией разума», и не ясно, как отличить «настоящее» понимание от «фальшивого».
Рассуждения Блеза заходят на фоне недавних прорывов в машинном обучении, явленных нам в виде DALL-E 2 от OpenAI, создающей картинки по текстовому описанию, и PaLM от Google, умеющей схватывать смысл и контекст беседы.
И на контрасте с недавним эссе Гари Маркуса, CEO компании Robust.AI, Deep Learning Is Hitting a Wall, где он громит любые прорывы, настаивая, что DL не имеет ни малейшего отношения к интеллекту и пониманию. Ян Лекун и другие усмехаются в ответ, приводят Маркусу впечатляющие примеры из DALL-E 2 и PaLM, а тот огрызается в твиттере, называя их сherry picking, и конца у этого сюжета нет.
При всей давней симпатии к Маркусу должен признать, его текст уступает по глубине тексту Агуэра-и-Аркаса.
И немного о трендах. PaLM вмещает 540 млрд параметров, что в три раза больше знаменитой GPT-3, за счет чего результаты в обработке языка резко улучшились. В Китае, используя экзафлопсный суперкомпьютер, создают систему BaGuaLu для обучения модели с 14,5 трлн параметров. Как пишут разработчики, BaGuaLu потенциально «имеет возможность обучать модели с 174 трлн параметров, что превосходит количество синапсов в человеческом мозге».
Medium
Do large language models understand us?
LLMs have a great deal to teach us about the nature of language, understanding, intelligence, sociality, and personhood.
🔥12👍4😁1
Мы выпустили лекцию про генеративные модели.
Что такое автоэнкодеры, как работают ганы, что такое CLIP и почему Dall-E 2 это так круто? Все это в лекции
🎥 Смотреть
Что такое автоэнкодеры, как работают ганы, что такое CLIP и почему Dall-E 2 это так круто? Все это в лекции
🎥 Смотреть
YouTube
«Нейронные сети и их применение в научных исследованиях». Лекция 8: Генеративные модели
Восьмое занятие на МФК-курсе «Нейронные сети и их применение в научных исследованиях» для студентов МГУ.
Преподаватель: Артемий Новоселов
0:00 В предыдущих сериях
1:05 Часть 1
1:27 Сжатие информации
9:46 Что если мы хотим создавать новые картинки?
11:55…
Преподаватель: Артемий Новоселов
0:00 В предыдущих сериях
1:05 Часть 1
1:27 Сжатие информации
9:46 Что если мы хотим создавать новые картинки?
11:55…
👍10🔥2❤1🤯1
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Наткнулся на совершенно фантастическое качество конвертации английского текста в голос нейронкой.
Если честно, в Open Source такого качества не видел пока что, и там много голосов, вот страница с примерами.
Вдруг кому-то полезно будет для проектов англоговорящих – алгоритм называется Tortoise:
🐢 Код | Колаб
Если честно, в Open Source такого качества не видел пока что, и там много голосов, вот страница с примерами.
Вдруг кому-то полезно будет для проектов англоговорящих – алгоритм называется Tortoise:
🐢 Код | Колаб
😁5😱1
Ребятушки, написал лонг-рид про подводные камни в публикации научных исследований ML и как их избежать.
Лонг-Рид
Лонг-Рид
Хабр
Как избежать «подводных камней» машинного обучения: руководство для академических исследователей
Введение Этот лонг-рид является сильно переработанным и расширенным переводом статьи How to avoid machine learning pitfalls: a guide for academic researchers ( Lones, 2021 ). Статья является...
🔥15🤯5👍4
Мы выпустили лекцию про обучение с подкреплением.
Не претендуя на глубину, мы объясняем ключевые концепты RL, и показываем в каких областях уже были получены значительные успехи
Лекция 9. Обучение с подкреплением
Не претендуя на глубину, мы объясняем ключевые концепты RL, и показываем в каких областях уже были получены значительные успехи
Лекция 9. Обучение с подкреплением
YouTube
«Нейронные сети и их применение в научных исследованиях». Лекция 9: Обучение с подкреплением
Девятое занятие на МФК-курсе «Нейронные сети и их применение в научных исследованиях» для студентов МГУ.
Преподаватель: Артемий Новоселов
0:00 Вступление
0:24 В предыдущих сериях
1:23 Часть 1
3:46 Цикл взаимодействия
4:21 Обучение с подкреплением (Reinforcement…
Преподаватель: Артемий Новоселов
0:00 Вступление
0:24 В предыдущих сериях
1:23 Часть 1
3:46 Цикл взаимодействия
4:21 Обучение с подкреплением (Reinforcement…
👍9🤯2😢1
Forwarded from DLStories
MoLeR — новая нейронка от Microsoft Research для drug design
Drug design — задача поиска новых химических соединений, которые могут быть использованы для создания новых лекарств. Задача сложная, биологи тратят годы и огромное количество денег на поиск одной такой молекулы. MoLeR — новая модель, которая должна помочь биологам в их работе.
Для разработки MoLeR исследователи из Microsoft сотрудничали с учеными из Novartis — компании, которая занимается поиском новых лекарств. И идея работы MoLeR основана на том, каким способом ученые в реальности пытаются искать новые соединения.
Вот как ищут новые молекулы в лобораториях:
Часто это делает так: сначала медики находят "hit" молекулы — такие, которые обладают хотя бы какими-то свойствами, полезными для создания лекарства против болезни. Как правило, такие молекулы также обладают и рядом плохих свойств, и сразу взять и сделать из них лекарство нельзя. Поэтому медики берут такую hit молекулу и начинают ее testing. Они пытаются вносить в ее структуру небольшие изменения, стараясь найти такие, которые привели бы к увеличению количества положительных свойств молекулы и уменьшению количества отрицательных. Такой процесс может длиться годы и очень сильно зависит от удачи, интуиции и экспертности.
Модель MoLeR основана на этой же идее: на постепенном улучшении базовой структуры известной молекулы, чтобы получить молекулу с желаемыми свойствами.
Вот как устроена модель:
MoLeR — это VAE. Его энкодер и декодер — графовые нейросети (и молекулы, как обычно это делается в таких моделях, представляются в виде графов). Энкодер сжимает входную молекулу в латентное представление, а декодер учится получать молекулу из латентного представления обратно. Обученный декодер, собственно, и будет использоваться для генерации новых молекул. При обучении автоэнкодер учится кодировать в латентном представлении свойства молекулы. Это достигается добавлением еще одной нейросети в тренировочный процесс: она принимает на вход латентный вектор и учится предсказывать по нему свойства молекулы.
Самое интересное — это устройство декодера MoLeR. Чтобы разобраться в его идее, давайте заметим вот что:
Молекулы — это не просто случайные наборы атомов, связанных случайными связями. В молекулах есть структура, и каждая молекула состоит из нескольких связанных между собой структурных единиц. Это примерно как предложения в языке: предложения — это не случайные наборы букв, а наборы более сложных единиц — слов. При этом слова в предложении связываются тоже не случайно, а согласно правилам, структуре.
Так вот, декодер MoLeR — это нейросеть, которая принимает на вход часть молекулы и учится дополнять эту часть новой структурной единицей. Такой, чтобы через несколько этапов генерации получилась молекула с желаемыми свойствами.
Получается, полную молекулу из латентного представления декодер MoLeR генерирует последовательно: сначала генерирует одну структурную единицу, затем, на следующем шаге, дополняет ее второй структурной единицей и так далее. Это похоже на то, как нейросети для машинного перевода генерируют перевод — шаг за шагом, слово за словом.
Почему это круто: такое устройство декодера MoLeR позволяет не только генерировать молекулу с нуля из латентного вектора. Оно еще позволяет подавать декодеру на вход любую часть молекулы и получать на выходе модели дополненную версию. Это значит, что ученые могут взять hit молекулу, выделить из нее ее базовую структуру и подать на вход модели. И на выходе MoLeR получится молекула, имеющая ту же базовую составляющую, что и hit молекула, но с нужными свойствами.
Это свойство модели MoLeR отличает эту нейросеть от тех, что были предложены для решения задачи drug design ранее. Надеемся, это поможет ученым в их работе =)
Подробнее:
Блог Microsoft Research
Статья о Moler
Drug design — задача поиска новых химических соединений, которые могут быть использованы для создания новых лекарств. Задача сложная, биологи тратят годы и огромное количество денег на поиск одной такой молекулы. MoLeR — новая модель, которая должна помочь биологам в их работе.
Для разработки MoLeR исследователи из Microsoft сотрудничали с учеными из Novartis — компании, которая занимается поиском новых лекарств. И идея работы MoLeR основана на том, каким способом ученые в реальности пытаются искать новые соединения.
Вот как ищут новые молекулы в лобораториях:
Часто это делает так: сначала медики находят "hit" молекулы — такие, которые обладают хотя бы какими-то свойствами, полезными для создания лекарства против болезни. Как правило, такие молекулы также обладают и рядом плохих свойств, и сразу взять и сделать из них лекарство нельзя. Поэтому медики берут такую hit молекулу и начинают ее testing. Они пытаются вносить в ее структуру небольшие изменения, стараясь найти такие, которые привели бы к увеличению количества положительных свойств молекулы и уменьшению количества отрицательных. Такой процесс может длиться годы и очень сильно зависит от удачи, интуиции и экспертности.
Модель MoLeR основана на этой же идее: на постепенном улучшении базовой структуры известной молекулы, чтобы получить молекулу с желаемыми свойствами.
Вот как устроена модель:
MoLeR — это VAE. Его энкодер и декодер — графовые нейросети (и молекулы, как обычно это делается в таких моделях, представляются в виде графов). Энкодер сжимает входную молекулу в латентное представление, а декодер учится получать молекулу из латентного представления обратно. Обученный декодер, собственно, и будет использоваться для генерации новых молекул. При обучении автоэнкодер учится кодировать в латентном представлении свойства молекулы. Это достигается добавлением еще одной нейросети в тренировочный процесс: она принимает на вход латентный вектор и учится предсказывать по нему свойства молекулы.
Самое интересное — это устройство декодера MoLeR. Чтобы разобраться в его идее, давайте заметим вот что:
Молекулы — это не просто случайные наборы атомов, связанных случайными связями. В молекулах есть структура, и каждая молекула состоит из нескольких связанных между собой структурных единиц. Это примерно как предложения в языке: предложения — это не случайные наборы букв, а наборы более сложных единиц — слов. При этом слова в предложении связываются тоже не случайно, а согласно правилам, структуре.
Так вот, декодер MoLeR — это нейросеть, которая принимает на вход часть молекулы и учится дополнять эту часть новой структурной единицей. Такой, чтобы через несколько этапов генерации получилась молекула с желаемыми свойствами.
Получается, полную молекулу из латентного представления декодер MoLeR генерирует последовательно: сначала генерирует одну структурную единицу, затем, на следующем шаге, дополняет ее второй структурной единицей и так далее. Это похоже на то, как нейросети для машинного перевода генерируют перевод — шаг за шагом, слово за словом.
Почему это круто: такое устройство декодера MoLeR позволяет не только генерировать молекулу с нуля из латентного вектора. Оно еще позволяет подавать декодеру на вход любую часть молекулы и получать на выходе модели дополненную версию. Это значит, что ученые могут взять hit молекулу, выделить из нее ее базовую структуру и подать на вход модели. И на выходе MoLeR получится молекула, имеющая ту же базовую составляющую, что и hit молекула, но с нужными свойствами.
Это свойство модели MoLeR отличает эту нейросеть от тех, что были предложены для решения задачи drug design ранее. Надеемся, это поможет ученым в их работе =)
Подробнее:
Блог Microsoft Research
Статья о Moler
🔥10👍5
Мы выпустили лекцию про нейрорендеринг и физическое моделирование с помощью нейросетей.
Кажется, на русском на эту тему ещё никто лекцию не делал (могу быть не прав, кидайте ссылки). Поговорили про NeRF, релайтинг, моделирование процессов и ещё много о чем.
Лекция 10. Нейрорендеринг и физическое моделирование
Кажется, на русском на эту тему ещё никто лекцию не делал (могу быть не прав, кидайте ссылки). Поговорили про NeRF, релайтинг, моделирование процессов и ещё много о чем.
Лекция 10. Нейрорендеринг и физическое моделирование
YouTube
«Нейронные сети и их применение в научных исследованиях». Лекция 10: Нейрорендеринг
Десятое занятие на МФК-курсе «Нейронные сети и их применение в научных исследованиях» для студентов МГУ.
Преподаватель: Артемий Новоселов
0:00 Вступление
0:47 Часть 1
1:10 Рендеринг
7:13 Что нужно, чтобы отрендерить картинку
8:53 NeRF
17:37 Ответы на вопросы…
Преподаватель: Артемий Новоселов
0:00 Вступление
0:47 Часть 1
1:10 Рендеринг
7:13 Что нужно, чтобы отрендерить картинку
8:53 NeRF
17:37 Ответы на вопросы…
👍14
Forwarded from DLStories
Gato😺 от DeepMind — модель, которая умеет решать сразу кучу задач: language modeling, image captioning, играть в игры, передвигать предметы робо-рукой и т.д.
Идея Gato очень проста. Смотрите, у нас есть GPT-3 — авторегрессионная модель, которая умеет предсказывать следующий токен по входной последовательности. Что если другие задачи — image captioning, RL и т.п.— тоже представить в виде "предскажи следующий токен по предыдущим"?
Например, преобразуем картинки в последовательность токенов, будем подавать их на вход модели и ждать ответ — caption картинки. Иля для RL: представим информацию о состоянии среды и предыдущих действиях агента в виде последовательности. Подадим модели на вход и будем ждать ответ — следующее действие для агента.
Получается, Gato — это GPT-3 для решения сразу 604(‼️) задач, которые представляются в таком виде.
Как информация для разных задач кодируется в последовательности токенов и какие задачи решает Gato, читайте в блоге DeepMind и в статье на arxiv.
Идея Gato очень проста. Смотрите, у нас есть GPT-3 — авторегрессионная модель, которая умеет предсказывать следующий токен по входной последовательности. Что если другие задачи — image captioning, RL и т.п.— тоже представить в виде "предскажи следующий токен по предыдущим"?
Например, преобразуем картинки в последовательность токенов, будем подавать их на вход модели и ждать ответ — caption картинки. Иля для RL: представим информацию о состоянии среды и предыдущих действиях агента в виде последовательности. Подадим модели на вход и будем ждать ответ — следующее действие для агента.
Получается, Gato — это GPT-3 для решения сразу 604(‼️) задач, которые представляются в таком виде.
Как информация для разных задач кодируется в последовательности токенов и какие задачи решает Gato, читайте в блоге DeepMind и в статье на arxiv.
🤯16👍5🔥4❤2
Очень интересный тред про пошаговый дизайн промпта для GPT-3. Возможно большие языковые модели гораздо умнее, чем мы думали.
🔥16
Языковые модели становятся жутковато умными. Чел решил поговорить с Шиншилой (относительно новая Гугловая моделька) на выдуманном языке, и она ему довольно в тему отвечает! Весь тред тут
👍37🔥11🤯4😁1
Forwarded from Denis Sexy IT 🤖
Есть такой сайт, Metaculus — это сервис, где разные чуваки, вроде технарей и программистов, дают прогнозы по большому кругу тем. Причём, предсказания они обосновывают, рассчитывают и дают свои оценки случится ли то или иное событие, или, к примеру, когда это случится и на что это повлияет.
И вот есть там такой интересный прогноз под названием «Когда мы узнаем что появился общий искусственный интеллект» (типа умеющий решать любые задачи) — и вот в последнее время, а если быть точнее с апреля 2022, срок ожидания предсказания резко сократился, с первоначально предсказанного ~2042 года, до ~2028.
Чтобы вы понимали, что этот ИИ не будет захватывать галактики и порабощать человечество (пока что), вот его основные критерии, то есть, если все они будут удовлетворены, то прогноз сбудется:
🔹 ИИ должен свободно пройти тест Тьюринга, который принёс бы ему серебряную премию Лёбнера: с 1991 года программы соревнуются кто из них более «человечный», а самая жива программа, по мнеию судей, получает премию в $2 000, то есть достаточно второго места. Жаль я не знал про эту премию пару лет назад, когда делал свой фейковый тест тьюринга, заработал бы хоть чуть-чуть.
🔹 ИИ должен набрать 90% или более в Winograd Schema Challenge — это тестер машинного интеллекта, аналог теста Тьюринга.
🔹 Уметь набрать 75-й процентиль (по сравнению со студентами, в 2016 году этот показатель составлял 600 баллов) по всем разделам математики стандартного экзамена SAT 2015-2020 годов. Это академический тест, который оценивает знания американской школьной программы. При этом, в качестве датасета ИИ может иметь менее 10 решенных экзаменов, остальному должен обучиться самостоятельно.
🔹 Суметь научится играть в классическую игру Atari «Montezuma’s revenge», исследовать в ней все 24 комнаты, в качестве датасета на вход ИИ должен посмотреть менее 100 часов геймплея.
🔹Система должна объяснить свои рассуждения по задаче SAT и другим тестам, устно сообщить о своём прогрессе и, например, идентифицировать объект во время игры.
Решение о том, что мол вот он «сильный ИИ» будет принято путём демонстрации, либо путём заявления разработчиков о том, что всё работает и система справляется. Датой разрешения и, собственно, «сбычи» прогноза будет дата, когда система будет публично описана в докладе, пресс-релизе, статье (поэтому обязательно читайте канал).
Лично мне кажется, что судя по тем успехам последних месяцев что мы видели при работе нейронок «под все задачи» – где она уже сейчас считает участников на фото понимая где какой предмет относительно персонажей, или проходит собеседование, или где ИИ объясняет шутки – этот прогноз уже даже ближе 2028 года, дальше люди буду спорить, что же означает термин ИИ и как его трактовать. Мой прогноз – я думаю все эти задачи один ИИ решит к 2025 году или раньше, мы уже близко.
Отдельно радует, что прогноз по вымиранию человечества к 2100 году пока остался на уровне 2%-вероятности 🌚
@Denis
И вот есть там такой интересный прогноз под названием «Когда мы узнаем что появился общий искусственный интеллект» (типа умеющий решать любые задачи) — и вот в последнее время, а если быть точнее с апреля 2022, срок ожидания предсказания резко сократился, с первоначально предсказанного ~2042 года, до ~2028.
Чтобы вы понимали, что этот ИИ не будет захватывать галактики и порабощать человечество (пока что), вот его основные критерии, то есть, если все они будут удовлетворены, то прогноз сбудется:
🔹 ИИ должен свободно пройти тест Тьюринга, который принёс бы ему серебряную премию Лёбнера: с 1991 года программы соревнуются кто из них более «человечный», а самая жива программа, по мнеию судей, получает премию в $2 000, то есть достаточно второго места. Жаль я не знал про эту премию пару лет назад, когда делал свой фейковый тест тьюринга, заработал бы хоть чуть-чуть.
🔹 ИИ должен набрать 90% или более в Winograd Schema Challenge — это тестер машинного интеллекта, аналог теста Тьюринга.
🔹 Уметь набрать 75-й процентиль (по сравнению со студентами, в 2016 году этот показатель составлял 600 баллов) по всем разделам математики стандартного экзамена SAT 2015-2020 годов. Это академический тест, который оценивает знания американской школьной программы. При этом, в качестве датасета ИИ может иметь менее 10 решенных экзаменов, остальному должен обучиться самостоятельно.
🔹 Суметь научится играть в классическую игру Atari «Montezuma’s revenge», исследовать в ней все 24 комнаты, в качестве датасета на вход ИИ должен посмотреть менее 100 часов геймплея.
🔹Система должна объяснить свои рассуждения по задаче SAT и другим тестам, устно сообщить о своём прогрессе и, например, идентифицировать объект во время игры.
Решение о том, что мол вот он «сильный ИИ» будет принято путём демонстрации, либо путём заявления разработчиков о том, что всё работает и система справляется. Датой разрешения и, собственно, «сбычи» прогноза будет дата, когда система будет публично описана в докладе, пресс-релизе, статье (поэтому обязательно читайте канал).
Лично мне кажется, что судя по тем успехам последних месяцев что мы видели при работе нейронок «под все задачи» – где она уже сейчас считает участников на фото понимая где какой предмет относительно персонажей, или проходит собеседование, или где ИИ объясняет шутки – этот прогноз уже даже ближе 2028 года, дальше люди буду спорить, что же означает термин ИИ и как его трактовать. Мой прогноз – я думаю все эти задачи один ИИ решит к 2025 году или раньше, мы уже близко.
Отдельно радует, что прогноз по вымиранию человечества к 2100 году пока остался на уровне 2%-вероятности 🌚
@Denis
👍15
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Я еще пару лет назад делился в канале футуристичной идеей «загружаешь в нейронку абзац книги, а она тебе генерирует арт по тексту» и рад видеть, что это просто уже реальность – на видео пример работы такой концепции в Dalle 2.
Видимо, через какое-то время появятся аппы-читалки где это будет одна из встроенных фич, чисто для погружения ✨
Видимо, через какое-то время появятся аппы-читалки где это будет одна из встроенных фич, чисто для погружения ✨
🔥35🤩3👍1