AI для Всех
15K subscribers
1.31K photos
180 videos
11 files
1.51K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
Совсем не в тему канала, но, ставьте лайк если вчера тоже были на Nazlo Mame 🖤
8👍2
Ребятаушки, я только переехал в новую страну и пока осваиваюсь. Но думаю что на днях вкачусь в режим уже и буду снова постить качественный контент. Не скучайте :)
24😢7👍4😁1🎉1
HuggingFace запустили свой курс по RL! Судя по скриншотам - это бомба 💣

Курс бесплатный, регистрируют тут
🔥163
Блез Агуэра-и-Аркас, руководитель группы Google AI в Сиэттле, ставит вопрос ребром: Do large language models understand us? Вопрос лишь на первый взгляд кажется абсурдным, с однозначным ответом, но по ходу чтения его эссе начинаешь все больше задумываться.

Большие языковые модели воплощают идею философского зомби: они работают на статистике и разговаривают [якобы] без понимания. Но этот вопрос не разрешим в каком-либо строгом смысле — Блез показывает, что LLM постоянно моделируют собеседника, ведя нечто вроде внутреннего диалога, генерируя разные ответы и выбирая лучший.

То есть у модели возникает подобие того, что психологи называют «теорией разума», и не ясно, как отличить «настоящее» понимание от «фальшивого».

Рассуждения Блеза заходят на фоне недавних прорывов в машинном обучении, явленных нам в виде DALL-E 2 от OpenAI, создающей картинки по текстовому описанию, и PaLM от Google, умеющей схватывать смысл и контекст беседы.

И на контрасте с недавним эссе Гари Маркуса, CEO компании Robust.AI, Deep Learning Is Hitting a Wall, где он громит любые прорывы, настаивая, что DL не имеет ни малейшего отношения к интеллекту и пониманию. Ян Лекун и другие усмехаются в ответ, приводят Маркусу впечатляющие примеры из DALL-E 2 и PaLM, а тот огрызается в твиттере, называя их сherry picking, и конца у этого сюжета нет.

При всей давней симпатии к Маркусу должен признать, его текст уступает по глубине тексту Агуэра-и-Аркаса.

И немного о трендах. PaLM вмещает 540 млрд параметров, что в три раза больше знаменитой GPT-3, за счет чего результаты в обработке языка резко улучшились. В Китае, используя экзафлопсный суперкомпьютер, создают систему BaGuaLu для обучения модели с 14,5 трлн параметров. Как пишут разработчики, BaGuaLu потенциально «имеет возможность обучать модели с 174 трлн параметров, что превосходит количество синапсов в человеческом мозге».
🔥12👍4😁1
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Наткнулся на совершенно фантастическое качество конвертации английского текста в голос нейронкой.

Если честно, в Open Source такого качества не видел пока что, и там много голосов, вот страница с примерами.

Вдруг кому-то полезно будет для проектов англоговорящих – алгоритм называется Tortoise:

🐢 Код | Колаб
😁5😱1
Forwarded from DLStories
MoLeR — новая нейронка от Microsoft Research для drug design

Drug design — задача поиска новых химических соединений, которые могут быть использованы для создания новых лекарств. Задача сложная, биологи тратят годы и огромное количество денег на поиск одной такой молекулы. MoLeR — новая модель, которая должна помочь биологам в их работе.

Для разработки MoLeR исследователи из Microsoft сотрудничали с учеными из Novartis — компании, которая занимается поиском новых лекарств. И идея работы MoLeR основана на том, каким способом ученые в реальности пытаются искать новые соединения.

Вот как ищут новые молекулы в лобораториях:
Часто это делает так: сначала медики находят "hit" молекулы — такие, которые обладают хотя бы какими-то свойствами, полезными для создания лекарства против болезни. Как правило, такие молекулы также обладают и рядом плохих свойств, и сразу взять и сделать из них лекарство нельзя. Поэтому медики берут такую hit молекулу и начинают ее testing. Они пытаются вносить в ее структуру небольшие изменения, стараясь найти такие, которые привели бы к увеличению количества положительных свойств молекулы и уменьшению количества отрицательных. Такой процесс может длиться годы и очень сильно зависит от удачи, интуиции и экспертности.

Модель MoLeR основана на этой же идее: на постепенном улучшении базовой структуры известной молекулы, чтобы получить молекулу с желаемыми свойствами.

Вот как устроена модель:
MoLeR — это VAE. Его энкодер и декодер — графовые нейросети (и молекулы, как обычно это делается в таких моделях, представляются в виде графов). Энкодер сжимает входную молекулу в латентное представление, а декодер учится получать молекулу из латентного представления обратно. Обученный декодер, собственно, и будет использоваться для генерации новых молекул. При обучении автоэнкодер учится кодировать в латентном представлении свойства молекулы. Это достигается добавлением еще одной нейросети в тренировочный процесс: она принимает на вход латентный вектор и учится предсказывать по нему свойства молекулы.

Самое интересное — это устройство декодера MoLeR. Чтобы разобраться в его идее, давайте заметим вот что:

Молекулы — это не просто случайные наборы атомов, связанных случайными связями. В молекулах есть структура, и каждая молекула состоит из нескольких связанных между собой структурных единиц. Это примерно как предложения в языке: предложения — это не случайные наборы букв, а наборы более сложных единиц — слов. При этом слова в предложении связываются тоже не случайно, а согласно правилам, структуре.

Так вот, декодер MoLeR — это нейросеть, которая принимает на вход часть молекулы и учится дополнять эту часть новой структурной единицей. Такой, чтобы через несколько этапов генерации получилась молекула с желаемыми свойствами.
Получается, полную молекулу из латентного представления декодер MoLeR генерирует последовательно: сначала генерирует одну структурную единицу, затем, на следующем шаге, дополняет ее второй структурной единицей и так далее. Это похоже на то, как нейросети для машинного перевода генерируют перевод — шаг за шагом, слово за словом.

Почему это круто: такое устройство декодера MoLeR позволяет не только генерировать молекулу с нуля из латентного вектора. Оно еще позволяет подавать декодеру на вход любую часть молекулы и получать на выходе модели дополненную версию. Это значит, что ученые могут взять hit молекулу, выделить из нее ее базовую структуру и подать на вход модели. И на выходе MoLeR получится молекула, имеющая ту же базовую составляющую, что и hit молекула, но с нужными свойствами.

Это свойство модели MoLeR отличает эту нейросеть от тех, что были предложены для решения задачи drug design ранее. Надеемся, это поможет ученым в их работе =)

Подробнее:
Блог Microsoft Research
Статья о Moler
🔥10👍5
есть кто в Тель Авиве? пишите в комментах, могу живую лекцию организовать
Мы выпустили лекцию про нейрорендеринг и физическое моделирование с помощью нейросетей.

Кажется, на русском на эту тему ещё никто лекцию не делал (могу быть не прав, кидайте ссылки). Поговорили про NeRF, релайтинг, моделирование процессов и ещё много о чем.

Лекция 10. Нейрорендеринг и физическое моделирование
👍14
😁32🔥11😢6👍2
Ребятушки, ну порадуйте меня! Позовите ещё 8 человек
👍22🤯7😢32
Forwarded from DLStories
Gato😺 от DeepMindмодель, которая умеет решать сразу кучу задач: language modeling, image captioning, играть в игры, передвигать предметы робо-рукой и т.д.

Идея Gato очень проста. Смотрите, у нас есть GPT-3 — авторегрессионная модель, которая умеет предсказывать следующий токен по входной последовательности. Что если другие задачи — image captioning, RL и т.п.— тоже представить в виде "предскажи следующий токен по предыдущим"?

Например, преобразуем картинки в последовательность токенов, будем подавать их на вход модели и ждать ответ — caption картинки. Иля для RL: представим информацию о состоянии среды и предыдущих действиях агента в виде последовательности. Подадим модели на вход и будем ждать ответ — следующее действие для агента.

Получается, Gato — это GPT-3 для решения сразу 604(‼️) задач, которые представляются в таком виде.

Как информация для разных задач кодируется в последовательности токенов и какие задачи решает Gato, читайте в блоге DeepMind и в статье на arxiv.
🤯16👍5🔥42
Очень интересный тред про пошаговый дизайн промпта для GPT-3. Возможно большие языковые модели гораздо умнее, чем мы думали.
🔥16
Языковые модели становятся жутковато умными. Чел решил поговорить с Шиншилой (относительно новая Гугловая моделька) на выдуманном языке, и она ему довольно в тему отвечает! Весь тред тут
👍37🔥11🤯4😁1
Чат! AMA: Ask me anything?
🔥4👍1
Forwarded from Denis Sexy IT 🤖
Есть такой сайт, Metaculus — это сервис, где разные чуваки, вроде технарей и программистов, дают прогнозы по большому кругу тем. Причём, предсказания они обосновывают, рассчитывают и дают свои оценки случится ли то или иное событие, или, к примеру, когда это случится и на что это повлияет.

И вот есть там такой интересный прогноз под названием «Когда мы узнаем что появился общий искусственный интеллект» (типа умеющий решать любые задачи) — и вот в последнее время, а если быть точнее с апреля 2022, срок ожидания предсказания резко сократился, с первоначально предсказанного ~2042 года, до ~2028.

Чтобы вы понимали, что этот ИИ не будет захватывать галактики и порабощать человечество (пока что), вот его основные критерии, то есть, если все они будут удовлетворены, то прогноз сбудется:

🔹 ИИ должен свободно пройти тест Тьюринга, который принёс бы ему серебряную премию Лёбнера: с 1991 года программы соревнуются кто из них более «человечный», а самая жива программа, по мнеию судей, получает премию в $2 000, то есть достаточно второго места. Жаль я не знал про эту премию пару лет назад, когда делал свой фейковый тест тьюринга, заработал бы хоть чуть-чуть.

🔹 ИИ должен набрать 90% или более в Winograd Schema Challenge — это тестер машинного интеллекта, аналог теста Тьюринга.

🔹 Уметь набрать 75-й процентиль (по сравнению со студентами, в 2016 году этот показатель составлял 600 баллов) по всем разделам математики стандартного экзамена SAT 2015-2020 годов. Это академический тест, который оценивает знания американской школьной программы. При этом, в качестве датасета ИИ может иметь менее 10 решенных экзаменов, остальному должен обучиться самостоятельно.

🔹 Суметь научится играть в классическую игру Atari «Montezuma’s revenge», исследовать в ней все 24 комнаты, в качестве датасета на вход ИИ должен посмотреть менее 100 часов геймплея.

🔹Система должна объяснить свои рассуждения по задаче SAT и другим тестам, устно сообщить о своём прогрессе и, например, идентифицировать объект во время игры.

Решение о том, что мол вот он «сильный ИИ» будет принято путём демонстрации, либо путём заявления разработчиков о том, что всё работает и система справляется. Датой разрешения и, собственно, «сбычи» прогноза будет дата, когда система будет публично описана в докладе, пресс-релизе, статье (поэтому обязательно читайте канал).

Лично мне кажется, что судя по тем успехам последних месяцев что мы видели при работе нейронок «под все задачи» – где она уже сейчас считает участников на фото понимая где какой предмет относительно персонажей, или проходит собеседование, или где ИИ объясняет шутки – этот прогноз уже даже ближе 2028 года, дальше люди буду спорить, что же означает термин ИИ и как его трактовать. Мой прогноз – я думаю все эти задачи один ИИ решит к 2025 году или раньше, мы уже близко.

Отдельно радует, что прогноз по вымиранию человечества к 2100 году пока остался на уровне 2%-вероятности 🌚

@Denis
👍15
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Я еще пару лет назад делился в канале футуристичной идеей «загружаешь в нейронку абзац книги, а она тебе генерирует арт по тексту» и рад видеть, что это просто уже реальность – на видео пример работы такой концепции в Dalle 2.

Видимо, через какое-то время появятся аппы-читалки где это будет одна из встроенных фич, чисто для погружения
🔥35🤩3👍1
Довольно точное описание будущего (ладно уже настоящего) художников в мире Dall-E
🔥47😁19👍9