Monkey vs Human Pong
#tech
Недавно мы рассказывали о том, что компания Илона Маска NeuralLink внедрила нейрочип в мозг обезъяны. Этот чип позволил животному силой мысли управлять джойстиком в онлайн-игре Ping-Pong.
Это была первая публичная демонстрация нейрочипа, который NeuralLink разрабатывает с 2019 года. Если все испытания пройдут успешно, в будущем чипы от NeuralLink смогут помочь парализованным людям управлять гаджетами или даже заменять поврежденные нейроны в теле людей, чтобы они снова смогли двигаться.
NeuralLink — не единственная компания, разрабатывающая нейрочипы для парализованных людей. Аналогичные исследования проводятся в других лабораториях, в частности — в Питтсбургском университете в США. Там в 2014 году вживили 6 чипов в голову частично парализованного американца Нейтана Коуплэнда. Эти чипы в мозге Нейтана подключены к ~160 нейронам мозга, связанным с моторными функциями рук. С помощью чипов Нейтан может контролировать роборуку, выполнять несложные моторные движения и играть в компьютерные игры.
Чипы в мозге Нейтана — старого поколения. Они более громоздкие, чем чипы NeuralLink, считывают информацию с меньшего количества нейронов мозга и работают с помощью проводов, которые Нейтан подключает к разъемам в своей голове. Чипы NeuralLink же — беспроводные, передают информацию через Bluetooth.
Еще в 2019 году Нейтан говорил, что очень хотел бы получить новые чипы от NeuralLink взамен своих старых. Новые чипы позволили бы ему совершать более сложные движения руками и лучше координировать движения в компьютерных играх, в которые он так любит играть.
А сейчас, после новости об эксперименте NeuralLink с обезъяной, Нейтан бросил компании вызов: кто победит в игре PingPong — он или обезъяна. Нейтан относится к вызову серьезно, и уже начал практиковаться в игре в лаборатории университета. Если NeuralLink ответит на вызов, матч между человеком и обезъяной может транслироваться онлайн в аккаунте Нейтана на Twitch.
Как считаете, кто победит в игре? Человек со старой версией чипа, или животное с новой?
#tech
Недавно мы рассказывали о том, что компания Илона Маска NeuralLink внедрила нейрочип в мозг обезъяны. Этот чип позволил животному силой мысли управлять джойстиком в онлайн-игре Ping-Pong.
Это была первая публичная демонстрация нейрочипа, который NeuralLink разрабатывает с 2019 года. Если все испытания пройдут успешно, в будущем чипы от NeuralLink смогут помочь парализованным людям управлять гаджетами или даже заменять поврежденные нейроны в теле людей, чтобы они снова смогли двигаться.
NeuralLink — не единственная компания, разрабатывающая нейрочипы для парализованных людей. Аналогичные исследования проводятся в других лабораториях, в частности — в Питтсбургском университете в США. Там в 2014 году вживили 6 чипов в голову частично парализованного американца Нейтана Коуплэнда. Эти чипы в мозге Нейтана подключены к ~160 нейронам мозга, связанным с моторными функциями рук. С помощью чипов Нейтан может контролировать роборуку, выполнять несложные моторные движения и играть в компьютерные игры.
Чипы в мозге Нейтана — старого поколения. Они более громоздкие, чем чипы NeuralLink, считывают информацию с меньшего количества нейронов мозга и работают с помощью проводов, которые Нейтан подключает к разъемам в своей голове. Чипы NeuralLink же — беспроводные, передают информацию через Bluetooth.
Еще в 2019 году Нейтан говорил, что очень хотел бы получить новые чипы от NeuralLink взамен своих старых. Новые чипы позволили бы ему совершать более сложные движения руками и лучше координировать движения в компьютерных играх, в которые он так любит играть.
А сейчас, после новости об эксперименте NeuralLink с обезъяной, Нейтан бросил компании вызов: кто победит в игре PingPong — он или обезъяна. Нейтан относится к вызову серьезно, и уже начал практиковаться в игре в лаборатории университета. Если NeuralLink ответит на вызов, матч между человеком и обезъяной может транслироваться онлайн в аккаунте Нейтана на Twitch.
Как считаете, кто победит в игре? Человек со старой версией чипа, или животное с новой?
Build for everyone: Google разработал систему, позволяющую слепым людям бегать самостоятельно.
#tech
Сегодня хотим рассказать вам о Project Guideline — проекте Google, который с помощью машинного обучения и смартфона помогает слабовидящим людям самостоятельно заниматься бегом. Проект создан совместно с организацией Guiding Eyes for the Blind, которая предоставляет собак-поводырей для слепых людей.
Бег, как и многие другие физические активности, малодоступен слабовидящим людям. Чтобы бегать, им нужен сопровождающий: человек или специально обученная собака. Эти ограничения не позволяют полностью ощутить свободу передвижения, как когда бежишь самостоятельно.
Project Guideline решает эту проблему: дает слабовидящим людям возможность бегать самостоятельно. Вот как это работает:
На дорожку для бега наносится специальная маркерная линия. На пояс бегуна крепится смартфон, и камера смартфона снимает видео дорожки перед бегуном во время бега. Нейронная сеть сегментирует видео: определяет, где находится маркерная линия. Понимая, в каком направлении движется линия, смартфон направляет бегуна в нужном направлении с помощью голосовых команд.
Проект все еще находится на стадии разработки, но уже есть результаты первых тестов. В этом видео Томас Панек, слепой CEO компании Guiding Eyes for the Blind, бежит по размеченной дорожке центрального парка Нью-Йорка. Кажется, все неплохо работает) Надеемся, вскоре проект станет доступен для широкого пользования. Сейчас в мире около 285 миллионов слепых людей: проект точно окажет большое влияние на их жизни.
Подробнее о том, как технически устроена система, читайте в блогпосте Google Ai. Там о том, как устроена нейросеть для сегментации и какие трудности пришлось преодолеть разработчкам для создания рабочей системы. Спойлер: собрать работующую систему и не так просто, как кажется 😉
Надеемся, в мире станет больше проектов на основе ИИ, помогающих людям в трудных ситуациях жить полной жизнью ❤️
#tech
Сегодня хотим рассказать вам о Project Guideline — проекте Google, который с помощью машинного обучения и смартфона помогает слабовидящим людям самостоятельно заниматься бегом. Проект создан совместно с организацией Guiding Eyes for the Blind, которая предоставляет собак-поводырей для слепых людей.
Бег, как и многие другие физические активности, малодоступен слабовидящим людям. Чтобы бегать, им нужен сопровождающий: человек или специально обученная собака. Эти ограничения не позволяют полностью ощутить свободу передвижения, как когда бежишь самостоятельно.
Project Guideline решает эту проблему: дает слабовидящим людям возможность бегать самостоятельно. Вот как это работает:
На дорожку для бега наносится специальная маркерная линия. На пояс бегуна крепится смартфон, и камера смартфона снимает видео дорожки перед бегуном во время бега. Нейронная сеть сегментирует видео: определяет, где находится маркерная линия. Понимая, в каком направлении движется линия, смартфон направляет бегуна в нужном направлении с помощью голосовых команд.
Проект все еще находится на стадии разработки, но уже есть результаты первых тестов. В этом видео Томас Панек, слепой CEO компании Guiding Eyes for the Blind, бежит по размеченной дорожке центрального парка Нью-Йорка. Кажется, все неплохо работает) Надеемся, вскоре проект станет доступен для широкого пользования. Сейчас в мире около 285 миллионов слепых людей: проект точно окажет большое влияние на их жизни.
Подробнее о том, как технически устроена система, читайте в блогпосте Google Ai. Там о том, как устроена нейросеть для сегментации и какие трудности пришлось преодолеть разработчкам для создания рабочей системы. Спойлер: собрать работующую систему и не так просто, как кажется 😉
Надеемся, в мире станет больше проектов на основе ИИ, помогающих людям в трудных ситуациях жить полной жизнью ❤️
BrainPort — зрение с помощью языка
#tech
Сегодня в эфире — статья-интервью с ведущим ученым-нейрофизиологом Юрием Даниловым. Данилов — один из разработчиков BrainPort — нейрофизиологического прибора, позволяющего слепому человеку видеть с помощью языка.
Представляете? С помощью стимулирования нейронов языка можно научить совершенно слепого человека понимать окружающее пространство. "Понимать пространство" — это не совсем "видеть", да, слепой человек уже не сможет видеть картинки. "Понимать" — это некое ощущение пространства, 3D-размерности. Ощущение, которое даже сами испытуемые не могут объяснить:
"... скалолаз, тестируя прибор, пошел по коридору и почувствовал дверь. Вот так подходит, проводит рукой в дверной проем и говорит: I feel depth in this little tiny nothing. Это его слова – я чувствую глубину в этом маленьком ничто. Вот как он чувствует глубину? Я не знаю. Никто не знает."
Этот же метод — электростимуляцию нервов языка— можно использовать не только для замещения зрения, но и для восстановления других повреждений мозга: например, когда нарушена речь, равновесие или координация движений. И все это — с помощью электростимуляции языка.
Полное интервью читайте по ссылке. На самом деле, обсуждение в интервью выходит далеко за рамки прибора BrainPort: еще там о науке, о сложностях работы ученым и получения финансирования. И о том, что в мире, к сожалению, мало кому интересны прорывные экспериментальные технологии — всем интересен коммерческий профит =(
#tech
Сегодня в эфире — статья-интервью с ведущим ученым-нейрофизиологом Юрием Даниловым. Данилов — один из разработчиков BrainPort — нейрофизиологического прибора, позволяющего слепому человеку видеть с помощью языка.
Представляете? С помощью стимулирования нейронов языка можно научить совершенно слепого человека понимать окружающее пространство. "Понимать пространство" — это не совсем "видеть", да, слепой человек уже не сможет видеть картинки. "Понимать" — это некое ощущение пространства, 3D-размерности. Ощущение, которое даже сами испытуемые не могут объяснить:
"... скалолаз, тестируя прибор, пошел по коридору и почувствовал дверь. Вот так подходит, проводит рукой в дверной проем и говорит: I feel depth in this little tiny nothing. Это его слова – я чувствую глубину в этом маленьком ничто. Вот как он чувствует глубину? Я не знаю. Никто не знает."
Этот же метод — электростимуляцию нервов языка— можно использовать не только для замещения зрения, но и для восстановления других повреждений мозга: например, когда нарушена речь, равновесие или координация движений. И все это — с помощью электростимуляции языка.
Полное интервью читайте по ссылке. На самом деле, обсуждение в интервью выходит далеко за рамки прибора BrainPort: еще там о науке, о сложностях работы ученым и получения финансирования. И о том, что в мире, к сожалению, мало кому интересны прорывные экспериментальные технологии — всем интересен коммерческий профит =(
Помните AlphaFold? Это нейросеть от DeepMind, которая может предсказывать структуру белков. Это очень-очень важный прорыв для медицины. Почему это так, мы писали тут: обязательно почитайте, если еще не.
#paper #tech
Несколько дней назад DeepMind выложили статью в журнале Nature с детальным описанием работы нейросети. Дождались! Теперь можно узнать, какие данные использовались для обучения, какая архитектура у сети и как проходило обучение.
Это еще не все: вместе со статьей исследователи объявили о создании базы данных протеинов. С помощью нейросети AlphaFold ученые собираются предсказать строение всех протеинов, которые принимают участие в жизнедеятельности человеческого организма. А таких белков — более 100 миллионов! И большинство из них (83%) пока совсем не изучены биологами. Просчет всех них займет около двух месяцев.
Конечно, не все структуры белков, предсказанные AlphaFold, суперточны. Только ~36% из них обладают атомартной точностью, то есть, отличаются от истинных структур только на уровне отдельных атомов. Однако даже не самые точные модели белков сильно помогут ученым. Например, определить функцию, которую белок выполняет в человеческом теле, можно и по приблизительной модели строения белка. При этом до появления AlphaFold определять функции многих белков было сложно и долго, а некоторых — и невозможно.
Также DeepMind собирается выложить код модели в открытый бесплатный доступ. Надеемся, что эта работа действительно поможет ученым и ускорит понимание биологии тела и создание новых лекарств.
#paper #tech
Несколько дней назад DeepMind выложили статью в журнале Nature с детальным описанием работы нейросети. Дождались! Теперь можно узнать, какие данные использовались для обучения, какая архитектура у сети и как проходило обучение.
Это еще не все: вместе со статьей исследователи объявили о создании базы данных протеинов. С помощью нейросети AlphaFold ученые собираются предсказать строение всех протеинов, которые принимают участие в жизнедеятельности человеческого организма. А таких белков — более 100 миллионов! И большинство из них (83%) пока совсем не изучены биологами. Просчет всех них займет около двух месяцев.
Конечно, не все структуры белков, предсказанные AlphaFold, суперточны. Только ~36% из них обладают атомартной точностью, то есть, отличаются от истинных структур только на уровне отдельных атомов. Однако даже не самые точные модели белков сильно помогут ученым. Например, определить функцию, которую белок выполняет в человеческом теле, можно и по приблизительной модели строения белка. При этом до появления AlphaFold определять функции многих белков было сложно и долго, а некоторых — и невозможно.
Также DeepMind собирается выложить код модели в открытый бесплатный доступ. Надеемся, что эта работа действительно поможет ученым и ускорит понимание биологии тела и создание новых лекарств.
Технологии на основе ИИ известны своей предвзятостью. Возьмем распознавание лиц: известно, что лица европейцев распознаются гораздо лучше, чем лица народов меньшинств. Это породило реальные проблемы: в Америке, к примеру, было уже несколько инцидентов, когда из-за плохой работы системы распознавания лиц на афроамериканцах под арест попадал не тот человек. Подробнее об этом можно почитать тут.
Сегодня поговорим про другую технологию на основе ИИ, которая может породить дискриминацию. Это ИИ для найма сотрудников на работу
Да, такое есть. Вот два примера компаний, поставляющих такие решения: Pymetrics и Arctic Shores. И все больше компаний, включая такие большие, как AstraZeneca, используют ИИ для подбора сотрудников.
Как это работает:
Кандидату в сотрудники предлагается сыграть в игры. В процессе игр происходит измерение поведенческих паттернов и умений игрока. В игре от Pymetrics оцениваются 9 параметров кандидата: внимание, старательность, щедрость, толерантность к риску и еще 5 других. Эти параметры — то, что, по мнению CEO Pymetrics, помогает человеку достичь успеха в работе.
Технология Arctic Shores немного отличается от Pymetrics. У Pymetrics игры довольно банальны и сразу понятно, что они оценивают, а у Arctic Shores это не так. Тут оцениваются решения, которые вы принимаете в процессе игры. Эти игры также оценивают качества кандидата: креативность, устойчивость и т.д.
Где тут проблема:
Казалось бы, ничего страшного нет: игры просто позволяют работодателю автоматически выявить сильные стороны кандидата. Но проблемы все же есть, и главная из них опять касается меньшинств. На этот раз — людей с ограниченными способностями.
Ограничений, которые могут помешать успешно пройти тесты, много: дислексия, дальтонизм, синдром дефицита внимания и т.д. Многие тесты (включая Pymetrics и Arctic Shores) позволяют указать свой тип ограничения и пройти специализированный тест. Но здесь возникает другая проблема: система будет знать о вашем ограничении. Это неприятно: кто знает, предается ли эта информация работодателю и не влияет ли на финальное решение о том, брать ли вас на работу. Напомним, что информация об ограничениях вроде описанных выше — личная, и практически никогда не должна учитываться при найме.
"Страшно, что если я сознаюсь в своем ограничении, я дам системе информацию о том, что потенциально сразу может пресечь мои шансы получить работу. Но если я не сознаюсь, это может помешать мне нормально пройти тестирование. К примеру, если у меня дислексия, я не смогу нормально читать слова на экране. Кажется, что я проигрываю в любом случае" — говорит Генри Клейпул, консультат технологической политики в области инвалидности.
Смещенная выборка
Даже если тесты честные и не передают информацию об ограничениях кандидатов работодателю, остается другая проблемы. Это тренировочная база. Чтобы тесты могли хорошо оценивать сотрудников, они должны быть обучены на большой выборке реальных людей. В таких выборках доля людей с ограничениями очень мала. Поэтому даже если система знает, что перед ней — человек с дислексией, она скорее всего выдаст для него неадекватное решение.
Непрозрачность решения
Еще одна проблема касается не только людей с ограничениями. Пройдя тест и получив отказ в найме, кандидат не знает, почему именно был получен отказ. Человек объективно не подходит для работы или на результат теста повлияла информация о дислексии? Из-за этого не получается исследовать такие системы на предмет дискриминации на государственном уровне. Нет доказательства дискриминации — нет расследования. Даже если системы нечестные, никто об этом не знает и люди продолжают их использовать.
Конечно, никто не считает, что компании, создающие данные тесты, намеренно притесняют людей. Проблема скорее в недостаточном внимании к деталям работы систем и социальным проблемам. Вообще, проблема предвзятости ИИ систем — обширна. Непонятно, когда и как она будет решена. А пока что мы должны тщательнее изучать каждое применение ИИ в социальной сфере и решать, действительно ли оно того стоит.
Материал написан на основе этой статьи.
#ai_inside
Сегодня поговорим про другую технологию на основе ИИ, которая может породить дискриминацию. Это ИИ для найма сотрудников на работу
Да, такое есть. Вот два примера компаний, поставляющих такие решения: Pymetrics и Arctic Shores. И все больше компаний, включая такие большие, как AstraZeneca, используют ИИ для подбора сотрудников.
Как это работает:
Кандидату в сотрудники предлагается сыграть в игры. В процессе игр происходит измерение поведенческих паттернов и умений игрока. В игре от Pymetrics оцениваются 9 параметров кандидата: внимание, старательность, щедрость, толерантность к риску и еще 5 других. Эти параметры — то, что, по мнению CEO Pymetrics, помогает человеку достичь успеха в работе.
Технология Arctic Shores немного отличается от Pymetrics. У Pymetrics игры довольно банальны и сразу понятно, что они оценивают, а у Arctic Shores это не так. Тут оцениваются решения, которые вы принимаете в процессе игры. Эти игры также оценивают качества кандидата: креативность, устойчивость и т.д.
Где тут проблема:
Казалось бы, ничего страшного нет: игры просто позволяют работодателю автоматически выявить сильные стороны кандидата. Но проблемы все же есть, и главная из них опять касается меньшинств. На этот раз — людей с ограниченными способностями.
Ограничений, которые могут помешать успешно пройти тесты, много: дислексия, дальтонизм, синдром дефицита внимания и т.д. Многие тесты (включая Pymetrics и Arctic Shores) позволяют указать свой тип ограничения и пройти специализированный тест. Но здесь возникает другая проблема: система будет знать о вашем ограничении. Это неприятно: кто знает, предается ли эта информация работодателю и не влияет ли на финальное решение о том, брать ли вас на работу. Напомним, что информация об ограничениях вроде описанных выше — личная, и практически никогда не должна учитываться при найме.
"Страшно, что если я сознаюсь в своем ограничении, я дам системе информацию о том, что потенциально сразу может пресечь мои шансы получить работу. Но если я не сознаюсь, это может помешать мне нормально пройти тестирование. К примеру, если у меня дислексия, я не смогу нормально читать слова на экране. Кажется, что я проигрываю в любом случае" — говорит Генри Клейпул, консультат технологической политики в области инвалидности.
Смещенная выборка
Даже если тесты честные и не передают информацию об ограничениях кандидатов работодателю, остается другая проблемы. Это тренировочная база. Чтобы тесты могли хорошо оценивать сотрудников, они должны быть обучены на большой выборке реальных людей. В таких выборках доля людей с ограничениями очень мала. Поэтому даже если система знает, что перед ней — человек с дислексией, она скорее всего выдаст для него неадекватное решение.
Непрозрачность решения
Еще одна проблема касается не только людей с ограничениями. Пройдя тест и получив отказ в найме, кандидат не знает, почему именно был получен отказ. Человек объективно не подходит для работы или на результат теста повлияла информация о дислексии? Из-за этого не получается исследовать такие системы на предмет дискриминации на государственном уровне. Нет доказательства дискриминации — нет расследования. Даже если системы нечестные, никто об этом не знает и люди продолжают их использовать.
Конечно, никто не считает, что компании, создающие данные тесты, намеренно притесняют людей. Проблема скорее в недостаточном внимании к деталям работы систем и социальным проблемам. Вообще, проблема предвзятости ИИ систем — обширна. Непонятно, когда и как она будет решена. А пока что мы должны тщательнее изучать каждое применение ИИ в социальной сфере и решать, действительно ли оно того стоит.
Материал написан на основе этой статьи.
#ai_inside
ИИ, который пишет сам себя
#tech
Большинство людей, которые часто пишут код, используют для этого среду разработки (IDE). IDE упрощают процесс разработки: дополняют названия переменных, подсвечивают ошибки, позволяют искать использования переменных в других файлах проекта и еще много чего полезного. Короче гвооря, с IDE вы меньше времени тратите на механические бессмысленные вещи.
А что если можно тратить еще меньше времени?
OpenAI представляет GitHub Copilot — искусственный интеллект для написания кода.
Вот как это работает:
Пусть у вас есть проект, где уже есть какой-то код. Copilot изучит код этого проекта и поймет его устройство. Когда вы начнете писать код дальше, Copilot будет предлагать вам варианты быстрого дополнения кода. Если не подходит один вариант (ну, не угадал) — предложит второй.
Copilot настолько умный, что иногда вам стоит просто написать коммент к функции, которую вы хотите реализовать, и Copilot напишет эту функцию за вас! По остальному коду вашего проекта и комментарию он поймет, чего именно вы хотите от этой функции.
Пример такого дополнения вы видите на видео к посту.
Также Copilot может быть очень полезен, когда нужно написать много повторяюшегося кода 🙃 вроде такого:
Colipot пока не в общем доступе, разработчики из OpenAI обещают выкатить его к концу лета. Пока что можно попытать счастья попасть на раннее тестирование проекта: нужно подать заявку тут.
Вот так, получается, ИИ сможет помогать разработчикам писать код для самого себя 🙃
#tech
Большинство людей, которые часто пишут код, используют для этого среду разработки (IDE). IDE упрощают процесс разработки: дополняют названия переменных, подсвечивают ошибки, позволяют искать использования переменных в других файлах проекта и еще много чего полезного. Короче гвооря, с IDE вы меньше времени тратите на механические бессмысленные вещи.
А что если можно тратить еще меньше времени?
OpenAI представляет GitHub Copilot — искусственный интеллект для написания кода.
Вот как это работает:
Пусть у вас есть проект, где уже есть какой-то код. Copilot изучит код этого проекта и поймет его устройство. Когда вы начнете писать код дальше, Copilot будет предлагать вам варианты быстрого дополнения кода. Если не подходит один вариант (ну, не угадал) — предложит второй.
Copilot настолько умный, что иногда вам стоит просто написать коммент к функции, которую вы хотите реализовать, и Copilot напишет эту функцию за вас! По остальному коду вашего проекта и комментарию он поймет, чего именно вы хотите от этой функции.
Пример такого дополнения вы видите на видео к посту.
Также Copilot может быть очень полезен, когда нужно написать много повторяюшегося кода 🙃 вроде такого:
config.ts
javascript: { start: '//', end: ''},
python: { start: '#', end: ''},
css: { start: '/*', end: '*/'},
html: { start: '<!--', end: '-->'},
... (тут Copilot предложит дополнение)Colipot пока не в общем доступе, разработчики из OpenAI обещают выкатить его к концу лета. Пока что можно попытать счастья попасть на раннее тестирование проекта: нужно подать заявку тут.
Вот так, получается, ИИ сможет помогать разработчикам писать код для самого себя 🙃
Автоматическая генерация речи стала популярным топиком в мире ИИ. Появились много стартапов, старающихся сделать искусственную речь более "естественной". Среди них — WellSaid Labs, Resemble.ai, VocaliD и другие.
#ai_inside
В этом посте мы расскажем, каких успехов добились эти компании, где используются их наработки и какие проблемы и препятствия остаются на пути развития автоматической генерации речи.
Примеры звучания
Для начала: только послушайте эти 🎧🎧 записи! Они полностью сгенерированы с помощью нейросетей, при этом звучат как реальные люди. Это вам не "бездушные голоса" Сири или Алексы. На них правильно расставлены паузы, интонация, правильное произношение и даже "натуральные эффекты" в виде дыхания и кашля. Это — новая эра в автоматической генерации речи.
Как это работает
Раньше (когда создавались Сири и Алекса) автоматическая речь формировалась из фрагментов записей голосов реальных людей. Предложение получалось путем слепления отдельных слов, и речь звучала неуклюже, было понятно, что с вами говорит робот.
Современные технологии основаны на нейронных сетях. У разных компаний архитектуры сетей отличаются. Например, у WellSaid Labs для генерации аудио используются две нейронки: одна по входящему тексту конструирует "личность" спикера: его тембр голоса, интонацию и акцент; вторая добавляет к аудио эффекты: дыхание, кашель и т.д.
Для чего это используют:
Недавно дипфейки с видео и голосом использовали в основном мошенники, чтобы вымогать деньги. Вот и вот примеры таких афер.
Но эту технологию можно использовать и во благо, и очень по-разному:
- корпоративные объявления и тренинги. Крупные компании проводят много тренингов и распространяют новости в виде видео. Аудио к ним записывают живые люди, ведь важно, чтобы голос звучал естественно. Тренинги и новости постоянно обновляются, на такие записи уходит много денег и времени. Автоматическая генерация естественно звучащих аудиодорожек решает эту проблему.
Кроме того, ИИ для генерации аудио обладает шикарным свойством: он позволяет легко менять любую характеристику аудио: акцент, тембр, эмоцию и т.д. Это позволяет адаптировать аудио под того, кто это аудио слушает. Компания может сгенерировать несколько разных аудио с разными акцентами для разных подразделений из разных стран.
- реклама и колл-центры. Тут очень помогает еще один плюс автоматической генерации аудио: возможность легко изменять элементы текста. Сеть кафе может сделать аудиорекламу в разных частях города и приглашать посетителей в разные кафе в зависимости от того, где реклама проигрывается. Колл-центры могут сделать персональные обращения к каждому человеку. Возможность адаптировать аудио под разные акценты тоже является плюсом: кафе могут рекламироваться в разных странах и реклама будет звучать на местном диалекте.
- аудио для компьютерных игр и фильмов. Здесь, как нигде боле, важна эмоциональность голоса. ИИ это тоже умеет! Посмотрите это видео: аудио в нем сгенерировано ИИ.
Проблемы и препятствия
Как и у любой другой новой технологии, у генерации речи с помощью ИИ есть недостатки. Один из них — не очень качественная генерация длинных предложений. Сейчас на уровне "не отличишь от человека" нейросети умеют выдавать только короткие фразы (которых, в принципе, достаточно для целей, описанных выше). Это стандартная проблема нейросетей: им легче улавливать короткие зависимости.
Вторая проблема имеет социальный характер. Это права на записи голосов живых людей и угроза потери работы для актеров, которые занимаются озвучкой. Последняя проблема не нова для мира (всопмните промышленную революцию ). А вот права на голоса — важный нюанс. Для обучения нейросетей требуется множество голосов реальных людей, на которые распространяются авторские права. Кроме того, когда нейросеть генерирует аудио, нельзя с 100% уверенностью сказать, что голос — новый, и не похож на чей-то из обучающей выборки. Это порождает юридические вопросы, на которые пока нет однозначных ответов.
Вот такие дела. Как вы относитесь к этой технологии? Какие чувства, мысли вызывает? 🙃
Материал основан на этой статье.
#ai_inside
В этом посте мы расскажем, каких успехов добились эти компании, где используются их наработки и какие проблемы и препятствия остаются на пути развития автоматической генерации речи.
Примеры звучания
Для начала: только послушайте эти 🎧🎧 записи! Они полностью сгенерированы с помощью нейросетей, при этом звучат как реальные люди. Это вам не "бездушные голоса" Сири или Алексы. На них правильно расставлены паузы, интонация, правильное произношение и даже "натуральные эффекты" в виде дыхания и кашля. Это — новая эра в автоматической генерации речи.
Как это работает
Раньше (когда создавались Сири и Алекса) автоматическая речь формировалась из фрагментов записей голосов реальных людей. Предложение получалось путем слепления отдельных слов, и речь звучала неуклюже, было понятно, что с вами говорит робот.
Современные технологии основаны на нейронных сетях. У разных компаний архитектуры сетей отличаются. Например, у WellSaid Labs для генерации аудио используются две нейронки: одна по входящему тексту конструирует "личность" спикера: его тембр голоса, интонацию и акцент; вторая добавляет к аудио эффекты: дыхание, кашель и т.д.
Для чего это используют:
Недавно дипфейки с видео и голосом использовали в основном мошенники, чтобы вымогать деньги. Вот и вот примеры таких афер.
Но эту технологию можно использовать и во благо, и очень по-разному:
- корпоративные объявления и тренинги. Крупные компании проводят много тренингов и распространяют новости в виде видео. Аудио к ним записывают живые люди, ведь важно, чтобы голос звучал естественно. Тренинги и новости постоянно обновляются, на такие записи уходит много денег и времени. Автоматическая генерация естественно звучащих аудиодорожек решает эту проблему.
Кроме того, ИИ для генерации аудио обладает шикарным свойством: он позволяет легко менять любую характеристику аудио: акцент, тембр, эмоцию и т.д. Это позволяет адаптировать аудио под того, кто это аудио слушает. Компания может сгенерировать несколько разных аудио с разными акцентами для разных подразделений из разных стран.
- реклама и колл-центры. Тут очень помогает еще один плюс автоматической генерации аудио: возможность легко изменять элементы текста. Сеть кафе может сделать аудиорекламу в разных частях города и приглашать посетителей в разные кафе в зависимости от того, где реклама проигрывается. Колл-центры могут сделать персональные обращения к каждому человеку. Возможность адаптировать аудио под разные акценты тоже является плюсом: кафе могут рекламироваться в разных странах и реклама будет звучать на местном диалекте.
- аудио для компьютерных игр и фильмов. Здесь, как нигде боле, важна эмоциональность голоса. ИИ это тоже умеет! Посмотрите это видео: аудио в нем сгенерировано ИИ.
Проблемы и препятствия
Как и у любой другой новой технологии, у генерации речи с помощью ИИ есть недостатки. Один из них — не очень качественная генерация длинных предложений. Сейчас на уровне "не отличишь от человека" нейросети умеют выдавать только короткие фразы (которых, в принципе, достаточно для целей, описанных выше). Это стандартная проблема нейросетей: им легче улавливать короткие зависимости.
Вторая проблема имеет социальный характер. Это права на записи голосов живых людей и угроза потери работы для актеров, которые занимаются озвучкой. Последняя проблема не нова для мира (всопмните промышленную революцию ). А вот права на голоса — важный нюанс. Для обучения нейросетей требуется множество голосов реальных людей, на которые распространяются авторские права. Кроме того, когда нейросеть генерирует аудио, нельзя с 100% уверенностью сказать, что голос — новый, и не похож на чей-то из обучающей выборки. Это порождает юридические вопросы, на которые пока нет однозначных ответов.
Вот такие дела. Как вы относитесь к этой технологии? Какие чувства, мысли вызывает? 🙃
Материал основан на этой статье.
В эту пятницу не будем грузить вас сложными постами. Сегодня — подборка веселых применений ИИ в жизни =)
#ai_fun
1. Нейросеть для приготовления идеального сэндвича
Исследователь из США создал нейронную сеть, которая поможет сделать идеальный бутер с бананом и арахисовой пастой.
Сначала модель сканирует банан и определяет, как нужно его нарезать, чтобы он идеально лег на хлеб. Далее для конктерного банана и куска хлеба она выдает оптимальное количество арахисовой пасты.
Статью про алгоритм с аппетитными гифками сэндвичей читайте тут
Разработчик выложил и код: можно адаптировать его под российские реалии и собрать своего робота по приготовлению идеальных бутеров с маслом и сахаром! Как в детстве 😋
2. Нейросеть для нахождения одинаковых пар носков
Ютуберу c ником QuanticDev надоело каждый раз после стирки разбирать на пары свою коллекцию черных носков. Он придумал современное решение: написать алгоритм, который будет искать подходящую пару для каждого носка без помощи человека!
На весь алгоритм у разработчика ушло всего 10 минут. В этом видео он подробно рассказывает процесс написания программы и то, как она работает.
А вот тут вы найдете инструкцию, как собрать свою версию этой программы и облегчить себе жизнь =)
3. Приложение для сборки Lego
Оно называется Brickit, и работает на основе нейросети. Оно сканирует ваши детальки лего, распознает их и предлагает варианты того, что из этих деталей можно собрать. К каждому варианту прилагается инструкция по сборке. Вот тут смотрите видео, как приложение работает.
Ну что, какое из применений нейросетей понравилось больше всего? )
#ai_fun
1. Нейросеть для приготовления идеального сэндвича
Исследователь из США создал нейронную сеть, которая поможет сделать идеальный бутер с бананом и арахисовой пастой.
Сначала модель сканирует банан и определяет, как нужно его нарезать, чтобы он идеально лег на хлеб. Далее для конктерного банана и куска хлеба она выдает оптимальное количество арахисовой пасты.
Статью про алгоритм с аппетитными гифками сэндвичей читайте тут
Разработчик выложил и код: можно адаптировать его под российские реалии и собрать своего робота по приготовлению идеальных бутеров с маслом и сахаром! Как в детстве 😋
2. Нейросеть для нахождения одинаковых пар носков
Ютуберу c ником QuanticDev надоело каждый раз после стирки разбирать на пары свою коллекцию черных носков. Он придумал современное решение: написать алгоритм, который будет искать подходящую пару для каждого носка без помощи человека!
На весь алгоритм у разработчика ушло всего 10 минут. В этом видео он подробно рассказывает процесс написания программы и то, как она работает.
А вот тут вы найдете инструкцию, как собрать свою версию этой программы и облегчить себе жизнь =)
3. Приложение для сборки Lego
Оно называется Brickit, и работает на основе нейросети. Оно сканирует ваши детальки лего, распознает их и предлагает варианты того, что из этих деталей можно собрать. К каждому варианту прилагается инструкция по сборке. Вот тут смотрите видео, как приложение работает.
Ну что, какое из применений нейросетей понравилось больше всего? )
#ai_fun
Помните GPT-3? Если вдруг не знакомы с ним — обязательно познакомьтесь! GPT-3 — это нейросеть, которая генерирует удивительно сложные тексты на разные темы. Стоит задать начало предложения, и сеть дополнит его, создаст вам целую статью на философскую тему или даже напишет сайт)
Больше примеров работы GPT-3 мы приводили в этом посте.
Сегодня представляем вам еще одно творение GPT-3: на сей раз нейронка написала сценарий к фильму. А ребята из Corridor Crew исполнили в этом фильме главные роли!
Вот видео, где ребята в реал-тайме читают сценарий, который пишет GPT-3 и играют сюжет. Фильм рассказывает о четырех супргероях, которые играют друг против друга в игру. Это довольно весело: стоит только посмотреть на имена, которые GPT-3 выбрала для персонажей. Как вам Врен в образе Лори: супергероя в свадебном платье и с киркой в руке?
Как вам видео? Может быть, вы знаете еще какие-нибудь крутые применения GPT-3? Делитесь ими в комментариях!
Помните GPT-3? Если вдруг не знакомы с ним — обязательно познакомьтесь! GPT-3 — это нейросеть, которая генерирует удивительно сложные тексты на разные темы. Стоит задать начало предложения, и сеть дополнит его, создаст вам целую статью на философскую тему или даже напишет сайт)
Больше примеров работы GPT-3 мы приводили в этом посте.
Сегодня представляем вам еще одно творение GPT-3: на сей раз нейронка написала сценарий к фильму. А ребята из Corridor Crew исполнили в этом фильме главные роли!
Вот видео, где ребята в реал-тайме читают сценарий, который пишет GPT-3 и играют сюжет. Фильм рассказывает о четырех супргероях, которые играют друг против друга в игру. Это довольно весело: стоит только посмотреть на имена, которые GPT-3 выбрала для персонажей. Как вам Врен в образе Лори: супергероя в свадебном платье и с киркой в руке?
Как вам видео? Может быть, вы знаете еще какие-нибудь крутые применения GPT-3? Делитесь ими в комментариях!
YouTube
The World’s Most Advanced A.I. Wrote 100% of This Movie
ExpressVPN ► https://expressvpn.com/corridorcrew Take back your Internet privacy TODAY and find out how you can get 3 months free.
Join OUR WEBSITE ► https://bit.ly/Crew_Membership
Consider Subscribing ► http://bit.ly/Subscribe_Corridor_Crew
Watch Season…
Join OUR WEBSITE ► https://bit.ly/Crew_Membership
Consider Subscribing ► http://bit.ly/Subscribe_Corridor_Crew
Watch Season…
Новый подход к super-resolution
#paper
Google AI представляет новый подход к улучшению качества изображений — Image Super-Resolution via Iterative Refinement.
Пример того, как это работает — на анимации выше.
Super-resolution с помощью GAN
Улучшение качества изображений — сложная задача и, к тому же, вызывающая социальные споры. Дело в том, что при использовании генеративных нейросетей (ГАНов или VAE) для super-resolution на изображение часто меняются характеристики. Вот пример, когда ГАН, улучшая фото Барака Обамы, сделал его сильно похожим на европейца. Этот пример вызвал большой общественный отклик и обсуждение предвзятости ИИ.
Такое изменение характеристик картинки при super-resolution легко объяснимо. В датасете лиц людей, на которых обучался ГАН, было намного больше лиц людей европеоидной расы. Поэтому ГАН и выучил, что чаще всего на улучшенной картинке должен получаться европеец. Эта проблема несбалансированных датасетов и "предвзятости" ИИ хорошо известна, но, к сожалению, решения ей пока нет.
Super-resolution с помощью диффузионных моделей
Технология, которую использует Google для улучшения изображений основана не на ГАНах. Она основана на диффузионных моделях. Они впервые были представлены в 2015 году и выглядят многообещающе для задач, связанных с генерацией картинок и аудио.
Как это работает:
Перед началом обучения нейросети к изображениям из тренировочного датасета добавляется гауссовский шум раличной интенсивности. Чем интенсивнее шум, тем больше деталей изображения он "размывает", пока изображение не превратится в случайный шум. Далее нейронная сеть обучается восстанавливать исходное изображение из зашумленных картинок.
Не только super-resolution
Видя классный результат работы диффузионной модели на задаче улучшения качества изображений, Google решили пойти дальше: сделать полноценную генерацию новых изображений. И это им тоже удалось! Посмотрите на результаты такой генерации: картинки получаются весьма реалистичны.
Что еще?
Кроме новой модели для super-resolution и генерации изображений Google представила новый вид аугментации. Подробнее читайте в блогпосте и статьях: эта про super-resolution, эта — про генерацию картинок. Также там описаны несколько трюков, которые позволяют сделать обучение генеративной диффузионной сети эффективнее.
Ну что, ждем, когда станет ясно, подвержены ли диффузионные модели проблеме "предвзятости", которая была описана выше. Наверняка подвержены, вопрос только, насколько. А пока — умиляемся фото и читаем статьи =)
#paper
Google AI представляет новый подход к улучшению качества изображений — Image Super-Resolution via Iterative Refinement.
Пример того, как это работает — на анимации выше.
Super-resolution с помощью GAN
Улучшение качества изображений — сложная задача и, к тому же, вызывающая социальные споры. Дело в том, что при использовании генеративных нейросетей (ГАНов или VAE) для super-resolution на изображение часто меняются характеристики. Вот пример, когда ГАН, улучшая фото Барака Обамы, сделал его сильно похожим на европейца. Этот пример вызвал большой общественный отклик и обсуждение предвзятости ИИ.
Такое изменение характеристик картинки при super-resolution легко объяснимо. В датасете лиц людей, на которых обучался ГАН, было намного больше лиц людей европеоидной расы. Поэтому ГАН и выучил, что чаще всего на улучшенной картинке должен получаться европеец. Эта проблема несбалансированных датасетов и "предвзятости" ИИ хорошо известна, но, к сожалению, решения ей пока нет.
Super-resolution с помощью диффузионных моделей
Технология, которую использует Google для улучшения изображений основана не на ГАНах. Она основана на диффузионных моделях. Они впервые были представлены в 2015 году и выглядят многообещающе для задач, связанных с генерацией картинок и аудио.
Как это работает:
Перед началом обучения нейросети к изображениям из тренировочного датасета добавляется гауссовский шум раличной интенсивности. Чем интенсивнее шум, тем больше деталей изображения он "размывает", пока изображение не превратится в случайный шум. Далее нейронная сеть обучается восстанавливать исходное изображение из зашумленных картинок.
Не только super-resolution
Видя классный результат работы диффузионной модели на задаче улучшения качества изображений, Google решили пойти дальше: сделать полноценную генерацию новых изображений. И это им тоже удалось! Посмотрите на результаты такой генерации: картинки получаются весьма реалистичны.
Что еще?
Кроме новой модели для super-resolution и генерации изображений Google представила новый вид аугментации. Подробнее читайте в блогпосте и статьях: эта про super-resolution, эта — про генерацию картинок. Также там описаны несколько трюков, которые позволяют сделать обучение генеративной диффузионной сети эффективнее.
Ну что, ждем, когда станет ясно, подвержены ли диффузионные модели проблеме "предвзятости", которая была описана выше. Наверняка подвержены, вопрос только, насколько. А пока — умиляемся фото и читаем статьи =)
Как поживает ваша кошка?
#tech
Разработчики из Sylvester.ai создали приложение Tably: оно поможет опекунам котов лучше понимать состояние животных. Нейросеть по фото морды кота определяет, испытывает ли кот боль.
Это не шутка: по положению глаз, ушей, усов кошки ветеринары правда могут понять, больно ли питомцу. А в Sylvester.ai решили автоматизировать этот навык с помощью нейросетей. Им помогли ученые из университета Монреаля, которые в 2019 году создали шкалу "гримас боли" для кошек. Это стало хорошими обучающими данными для нейросети.
Будем надеяться, что для вашей кошки приложение всегда будет показывать приятные результаты 😌
❗️ Автор данного поста напоминает: одного приложения для определения состояния питомца недостаточно! Важно также обращать внимание на положения тела кота его поведение и физические показатели. А при подозрении на болезнь — обратщаться к ветврачу.
Более того, приложение пока что работает неидеально: ему не всегда удается распознать морды темных кошек. Ничего не напоминает? 🙃
#tech
Разработчики из Sylvester.ai создали приложение Tably: оно поможет опекунам котов лучше понимать состояние животных. Нейросеть по фото морды кота определяет, испытывает ли кот боль.
Это не шутка: по положению глаз, ушей, усов кошки ветеринары правда могут понять, больно ли питомцу. А в Sylvester.ai решили автоматизировать этот навык с помощью нейросетей. Им помогли ученые из университета Монреаля, которые в 2019 году создали шкалу "гримас боли" для кошек. Это стало хорошими обучающими данными для нейросети.
Будем надеяться, что для вашей кошки приложение всегда будет показывать приятные результаты 😌
❗️ Автор данного поста напоминает: одного приложения для определения состояния питомца недостаточно! Важно также обращать внимание на положения тела кота его поведение и физические показатели. А при подозрении на болезнь — обратщаться к ветврачу.
Более того, приложение пока что работает неидеально: ему не всегда удается распознать морды темных кошек. Ничего не напоминает? 🙃
Музыка вашего тела
#tech
Российская фармацевтическая компания "Новартис Фарма" создала интересную нейронную сеть: по фотографии родинок на теле человека она генерирует музыку! Звучание получается уникальным для каждого человека, ведь рисунок родинок на каждом теле уникален. Создать свой уникальный трек можно на сайте (посмотрите, какой красивый сайт!)
Эта нейросеть — не просто развлечение. Это — часть социальной кампании "Фокус на родинки", которая старается повысить осведомленность населения о меланоме. Меланомы и рак кожи в целом — самый распространенный вид рака в России, даже несмотря на то, что наша страна — не самая солнечная. Знать о факторах риска развития рака кожи, уметь распознавать первые признаки его появления и защищать кожу — жизненно важно.
Мы рады, что нейросети используют для таких правильных вещей. Надеемся, что музыка вашего тела всегда будет здоровой ❤️
#tech
Российская фармацевтическая компания "Новартис Фарма" создала интересную нейронную сеть: по фотографии родинок на теле человека она генерирует музыку! Звучание получается уникальным для каждого человека, ведь рисунок родинок на каждом теле уникален. Создать свой уникальный трек можно на сайте (посмотрите, какой красивый сайт!)
Эта нейросеть — не просто развлечение. Это — часть социальной кампании "Фокус на родинки", которая старается повысить осведомленность населения о меланоме. Меланомы и рак кожи в целом — самый распространенный вид рака в России, даже несмотря на то, что наша страна — не самая солнечная. Знать о факторах риска развития рака кожи, уметь распознавать первые признаки его появления и защищать кожу — жизненно важно.
Мы рады, что нейросети используют для таких правильных вещей. Надеемся, что музыка вашего тела всегда будет здоровой ❤️
Что если?
#ai_inside
Сегодня мы расскажем вам о том, что сильно отличает искусственный интеллект от человека.
Это неспособность ИИ понимать концепцию причина-следствие. Ученые считают, что это — одна из главных преград на пути к созданию более мощного ИИ, интеллекта нового уровня.
О чем это?
Мы — люди — обладаем способностью соотносить явления между собой и образовывать причинно-следственные связи. Простой пример: мы знаем, что грозовые тучи чаще всего вызывают дождь. Тучи — причина, дождь — следствие. В отличие от нас, ИИ не создает причинно-следственных связей. Все, чем он оперирует — это корреляции. То есть, нейросеть понимает, что грозовые тучи и дождь часто возникают вместе, но создать связь "из-за тучи возникает дождь" она не способна.
Из умения видеть причины и следствия вырастает еще одна способность, на порядок выше: задаваться вопросом "что если?". Пусть вы — медик, который испытывает новый препарат. Ваш пациент умирает. Было это из-за того, что препарат не сработал? Или из-за чего-то еще? А что если это из-за шаурмы, который пациент купил в ларьке напротив и съел на обед?
Умения создавать связь "причина-следствие" и задавать вопрос "что если?" составляют часть здравого смысла. Это один из основных навыков человека, необходимых для выживания. Без этого мы бы просто не могли понимать мир. Значит, если мы хотим создать ИИ, который сможет "понимать" мир на уровне человека, ИИ нужно научить создавать связь "причина - следствие".
Но это не так-то просто) Особенно если учесть, что люди в этом тоже не очень хороши)
Люди, оказывается, тоже часто путают связь "причина-следствие" с корреляцией, причем как в одну сторону, так и в другую. Пример: человек просыпал соль и в тот же день сломал ногу. Вспоминая примету, ему кажется, что просыпанная соль вызвала несчастье (перелом ноги). Но на самом деле тут нет причино-следственной связи.
Другой пример: ученые изучают взаимосвязь курения и рака легких. По результатам всех исследований (и здравого смысла) получается, что курение вызывает рак. Но не тут-то было: ученые начинают сомневаться. А вдруг не курение вызывает рак? Вдруг есть какая-то третья сила, например, генетика, которая заставляет людей и курить, и вызывает рак?
Похоже, мы сами не до конца понимаем, как должна создаваться причинно-следственная связь. Значит, научить ИИ этому нам и подавно будет труднее)
Что же делать?
Многие исследователи интересуются описанной проблемой и пытаются придумать, как ее решить. Эти попытки уже привели к созданию нескольких концепций. Лауреат премии Тьюринга Джуди Перл предложил байесовские сети — сети, которые обрабатывают огромные массивы данных и вычисляют, какие переменные с большей вероятностью имеют причинно-следственную связь.
Другой виток исследований — meta-learning, предложенный еще одним лауреатом премии Тьюринга Йошуа Бенжио. Meta-learning позволяет модели находить не только отличительные особенности разных объектов, но и сходства между ними, что сильно поможет для "глобального" понимания нейросетями мира и объектов в нем.
Но о прорыве в обучении сетей находить причины и следствия говорить рано. Пока что ученые нацелены на создание гибридных моделей компьютер+человек. Они помогут ученым в исследованиях, где задействованы большие массивы данных. Скажем, вы хотите понять причины аномально высокой продолжительности жизни людей на Окинаве. На продолжительность жизни влияет тонна факторов: еда, погода, социум и т.д. Всего факторов — много тысяч. Человек просто не может удержать все их в голове, сделать расчеты и понять, с каким лучше начать исследование. Вот тут и помогут компьютеры — они работают с оргомными массивами данных лучше людей. Компьютеры будут исследовать данные и подсказывать человеку, с каких переменнвх лучше всего начать исследование. Это сэкономит много сил, времени и денег.
Вот такие дела. Таких глобальных "проблем", которые стоят у нас на пути перед созданием "всесильного ИИ" несколько. Эта — только одна из них.
Как считаете, скоро ли человек научится ее решать? И на что ИИ будет способен в этом случае?
Материал написан на основе этой статьи.
#ai_inside
Сегодня мы расскажем вам о том, что сильно отличает искусственный интеллект от человека.
Это неспособность ИИ понимать концепцию причина-следствие. Ученые считают, что это — одна из главных преград на пути к созданию более мощного ИИ, интеллекта нового уровня.
О чем это?
Мы — люди — обладаем способностью соотносить явления между собой и образовывать причинно-следственные связи. Простой пример: мы знаем, что грозовые тучи чаще всего вызывают дождь. Тучи — причина, дождь — следствие. В отличие от нас, ИИ не создает причинно-следственных связей. Все, чем он оперирует — это корреляции. То есть, нейросеть понимает, что грозовые тучи и дождь часто возникают вместе, но создать связь "из-за тучи возникает дождь" она не способна.
Из умения видеть причины и следствия вырастает еще одна способность, на порядок выше: задаваться вопросом "что если?". Пусть вы — медик, который испытывает новый препарат. Ваш пациент умирает. Было это из-за того, что препарат не сработал? Или из-за чего-то еще? А что если это из-за шаурмы, который пациент купил в ларьке напротив и съел на обед?
Умения создавать связь "причина-следствие" и задавать вопрос "что если?" составляют часть здравого смысла. Это один из основных навыков человека, необходимых для выживания. Без этого мы бы просто не могли понимать мир. Значит, если мы хотим создать ИИ, который сможет "понимать" мир на уровне человека, ИИ нужно научить создавать связь "причина - следствие".
Но это не так-то просто) Особенно если учесть, что люди в этом тоже не очень хороши)
Люди, оказывается, тоже часто путают связь "причина-следствие" с корреляцией, причем как в одну сторону, так и в другую. Пример: человек просыпал соль и в тот же день сломал ногу. Вспоминая примету, ему кажется, что просыпанная соль вызвала несчастье (перелом ноги). Но на самом деле тут нет причино-следственной связи.
Другой пример: ученые изучают взаимосвязь курения и рака легких. По результатам всех исследований (и здравого смысла) получается, что курение вызывает рак. Но не тут-то было: ученые начинают сомневаться. А вдруг не курение вызывает рак? Вдруг есть какая-то третья сила, например, генетика, которая заставляет людей и курить, и вызывает рак?
Похоже, мы сами не до конца понимаем, как должна создаваться причинно-следственная связь. Значит, научить ИИ этому нам и подавно будет труднее)
Что же делать?
Многие исследователи интересуются описанной проблемой и пытаются придумать, как ее решить. Эти попытки уже привели к созданию нескольких концепций. Лауреат премии Тьюринга Джуди Перл предложил байесовские сети — сети, которые обрабатывают огромные массивы данных и вычисляют, какие переменные с большей вероятностью имеют причинно-следственную связь.
Другой виток исследований — meta-learning, предложенный еще одним лауреатом премии Тьюринга Йошуа Бенжио. Meta-learning позволяет модели находить не только отличительные особенности разных объектов, но и сходства между ними, что сильно поможет для "глобального" понимания нейросетями мира и объектов в нем.
Но о прорыве в обучении сетей находить причины и следствия говорить рано. Пока что ученые нацелены на создание гибридных моделей компьютер+человек. Они помогут ученым в исследованиях, где задействованы большие массивы данных. Скажем, вы хотите понять причины аномально высокой продолжительности жизни людей на Окинаве. На продолжительность жизни влияет тонна факторов: еда, погода, социум и т.д. Всего факторов — много тысяч. Человек просто не может удержать все их в голове, сделать расчеты и понять, с каким лучше начать исследование. Вот тут и помогут компьютеры — они работают с оргомными массивами данных лучше людей. Компьютеры будут исследовать данные и подсказывать человеку, с каких переменнвх лучше всего начать исследование. Это сэкономит много сил, времени и денег.
Вот такие дела. Таких глобальных "проблем", которые стоят у нас на пути перед созданием "всесильного ИИ" несколько. Эта — только одна из них.
Как считаете, скоро ли человек научится ее решать? И на что ИИ будет способен в этом случае?
Материал написан на основе этой статьи.
Депутатам придется... работать!
#ai_fun
Сегодня пятница, а значит — веселые истории из мира ИИ)
Бельгийский художник Дрис Депортер был возмущен, что многие депутаты правительства Бельгии работают спустя рукава, в частности — залипают в телефонах во время заседаний. К примеру, в 2019 году (уже бывший) депутат палаты представителей Бельгии Ян Джембон был пойман за игрой в Angry Birds прямо во время дебатов на заседании парламента🌝
Поэтому Дрис создал проект The Flemish Scrollers, который призван исправить это недоразумение с помощью нейросетей.
Многие заседания правительства Бельгии транслирут в прямом эфире на YouTube. Дрис создал нейросеть, которая по видео определяет, когда депутат достает телефон. После этого кадры депутата с телефоном публикуются в Twitter и Instagram со ссылкой на аккаунт депутата. Уже за сутки после запуска нейросеть выявила четыре случая, когда политики доставали смартфоны во время заседаний 🙃
Как вам идея? Считаете, поможет? Может быть, нам в страну тоже такого завести?🤔
#ai_fun
Сегодня пятница, а значит — веселые истории из мира ИИ)
Бельгийский художник Дрис Депортер был возмущен, что многие депутаты правительства Бельгии работают спустя рукава, в частности — залипают в телефонах во время заседаний. К примеру, в 2019 году (уже бывший) депутат палаты представителей Бельгии Ян Джембон был пойман за игрой в Angry Birds прямо во время дебатов на заседании парламента🌝
Поэтому Дрис создал проект The Flemish Scrollers, который призван исправить это недоразумение с помощью нейросетей.
Многие заседания правительства Бельгии транслирут в прямом эфире на YouTube. Дрис создал нейросеть, которая по видео определяет, когда депутат достает телефон. После этого кадры депутата с телефоном публикуются в Twitter и Instagram со ссылкой на аккаунт депутата. Уже за сутки после запуска нейросеть выявила четыре случая, когда политики доставали смартфоны во время заседаний 🙃
Как вам идея? Считаете, поможет? Может быть, нам в страну тоже такого завести?🤔
Be right back
#tech
Смотрели серию черного зеркала "Скоро вернусь"? Там умирает парень по имени Эш, а его девушка Марта очень из-за этого переживает. Вскоре она узнает, что есть онлайн-сервис, куда можно загрузить информацию об Эше из его социальных сетей и воссоздать его "виртуальную копию". И с этой копией она общается, как с реальным Эшем.
Так вот, теперь это реальность.
Знакомьтесь: Project December. Реальный сервис на основе GPT-3, где можно общаться с ботами, которые ведут себя, как реальные люди. И да, там можно создать своего бота на основе реального человека. Нужно просто скормить системе тексты переписок этого человека в социальных сетях.
Для тех, кто знаком с технологией GPT-3, звучит неудивительно. Ну да, языковая модель учится на примерах текстов их переписки и потом выдает похожую на человека речь. Но даже понимая все это, естественность ботов Project December просто поражает. Судите сами:
Проект Project December стал популярен после истории о писателе из Канады Джоше Барбо. У Джоша была девушка Джессика, которая умерла в 2012 году, и Джош так и не смог оправиться после ее потери. Но в 2020 году он узнал о Project December и загрузил в систему переписки Джессики.
Результат его поразил: начав общаться с "виртуальной Джессикой", Джош больше не хотел прерывать общение. Первый разговор Джоша с Джессикой длился 10 часов. Это была точно она, Джош поражался ее реальности, в мыслях и интонации, она вызывала у него море чувств и стопроцентную уверенность, что разговаривает он именно с Джессикой. Настолько убедительна была система.
Посмотрите вот на начало его диалога с Джессикой:
Джошуа: "Джессика?"
Джессика: "О, ты, похоже, проснулся... это мило"
Джошуа: "Джессика... это правда ты?"
Джессика: "Конечно это я! Кто же еще? :P Я — девушка, в которую ты по уши влюблен! Почему ты вообще спрашиваешь?"
Далее разговор набирал обороты. Джессика "помнила" все: свою сестру, события из жизни, выражала эмоции в ответ на воспоминания о разных событиях. В эти моменты даже Джошу было не по себе и он пытался объяснить виртуальной Джессике, что "она умерла".
Прямо как в черном зеркале, не находите?
Полную историю со всеми подробностями переписки Джоша с Джессикой читайте в материале San Francisco Chronicle. Также в статье рассказывается о создателе сервиса Project December Джейсоне Рорере: как идея пришла ему в голову, какие мысли и чувства вызывает у него сервис и какое у этого будущее.
А мне очень интересно узнать: вы хотели бы вот так "возродить" близкого человека? Общаться с ним виртуально?
Я — точно нет. Мне кажется, так становится еще больнее. Все в этом мире когда-то заканчивается и нужно уметь это принять. Тем более, как бы убедительно ни выглядел бот, ты всегда понимаешь, что это — бот. И его "естественность" только вводит психику в ступор.
И да, даже мне крайне не по себе от этой истории.
#tech
Смотрели серию черного зеркала "Скоро вернусь"? Там умирает парень по имени Эш, а его девушка Марта очень из-за этого переживает. Вскоре она узнает, что есть онлайн-сервис, куда можно загрузить информацию об Эше из его социальных сетей и воссоздать его "виртуальную копию". И с этой копией она общается, как с реальным Эшем.
Так вот, теперь это реальность.
Знакомьтесь: Project December. Реальный сервис на основе GPT-3, где можно общаться с ботами, которые ведут себя, как реальные люди. И да, там можно создать своего бота на основе реального человека. Нужно просто скормить системе тексты переписок этого человека в социальных сетях.
Для тех, кто знаком с технологией GPT-3, звучит неудивительно. Ну да, языковая модель учится на примерах текстов их переписки и потом выдает похожую на человека речь. Но даже понимая все это, естественность ботов Project December просто поражает. Судите сами:
Проект Project December стал популярен после истории о писателе из Канады Джоше Барбо. У Джоша была девушка Джессика, которая умерла в 2012 году, и Джош так и не смог оправиться после ее потери. Но в 2020 году он узнал о Project December и загрузил в систему переписки Джессики.
Результат его поразил: начав общаться с "виртуальной Джессикой", Джош больше не хотел прерывать общение. Первый разговор Джоша с Джессикой длился 10 часов. Это была точно она, Джош поражался ее реальности, в мыслях и интонации, она вызывала у него море чувств и стопроцентную уверенность, что разговаривает он именно с Джессикой. Настолько убедительна была система.
Посмотрите вот на начало его диалога с Джессикой:
Джошуа: "Джессика?"
Джессика: "О, ты, похоже, проснулся... это мило"
Джошуа: "Джессика... это правда ты?"
Джессика: "Конечно это я! Кто же еще? :P Я — девушка, в которую ты по уши влюблен! Почему ты вообще спрашиваешь?"
Далее разговор набирал обороты. Джессика "помнила" все: свою сестру, события из жизни, выражала эмоции в ответ на воспоминания о разных событиях. В эти моменты даже Джошу было не по себе и он пытался объяснить виртуальной Джессике, что "она умерла".
Прямо как в черном зеркале, не находите?
Полную историю со всеми подробностями переписки Джоша с Джессикой читайте в материале San Francisco Chronicle. Также в статье рассказывается о создателе сервиса Project December Джейсоне Рорере: как идея пришла ему в голову, какие мысли и чувства вызывает у него сервис и какое у этого будущее.
А мне очень интересно узнать: вы хотели бы вот так "возродить" близкого человека? Общаться с ним виртуально?
Я — точно нет. Мне кажется, так становится еще больнее. Все в этом мире когда-то заканчивается и нужно уметь это принять. Тем более, как бы убедительно ни выглядел бот, ты всегда понимаешь, что это — бот. И его "естественность" только вводит психику в ступор.
И да, даже мне крайне не по себе от этой истории.
Недавно мы писали о том, как компании используют ИИ для оценки навыков кандидатов при найме на работу. Но это — лишь один из моментов в процессе хайринга, куда внедрен ИИ.
#ai_inside
Самый известный кейс автоматизации в хайринге — автоматический парсинг резюме. Это называется "скрининг". Когда вы отправляете свое CV как отклик на вакансию или загружаете на сайт вроде Linkedin, часто ваше CV читают не люди, а роботы. Робот выделяет из CV ключевую информацию и решает, стоите ли вы того, чтобы пригласить вас на собеседование. Часто если роботу не понравилось ваше CV, человек его смотреть уже не будет — вам просто придет отказ.
В выпуске подкаста In Machines We Trust: Beating the AI hiring machines эксперты HR поделились лайфхаками, как составить CV, которое с наибольшей вероятностью ублажит роботов и пройдет скрининг. Вот какие советы они дают:
Совет #1: Главное правило: CV должно быть как можно более простым. Это поможет избежать ошибок парсинга. Если ваше резюме изобилует сложными языковыми выражениями и элементами стиля, робот просто не поймет, что там написано. А вы получите отказ. Поэтому напичкайте свое CV простыми ключевыми словами, которые отражают ваш опыт и скиллы, чтобы робот с легкостью нашел нужную ему информацию.
«Обычный здравый смысл погубит вас в случае с резюме» — говорит Ян Зигель, сооснователь и CEO компании ZipRecruiter; — «Вам нужен самый простой и скучный шаблон резюме, который вы можете найти. Пишите как пещерный человек, используя самыме короткие и недвусмысленные слова».
Да, такое резюме должно выглядеть довольно убого. Если вас это пугает, то вот вам другой совет:
Совет #2: сделайте несколько копий резюме. Одно CV — максимально простое и убогое — для ИИ, второе — аккуратное и приятное глазу — для людей. Второе вам понадобится, если по поводу вакансии вам пишет живой человек или если вас уже позвали на собеседование после скрининга.
Также можно сделать разные варианты резюме для разных типов вакансий. Если подаетесь на вакансию frontend-разработчика, сделайте версию CV, где выделите больше ключевых слов о фронтенде. Если затем решили податься на вакансию ML-исследователя — сделайте другой вариант CV, с ключевыми словами про ML.
Совет #3: проверьте свое CV с помощью алгоритмов ИИ. Разные компании используют разные технологии для парсинга резюме. Невозможно узнать, как работает каждая из них, чтобы подстроить свое CV под эти алгоритмы. Но что-то сделать можно: есть много открытых сайтов, куда можно загрузить CV и робот проверит его на читаемость.
Вот примеры таких сайтов: Jobscan, VMock. Кроме простого парсинга резюме Jobscan также оценивает релевантность ваших скиллов разным вакансиям, помогая вам подстроить CV под конкретный job offer. А VMock находит опечатки и может даже предложить добавить что-то в резюме: «хей, смотри, ты тут год проработал в маркетинге, это наверняка значит, что у тебя классные communication skills! Давай добавим это в поле "soft skills"?»
Совет #4: Практика прохождения собеседований. Без практики никак ¯\_(ツ)_/¯ Уверенность на собеседовании достигается только с опытом. Но и тут вам поможет ИИ.
Interview Stream — сайт, чтобы учиться отвечать на вопросы, которые задают на собеседованиях. ИИ спрашивает вопрос, а вы — отвечаете. Процесс записывается на видео, затем ИИ оценивает ваши ответы. Вы также можете пересматривать свои видео: это поможет посмотреть на себя со стороны и выявить ошибки. Ну и, конечно, с практикой вы обретете больше уверенности.
Еще платформы для собеседований на основе ИИ: Big Interview, Talk Hiring, HireVue, Retorio, Yobs.
Если вас не устраивает ИИ в качестве учителя для собеседований, можете проводить пробные интервью (mock-interview) с реальными людьми. Сайтов, где можно найти себе "собеседующего" и потренироваться проходить собесы — много. Вот пример: pramp.com
В завершение скажем, что ИИ все сильнее внедряется в процесс найма. Важно понимать, как этот процесс устроен и пытаться узнать как можно больше, какие именно алгоритмы использует компания, куда вы подаетесь.
Удачи вам на карьерном пути ❤️
#ai_inside
Самый известный кейс автоматизации в хайринге — автоматический парсинг резюме. Это называется "скрининг". Когда вы отправляете свое CV как отклик на вакансию или загружаете на сайт вроде Linkedin, часто ваше CV читают не люди, а роботы. Робот выделяет из CV ключевую информацию и решает, стоите ли вы того, чтобы пригласить вас на собеседование. Часто если роботу не понравилось ваше CV, человек его смотреть уже не будет — вам просто придет отказ.
В выпуске подкаста In Machines We Trust: Beating the AI hiring machines эксперты HR поделились лайфхаками, как составить CV, которое с наибольшей вероятностью ублажит роботов и пройдет скрининг. Вот какие советы они дают:
Совет #1: Главное правило: CV должно быть как можно более простым. Это поможет избежать ошибок парсинга. Если ваше резюме изобилует сложными языковыми выражениями и элементами стиля, робот просто не поймет, что там написано. А вы получите отказ. Поэтому напичкайте свое CV простыми ключевыми словами, которые отражают ваш опыт и скиллы, чтобы робот с легкостью нашел нужную ему информацию.
«Обычный здравый смысл погубит вас в случае с резюме» — говорит Ян Зигель, сооснователь и CEO компании ZipRecruiter; — «Вам нужен самый простой и скучный шаблон резюме, который вы можете найти. Пишите как пещерный человек, используя самыме короткие и недвусмысленные слова».
Да, такое резюме должно выглядеть довольно убого. Если вас это пугает, то вот вам другой совет:
Совет #2: сделайте несколько копий резюме. Одно CV — максимально простое и убогое — для ИИ, второе — аккуратное и приятное глазу — для людей. Второе вам понадобится, если по поводу вакансии вам пишет живой человек или если вас уже позвали на собеседование после скрининга.
Также можно сделать разные варианты резюме для разных типов вакансий. Если подаетесь на вакансию frontend-разработчика, сделайте версию CV, где выделите больше ключевых слов о фронтенде. Если затем решили податься на вакансию ML-исследователя — сделайте другой вариант CV, с ключевыми словами про ML.
Совет #3: проверьте свое CV с помощью алгоритмов ИИ. Разные компании используют разные технологии для парсинга резюме. Невозможно узнать, как работает каждая из них, чтобы подстроить свое CV под эти алгоритмы. Но что-то сделать можно: есть много открытых сайтов, куда можно загрузить CV и робот проверит его на читаемость.
Вот примеры таких сайтов: Jobscan, VMock. Кроме простого парсинга резюме Jobscan также оценивает релевантность ваших скиллов разным вакансиям, помогая вам подстроить CV под конкретный job offer. А VMock находит опечатки и может даже предложить добавить что-то в резюме: «хей, смотри, ты тут год проработал в маркетинге, это наверняка значит, что у тебя классные communication skills! Давай добавим это в поле "soft skills"?»
Совет #4: Практика прохождения собеседований. Без практики никак ¯\_(ツ)_/¯ Уверенность на собеседовании достигается только с опытом. Но и тут вам поможет ИИ.
Interview Stream — сайт, чтобы учиться отвечать на вопросы, которые задают на собеседованиях. ИИ спрашивает вопрос, а вы — отвечаете. Процесс записывается на видео, затем ИИ оценивает ваши ответы. Вы также можете пересматривать свои видео: это поможет посмотреть на себя со стороны и выявить ошибки. Ну и, конечно, с практикой вы обретете больше уверенности.
Еще платформы для собеседований на основе ИИ: Big Interview, Talk Hiring, HireVue, Retorio, Yobs.
Если вас не устраивает ИИ в качестве учителя для собеседований, можете проводить пробные интервью (mock-interview) с реальными людьми. Сайтов, где можно найти себе "собеседующего" и потренироваться проходить собесы — много. Вот пример: pramp.com
В завершение скажем, что ИИ все сильнее внедряется в процесс найма. Важно понимать, как этот процесс устроен и пытаться узнать как можно больше, какие именно алгоритмы использует компания, куда вы подаетесь.
Удачи вам на карьерном пути ❤️
❤🔥2❤1
#промо
Хотите запустить ИИ-стартап или просто узнать, «как оно всё работает»?
Заглядывайте в AI Bible — канал об AI-продуктах, нейросетях и о всём ИИ-шном. Здесь ребята из Signum.AI, разработавшие ИИ-платформу для снижения стоимости привлечения клиентов, делятся апдейтами и инсайтами ИИ-рынка, своим опытом и новостями с полей.
В AI Bible вы найдёте:
• Особенности разработки и внедрения прикладного ИИ
• Лайфхаки для фаундеров ИИ-стартапов, продактов и маркетологов
• Разборы интересных use кейсов, факапов и перспективных направлений в рамках индустрии
• Новости и тренды ИИ-рынка
Маст-хэв для продактов и фаундеров, которые планируют работать с ИИ-продуктами (или уже).
Подписывайтесь 💥
Хотите запустить ИИ-стартап или просто узнать, «как оно всё работает»?
Заглядывайте в AI Bible — канал об AI-продуктах, нейросетях и о всём ИИ-шном. Здесь ребята из Signum.AI, разработавшие ИИ-платформу для снижения стоимости привлечения клиентов, делятся апдейтами и инсайтами ИИ-рынка, своим опытом и новостями с полей.
В AI Bible вы найдёте:
• Особенности разработки и внедрения прикладного ИИ
• Лайфхаки для фаундеров ИИ-стартапов, продактов и маркетологов
• Разборы интересных use кейсов, факапов и перспективных направлений в рамках индустрии
• Новости и тренды ИИ-рынка
Маст-хэв для продактов и фаундеров, которые планируют работать с ИИ-продуктами (или уже).
Подписывайтесь 💥
Telegram
Visual Holy Bible
Visual Holy Bible | Daily Verses | Bible Quiz - IOS application: https://apps.apple.com/us/app/visual-holy-bible/id6498934309