Немного инсайтов об исследовательском проекте OpenAI - сколько денег и кому предлагал, кто курировал встречи. И вообще история создания проекта.
А ситуация на самом деле очень крутая. Помните шумиху, поднятую Маском и другими про то, что ИИ опасен? Вот надо отдать должное Маску, вслед за словами он делает дела. OpenAI - как раз ответ на эту угрозу. Он будет исследоватеть ИИ и сразу делится всеми наработками с миром, чтобы как только/если ИИ появится, он появился не один, а появилось сразу много ИИ в разных уголках мира. Это не панацея, но конкуренция между этими ИИ даст (возможно) хоть немного времени человечеству в условиях "угрозы нулеового дня"
Но есть и другое мнение: Ник Бостром, оксфордский философ, который как и Маск предупреждал об опасностях ИИ, указывает, что если вы делитесь исследованиями без ограничений, «плохие актеры» могут схватить их до того, как все убедятся в их безопасности. «Если у вас есть кнопка, которая делает дрянь в мире, — говорит Бостром, — вы вряд ли захотите дать к ней доступ каждому». Если же, с другой стороны, OpenAI решит придержать исследования, чтобы к ним не получили доступ плохие парни, Бостром спрашивает: а чем это будет отличаться от Google или Facebook?
Он говорит, что да, некоммерческий статус OpenAI может изменить положение вещей, а может и не изменить. Реальная сила проекта, говорит он, в том, что он сможет обеспечить проверку Google и Facebook. «Он сможет уменьшить вероятность того, что сверхинтеллект будет монополизирован. Он сможет убрать одну из возможных причин, почему некоторые лица или группы получат доступ к более качественному ИИ, чем все остальные».
В одной из последних работ философ объясняет, что основной эффект инициативы вроде OpenAI — инициативы свободно делиться своими наработками — состоит в ускорении прогресса искусственного интеллекта, хотя бы в краткосрочной перспективе. И он может ускорить прогресс в долгосрочной перспективе, при условии, что будет соблюден более высокий уровень открытости, чем было бы коммерчески оптимально.
http://hi-news.ru/technology/osvobodit-iskusstvennyj-intellekt-openai-bezumnyj-plan-elona-maska.html
А ситуация на самом деле очень крутая. Помните шумиху, поднятую Маском и другими про то, что ИИ опасен? Вот надо отдать должное Маску, вслед за словами он делает дела. OpenAI - как раз ответ на эту угрозу. Он будет исследоватеть ИИ и сразу делится всеми наработками с миром, чтобы как только/если ИИ появится, он появился не один, а появилось сразу много ИИ в разных уголках мира. Это не панацея, но конкуренция между этими ИИ даст (возможно) хоть немного времени человечеству в условиях "угрозы нулеового дня"
Но есть и другое мнение: Ник Бостром, оксфордский философ, который как и Маск предупреждал об опасностях ИИ, указывает, что если вы делитесь исследованиями без ограничений, «плохие актеры» могут схватить их до того, как все убедятся в их безопасности. «Если у вас есть кнопка, которая делает дрянь в мире, — говорит Бостром, — вы вряд ли захотите дать к ней доступ каждому». Если же, с другой стороны, OpenAI решит придержать исследования, чтобы к ним не получили доступ плохие парни, Бостром спрашивает: а чем это будет отличаться от Google или Facebook?
Он говорит, что да, некоммерческий статус OpenAI может изменить положение вещей, а может и не изменить. Реальная сила проекта, говорит он, в том, что он сможет обеспечить проверку Google и Facebook. «Он сможет уменьшить вероятность того, что сверхинтеллект будет монополизирован. Он сможет убрать одну из возможных причин, почему некоторые лица или группы получат доступ к более качественному ИИ, чем все остальные».
В одной из последних работ философ объясняет, что основной эффект инициативы вроде OpenAI — инициативы свободно делиться своими наработками — состоит в ускорении прогресса искусственного интеллекта, хотя бы в краткосрочной перспективе. И он может ускорить прогресс в долгосрочной перспективе, при условии, что будет соблюден более высокий уровень открытости, чем было бы коммерчески оптимально.
http://hi-news.ru/technology/osvobodit-iskusstvennyj-intellekt-openai-bezumnyj-plan-elona-maska.html
hi-news.ru
Освободить искусственный интеллект: OpenAI, безумный план Элона Маска - Hi-News.ru
У политиков и капиталистов есть послеобеденная пятничная традиция: вываливать кучу новостей, чтобы скрыть среди них плохие. Поэтому было немного странно, что...
Те темы, о которых здесь мы с вами говорим, я стараюсь осветить на семинарах, которуые провожу в Московском технологическом инстиуте. Следующий пройдет 11 мая в 19:30.
Регистрация: https://futuref.timepad.ru/event/export/325867/html/
Докладчик: Александр Сергеевич Мишура — аспирант Школа философии НИУ ВШЭ. Область научного интереса: модели индетерминистической каузальности в аналитической метафизике действия.
Доклад: "Этическая нейтральность технологий"
Эти семинары будут проходить в среднем раз в две недели.
Тематика семинаров:
- Социальные барьеры развития технологий
- Социальные риски технологий
Если вы хотите принять участие с докладом, напишите мне.
Регистрация: https://futuref.timepad.ru/event/export/325867/html/
Регистрация: https://futuref.timepad.ru/event/export/325867/html/
Докладчик: Александр Сергеевич Мишура — аспирант Школа философии НИУ ВШЭ. Область научного интереса: модели индетерминистической каузальности в аналитической метафизике действия.
Доклад: "Этическая нейтральность технологий"
Эти семинары будут проходить в среднем раз в две недели.
Тематика семинаров:
- Социальные барьеры развития технологий
- Социальные риски технологий
Если вы хотите принять участие с докладом, напишите мне.
Регистрация: https://futuref.timepad.ru/event/export/325867/html/
my.timepad.ru
Организация событий и мероприятий TimePad.ru
Простой и удобный инструмент для организации событий
В какой-то момент допущение человека до проведения операции будет считаться преступной халатностью. Как и с живым водителем на дороге.
http://apparat.cc/news/pig-robot-surgery/
http://apparat.cc/news/pig-robot-surgery/
Apparat
Робот-хирург успешно сшил кишечник живой свиньи
Исследователи Детского национального медицинского центра (Вашингтон, США) Азад Шейдман и Райан Декер выступили наблюдателями в операции
Как создать моральную машину?
Можно действовать напрямую: во-первых, принять решение о конкретном этическом законае (максимизировать счастье, к примеру), написать код для его реализации, и создать робота, который строго следует коду.
Но трудности возникают в момент принятия конкретных решений с учетом наперед заданного этического закона. Например, если робот будет максимизировать счастье, будет ли он забирать органы от одного человека, чтобы спасти пятерых?
Второй вариант заключается в создании робота на машинном обучении и дать ему возможность научиться, как реагировать на различные ситуации, с тем, чтобы прогнозировать этические исходы. Это похоже на то, как люди учатся морали. Хотя это поднимает вопрос о том, являются ли люди, на самом деле, лучшими нравственными учителями. Думаю, в каждого в жизни было немало возможностей в этом усомнится.
Как пример трудностей этого варинта можно вспомнить недавнюю историю чат-бота Microsoft, который после общения в твиттере стал сторонником Гитлера.
А стоит ли вообще делать роботов, способдных к принятию этических решений?
Вообще, быть может, они для этого подходят даже лучше, чем мы: люди являются продуктом естественного отбора, и он встроил в нас мыслительные паттерны, являющиеся корыстными или, по крайней мере, ведущие к действиям в интересах нашей группы против другиз. Они направлены на то, чтобы быть в состоянии выжить как вид. Роботы же лишены этих качеств.
http://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/
Можно действовать напрямую: во-первых, принять решение о конкретном этическом законае (максимизировать счастье, к примеру), написать код для его реализации, и создать робота, который строго следует коду.
Но трудности возникают в момент принятия конкретных решений с учетом наперед заданного этического закона. Например, если робот будет максимизировать счастье, будет ли он забирать органы от одного человека, чтобы спасти пятерых?
Второй вариант заключается в создании робота на машинном обучении и дать ему возможность научиться, как реагировать на различные ситуации, с тем, чтобы прогнозировать этические исходы. Это похоже на то, как люди учатся морали. Хотя это поднимает вопрос о том, являются ли люди, на самом деле, лучшими нравственными учителями. Думаю, в каждого в жизни было немало возможностей в этом усомнится.
Как пример трудностей этого варинта можно вспомнить недавнюю историю чат-бота Microsoft, который после общения в твиттере стал сторонником Гитлера.
А стоит ли вообще делать роботов, способдных к принятию этических решений?
Вообще, быть может, они для этого подходят даже лучше, чем мы: люди являются продуктом естественного отбора, и он встроил в нас мыслительные паттерны, являющиеся корыстными или, по крайней мере, ведущие к действиям в интересах нашей группы против другиз. Они направлены на то, чтобы быть в состоянии выжить как вид. Роботы же лишены этих качеств.
http://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/
Quartz
Can we trust robots to make moral decisions?
"Thinking about how robots ought to behave is a soul searching exercise in how humans ought to behave."
Побеседовали с философом Александром Мишура об этической нейтральности технологий.
На самом деле диктофонная запись беседы на 40 минут, но пока - промо-версия разговора.
А 11 мая в 19:30 Александр выступит с этой темой на семинаре https://futuref.timepad.ru/event/325867/ в Московский технологический институт «ВТУ», приходите, будет интересно.
На самом деле диктофонная запись беседы на 40 минут, но пока - промо-версия разговора.
А 11 мая в 19:30 Александр выступит с этой темой на семинаре https://futuref.timepad.ru/event/325867/ в Московский технологический институт «ВТУ», приходите, будет интересно.
Forwarded from Apparat
Действительно ли технологии управляют нами? Можем ли мы контролировать их развитие? На кого ложится ответственность за изобретения? Эти вопросы обсудили для Apparat аспирант Школы философии НИУ Высшей школы экономики Александр Мишура и директор департамента взаимодействия науки, технологий и общества Московского технологического института Петр Левич (@peterlevichchannel).
http://apparat.cc/human/technology-ethics/
http://apparat.cc/human/technology-ethics/
Apparat
Этически нейтральны ли технологии?
Действительно ли технологии управляют нами? Можем ли мы контролировать их развитие? На кого ложится ответственность за изобретения?
Если кратко - он решал диффуры, женщина увидела в них "странные символы и вычисления".
Мне вся эта история напоминает описанные многими фантастами (Азимов "Основание", например) сюжет, когда из-за большого разрыва в образованности в обществе, наука сакрализируется, ученые считаются монахами и магами большей частью общества, инженерные объекты (атомные электростанции, например) становятся предметами культа, храмами, дарующими магическую энергию.
Весело, в общем.
https://geektimes.ru/post/275504/
Мне вся эта история напоминает описанные многими фантастами (Азимов "Основание", например) сюжет, когда из-за большого разрыва в образованности в обществе, наука сакрализируется, ученые считаются монахами и магами большей частью общества, инженерные объекты (атомные электростанции, например) становятся предметами культа, храмами, дарующими магическую энергию.
Весело, в общем.
https://geektimes.ru/post/275504/
Хабр
Профессор решал дифференциальные уравнения в самолёте. Рейс задержали на два часа из-за угрозы теракта
Гвидо Менцио (Guido Menzio), профессор экономики университета Пенсильвании Вечером 5 мая самолёт местных авиалиний American Airlines (рейс 3950) готовился к заурядному 40-минутному перелёту из...
Еще на один шаг ближе к персональным интеллектуальным агентам. Это тот аспект ИИ, с которым мы все столкнемся очень скоро.
Недавно вот нужно было найти отель с количеством звезд на букинге не менее N и чтобы рядом был ресторан с количеством звезд на форсквере не менее P. И чтобы дизайн в отеле был как нравится.
Очень неудобно решать эту проблему (а это классическая проблема оптимизации) вручную через два приложения. Кейс как раз для таких персональных интеллектуальных агентов, и принципиально важен в них deeplerning - чтобы они знали что значит "нравится дизайн" именно для меня.
Из статьи:
В конференц-зале Сан-Хосе, городе стартапов, группа инженеров решила заказать себе пиццу необычным способом. Один из сотрудников наклонился к смартфону и произнес: «Хочу пиццу из Pizz'a Chicago рядом с офисом». Это их первый реальный тест искусственного интеллекта Viv, над которым команда работает уже год.
Через 40 минут, после того как Viv несколько раз ошиблась с адресом офиса, курьер привёз пиццу. Когда это случилось, команда взорвалась аплодисментами. Они сделали заказ без единого звонка, без поиска в Google, вообще не обращаясь к клавиатуре. Мало того, никто даже не думал устанавливать для этого специальные приложения.
Лонгрид на русском: http://rusbase.com/longread/viv/
Новость на английском: http://techcrunch.com/2016/05/09/heres-what-viv-looks-like-the-next-generation-ai-assistant-built-by-siri-creator/
Недавно вот нужно было найти отель с количеством звезд на букинге не менее N и чтобы рядом был ресторан с количеством звезд на форсквере не менее P. И чтобы дизайн в отеле был как нравится.
Очень неудобно решать эту проблему (а это классическая проблема оптимизации) вручную через два приложения. Кейс как раз для таких персональных интеллектуальных агентов, и принципиально важен в них deeplerning - чтобы они знали что значит "нравится дизайн" именно для меня.
Из статьи:
В конференц-зале Сан-Хосе, городе стартапов, группа инженеров решила заказать себе пиццу необычным способом. Один из сотрудников наклонился к смартфону и произнес: «Хочу пиццу из Pizz'a Chicago рядом с офисом». Это их первый реальный тест искусственного интеллекта Viv, над которым команда работает уже год.
Через 40 минут, после того как Viv несколько раз ошиблась с адресом офиса, курьер привёз пиццу. Когда это случилось, команда взорвалась аплодисментами. Они сделали заказ без единого звонка, без поиска в Google, вообще не обращаясь к клавиатуре. Мало того, никто даже не думал устанавливать для этого специальные приложения.
Лонгрид на русском: http://rusbase.com/longread/viv/
Новость на английском: http://techcrunch.com/2016/05/09/heres-what-viv-looks-like-the-next-generation-ai-assistant-built-by-siri-creator/
Rusbase
Зал аплодировал, когда они заказали пиццу голосом, без Google и приложений | Rusbase
Создатели Siri разработали нового виртуального помощника. И он умнее Siri
Ассистентом профессора Georgia Tech стала программа IBM Watson. Это был эксперимент профессора. В обязанности ассистента входит напоминать про дедлайны по эл почте и прочие орг вопросы. Программа была обучена на 40000 записях студенческого форума. Никто из учеников не заметил разницы.
http://www.theverge.com/2016/5/6/11612520/ta-powered-by-ibm-watson
http://www.theverge.com/2016/5/6/11612520/ta-powered-by-ibm-watson
The Verge
Professor Pranksman fools his students with a TA powered by IBM's Watson
Her name was Jill Watson
Химики из Хаверфордского Колледжа и Университета Пердью в США разработали систему машинного обучения, которая позволяет предсказать результат химической реакции на основе базы данных, собранной из лабораторных журналов исследователей. Точность предсказания системы (по крайней мере по одному типу реакций), достигла и даже превысила предсказательные способности профессиональных химиков. Описание системы опубликовано в журнале Nature.
https://nplus1.ru/news/2016/05/05/neoneo
https://nplus1.ru/news/2016/05/05/neoneo
nplus1.ru
Компьютер обошел человека в неорганическом синтезе
Химики из Хаверфордского Колледжа и Университета Пердью в США разработали систему машинного обучения, которая позволяет предсказать результат химической реакции на основе базы данных, собранной из лабораторных журналов исследователей. Точность предсказания…
Расширенная версия моей статьи по этическим вопросам редактирования генома.
Добавил связь с философскими аспектами детерминизма.
Абстракт:
В статье рассматриваются один из сценариев развития технологий (прежде всего, редактирование генома и анализ коннектома), который изменят систему разделения труда и поставят перед системой образования новые задачи в непривычном для нее формате общества. Редактирование генома может привести к созданию предрасположенностей человека на этапе эмбриона к получению тех или иных компетенций.
В сочетании с учетом генетической карты человека при приеме на учебу, а впоследствии – и на работу, это приведет к ситуации генетического детерминизма профессиональной траектории, появлению «генетических каст». Также предложено описание философского контекста ситуации, а именно космологического и антропологически-этического детерминизма. Изменение философских предпосылок свободы выбора может изменить восприятие этих категорий в обществе, и, следовательно, в системе образования.
http://www.therunet.com/articles/6704
Добавил связь с философскими аспектами детерминизма.
Абстракт:
В статье рассматриваются один из сценариев развития технологий (прежде всего, редактирование генома и анализ коннектома), который изменят систему разделения труда и поставят перед системой образования новые задачи в непривычном для нее формате общества. Редактирование генома может привести к созданию предрасположенностей человека на этапе эмбриона к получению тех или иных компетенций.
В сочетании с учетом генетической карты человека при приеме на учебу, а впоследствии – и на работу, это приведет к ситуации генетического детерминизма профессиональной траектории, появлению «генетических каст». Также предложено описание философского контекста ситуации, а именно космологического и антропологически-этического детерминизма. Изменение философских предпосылок свободы выбора может изменить восприятие этих категорий в обществе, и, следовательно, в системе образования.
http://www.therunet.com/articles/6704
theRunet
Свобода выбора образовательной траектории в эпоху прочитанного генома
Публикуем статью Петра Левича — директора департамента взаимодействия науки, технологий и общества Московского технологического института, в которой автор рассматривает этические вопросы редактирования генома человека
Коллеги, приглашаю вас на третье заседание семинара по взаимодействию технологий и общества 25 мая в 19:30, на котором выступит Максим Киселев - доктор социальной психологии, ментор и эксперт Фонда "Сколково" , ментор проектов Skoltech , эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.
Регистрация: https://futuref.timepad.ru/event/330501/
Максим расскажет о восприятии обществом новых технологий на примере дилеммы мирного атома. Несколько тезисов доклада:
- Грустный юбилей – 30 лет Чернобыльской катастрофы.
- Восприятие людьми технологических катастроф.
- Уроки Чернобыля и Фукусимы.
- Синдром NIMBY (Not In My Back Yard) и «культурный страх».
- Связь коммуникаций и реакции людей на ядерную энергетику.
Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330501/
Организаторы:
- Московский технологический институт
- Future Foundation
Регистрация: https://futuref.timepad.ru/event/330501/
Максим расскажет о восприятии обществом новых технологий на примере дилеммы мирного атома. Несколько тезисов доклада:
- Грустный юбилей – 30 лет Чернобыльской катастрофы.
- Восприятие людьми технологических катастроф.
- Уроки Чернобыля и Фукусимы.
- Синдром NIMBY (Not In My Back Yard) и «культурный страх».
- Связь коммуникаций и реакции людей на ядерную энергетику.
Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330501/
Организаторы:
- Московский технологический институт
- Future Foundation
futuref.timepad.ru
Восприятие новых технологий на примере дилеммы мирного атома / События на TimePad.ru
Третье заседание семинара по взаимодействию технологий и общества.
Докладчик: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы…
Докладчик: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы…
Коллеги, приглашаю вас на четвертое заседание семинара по взаимодействию технологий и общества 1 июня в 19:30, на котором выступит Алексей Турчин - член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни".
Регистрация: https://futuref.timepad.ru/event/330560/
Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.
Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330560/
Организаторы:
- Московский технологический институт
- Future Foundation
Регистрация: https://futuref.timepad.ru/event/330560/
Алексей расскажет о глобальных технологических рисках и стратегиях их предотвращения. Несколько тезисов доклада:
- Развитие технологий ведет к увеличению возможностей человечества, в том числе и по созданию новых угроз.
- Наиболее важными среди них являются риски катастрофы, которая может полностью уничтожить человечество.
- План А состоит в том, чтобы предотвратить катастрофу, используя международную кооперацию, децентрализованный мониторинг, искусственный интеллект и повышение живучести.
- План Б состоит в том, чтобы пережить катастрофу, используя или расселение в космосе, или создание убежищ.
- План С — оставить максимально долговечные следы существования человеческой цивилизации.
Успейте зарегистрироваться, участие по предварительному одобрению: https://futuref.timepad.ru/event/330560/
Организаторы:
- Московский технологический институт
- Future Foundation
futuref.timepad.ru
Глобальные технологические риски. Стратегия предотвращения. / События на TimePad.ru
Четвертое заседание семинара по взаимодействию технологий и общества.
Докладчик: Алексей Турчин — член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни"
Доклад: «Глобальные технологические риски. Стратегия…
Докладчик: Алексей Турчин — член Ассоциации футурологов, эксперт по глобальным рискам, сотрудник Фонда «Наука за продление жизни"
Доклад: «Глобальные технологические риски. Стратегия…
Для полноты картины. Роботизация показала, что даже в западном обществе сексизм все еще актуален.
http://qz.com/684879/even-artificial-intelligence-robots-face-stereotypical-sexism-in-the-workplace/
http://qz.com/684879/even-artificial-intelligence-robots-face-stereotypical-sexism-in-the-workplace/
Quartz
Even artificial intelligence robots face stereotypical sexism in the workplace
Clara, Amy, Julie, Crystal, Jeannie, Cloe, Dawn are assistants... while Ross is the lawyer.
Forwarded from Apparat
25 мая в Москве пройдет третий семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.
Тема семинара: «Восприятие новых технологий на примере дилеммы мирного атома».
Спикер: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.
Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330501/
Участие бесплатное.
Тема семинара: «Восприятие новых технологий на примере дилеммы мирного атома».
Спикер: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.
Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330501/
Участие бесплатное.
futuref.timepad.ru
Восприятие новых технологий на примере дилеммы мирного атома / События на TimePad.ru
Третье заседание семинара по взаимодействию технологий и общества.
Докладчик: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы…
Докладчик: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы…
Стартап Luka выпустил чат-бота на основе переписки погибшего человека – бывшего арт-директора «Стрелки» Романа Мазуренко.
Чат-бот воссоздает образ Романа, используя данные из его переписки с друзьями, а также фотографии, статьи и посты в соцсетях. «Черное зеркало» наяву.
http://rusbase.com/news/black-mirror/?f
Чат-бот воссоздает образ Романа, используя данные из его переписки с друзьями, а также фотографии, статьи и посты в соцсетях. «Черное зеркало» наяву.
http://rusbase.com/news/black-mirror/?f
Rusbase
Стартап Luka выпустил чат-бота на основе переписки умершего человека | Rusbase
Пообщаться с чат-ботом можно самостоятельно