Apparat
1.82K subscribers
37 photos
1 file
777 links
Интернет-журнал о технологиях и новом обществе.
Download Telegram
Разработчики искусственного интеллекта Google и OpenAI совместно с командой учёных из Калифорнийского университета Беркли и Стэнфордского университета сформулировали пять практических проблем робототехники. Об этом сообщается в блоге Google.

Авторы исследования пишут, что дискуссии вокруг опасности искусственного интеллекта оторваны от реальности. Они сводятся к «восстанию машин» и другим фантастическим сценариям, хотя учёные, которые создают роботов для больниц, кафе и супермаркетов, действительно сталкиваются с серьёзными проблемами, которые нужно решать уже сейчас. Автор публикации Крис Ола коротко рассказал о них на простых примере ситуаций, которые могут возникнуть с роботом-уборщиком.

Как избежать негативных побочных эффектов? Как объяснить роботу, что нельзя опрокидывать вазу, которая мешает ему убирать?

Как предотвратить жульничество ради вознаграждения? Как объяснить роботу, что он должен убрать мусор, а не прикрыть его скатертью?

Как определить степень контроля? Как научить робота различать, что фантики он может выбросить самостоятельно, а по поводу мобильных телефонов должен посоветоваться с человеком? Как научить его обращаться к человеку, но не слишком часто?

Как обеспечить «безопасную разведку»? Если робот запрограммирован искать оптимальные способы уборки, как предостеречь от опасных экспериментов — например, от протирания розетки влажной губкой?

Как обеспечить устойчивость к смене деятельности и места? Как объяснить роботу разницу между уборкой в цеху завода и уборкой в офисе?

Авторы статьи признают, что пока не могут дать ответы на эти вопросы. Для начала они советуют разрабатывать максимально продуманные инструкции и, прежде чем выпускать роботов к людям, обучать их в специальных симуляциях реальности. Кроме того, роботов надо программировать так, чтобы они как можно меньше воздействовали на окружающую среду, выполняя свои функции.

http://apparat.cc/news/google-robots-ai-rules/

Ранее ученые из DeepMind от Google и специалисты из Оксфордского университета рассказали, что разрабатывают «красную кнопку» для машин с искусственным интеллектом. Они уверены, что в будущем людям понадобится технология, которая сможет мгновенно отключать роботов, вышедших из-под контроля.
Ранее ученые из DeepMind от Google и специалисты из Оксфордского университета рассказали, что разрабатывают «красную кнопку» для машин с искусственным интеллектом. Они уверены, что в будущем людям понадобится технология, которая сможет мгновенно отключать роботов, вышедших из-под контроля.
http://apparat.cc/news/kill-switch-google/

Недавно на сайте Европарламента появился проект доклада, в котором комитет по правовым вопросам предложил признать роботов «электронными лицами» и закрепить за ними соответствующие права и обязанности. Авторы проекта также хотят поднять вопрос и об ответственности «разумных» роботов за их действия или бездействие, в том числе за нанесение ущерба человеку.
http://apparat.cc/news/robots-electronic-persons/
Посмотрите на канал https://telegram.me/centraltelegraph - там есть новости науки, интернет-трендов, технологий и немного личного блога от автора - фотографа и копирайтера Александра Мучаева.

Интересный канал, советуем. Безвозмездно.
This media is not supported in your browser
VIEW IN TELEGRAM
Boston Dynamics продолжают издеваться над роботами. Вот этого красавца они заставили убирать посуду и падать на банановой шкурке: https://youtu.be/tf7IEVTDjng
Одна из главных сложностей для машинного распознавания лиц — существующие наборы фотографий для обучения алгоритмов слишком малы. Благодаря инициативе Университета Вашингтона это может измениться — там создают самую масштабную открытую базу с фотографиями миллионов людей.

http://apparat.cc/news/facial-recognition-database/
Большинство людей считают, что в критической ситуации беспилотная машина должна минимизировать количество жертв, даже ценой жизни своих пассажиров.

Но лишь немногие готовы стать пассажиром такой машины.

http://apparat.cc/news/trolley-problem-study/
Американские разработчики создали бота для игнорирования навязчивых поклонников в интернете. Он анализирует входящие сообщения и отвечает назойливым собеседникам с нужной долей безразличия.

Например: «Сегодня вечером у меня в планах только пицца»

http://apparat.cc/news/ghostbot/
Впечатляющие откровения четырех операторов американских военных дронов, почитайте обязательно.

«Огромный экран по центру зала ожил, начав показывать фотографии огромных взрывов. Машины, здания и люди, попадавшие в перекрестье прицела, исчезали в пламени. В зале послышались одобрительные выкрики. Хаас и Брайант посмотрели друг на друга. Высокий, грузный офицер с квадратной челюстью выключил экран. "Джентльмены! — пророкотал он. — Добро пожаловать в «Крич». Пока вы здесь, ваша работа — это взрывать всякое дерьмо и убивать людей!"»

http://apparat.cc/world/drone-whistleblowers-story/
Экс-советник ООН по робототехнике профессор Ноэль Шарки заявил, что в недалеком будущем подростки смогут заниматься сексом с роботами-гуманоидами, если эта сфера не будет урегулирована законодательно.

Он считает, что андроидов может постигнуть судьба интернета, который люди активно используют в эротических целях.

http://apparat.cc/news/sex-robots/
Поговорили с сооснователем стартапа Nimb — кольца с тревожной кнопкой, с помощью которого можно мгновенно оповестить своих близких о нападении или несчастном случае.

У компании большие планы — основатели хотят сотрудничать со службами спасения и выходить на международные рынки.

http://apparat.cc/world/how-nimb-works/
Генеральный директор Microsoft Сатья Наделла сформулировал 6 законов искусственного интеллекта и 4 закона для людей, живущих в эпоху ИИ.

В своей статье на Slate Наделла обращается не только к Трем законам робототехники Азимова, но и к меморандуму «Приливная волна интернета», написанному Биллом Гейтсом в 1995 году для сотрудников Microsoft. Наделла обсуждает, является ли угроза «Терминатора» реальной. По его мнению, люди и машины должны работать вместе, чтобы решать основные проблемы человечества — болезни, невежество и бедность.

Законы Наделлы выглядят таким образом:

Требования для ИИ

1. Цель создания ИИ — помощь человеку;

2. Технология ИИ должна быть прозрачной;

3. ИИ должен быть максимально эффективен без принижения достоинства человека;

4. ИИ должен обеспечивать интеллектуальную неприкосновенность;

5. ИИ должен обеспечивать возможность предотвратить непреднамеренный вред;

6. ИИ должен быть непредвзятым.

Правила для людей

1. Людям важно уметь сопереживать;

2. Людям важно быть образованными;

3. Человеческая потребность в творчестве с приходом ИИ не изменится;

4. Человек несет ответственность за решения компьютера.

Наделла признает, что исследования ИИ будут проводиться в течение десятилетий, но, по его мнению, закладывать правильный фундамент нужно уже сейчас. «Следующий важный шаг в развитии искусственного интеллекта — договориться о его этической и эмпатической основах», говорит Сатья.

http://apparat.cc/news/10-laws-nadella/
В интервью Ларри Кингу известный ученый и популяризатор науки Стивен Хокинг рассказал о своих опасениях по поводу развития искусственного интеллекта.

«Правительства вовлечены в гонку вооружений ИИ: они разрабатывают с помощью умных технологий оружие и самолеты. Финансирование более полезных для человечества проектов, например, ранней диагностики заболеваний, имеет намного более низкий приоритет»

http://apparat.cc/news/hawking-ai-king/
Ученые из Лондона научились определять ложь в деловой переписке с помощью лингвистического анализа.

Основными признаки лжи оказались: отсутствие личных местоимений и чрезмерных описаний; чрезмерное аргументирование; преувеличенная привлекательность и вежливость.

Всего доброго вам, хорошего настроения!

http://apparat.cc/news/lie-email/
Более ста нобелевских лауреатов подписали письмо к Greenpeace с требованием прекратить борьбу против генно-модифицированного риса. Этот рис может спасти миллионы людей от дефицита витамина А, но Greenpeace выступает против его выращивания.

Ученые говорят: активисты Greenpeace намеренно раздувают страхи вокруг ГМО, чтобы получить финансирование на свои проекты.

http://apparat.cc/news/golden-rise-greenpeace/