Роботов научили видеть скрытые объекты
Группа исследователей из университетов Стэнфорда, Принстона и Райса выполнила заказ по программе DARPA REVEAL (Революционное улучшение видимости за счет использования активных световых полей). Их разработка позволяет роботам буквально «заглянуть за угол», оставаясь на месте.
Визуализация вне прямой видимости (NLoS) – это подход, в котором системы машинного зрения восстанавливают по косвенным данным изображение объектов, находящихся вне их угла обзора. Например, так можно «увидеть» противника за преградой или машины за стеной дома.
Большинство таких методов используют информацию о времени прохождения светового импульса. Грубо говоря, это лазер в режиме радара, где луч отражается дважды: от преграды перед источником (например, стены дома) и самого скрытого объекта.
Пока такие системы слишком долго формируют изображение и малопригодны для практического применения. За разумное время они могут лишь сообщить, что «за углом что-то есть».
Межуниверситетская группа под руководством Кристофера Метцлера использовала другой подход. В нём анализировались пространственные корреляции при рассеивании когерентного света – так называемые спекл-структуры, наблюдаемые на поверхностях с низким альбедо при отражении лазера.
Визуально это пятна света с неравномерной яркостью, по которым человеку невозможно понять, от чего они отразились (обычно мы даже не успеваем их заметить, поскольку время жизни спекла измеряется долями секунды). Однако эксперименты показали, что спеклы содержат достаточно информации для восстановления изображения скрытых объектов.
Для такой визуализации требуются сложные вычисления, но сегодня их можно выполнять практически в режиме реального времени за счёт методов глубокого машинного обучения. Проблема в том, что эффективность любых систем NLoS быстро падает по мере увеличения расстояния.
Авторы исследования сосредоточились на математических методах снижения влияния шумов, используя для этого теорию спектральной оценки. Эта модель применялась для разработки метода спекл-корреляции, который оказался крайне эффективным.
Используя только синтетические данные, взятые из предложенной модели шума, и не имея ни экспериментальных сцен, ни данных об их геометрии, они быстро обучили глубокую сверточную нейронную сеть (Deep CNN).
В ходе эксперимента авторы исследования получили детальное изображение объекта, находящегося за углом на расстоянии 1 м. Используя только два спекла, снятых с выдержкой 1/8 c на обычной CMOS-матрице, они достигли разрешающей способности 300 мкм.
Это абсолютный рекорд на сегодня, однако у предложенного способа ожидаемо узкие границы применимости. В отличие от методов, основанных на времени прохождения, он лучше всего подходит для визуализации небольших изолированных объектов.
Крупные объекты (вроде людей и автомобилей, тем более – в потоке) не вызывают стабильно наблюдаемых взаимных помех, на распознавании которых опираются все корреляционные методы. Поэтому мы вряд ли увидим спекл-анализатор на беспилотниках. Скорее, он будет использоваться в других областях.
По словам соавтора исследования Феликса Хайде из Принстонского университета, NLoS имеет большой потенциал в робототехнике, разведке и медицинской диагностике. При этом различные методы эффективно дополняют друг друга.
Источник: https://www.osapublishing.org/optica/abstract.cfm?uri=optica-7-1-63
Группа исследователей из университетов Стэнфорда, Принстона и Райса выполнила заказ по программе DARPA REVEAL (Революционное улучшение видимости за счет использования активных световых полей). Их разработка позволяет роботам буквально «заглянуть за угол», оставаясь на месте.
Визуализация вне прямой видимости (NLoS) – это подход, в котором системы машинного зрения восстанавливают по косвенным данным изображение объектов, находящихся вне их угла обзора. Например, так можно «увидеть» противника за преградой или машины за стеной дома.
Большинство таких методов используют информацию о времени прохождения светового импульса. Грубо говоря, это лазер в режиме радара, где луч отражается дважды: от преграды перед источником (например, стены дома) и самого скрытого объекта.
Пока такие системы слишком долго формируют изображение и малопригодны для практического применения. За разумное время они могут лишь сообщить, что «за углом что-то есть».
Межуниверситетская группа под руководством Кристофера Метцлера использовала другой подход. В нём анализировались пространственные корреляции при рассеивании когерентного света – так называемые спекл-структуры, наблюдаемые на поверхностях с низким альбедо при отражении лазера.
Визуально это пятна света с неравномерной яркостью, по которым человеку невозможно понять, от чего они отразились (обычно мы даже не успеваем их заметить, поскольку время жизни спекла измеряется долями секунды). Однако эксперименты показали, что спеклы содержат достаточно информации для восстановления изображения скрытых объектов.
Для такой визуализации требуются сложные вычисления, но сегодня их можно выполнять практически в режиме реального времени за счёт методов глубокого машинного обучения. Проблема в том, что эффективность любых систем NLoS быстро падает по мере увеличения расстояния.
Авторы исследования сосредоточились на математических методах снижения влияния шумов, используя для этого теорию спектральной оценки. Эта модель применялась для разработки метода спекл-корреляции, который оказался крайне эффективным.
Используя только синтетические данные, взятые из предложенной модели шума, и не имея ни экспериментальных сцен, ни данных об их геометрии, они быстро обучили глубокую сверточную нейронную сеть (Deep CNN).
В ходе эксперимента авторы исследования получили детальное изображение объекта, находящегося за углом на расстоянии 1 м. Используя только два спекла, снятых с выдержкой 1/8 c на обычной CMOS-матрице, они достигли разрешающей способности 300 мкм.
Это абсолютный рекорд на сегодня, однако у предложенного способа ожидаемо узкие границы применимости. В отличие от методов, основанных на времени прохождения, он лучше всего подходит для визуализации небольших изолированных объектов.
Крупные объекты (вроде людей и автомобилей, тем более – в потоке) не вызывают стабильно наблюдаемых взаимных помех, на распознавании которых опираются все корреляционные методы. Поэтому мы вряд ли увидим спекл-анализатор на беспилотниках. Скорее, он будет использоваться в других областях.
По словам соавтора исследования Феликса Хайде из Принстонского университета, NLoS имеет большой потенциал в робототехнике, разведке и медицинской диагностике. При этом различные методы эффективно дополняют друг друга.
Источник: https://www.osapublishing.org/optica/abstract.cfm?uri=optica-7-1-63
www.osapublishing.org
Deep-inverse correlography: towards real-time high-resolution non-line-of-sight imaging
Low signal-to-noise ratio (SNR) measurements, primarily due to the quartic attenuation of intensity with distance, are arguably the fundamental barrier to real-time, high-resolution, non-line-of-sight (NLoS) imaging at long standoffs. To better model, characterize…
Манипуляторы KUKA стали умнее и сильнее
Немецкая компания KUKA объявила о выпуске новой серии промышленных манипуляторов KR IonTec. Это усовершенствованная версия KR 60-3, имеющая уникальный набор характеристик.
С манипуляторами KUKA вы наверняка знакомы. Помимо применения на производстве, их использовали на открытии Паралимпийских игр, чтобы показать единство человека и машины.
Затем они зажигали (во всех смыслах) в клипе Найджела Стэнфорда Automatica. К тому же, на их основе сделаны многочисленные роботы-баристы, привлекающие толпы туристов.
Словом, это самое универсальное решение из коммерчески доступных вариантов, которое стало ещё лучше.
Новый KR IonTec заполняет вакантную нишу манипуляторов со средней грузоподъёмностью – от 30 до 70 кг. Его можно закрепить на полу, или на стене, использовать отдельно или вместе с другими манипуляторами.
Главная изюминка KR IonTec – режим Path, в котором он точно повторяет указанный путь перемещения груза по непрерывной траектории. К тому же, у него рекордный радиус действия – 3100 мм.
Ещё одна особенность новинки – наличие готовых программных дополнений, которые позволяют за считанные минуты «научить» манипулятор выполнять другую работу.
Поскольку это промышленное решение, основное внимание разработчиков уделялось показателям надёжности. Техническая доступность составляет > 99% в расширенном температурном диапазоне 0 – 55°С, а среднее время наработки на отказ – 400 000 часов.
Модель доступна для предварительного заказа уже сейчас, а первые партии поступят в продажу в апреле 2020 года.
Источник: https://www.kuka.com/en-de/products/robot-systems/industrial-robots/kr-iontec
Немецкая компания KUKA объявила о выпуске новой серии промышленных манипуляторов KR IonTec. Это усовершенствованная версия KR 60-3, имеющая уникальный набор характеристик.
С манипуляторами KUKA вы наверняка знакомы. Помимо применения на производстве, их использовали на открытии Паралимпийских игр, чтобы показать единство человека и машины.
Затем они зажигали (во всех смыслах) в клипе Найджела Стэнфорда Automatica. К тому же, на их основе сделаны многочисленные роботы-баристы, привлекающие толпы туристов.
Словом, это самое универсальное решение из коммерчески доступных вариантов, которое стало ещё лучше.
Новый KR IonTec заполняет вакантную нишу манипуляторов со средней грузоподъёмностью – от 30 до 70 кг. Его можно закрепить на полу, или на стене, использовать отдельно или вместе с другими манипуляторами.
Главная изюминка KR IonTec – режим Path, в котором он точно повторяет указанный путь перемещения груза по непрерывной траектории. К тому же, у него рекордный радиус действия – 3100 мм.
Ещё одна особенность новинки – наличие готовых программных дополнений, которые позволяют за считанные минуты «научить» манипулятор выполнять другую работу.
Поскольку это промышленное решение, основное внимание разработчиков уделялось показателям надёжности. Техническая доступность составляет > 99% в расширенном температурном диапазоне 0 – 55°С, а среднее время наработки на отказ – 400 000 часов.
Модель доступна для предварительного заказа уже сейчас, а первые партии поступят в продажу в апреле 2020 года.
Источник: https://www.kuka.com/en-de/products/robot-systems/industrial-robots/kr-iontec
KUKA AG
KR IONTEC | KUKA AG
An efficient robot in the medium payload class with a flexible mounting position and convertible payload capacity for a host of applications in the 20 to 70-kilogram range.
Новые присоски для роботов – просто добавь воды!
Исследователи из Чжэцзянского университета (Ханчжоу, Китай) создали новый тип вакуумных присосок, позволяющих роботам подниматься по шероховатым стенам.
Обычные присоски эффективны только на гладких поверхностях. Их не удаётся закрепить даже на текстурированной кафельной плитке, не говоря уже о деревянной или кирпичной стене.
Всё дело в том, что даже небольшие неровности приводят к просачиванию воздуха. Из-за этого давление под куполом присоски выравнивается с окружающим, и она перестаёт держаться.
Временно улучшить свойства присоски помогает вода. Её тонкий слой герметизирует периметр купола, но только пока не высохнет, или не втянется под купол.
Авторы исследования Кайге Ши и Синь Ли предложили интересный подход к решению этой проблемы. В их разработке вокруг купола присоски в закрытой полости создаётся быстро вращающееся водяное кольцо.
Центробежная сила не даёт воде стечь внутрь, а за счёт своей ширины кольцо создаёт стабильный градиент давления, плавно доводя разницу до нулевой на внешней границе вакуумной зоны. Поэтому исследователи назвали разработку «методом нулевой разности давлений» (ZPD).
Эксперименты показали, что вращающееся водяное кольцо надёжно герметизирует соединение даже на ячеистом бетоне. Сначала разработчики сами поднялись по стене дома на двух присосках, а затем сконструировали гексапода.
Этот робот оснащён шестью присосками нового типа. Из них три постоянно удерживают его на стене, а три другие в этот момент могут двигаться, задавая направление движения.
Несмотря на успешную демонстрацию, ZPD имеет существенные недостатки. Во-первых, это большие затраты энергии на создание вращающихся колец воды. Во-вторых, сама вода быстро расходуется – бетон впитывает её как губка, а после каждого шага остаётся мокрый след. В-третьих, процесс герметизации каждого соединения занимает около восьми секунд.
Пока не ясно, окажется ли представленная разработка коммерчески жизнеспособной, однако сам принцип в ней довольно интересен.
Видео: https://youtu.be/lRh6z8T-1fs
Источник: https://aip.scitation.org/doi/full/10.1063/1.5129958
Исследователи из Чжэцзянского университета (Ханчжоу, Китай) создали новый тип вакуумных присосок, позволяющих роботам подниматься по шероховатым стенам.
Обычные присоски эффективны только на гладких поверхностях. Их не удаётся закрепить даже на текстурированной кафельной плитке, не говоря уже о деревянной или кирпичной стене.
Всё дело в том, что даже небольшие неровности приводят к просачиванию воздуха. Из-за этого давление под куполом присоски выравнивается с окружающим, и она перестаёт держаться.
Временно улучшить свойства присоски помогает вода. Её тонкий слой герметизирует периметр купола, но только пока не высохнет, или не втянется под купол.
Авторы исследования Кайге Ши и Синь Ли предложили интересный подход к решению этой проблемы. В их разработке вокруг купола присоски в закрытой полости создаётся быстро вращающееся водяное кольцо.
Центробежная сила не даёт воде стечь внутрь, а за счёт своей ширины кольцо создаёт стабильный градиент давления, плавно доводя разницу до нулевой на внешней границе вакуумной зоны. Поэтому исследователи назвали разработку «методом нулевой разности давлений» (ZPD).
Эксперименты показали, что вращающееся водяное кольцо надёжно герметизирует соединение даже на ячеистом бетоне. Сначала разработчики сами поднялись по стене дома на двух присосках, а затем сконструировали гексапода.
Этот робот оснащён шестью присосками нового типа. Из них три постоянно удерживают его на стене, а три другие в этот момент могут двигаться, задавая направление движения.
Несмотря на успешную демонстрацию, ZPD имеет существенные недостатки. Во-первых, это большие затраты энергии на создание вращающихся колец воды. Во-вторых, сама вода быстро расходуется – бетон впитывает её как губка, а после каждого шага остаётся мокрый след. В-третьих, процесс герметизации каждого соединения занимает около восьми секунд.
Пока не ясно, окажется ли представленная разработка коммерчески жизнеспособной, однако сам принцип в ней довольно интересен.
Видео: https://youtu.be/lRh6z8T-1fs
Источник: https://aip.scitation.org/doi/full/10.1063/1.5129958
YouTube
Water-Vortex Suction Device
Learn more: https://spectrum.ieee.org/automaton/robotics/robotics-hardware/water-vortex-suction-feet-help-this-hexapod-sploosh-up-walls
This video is part of “Vacuum suction unit based on the zero pressure difference method,” by Kaige Shi and Xin Li from…
This video is part of “Vacuum suction unit based on the zero pressure difference method,” by Kaige Shi and Xin Li from…
Дроны на службе спасателей
Мы много писали о разработке всевозможных дронов, обычно заканчивая мини-обзор словами об их потенциальном применении спасателями. Похоже, случаев реального использования беспилотников службами спасения становится всё больше.
На этой неделе в Новой Зеландии близ Квинстауна произошёл обвал на золотом руднике Henty Gold, когда рабочие были внутри. Руководитель поисково-спасательной команды пришёл к выводу, что не может отправить своих людей на помощь, поскольку сохраняется опасность дальнейшего обрушение свода.
Вместо этого он отправил дрона для обследования разрушенного участка, и уже потом выдвинулся во главе спасательного отряда. В дополнение к обычным средствам он использовал роботизированную тепловизионную камеру.
После первой вылазки спасатели вместе с дроном благополучно вернулись на поверхность для составления дальнейшего плана поиска и освобождения пострадавших.
Другой случай применения дронов для спасения недавно произошёл в округе Саммит. 33-летняя женщина из Солт-Лейк-Сити съехала с тропы во время катания на лыжах. Она повредила их и заблудилась, после чего с трудом дозвонилась в офис шерифа. Сигнал GPS был неуверенным, и сообщить своё местоположение она не смогла.
Тогда лейтенант Эндрю Райт отправил один из служебных квадрокоптеров, ориентируясь на её примерное расположение. Вскоре женщина сообщила, что слышит приближающийся гул винтов и помогла направить дрон прямо к ней.
Когда беспилотник передал точные координаты пострадавшей, по ним направился помощник шерифа. Он дошёл на снегоступах и благополучно вернул женщину домой.
"У нас есть четыре служебных беспилотника. Это великолепная технология, которую мы используем, чтобы оперативнее реагировать в подобных ситуациях", – пояснил лейтенант Райт.
Источники: https://dronedj.com/2020/01/23/drone-gold-mine-find-missing-worker/
https://www.kpcw.org/post/summit-county-sheriff-department-uses-drone-find-stranded-skier
Мы много писали о разработке всевозможных дронов, обычно заканчивая мини-обзор словами об их потенциальном применении спасателями. Похоже, случаев реального использования беспилотников службами спасения становится всё больше.
На этой неделе в Новой Зеландии близ Квинстауна произошёл обвал на золотом руднике Henty Gold, когда рабочие были внутри. Руководитель поисково-спасательной команды пришёл к выводу, что не может отправить своих людей на помощь, поскольку сохраняется опасность дальнейшего обрушение свода.
Вместо этого он отправил дрона для обследования разрушенного участка, и уже потом выдвинулся во главе спасательного отряда. В дополнение к обычным средствам он использовал роботизированную тепловизионную камеру.
После первой вылазки спасатели вместе с дроном благополучно вернулись на поверхность для составления дальнейшего плана поиска и освобождения пострадавших.
Другой случай применения дронов для спасения недавно произошёл в округе Саммит. 33-летняя женщина из Солт-Лейк-Сити съехала с тропы во время катания на лыжах. Она повредила их и заблудилась, после чего с трудом дозвонилась в офис шерифа. Сигнал GPS был неуверенным, и сообщить своё местоположение она не смогла.
Тогда лейтенант Эндрю Райт отправил один из служебных квадрокоптеров, ориентируясь на её примерное расположение. Вскоре женщина сообщила, что слышит приближающийся гул винтов и помогла направить дрон прямо к ней.
Когда беспилотник передал точные координаты пострадавшей, по ним направился помощник шерифа. Он дошёл на снегоступах и благополучно вернул женщину домой.
"У нас есть четыре служебных беспилотника. Это великолепная технология, которую мы используем, чтобы оперативнее реагировать в подобных ситуациях", – пояснил лейтенант Райт.
Источники: https://dronedj.com/2020/01/23/drone-gold-mine-find-missing-worker/
https://www.kpcw.org/post/summit-county-sheriff-department-uses-drone-find-stranded-skier
DroneDJ
Drone sent into Henty Gold Mine to find missing worker
Earlier this week a Tasmanian gold mine collapsed during the early hours of the morning with various workers still inside. a drone was sent into the mine...
Проект Lacmus: дроны и нейросети для поиска людей
Под эгидой Международной некоммерческой организации Open Data Science (ODS) в России разрабатывается проект Lacmus. Это система машинного зрения, которая поможет спасателям быстрее находить потерявшихся людей.
Особенно актуальна проблема «потеряшек» для России, где леса занимают 809 млн гектар. Прочёсывать их приходится преимущественно вручную, привлекая сотни добровольцев. У МЧС просто нет столько специалистов, поэтому появляются волонтёрские поисково-спасательные отряды (ВПСО).
Наверняка вы слышали про «Сову», «Лиза алерт» и другие подобные отряды. Проблема их оснащения всегда остро стоит из-за хронической нехватки финансирования, поэтому им требуется сравнительно дешёвый «глаз в небе». В Lacmus тесно работают с ВПСО, чтобы учесть их практический опыт и разработать реально работающую систему поиска людей с помощью алгоритмов машинного зрения.
Некоторые отряды уже используют квадрокоптеры DJI и другие коммерчески доступные дроны, но толку от них мало. Летать нужно над деревьями, чтобы не разбить дрон и обеспечить достаточно большой угол обзора. Проблема в том, что при средней высоте полёта около 50 метров на картинке в максимальном разрешении 4000x3000 фигура человека занимает крошечный прямоугольник до 100x50 пикселей.
Оператор изучает каждый кадр с минуту, прежде чем вынести вердикт – есть ли на нём человек, или нет. Зачастую он допускает ошибку, приняв что-то на земле за фигуру человека, или наоборот – пропускает «потеряшку», а это куда страшнее. Дополнительная сложность в том, что при работе «в поле» картинка формата 4K обычно смотрится на ноутбучных экранах, редко дотягивающих даже до FullHD.
Теоретически более эффективными были бы мультикоптеры с тепловизорами и гиперспектральными камерами, но поисковым отрядам они просто не по карману. За рубежом такие навороченные беспилотники вовсю используются в сельском хозяйстве, потому что это прибыльный бизнес, а тратить деньги на поиск людей готовы только их родственники.
Специалисты проекта Lacmus видят решение проблемы в том, чтобы использовать для обнаружения людей системы машинного зрения. Они разрабатывают максимально универсальный вариант, который может работать с обычными камерами и даже на маломощном оборудовании. Ведь со связью в лесу тоже плохо, поэтому большую часть вычислений при обработке снимков придётся выполнять на старых ноутбуках, а то и вовсе средствами бортового компьютера самого дрона.
В связи с большим «зоопарком» конфигураций, сейчас в Lacmus прорабатывается вариант запуска нейросетей на внешних тензорных процессорах (TPU) с USB интерфейсом. Выглядят они как большая флэшка. Такие выпускает Intel (Intel Neural Compute Stick), Google (Coral Edge) и другие гиганты ИТ-индустрии.
При таком подходе время обработки изображений сокращается в 50 – 60 раз. Нейросеть способна решить задачу детектирования объекта (обнаружить человека на фотографии) буквально за секунду. Она постоянно улучшает свой результат по мере обучения. Живой оператор – наоборот: устаёт всё сильнее, и с каждым кадром вероятность ошибки у него повышается.
Участники проекта Lacmus опубликовали интересную статью с массой технических подробностей и реальных примеров. Рекомендую ознакомиться с ней по ссылке ниже.
Источник: https://habr.com/ru/company/ods/blog/483616/
Под эгидой Международной некоммерческой организации Open Data Science (ODS) в России разрабатывается проект Lacmus. Это система машинного зрения, которая поможет спасателям быстрее находить потерявшихся людей.
Особенно актуальна проблема «потеряшек» для России, где леса занимают 809 млн гектар. Прочёсывать их приходится преимущественно вручную, привлекая сотни добровольцев. У МЧС просто нет столько специалистов, поэтому появляются волонтёрские поисково-спасательные отряды (ВПСО).
Наверняка вы слышали про «Сову», «Лиза алерт» и другие подобные отряды. Проблема их оснащения всегда остро стоит из-за хронической нехватки финансирования, поэтому им требуется сравнительно дешёвый «глаз в небе». В Lacmus тесно работают с ВПСО, чтобы учесть их практический опыт и разработать реально работающую систему поиска людей с помощью алгоритмов машинного зрения.
Некоторые отряды уже используют квадрокоптеры DJI и другие коммерчески доступные дроны, но толку от них мало. Летать нужно над деревьями, чтобы не разбить дрон и обеспечить достаточно большой угол обзора. Проблема в том, что при средней высоте полёта около 50 метров на картинке в максимальном разрешении 4000x3000 фигура человека занимает крошечный прямоугольник до 100x50 пикселей.
Оператор изучает каждый кадр с минуту, прежде чем вынести вердикт – есть ли на нём человек, или нет. Зачастую он допускает ошибку, приняв что-то на земле за фигуру человека, или наоборот – пропускает «потеряшку», а это куда страшнее. Дополнительная сложность в том, что при работе «в поле» картинка формата 4K обычно смотрится на ноутбучных экранах, редко дотягивающих даже до FullHD.
Теоретически более эффективными были бы мультикоптеры с тепловизорами и гиперспектральными камерами, но поисковым отрядам они просто не по карману. За рубежом такие навороченные беспилотники вовсю используются в сельском хозяйстве, потому что это прибыльный бизнес, а тратить деньги на поиск людей готовы только их родственники.
Специалисты проекта Lacmus видят решение проблемы в том, чтобы использовать для обнаружения людей системы машинного зрения. Они разрабатывают максимально универсальный вариант, который может работать с обычными камерами и даже на маломощном оборудовании. Ведь со связью в лесу тоже плохо, поэтому большую часть вычислений при обработке снимков придётся выполнять на старых ноутбуках, а то и вовсе средствами бортового компьютера самого дрона.
В связи с большим «зоопарком» конфигураций, сейчас в Lacmus прорабатывается вариант запуска нейросетей на внешних тензорных процессорах (TPU) с USB интерфейсом. Выглядят они как большая флэшка. Такие выпускает Intel (Intel Neural Compute Stick), Google (Coral Edge) и другие гиганты ИТ-индустрии.
При таком подходе время обработки изображений сокращается в 50 – 60 раз. Нейросеть способна решить задачу детектирования объекта (обнаружить человека на фотографии) буквально за секунду. Она постоянно улучшает свой результат по мере обучения. Живой оператор – наоборот: устаёт всё сильнее, и с каждым кадром вероятность ошибки у него повышается.
Участники проекта Lacmus опубликовали интересную статью с массой технических подробностей и реальных примеров. Рекомендую ознакомиться с ней по ссылке ниже.
Источник: https://habr.com/ru/company/ods/blog/483616/
Хабр
Проект Lacmus: как компьютерное зрение помогает спасать потерявшихся людей
Всем привет! Возможно, вы уже знаете про инициативу Machine Learning for Social Good (#ml4sg) сообщества Open Data Science. В её рамках энтузиасты на бесплатной основе применяют методы машинного...
В Японии строят 18-метрового робота
Современная культура Японии тесно связана с научной фантастикой и роботами. В Токио есть даже статуя Gundam, созданная по мотивам одноимённого аниме. При всём великолепии у неё есть существенный недостаток: как и все статуи, она не двигается.
В апреле 2018 года мы писали о том, как японский инженер Масааки Нагумо решил исправить ситуацию. Он тоже вдохновился аниме Gundam и создал самого большого в мире (на тот момент) шагающего робота Landwalker-Mononofu.
Этот исполин был собран на заводе Сакакибара Кикай в префектуре Гумма. Он получился высотой 8,5 м, но едва мог двигаться. Из-за огромной массы (около семи тонн) Landwalker-Mononofu шагал со скоростью менее 1 км/ч.
Сейчас к югу от Токио работает Gundam-Lab - развлекательный комплекс, администрация которого собирается побить рекорд Нагумо. Они объявили о планах создать 18-метрового 25-тонного робота. По замыслу он будет обладать 24-степенями свободы, приводясь в действие комбинацией электрических и гидравлических приводов.
На сегодня лабораторией JSK Токийского университета уже создана симуляция, в которой демонстрируется 3D-модель будущего робота. Судя по ней, новый колосс будет ещё медленнее. В 25-секундном ролике он успевает сделать только два шага.
Настоящего робота обещают показать уже этой осенью в рамках шоу «Фабрика Gundam в Йокогаме». Оно будет проходить на пирсе Ямашита с 1 по 3 октября, а продажа билетов начнётся в июле 2020.
Планы выглядят очень смелыми, поскольку на текущий момент сборка робота даже не начиналась. Пока журналистам демонстрируют компьютерную симуляцию и модель из пластика в масштабе 1:30. На ней робота частично скрывает Gundam-Dock – сооружение для его постройки и безопасного хранения.
Также пока не ясно, будет ли робот пилотируемым. Это принципиальный вопрос, поскольку в оригинальном сериале человек находился внутри машины. Из скудного описания сервиса Gundam Carrier можно сделать вывод, что новый О(Б)ЧР скорее будет с дистанционным управлением.
Источник: https://gundam-factory.net/en/
Современная культура Японии тесно связана с научной фантастикой и роботами. В Токио есть даже статуя Gundam, созданная по мотивам одноимённого аниме. При всём великолепии у неё есть существенный недостаток: как и все статуи, она не двигается.
В апреле 2018 года мы писали о том, как японский инженер Масааки Нагумо решил исправить ситуацию. Он тоже вдохновился аниме Gundam и создал самого большого в мире (на тот момент) шагающего робота Landwalker-Mononofu.
Этот исполин был собран на заводе Сакакибара Кикай в префектуре Гумма. Он получился высотой 8,5 м, но едва мог двигаться. Из-за огромной массы (около семи тонн) Landwalker-Mononofu шагал со скоростью менее 1 км/ч.
Сейчас к югу от Токио работает Gundam-Lab - развлекательный комплекс, администрация которого собирается побить рекорд Нагумо. Они объявили о планах создать 18-метрового 25-тонного робота. По замыслу он будет обладать 24-степенями свободы, приводясь в действие комбинацией электрических и гидравлических приводов.
На сегодня лабораторией JSK Токийского университета уже создана симуляция, в которой демонстрируется 3D-модель будущего робота. Судя по ней, новый колосс будет ещё медленнее. В 25-секундном ролике он успевает сделать только два шага.
Настоящего робота обещают показать уже этой осенью в рамках шоу «Фабрика Gundam в Йокогаме». Оно будет проходить на пирсе Ямашита с 1 по 3 октября, а продажа билетов начнётся в июле 2020.
Планы выглядят очень смелыми, поскольку на текущий момент сборка робота даже не начиналась. Пока журналистам демонстрируют компьютерную симуляцию и модель из пластика в масштабе 1:30. На ней робота частично скрывает Gundam-Dock – сооружение для его постройки и безопасного хранения.
Также пока не ясно, будет ли робот пилотируемым. Это принципиальный вопрос, поскольку в оригинальном сериале человек находился внутри машины. Из скудного описания сервиса Gundam Carrier можно сделать вывод, что новый О(Б)ЧР скорее будет с дистанционным управлением.
Источник: https://gundam-factory.net/en/
Создан первый в мире «организм на чипе»
В биоинженерном институте Висса при Гарвардском университете создан первый в мире «организм на чипе». Это физическая модель десяти взаимосвязанных органов с живыми клетками, которую можно использовать вместо лабораторных животных.
Всё началось с проекта «лаборатория на чипе», который возник в конце нулевых годов как попытка ускорить и стандартизировать клинические анализы, а также исследования в области фармакологии.
В прозрачном акриловом корпусе размером с карту памяти создаётся один или несколько микроканалов. Затем в них подаётся физраствор, заменитель крови и/или исследуемый образец.
Перистальтический насос медленно перекачивает жидкость, а электронные системы постоянно анализируют её состав на разных участках, определяя наличие определённых маркеров и отображая динамику концентраций исследуемых веществ.
Дополнительный контроль осуществляется через обычный микроскоп, в который можно наблюдать все процессы в реальном времени.
Среднее время острой фазы сложных экспериментов – 2-3 минуты, что резко контрастирует с обычной практикой, требующей многодневных мучений животных во имя науки.
В 2010 году директор Института биоинженерных исследований Дональд Ингбер вместе с коллегами начал разработку «органа-на-чипе».
В них использовались два канала. Один был покрыт изнутри клетками эндотелия (точно также они выстилают сосуды), а другой - клетками определённых органов.
Например, пневмоциты имитируют лёгкие человека, гепатоциты – печень, энтероциты - кишечник и так далее.
Через два года Ингбер получил грант от DARPA, а спустя восемь лет и три прототипа представил готовую версию целого «организма-на-чипе» под названием Interrogator.
В нём смоделировано взаимодействие десяти органов, и довольно точно. Для проверки команда использовала цисплатин (препарат химиотерапии). Он был
метаболизирован за то же время и с теми равновесными концентрациями, которые наблюдались ранее у пациентов.
Более того, клетки «почки-на-чипе» даже выделяли те же биологические маркеры повреждения, что и живые почки во время химиотерапии.
Целый год потребовался для разработки пользовательского интерфейса, с которым легко могли бы работать биологи, не имеющие опыта программирования.
Вся машина целиком умещается в стандартный лабораторный инкубатор, который поддерживает живые клетки при постоянной температуре.
Сейчас в ней можно проводить эксперименты длительностью до 3 недель, то есть отслеживать не только мгновенные, но и кумулятивные эффекты.
Источник: https://www.nature.com/articles/s41551-019-0497-x
В биоинженерном институте Висса при Гарвардском университете создан первый в мире «организм на чипе». Это физическая модель десяти взаимосвязанных органов с живыми клетками, которую можно использовать вместо лабораторных животных.
Всё началось с проекта «лаборатория на чипе», который возник в конце нулевых годов как попытка ускорить и стандартизировать клинические анализы, а также исследования в области фармакологии.
В прозрачном акриловом корпусе размером с карту памяти создаётся один или несколько микроканалов. Затем в них подаётся физраствор, заменитель крови и/или исследуемый образец.
Перистальтический насос медленно перекачивает жидкость, а электронные системы постоянно анализируют её состав на разных участках, определяя наличие определённых маркеров и отображая динамику концентраций исследуемых веществ.
Дополнительный контроль осуществляется через обычный микроскоп, в который можно наблюдать все процессы в реальном времени.
Среднее время острой фазы сложных экспериментов – 2-3 минуты, что резко контрастирует с обычной практикой, требующей многодневных мучений животных во имя науки.
В 2010 году директор Института биоинженерных исследований Дональд Ингбер вместе с коллегами начал разработку «органа-на-чипе».
В них использовались два канала. Один был покрыт изнутри клетками эндотелия (точно также они выстилают сосуды), а другой - клетками определённых органов.
Например, пневмоциты имитируют лёгкие человека, гепатоциты – печень, энтероциты - кишечник и так далее.
Через два года Ингбер получил грант от DARPA, а спустя восемь лет и три прототипа представил готовую версию целого «организма-на-чипе» под названием Interrogator.
В нём смоделировано взаимодействие десяти органов, и довольно точно. Для проверки команда использовала цисплатин (препарат химиотерапии). Он был
метаболизирован за то же время и с теми равновесными концентрациями, которые наблюдались ранее у пациентов.
Более того, клетки «почки-на-чипе» даже выделяли те же биологические маркеры повреждения, что и живые почки во время химиотерапии.
Целый год потребовался для разработки пользовательского интерфейса, с которым легко могли бы работать биологи, не имеющие опыта программирования.
Вся машина целиком умещается в стандартный лабораторный инкубатор, который поддерживает живые клетки при постоянной температуре.
Сейчас в ней можно проводить эксперименты длительностью до 3 недель, то есть отслеживать не только мгновенные, но и кумулятивные эффекты.
Источник: https://www.nature.com/articles/s41551-019-0497-x
Nature
Robotic fluidic coupling and interrogation of multiple vascularized organ chips
Nature Biomedical Engineering - A system employing liquid-handling robotics and an integrated mobile microscope enables the automated culture, sample collection and in situ microscopy imaging of up...
Роботы осваивают акустическую левитацию
Научный сотрудник Швейцарского федерального технологического института в Цюрихе Марсель Шук разрабатывает инновационный метод, который позволит роботам перемещать небольшие объекты, не притрагиваясь к ним.
Обычно промышленные роботы узкоспециализированы. Каждый из них может удерживать и обрабатывать определённые детали. Отдельные модели оснащаются манипулятором со сменными захватами, но даже они порой не могут справиться с объектами нестандартной формы.
Марсель Шук изучает возможности манипулятора принципиально иной конструкции. Его захват представляет собой две полусферы, в каждой из которых размещён массив миниатюрных динамиков.
Вместе они создают ультразвуковые волны, распространяющиеся в противоположных направлениях. Их интерференция приводит к формированию стоячей волны, которая и удерживает небольшой предмет в воздухе.
Данное явление получило название «акустическая левитация». С её помощью можно, например, удерживать каплю над ультразвуковым излучателем. Звуковое давление компенсирует гравитацию, и капля висит в воздухе почти неподвижно (а если присмотреться, то видно как она дрожит).
При всей своей красоте, акустическая левитация не находила практического применения из-за множества инженерных ограничений. До сих пор удавалось генерировать лишь примитивную стоячую волну, которая удерживает лёгкие предметы, чья форма близка к идеальной сферической.
В реальности мы имеем дело с объектами разной формы. К тому же, всегда происходят потери энергии, а при передвижениях – ещё и какие-то нерасчётные отражения, что приводит к образованию бегущей волны. Ей управлять гораздо сложнее.
Для эффективного удержания микровинта, шестерёнки, или другого миниатюрного предмета требуется быстрая (за доли секунды) перестройка общего акустического фронта, иначе объект упадёт.
При помощи 3D-принтера Марсель Шук изготовил две глубоких полусферы, в каждой из которых разместил четыре ряда ультразвуковых излучателей. Вместе с коллегами он подобрал управляющие одноплатные компьютеры и написал программное обеспечение, корректирующее работу массива излучателей в реальном времени.
Он рассчитывает, что современный акустический захват найдёт применение в фармацевтической промышленности, лабораторных исследованиях и на линиях сборки, где требуется максимально аккуратное обращение с мелкими предметами.
Источник: https://www.technowize.com/new-robot-that-moves-thing-without-the-touch/
Научный сотрудник Швейцарского федерального технологического института в Цюрихе Марсель Шук разрабатывает инновационный метод, который позволит роботам перемещать небольшие объекты, не притрагиваясь к ним.
Обычно промышленные роботы узкоспециализированы. Каждый из них может удерживать и обрабатывать определённые детали. Отдельные модели оснащаются манипулятором со сменными захватами, но даже они порой не могут справиться с объектами нестандартной формы.
Марсель Шук изучает возможности манипулятора принципиально иной конструкции. Его захват представляет собой две полусферы, в каждой из которых размещён массив миниатюрных динамиков.
Вместе они создают ультразвуковые волны, распространяющиеся в противоположных направлениях. Их интерференция приводит к формированию стоячей волны, которая и удерживает небольшой предмет в воздухе.
Данное явление получило название «акустическая левитация». С её помощью можно, например, удерживать каплю над ультразвуковым излучателем. Звуковое давление компенсирует гравитацию, и капля висит в воздухе почти неподвижно (а если присмотреться, то видно как она дрожит).
При всей своей красоте, акустическая левитация не находила практического применения из-за множества инженерных ограничений. До сих пор удавалось генерировать лишь примитивную стоячую волну, которая удерживает лёгкие предметы, чья форма близка к идеальной сферической.
В реальности мы имеем дело с объектами разной формы. К тому же, всегда происходят потери энергии, а при передвижениях – ещё и какие-то нерасчётные отражения, что приводит к образованию бегущей волны. Ей управлять гораздо сложнее.
Для эффективного удержания микровинта, шестерёнки, или другого миниатюрного предмета требуется быстрая (за доли секунды) перестройка общего акустического фронта, иначе объект упадёт.
При помощи 3D-принтера Марсель Шук изготовил две глубоких полусферы, в каждой из которых разместил четыре ряда ультразвуковых излучателей. Вместе с коллегами он подобрал управляющие одноплатные компьютеры и написал программное обеспечение, корректирующее работу массива излучателей в реальном времени.
Он рассчитывает, что современный акустический захват найдёт применение в фармацевтической промышленности, лабораторных исследованиях и на линиях сборки, где требуется максимально аккуратное обращение с мелкими предметами.
Источник: https://www.technowize.com/new-robot-that-moves-thing-without-the-touch/
Technowize
New Robot That Moves Things without the ‘Touch’
Technology Magazine with Tech News and gadget reviews from Technology Experts.Technology innovation and futuristic machines on a digital platform with a unique editorial vision.
Китайский робот поможет остановить эпидемию коронавирусной инфекции
В Китае разрабатывают медицинского робота, который сможет брать мазки для определения заражённых коронавирусом 2019-nCoV. Сейчас эту работу выполняют медсёстры, которые сами подвергаются риску инфицирования. Правительство КНР считает, что робот поможет остановить распространение эпидемии.
После расшифровки генома 2019-nCoV были разработаны методики обнаружения опасного штамма в мазках из носа и зева пациентов. Одни выполняются на месте методом ИФА (иммуноферментного анализа) и занимают всего 10 – 15 минут. Другие проводятся в условиях лаборатории, занимая несколько часов, зато позволяют гарантированно обнаружить сами вирусные частицы методом ОТ-ПЦР (обратной транскрипционной полимеразной цепной реакции).
В любом случае, сначала нужно взять биоматериал. Проблема в том, что при его заборе медицинский персонал сам рискует заразиться, а затем инфицировать следующего пациента во время скрининга. Обычная медицинская маска не закрывает глаза и не обеспечивает надёжной защиты.
Логичный выход – сделать процедуру взятия мазков дистанционной, чтобы непосредственно с пациентом контактировал робот. Создать такую роботизированную систему было поручено сразу нескольким компаниям под общим руководством Шэньянского института автоматизации Академии наук Китая.
В ближайшее время прототип будет готов у фирмы Siasun Robot and Automation. Она была основана в Шеньяне (на северо-востоке Китая) в 2000 году, а в 2009-м включена в список растущих предприятий.
Каких-то подробностей пока не сообщается. Известен лишь общий дизайн прототипа – это будет гибкая механическая рука, которой медсёстры смогут дистанционно управлять из-за стеклянной перегородки в смотровом кабинете.
Источник: https://www.straitstimes.com/asia/east-asia/coronavirus-china-working-on-creating-robot-to-conduct-throat-testing
В Китае разрабатывают медицинского робота, который сможет брать мазки для определения заражённых коронавирусом 2019-nCoV. Сейчас эту работу выполняют медсёстры, которые сами подвергаются риску инфицирования. Правительство КНР считает, что робот поможет остановить распространение эпидемии.
После расшифровки генома 2019-nCoV были разработаны методики обнаружения опасного штамма в мазках из носа и зева пациентов. Одни выполняются на месте методом ИФА (иммуноферментного анализа) и занимают всего 10 – 15 минут. Другие проводятся в условиях лаборатории, занимая несколько часов, зато позволяют гарантированно обнаружить сами вирусные частицы методом ОТ-ПЦР (обратной транскрипционной полимеразной цепной реакции).
В любом случае, сначала нужно взять биоматериал. Проблема в том, что при его заборе медицинский персонал сам рискует заразиться, а затем инфицировать следующего пациента во время скрининга. Обычная медицинская маска не закрывает глаза и не обеспечивает надёжной защиты.
Логичный выход – сделать процедуру взятия мазков дистанционной, чтобы непосредственно с пациентом контактировал робот. Создать такую роботизированную систему было поручено сразу нескольким компаниям под общим руководством Шэньянского института автоматизации Академии наук Китая.
В ближайшее время прототип будет готов у фирмы Siasun Robot and Automation. Она была основана в Шеньяне (на северо-востоке Китая) в 2000 году, а в 2009-м включена в список растущих предприятий.
Каких-то подробностей пока не сообщается. Известен лишь общий дизайн прототипа – это будет гибкая механическая рука, которой медсёстры смогут дистанционно управлять из-за стеклянной перегородки в смотровом кабинете.
Источник: https://www.straitstimes.com/asia/east-asia/coronavirus-china-working-on-creating-robot-to-conduct-throat-testing
The Straits Times
Coronavirus: China working on creating robot to conduct throat
East Asia News -SHENYANG (XINHUA) - Chinese developers are working on the research and development of a robot that can replace nurses in conducting throat testing to reduce the spread of the novel
Forwarded from ICT.Moscow
Ко дню робототехники, который отмечается сегодня, 7 февраля, мы попросили представителей НАУРР, Университета Иннополис, ABB в России, Promobot, «Роббо» и др. рассказать о состоянии рынка, его тенденциях и потребностях, а также о наиболее развитых направлениях робототехники в России и кадровых вопросах.
Подробнее об этом читайте на нашем сайте →
Подробнее об этом читайте на нашем сайте →
Робот с ИИ делает прокол вены под контролем ультразвука
Команда исследователей из Университета Ратгерса в Нью-Джерси сообщила о начале клинических испытаний роботизированной системы для забора крови у пациентов.
Об этой разработке мы писали пару лет назад. Тогда она была на стадии прототипа, и её демонстрировали на муляже – искусственной руке с имитирующими сосуды трубочками, заполненными кровезаменителем.
Сейчас завершилась серия испытаний с участием реальных пациентов, и результаты оказались многообещающими. В группе из 25 добровольцев робот успешно взял образец крови у 24.
Формально процент успеха получился 96%, что превосходит показатели эффективности медсестёр, но стоит учесть эффект малой выборки и её слабой рандомизации. Людей отобрали схожего телосложения и возраста. У всех 25 вены были легкодоступны для пункции.
В другом тесте с участием 31 добровольца, процент успешности составил уже 87%. Исследователи утверждают, что (по их собственным данным) при отсутствии видимых вен медицинский персонал способен взять кровь только в 73% случаев.
Проблемы с забором крови возникают при глубоком расположении вен и их слабом наполнении. Медсестра в таком случае может просто выбрать другую вену, а робот пока обучен использовать только поверхностные вены руки.
Зато в нём используется система ультразвуковой визуализации, которая помогает найти ближайшую крупную вену (чаще всего – медиальную) и выполнить её пункцию без участия человека.
В ходе клинических испытаний были получены данные, которые разработчики планируют использовать для обучения подсистемы ИИ робота. В будущем наряду с получением образцов крови, такой робот может также использоваться в процедурах, требующих внутривенной катетеризации.
Источник: https://news.rutgers.edu/new-robot-does-superior-job-sampling-blood/20200204
Команда исследователей из Университета Ратгерса в Нью-Джерси сообщила о начале клинических испытаний роботизированной системы для забора крови у пациентов.
Об этой разработке мы писали пару лет назад. Тогда она была на стадии прототипа, и её демонстрировали на муляже – искусственной руке с имитирующими сосуды трубочками, заполненными кровезаменителем.
Сейчас завершилась серия испытаний с участием реальных пациентов, и результаты оказались многообещающими. В группе из 25 добровольцев робот успешно взял образец крови у 24.
Формально процент успеха получился 96%, что превосходит показатели эффективности медсестёр, но стоит учесть эффект малой выборки и её слабой рандомизации. Людей отобрали схожего телосложения и возраста. У всех 25 вены были легкодоступны для пункции.
В другом тесте с участием 31 добровольца, процент успешности составил уже 87%. Исследователи утверждают, что (по их собственным данным) при отсутствии видимых вен медицинский персонал способен взять кровь только в 73% случаев.
Проблемы с забором крови возникают при глубоком расположении вен и их слабом наполнении. Медсестра в таком случае может просто выбрать другую вену, а робот пока обучен использовать только поверхностные вены руки.
Зато в нём используется система ультразвуковой визуализации, которая помогает найти ближайшую крупную вену (чаще всего – медиальную) и выполнить её пункцию без участия человека.
В ходе клинических испытаний были получены данные, которые разработчики планируют использовать для обучения подсистемы ИИ робота. В будущем наряду с получением образцов крови, такой робот может также использоваться в процедурах, требующих внутривенной катетеризации.
Источник: https://news.rutgers.edu/new-robot-does-superior-job-sampling-blood/20200204
Roborigger сделает погрузку безопаснее
Австралийская компания Roborigger выиграла три приза в конкурсе «Новатор года» и получила $5 млн инвестиций от фонда Blackbird Ventures. Их представителей покорил робот для подъёмного крана, который заменяет от 2 до 4 рабочих.
Роботизированный подвес Roborigger серии ARM выпускается с грузоподъёмностью 5, 10, 15 и 20 тонн. Его применение решает сразу две задачи: точное позиционирование груза и автоматический сбор детальной статистики погрузочных работ.
Обычно на финальном этапе погрузки оператор крана удерживает груз над местом его установки (например, над платформой), а рабочие используют канаты, чтобы повернуть подвешенную конструкцию на нужный угол.
Это опасная и тяжёлая операция, съедающая уйму времени, особенно когда речь идёт о прямоугольных контейнерах или стальных опорах. Roborigger выполняет эту задачу быстро и ценой минимальных усилий.
Оператор управляет им дистанционно, находясь в безопасности. Он может дополнительно наблюдать за ходом погрузки со стороны стрелы подъёмного крана благодаря встроенной камере Roborigger. На пульте всего 8 кнопок и два тумблера, поэтому с ним легко разберётся даже новичок.
Встроенное программное обеспечение собирает данные от каждого подъема, включая время, температуру мотора, массу, начальное и конечное местоположение всех грузов. Пользователи могут получить доступ к этой статистике через веб-интерфейс.
«Это отличный пример использования роботов для повышения безопасности тяжёлых работ. У Roborigger есть возможность стать стандартом де-факто по всему миру», – сказал Рик Бейкер, соучредитель Blackbird Ventures.
Видео: https://youtu.be/X6JWzPnxthw
Источник: https://www.brisbanetimes.com.au/business/companies/winning-ways-continue-for-wa-robot-crane-after-5-million-cash-injection-20200210-p53zhq.html
Австралийская компания Roborigger выиграла три приза в конкурсе «Новатор года» и получила $5 млн инвестиций от фонда Blackbird Ventures. Их представителей покорил робот для подъёмного крана, который заменяет от 2 до 4 рабочих.
Роботизированный подвес Roborigger серии ARM выпускается с грузоподъёмностью 5, 10, 15 и 20 тонн. Его применение решает сразу две задачи: точное позиционирование груза и автоматический сбор детальной статистики погрузочных работ.
Обычно на финальном этапе погрузки оператор крана удерживает груз над местом его установки (например, над платформой), а рабочие используют канаты, чтобы повернуть подвешенную конструкцию на нужный угол.
Это опасная и тяжёлая операция, съедающая уйму времени, особенно когда речь идёт о прямоугольных контейнерах или стальных опорах. Roborigger выполняет эту задачу быстро и ценой минимальных усилий.
Оператор управляет им дистанционно, находясь в безопасности. Он может дополнительно наблюдать за ходом погрузки со стороны стрелы подъёмного крана благодаря встроенной камере Roborigger. На пульте всего 8 кнопок и два тумблера, поэтому с ним легко разберётся даже новичок.
Встроенное программное обеспечение собирает данные от каждого подъема, включая время, температуру мотора, массу, начальное и конечное местоположение всех грузов. Пользователи могут получить доступ к этой статистике через веб-интерфейс.
«Это отличный пример использования роботов для повышения безопасности тяжёлых работ. У Roborigger есть возможность стать стандартом де-факто по всему миру», – сказал Рик Бейкер, соучредитель Blackbird Ventures.
Видео: https://youtu.be/X6JWzPnxthw
Источник: https://www.brisbanetimes.com.au/business/companies/winning-ways-continue-for-wa-robot-crane-after-5-million-cash-injection-20200210-p53zhq.html
YouTube
Roborigger, an Automated Wireless Load Controlling System
Roborigger is a wireless load controlling system which uses gyroscopic and inertial forces to accurately rotate and orient crane loads. Roborigger allows lifting operation to be undertaken without using taglines or without personnel to be in the vicinity…
Как обучить нейросеть на ноутбуке?
Готовим миллиард сэмплов за 5 минут!
Важнейший этап машинного обучения (ML) – подготовка данных. Их нужно собрать, привести к единому формату, отфильтровать и проверить прежде, чем передать на вход нейросети.
Такая подготовка может растянуться на неопределённое время, поскольку даже среди специалистов по ML единицы владеют современными инструментами обработки больших данных.
Тысячу строк ещё можно «причесать» в Excel, а вот если их миллионы – требуется принципиально другой подход из области Big data.
В статье для TowardsDataScience cтарший специалист по обработке данных в XebiaLabs и соучредитель vaex.io Йован Веляноски (Jovan Veljanoski) показывает на реальном примере, как можно быстро обучить нейросеть на сырой выборке из миллиарда образцов.
Для этого используется обычный ноутбук без каких-либо нейропроцессоров и других специализированных ускорителей. Звучит как фантастика? Вовсе нет, всё дело в рациональном использовании ресурсов.
Перед Йованом была поставлена задача: создать алгоритм ML, предсказывающий продолжительность поездки в такси для оптимизации работы автопарка. Из публичной базы он взял данные обо всех поездках в Нью-Йорке за семилетний период и сохранил их в одну таблицу.
Размер файла получился более 100 Гб, а количество строк в таблице превысило один миллиард. Ни одна программа не способна обработать такой массив за разумное время (а большинство даже не в состоянии открыть).
Проблема в том, что традиционные приложения создают временные файлы и преобразуют все данные в свой формат, затрачивая на это уйму ресурсов. Поэтому Йован использовал нетривиальный инструмент с открытым исходным кодом: Vaex - библиотеку DataFrame на Python.
Vaex использует memory mapping (динамическое отображение блоков данных в ОЗУ), за счёт чего открывает огромные файлы мгновенно. Трансляция ссылок на блоки данных не требует физического выделения дополнительной памяти до тех пор, пока данные не подвергались модификации. При этом добавление и удаление целых столбцов также происходит за доли секунды, поскольку это виртуальные операции со ссылками, а не запись новых файлов.
Йован применил серию фильтров для удаления отменённых поездок и неполных данных, после чего сразу получил готовую подборку для обучения нейросети из 812 816 595 образцов.
Интересно, что время поездки в ней не хранилось статично в отдельном столбце, а динамически вычислялось как разница между временными штампами окончания и начала заказа. Аналогично рассчитывалось расстояние, поэтому даже при обработке 100-гигабайтного файла требования к объёму ОЗУ и накопителя оставались весьма скромными.
Вся подготовительная работа заняла около пяти минут чистого времени, а дальше началась исследовательская часть. Йован пробовал разные методы группировки, выделял отдельные направления поездок и неизменно получал быстрый результат.
Источник: https://towardsdatascience.com/ml-impossible-train-a-1-billion-sample-model-in-20-minutes-with-vaex-and-scikit-learn-on-your-9e2968e6f385
Готовим миллиард сэмплов за 5 минут!
Важнейший этап машинного обучения (ML) – подготовка данных. Их нужно собрать, привести к единому формату, отфильтровать и проверить прежде, чем передать на вход нейросети.
Такая подготовка может растянуться на неопределённое время, поскольку даже среди специалистов по ML единицы владеют современными инструментами обработки больших данных.
Тысячу строк ещё можно «причесать» в Excel, а вот если их миллионы – требуется принципиально другой подход из области Big data.
В статье для TowardsDataScience cтарший специалист по обработке данных в XebiaLabs и соучредитель vaex.io Йован Веляноски (Jovan Veljanoski) показывает на реальном примере, как можно быстро обучить нейросеть на сырой выборке из миллиарда образцов.
Для этого используется обычный ноутбук без каких-либо нейропроцессоров и других специализированных ускорителей. Звучит как фантастика? Вовсе нет, всё дело в рациональном использовании ресурсов.
Перед Йованом была поставлена задача: создать алгоритм ML, предсказывающий продолжительность поездки в такси для оптимизации работы автопарка. Из публичной базы он взял данные обо всех поездках в Нью-Йорке за семилетний период и сохранил их в одну таблицу.
Размер файла получился более 100 Гб, а количество строк в таблице превысило один миллиард. Ни одна программа не способна обработать такой массив за разумное время (а большинство даже не в состоянии открыть).
Проблема в том, что традиционные приложения создают временные файлы и преобразуют все данные в свой формат, затрачивая на это уйму ресурсов. Поэтому Йован использовал нетривиальный инструмент с открытым исходным кодом: Vaex - библиотеку DataFrame на Python.
Vaex использует memory mapping (динамическое отображение блоков данных в ОЗУ), за счёт чего открывает огромные файлы мгновенно. Трансляция ссылок на блоки данных не требует физического выделения дополнительной памяти до тех пор, пока данные не подвергались модификации. При этом добавление и удаление целых столбцов также происходит за доли секунды, поскольку это виртуальные операции со ссылками, а не запись новых файлов.
Йован применил серию фильтров для удаления отменённых поездок и неполных данных, после чего сразу получил готовую подборку для обучения нейросети из 812 816 595 образцов.
Интересно, что время поездки в ней не хранилось статично в отдельном столбце, а динамически вычислялось как разница между временными штампами окончания и начала заказа. Аналогично рассчитывалось расстояние, поэтому даже при обработке 100-гигабайтного файла требования к объёму ОЗУ и накопителя оставались весьма скромными.
Вся подготовительная работа заняла около пяти минут чистого времени, а дальше началась исследовательская часть. Йован пробовал разные методы группировки, выделял отдельные направления поездок и неизменно получал быстрый результат.
Источник: https://towardsdatascience.com/ml-impossible-train-a-1-billion-sample-model-in-20-minutes-with-vaex-and-scikit-learn-on-your-9e2968e6f385
GitHub
GitHub - vaexio/vaex: Out-of-Core hybrid Apache Arrow/NumPy DataFrame for Python, ML, visualization and exploration of big tabular…
Out-of-Core hybrid Apache Arrow/NumPy DataFrame for Python, ML, visualization and exploration of big tabular data at a billion rows per second 🚀 - vaexio/vaex
Иран представил продвинутого гуманоидного робота
В Центре передовых систем и технологий (CAST) Тегеранского университета создали гуманоидного робота Surena IV. По уровню сложности его можно сравнить с Asimo (Honda) и Hubo (KAIST).
Серия «Сурена» (в переводе с персидского – «героический») началась 12 лет назад с довольно примитивной модели, даже не способной ходить. Однако постепенно к её доработке подключилось более 50 специалистов, и дело пошло.
Команда из полусотни исследователей во главе с профессором кафедры машиностроения доктором Агилом Юсефи-Комой представила движущегося робота Surena II в 2010 году.
При росте 145 см он обладал 22 степенями свободы и передвигался подобно игрушечному роботу на колёсиках в подошве. Делал он это настолько медленно, что демонстрацию походки в записи приходилось ускорять в 8-10 раз.
Surena III дебютировал в 2015 году и для своего времени выглядел впечатляюще. Рост увеличился до 198 см, масса составила 98 кг, а число степеней свободы расширили до 31. Основной проблемой оставалась низкая скорость – всего 8-9 см/с.
Новая модель Surena IV стала вдвое быстрее 19 см/с, гораздо «умнее» и при этом – компактнее: 170 см и 68 кг. Теперь у неё 43 степени свободы, что делает её движения более плавными и человеческими.
Четвёртая «Сурена» умеет подниматься и спускаться по ступенькам, ходить прямо, боком и спиной вперёд, огибать препятствия и держать баланс в сложных условиях.
В ней используется инерциальный измерительный блок (IMU) и контроллер на базе программируемых вентильных матриц (FPGA), постоянно отслеживающий положение всего тела.
Частота контура управления составляет 200 Гц, поэтому робот быстро реагирует на угрозу падения. Surena IV успешно прошла испытания, сохранив равновесие на склонах с уклоном до 10°.
Модуль искусственного интеллекта позволяет ей быстро приспосабливаться к изменяющимся условиям. Например, она может аккуратно взять и бросить мячи разного диаметра, написать своё имя на разных поверхностях, огибать препятствия, распознавать лица и речь.
В манипуляторах используется обратная связь на основе тензорных датчиков, за счёт которой «Сурена IV» обладает развитой мелкой моторикой. Одной рукой она управляется с предметами сложной формы массой до 200 г.
«Улучшение взаимодействия робота с окружающей средой было одной из основных целей проекта Surena IV», – говорит профессор Юсефи-Кома.
Работает «Сурена IV» под управлением ROS (Robot Operating System), распространяемой по лицензии BSD.
Источник: https://spectrum.ieee.org/automaton/robotics/humanoids/iran-surena-iv-humanoid-robot
В Центре передовых систем и технологий (CAST) Тегеранского университета создали гуманоидного робота Surena IV. По уровню сложности его можно сравнить с Asimo (Honda) и Hubo (KAIST).
Серия «Сурена» (в переводе с персидского – «героический») началась 12 лет назад с довольно примитивной модели, даже не способной ходить. Однако постепенно к её доработке подключилось более 50 специалистов, и дело пошло.
Команда из полусотни исследователей во главе с профессором кафедры машиностроения доктором Агилом Юсефи-Комой представила движущегося робота Surena II в 2010 году.
При росте 145 см он обладал 22 степенями свободы и передвигался подобно игрушечному роботу на колёсиках в подошве. Делал он это настолько медленно, что демонстрацию походки в записи приходилось ускорять в 8-10 раз.
Surena III дебютировал в 2015 году и для своего времени выглядел впечатляюще. Рост увеличился до 198 см, масса составила 98 кг, а число степеней свободы расширили до 31. Основной проблемой оставалась низкая скорость – всего 8-9 см/с.
Новая модель Surena IV стала вдвое быстрее 19 см/с, гораздо «умнее» и при этом – компактнее: 170 см и 68 кг. Теперь у неё 43 степени свободы, что делает её движения более плавными и человеческими.
Четвёртая «Сурена» умеет подниматься и спускаться по ступенькам, ходить прямо, боком и спиной вперёд, огибать препятствия и держать баланс в сложных условиях.
В ней используется инерциальный измерительный блок (IMU) и контроллер на базе программируемых вентильных матриц (FPGA), постоянно отслеживающий положение всего тела.
Частота контура управления составляет 200 Гц, поэтому робот быстро реагирует на угрозу падения. Surena IV успешно прошла испытания, сохранив равновесие на склонах с уклоном до 10°.
Модуль искусственного интеллекта позволяет ей быстро приспосабливаться к изменяющимся условиям. Например, она может аккуратно взять и бросить мячи разного диаметра, написать своё имя на разных поверхностях, огибать препятствия, распознавать лица и речь.
В манипуляторах используется обратная связь на основе тензорных датчиков, за счёт которой «Сурена IV» обладает развитой мелкой моторикой. Одной рукой она управляется с предметами сложной формы массой до 200 г.
«Улучшение взаимодействия робота с окружающей средой было одной из основных целей проекта Surena IV», – говорит профессор Юсефи-Кома.
Работает «Сурена IV» под управлением ROS (Robot Operating System), распространяемой по лицензии BSD.
Источник: https://spectrum.ieee.org/automaton/robotics/humanoids/iran-surena-iv-humanoid-robot
IEEE Spectrum
Iran Unveils Its Most Advanced Humanoid Robot Yet
Surena IV is an adult-size humanoid robot built by University of Tehran researchers
ИИ в сельском хозяйстве: от цветочков до ягодок
Costa Group начала развертывание системы искусственного интеллекта для повышения урожайности ягодных растений. До неё никто в отрасли этого не делал (во всяком случае – успешно).
Являясь одним из крупнейших поставщиков овощной и ягодной продукции в Австралии, компания постоянно ищет способы заключать контракты на более выгодных условиях. Для этого нужно заранее прогнозировать урожайность, но классические методы оценки дают большой разброс.
Низкая урожайность выливается в срывы поставок, а высокая приводит к вынужденному демпингу – оба варианта вредят компании, влияя не только на объём выручки, но и на репутацию. Поэтому Costa Group попыталась использовать ИИ там, где никто не решался – для оптимизации выращивания различных ягодных культур.
Ранее подобные системы использовались для прогнозирования урожайности салата, шпината и различных овощей. С этим не было проблем. Затем ИИ модифицировали для винодельческих предприятий, и это тоже не заняло много времени. Однако его настройка для мониторинга ягодных кустов оказалась очень сложной задачей.
В отличие от других сельхоз культур, при выращивании ягод вы не просто собираете урожай раз в год. Ягодные растения постоянно плодоносят в течение сезона. На одном кусте всегда есть ягоды разной степени зрелости, а расчёт общей урожайности – это решение сложной системы уравнений для нелинейных процессов, где даже в грубых моделях используется полтора десятка переменных.
У Costa Group нейросеть получает данные от множества датчиков, объединённых IoT-платформой Sensing+. Она была разработана сиднейской компанией The Yield для мониторинга в реальном времени.
Сенсоры непрерывно измеряют 14 параметров, влияющие на развитие растений. Это температура почвы и воздуха, PH и степень минерализации воды для полива, влажность верхних и глубоких слоёв грунта, скорость движения воздуха, уровень освещённости, УФ-индекс и другие показатели.
Они объединяются с существующими наборами данных, совместно используемых Costa. По ним ИИ автоматически строит модели развития каждого растения в теплице и постоянно уточняет их, сравнивая собственные прогнозы с новыми объективными данными. В итоге он подсказывает, каким кустам требуется скорректировать условия роста, и даёт очень точную оценку общей урожайности.
«Мы в буквальном смысле описываем эту систему как математического робота. Он эффективно обрабатывает данные и самостоятельно выбирает наиболее важные наборы функций», – пояснил основатель Yield и управляющий директор Рос Харви.
Первые системы ИИ на базе Sensing+ были недавно установлены в восьми теплицах для выращивания ягод на фермах Costa Group в Новом Южном Уэльсе, Квинсленде и Тасмании.
«Фактически, мы создали локальную метеорологическую службу в тепличном хозяйстве. Она работает в сети, что делает её доступной на стационарных и мобильных устройств. Это открывает целый ряд новых возможностей, оптимизируя посадку, ирригацию, подкормку, защиту растений и сбор урожая», – сказал Харви.
Используя ИИ, Costa Group заранее определяет урожайность и доходность каждого участка. Это позволяет оптимизировать логистику и заключить с поставщиками фьючерсные контракты с минимальным риском.
Источник: https://www.zdnet.com/article/costa-group-turns-to-ai-maths-robot-to-improve-berry-yield-predictions/
Costa Group начала развертывание системы искусственного интеллекта для повышения урожайности ягодных растений. До неё никто в отрасли этого не делал (во всяком случае – успешно).
Являясь одним из крупнейших поставщиков овощной и ягодной продукции в Австралии, компания постоянно ищет способы заключать контракты на более выгодных условиях. Для этого нужно заранее прогнозировать урожайность, но классические методы оценки дают большой разброс.
Низкая урожайность выливается в срывы поставок, а высокая приводит к вынужденному демпингу – оба варианта вредят компании, влияя не только на объём выручки, но и на репутацию. Поэтому Costa Group попыталась использовать ИИ там, где никто не решался – для оптимизации выращивания различных ягодных культур.
Ранее подобные системы использовались для прогнозирования урожайности салата, шпината и различных овощей. С этим не было проблем. Затем ИИ модифицировали для винодельческих предприятий, и это тоже не заняло много времени. Однако его настройка для мониторинга ягодных кустов оказалась очень сложной задачей.
В отличие от других сельхоз культур, при выращивании ягод вы не просто собираете урожай раз в год. Ягодные растения постоянно плодоносят в течение сезона. На одном кусте всегда есть ягоды разной степени зрелости, а расчёт общей урожайности – это решение сложной системы уравнений для нелинейных процессов, где даже в грубых моделях используется полтора десятка переменных.
У Costa Group нейросеть получает данные от множества датчиков, объединённых IoT-платформой Sensing+. Она была разработана сиднейской компанией The Yield для мониторинга в реальном времени.
Сенсоры непрерывно измеряют 14 параметров, влияющие на развитие растений. Это температура почвы и воздуха, PH и степень минерализации воды для полива, влажность верхних и глубоких слоёв грунта, скорость движения воздуха, уровень освещённости, УФ-индекс и другие показатели.
Они объединяются с существующими наборами данных, совместно используемых Costa. По ним ИИ автоматически строит модели развития каждого растения в теплице и постоянно уточняет их, сравнивая собственные прогнозы с новыми объективными данными. В итоге он подсказывает, каким кустам требуется скорректировать условия роста, и даёт очень точную оценку общей урожайности.
«Мы в буквальном смысле описываем эту систему как математического робота. Он эффективно обрабатывает данные и самостоятельно выбирает наиболее важные наборы функций», – пояснил основатель Yield и управляющий директор Рос Харви.
Первые системы ИИ на базе Sensing+ были недавно установлены в восьми теплицах для выращивания ягод на фермах Costa Group в Новом Южном Уэльсе, Квинсленде и Тасмании.
«Фактически, мы создали локальную метеорологическую службу в тепличном хозяйстве. Она работает в сети, что делает её доступной на стационарных и мобильных устройств. Это открывает целый ряд новых возможностей, оптимизируя посадку, ирригацию, подкормку, защиту растений и сбор урожая», – сказал Харви.
Используя ИИ, Costa Group заранее определяет урожайность и доходность каждого участка. Это позволяет оптимизировать логистику и заключить с поставщиками фьючерсные контракты с минимальным риском.
Источник: https://www.zdnet.com/article/costa-group-turns-to-ai-maths-robot-to-improve-berry-yield-predictions/
ZDNET
Costa Group turns to AI 'maths robot' to improve berry yield predictions
With berry crops now planted in polytunnels, Costa Group is turning to an AI-driven IoT platform to improve its on-farm decisions.
Роботизированная микрохирургия стала субмиллиметровой
Благодаря новому роботу, впервые в истории медицины удалось соединить сосуды диаметром от 0,3 до 0,8 мм. Операцию выполнила команда пластических хирургов совместно с техническими специалистами из Маастрихта (университетский городок на юге Нидерландов).
Уникальная операция была проведена для устранения лимфостаза, развившегося у пациентки как осложнение рака молочной железы. В ней был задействован робот MUSA, изготовленный в Microsure – компании, основанной сотрудниками Эйндховенского технологического университета.
До сих пор процедура LVA (лимфовенозного анастомоза) выполнялась только на крупных сосудах, поскольку ни один хирург не может обеспечить субмиллиметровую точность движений.
Попробуйте удержать фотоаппарат на вытянутой руке, и вы увидите медленное раскачивание. После длительных тренировок оно уменьшится, но не исчезнет полностью. В последние годы с ним борются при помощи гироскопической стабилизации. Этот метод и был взят на вооружение в микрохирургии.
Робот MUSE – это комбинация гироскопа и высокоточных актуаторов с интеллектуальным управлением. Он сглаживает дрожание рук и словно масштабирует движения хирурга.
Проще говоря, чтобы выполнить разрез длиной в миллиметр, нужно переместить руку на несколько сантиметров. Движения с меньшей амплитудой отбрасываются как шум.
Пилотное исследование показало, что уже сегодня MUSE можно использовать для операций на мельчайших сосудах диаметром от 0,3 мм. Это позволяет выполнять хирургическое лечение с невероятной точностью, в разы ускоряет реабилитацию после травм и выводит трансплантологию на новый уровень.
Источник: https://www.nature.com/articles/s41467-019-14188-w
Благодаря новому роботу, впервые в истории медицины удалось соединить сосуды диаметром от 0,3 до 0,8 мм. Операцию выполнила команда пластических хирургов совместно с техническими специалистами из Маастрихта (университетский городок на юге Нидерландов).
Уникальная операция была проведена для устранения лимфостаза, развившегося у пациентки как осложнение рака молочной железы. В ней был задействован робот MUSA, изготовленный в Microsure – компании, основанной сотрудниками Эйндховенского технологического университета.
До сих пор процедура LVA (лимфовенозного анастомоза) выполнялась только на крупных сосудах, поскольку ни один хирург не может обеспечить субмиллиметровую точность движений.
Попробуйте удержать фотоаппарат на вытянутой руке, и вы увидите медленное раскачивание. После длительных тренировок оно уменьшится, но не исчезнет полностью. В последние годы с ним борются при помощи гироскопической стабилизации. Этот метод и был взят на вооружение в микрохирургии.
Робот MUSE – это комбинация гироскопа и высокоточных актуаторов с интеллектуальным управлением. Он сглаживает дрожание рук и словно масштабирует движения хирурга.
Проще говоря, чтобы выполнить разрез длиной в миллиметр, нужно переместить руку на несколько сантиметров. Движения с меньшей амплитудой отбрасываются как шум.
Пилотное исследование показало, что уже сегодня MUSE можно использовать для операций на мельчайших сосудах диаметром от 0,3 мм. Это позволяет выполнять хирургическое лечение с невероятной точностью, в разы ускоряет реабилитацию после травм и выводит трансплантологию на новый уровень.
Источник: https://www.nature.com/articles/s41467-019-14188-w
Nature
First-in-human robotic supermicrosurgery using a dedicated microsurgical robot for treating breast cancer-related lymphedema: a…
Nature Communications - Reconstructive microsurgery is limited by the precision that human hands can achieve. Here, the authors demonstrate in a randomized clinical pilot trial the feasibility of...
XMOS добавит интеллект в любой датчик
Британская компания XMOS разработала
Технически это многоядерный чип RISC-архитектуры, сочетающий в себе возможности цифровой обработки сигналов (DSP) и контроллера ввода/вывода (I/O) с интеллектуальным управлением.
В нём используется встроенная память типа SRAM (2 x 512 КБ), которая в зависимости от задачи расширяется внешними модулями стандарта LPDDR до нужного объёма. Чип оснащён 128 портами ввода-вывода общего назначения (GPIO), встроенным контроллером USB и поддерживает интерфейс MIPI.
Помимо векторных, в нём аппаратно ускоряются и другие операции, часто используемые в искусственных нейронных сетях: пакетная нормализация и выпрямленная линейная функция активации (ReLU).
На практике
Например, за счёт
Современные IP-камеры потребляют от 5 до 20 Вт и транслируют видео на невысокой частоте, поскольку используют процессоры общего назначения. Им требуется питание от сети, а вся продвинутая обработка изображения выполняется на внешних устройствах.
Камера со встроенным
За счёт быстрого DSP интеллектуальная камера будет успевать записывать видео на более высокой скорости, а высокая энергоэффективность позволит организовать компактный источник аварийного питания.
Источник: xcore.ai
Компания предоставляет подробности по запросу, но вот вам прямая ссылка для экономии времени.
Британская компания XMOS разработала
xcore.ai
– энергоэффективный процессор третьего поколения для ускорения задач искусственного интеллекта в устройствах класса «интернет вещей» (IoT). Технически это многоядерный чип RISC-архитектуры, сочетающий в себе возможности цифровой обработки сигналов (DSP) и контроллера ввода/вывода (I/O) с интеллектуальным управлением.
В нём используется встроенная память типа SRAM (2 x 512 КБ), которая в зависимости от задачи расширяется внешними модулями стандарта LPDDR до нужного объёма. Чип оснащён 128 портами ввода-вывода общего назначения (GPIO), встроенным контроллером USB и поддерживает интерфейс MIPI.
Xcore.ai
работает на частоте до 800 МГц. За одну секунду он выполняет до 38 миллиардов векторных операций и до одного миллиона 512-точечных БПФ (быстрых преобразований Фурье). Помимо векторных, в нём аппаратно ускоряются и другие операции, часто используемые в искусственных нейронных сетях: пакетная нормализация и выпрямленная линейная функция активации (ReLU).
На практике
Xcore.ai
– это интересная попытка добавить функционал различным датчикам и перенести обработку сигнала ближе к его источнику – очередной виток развития концепции Edge-computing.Например, за счёт
Xcore.ai
можно добавить функцию распознавания лиц в электронный замок, или сделать видеонаблюдение действительно интеллектуальным.Современные IP-камеры потребляют от 5 до 20 Вт и транслируют видео на невысокой частоте, поскольку используют процессоры общего назначения. Им требуется питание от сети, а вся продвинутая обработка изображения выполняется на внешних устройствах.
Камера со встроенным
Xcore.ai
станет более автономной. Она сможет самостоятельно реализовать алгоритмы обнаружения движения, распознавания лиц и номеров, при этом потребляя меньше энергии.За счёт быстрого DSP интеллектуальная камера будет успевать записывать видео на более высокой скорости, а высокая энергоэффективность позволит организовать компактный источник аварийного питания.
Источник: xcore.ai
Компания предоставляет подробности по запросу, но вот вам прямая ссылка для экономии времени.
www.xmos.ai
XMOS - Bringing technology to life
Building on our heritage in audio solutions, our easy-to-integrate voice interfaces provide state of the art sound processing at a compelling price. Perfect for developers who want the best choice in voice.
Бесплатный курс «Основы устройства беспилотных автомобилей»
Компания Baidu (китайский аналог Google) делает ставку на массовое производство беспилотных транспортных средств, чьи правила передвижения задаются виртуальными геозонами.
Она развивает это направление как отрытую платформу Apollo, впервые представленную на CES 2018, и предлагает всем желающим изучать её бесплатно.
Сейчас Apollo выросла до версии 5.5, а познакомиться с ней стало проще. Вместе с частной образовательной организацией Udacity в Baidu подготовили доступный курс для начинающих.
Вы можете приступить к его изучению без каких-либо навыков программирования и углубленной математической подготовки – достаточно базовых школьных знаний.
Курс ведут десять специалистов, среди которых основатель Udacity Себастьян Трун, Старший директор по разработке платформы Apollo Цзинао Ван и главный архитектор CarOS Нин Цюй.
Вы узнаете, как устроены ключевые компоненты системы автопилота, познакомитесь с подходами к упреждающему расчёту траекторий транспортных средств, изучите работу с картами высокой плотности и познакомитесь с архитектурой Apollo.
Все задачи и подходы к их решению разбираются на примере актуальной версии быстро развивающейся платформы Apollo и комментируются её разработчиками.
После успешного завершения курса вам будут предложены варианты дальнейшего обучения, где вы сможете углубить свои знания и начать карьеру разработчика интеллектуальных систем беспилотного транспорта.
Записаться на курс можно здесь.
Компания Baidu (китайский аналог Google) делает ставку на массовое производство беспилотных транспортных средств, чьи правила передвижения задаются виртуальными геозонами.
Она развивает это направление как отрытую платформу Apollo, впервые представленную на CES 2018, и предлагает всем желающим изучать её бесплатно.
Сейчас Apollo выросла до версии 5.5, а познакомиться с ней стало проще. Вместе с частной образовательной организацией Udacity в Baidu подготовили доступный курс для начинающих.
Вы можете приступить к его изучению без каких-либо навыков программирования и углубленной математической подготовки – достаточно базовых школьных знаний.
Курс ведут десять специалистов, среди которых основатель Udacity Себастьян Трун, Старший директор по разработке платформы Apollo Цзинао Ван и главный архитектор CarOS Нин Цюй.
Вы узнаете, как устроены ключевые компоненты системы автопилота, познакомитесь с подходами к упреждающему расчёту траекторий транспортных средств, изучите работу с картами высокой плотности и познакомитесь с архитектурой Apollo.
Все задачи и подходы к их решению разбираются на примере актуальной версии быстро развивающейся платформы Apollo и комментируются её разработчиками.
После успешного завершения курса вам будут предложены варианты дальнейшего обучения, где вы сможете углубить свои знания и начать карьеру разработчика интеллектуальных систем беспилотного транспорта.
Записаться на курс можно здесь.
Udacity
Self-Driving Fundamentals: Featuring Apollo | Udacity
Learn online and advance your career with courses in programming, data science, artificial intelligence, digital marketing, and more. Gain in-demand technical skills. Join today!
❤1