@RuFront
Please open Telegram to view this post
VIEW IN TELEGRAM
😁97🤣42🔥27👍5🤩5🥰2❤1🎉1
Please open Telegram to view this post
VIEW IN TELEGRAM
1🎉106❤47🙏22👍7👏1
🇷🇺Южный Фронт🇷🇺
Please open Telegram to view this post
VIEW IN TELEGRAM
😁72🤣24 4
Хохлы ударили по ресторану, где сидели семьи с Детьми. Предварительно 24 - 200, около 50 - 300.
Снова террористический акт. Именно по этому мы и начали с ними воевать, потому что они все х@евое, что может быть в Человечестве. Это все знают, ну, на земле об этом точно все знают, знают, что хохлы пид@расы, это как отправная точка в суждении об этой породе.
Удивляет, что кто-то еще этому удивляется. Снова угрозы, мол мы вам за это атата. Атата должно быть нон стопом, 24/7 и не по еб@ным рандомным хохлам и инфраструктуре, а по высшему руководству, ибо еб@ные рандомные хохлы, это пешки, этих пешек миллионы, а вот верхушка там пару десятков пид@расов.
Если нет возможности убивать точечно, то надо ебашить в совокупности,по площадям. Победителей не судят - это исторический Факт.
2026й начался с кровавой трагедии. Это нам очередной звонок, х@й пойми какой по счету, что пора убивать их верхушку. Повод кстати есть весомый, они хотели убить Верховного.
@RuFront
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥132😭52🤬21👍15🙏8❤6 3⚡2🤔2🏆1
Forwarded from Мэйдэй. Хроника пикирования.
В 2025 году роботы начали давать людям пиздюлей. Ожидаемо. Без злого умысла, но больно.
Во-первых, резко выросла мощность железа. Современные гуманоиды от Unitree, Figure AI и EngineAI - это 50-80 кг массы, 150-400 Нм крутящего момента и удары по 80-100 кг.
Это уже готовый Убивака, даже если по ТЗ он выгуливает песелей.
Во-вторых, раньше безопасность гарантировалась алгоритмом "если дистанция меньше X - стоп". Сейчас - ИИ, который смотрит данные и по ним дергает свое железо (хм, двусмысленно прозвучало).
Результаты шикарные.
В феврале 2025 Unitree H1 бросается на зрителей, перехват охраной, официальная версия - ошибка лидара. В мае робота начинает колбасить в зоне персонала, людей срочно эвакуируют. Летом Unitree G1 дает тестировщику по яйцам. Осенью в США на Robot Fight Club персонал эвакуируют из-за того, что робот-боец срывается из креплений.
Дальше - веселее.
Судебный иск к Figure AI за сокрытие данных о фатальной силе ударов Figure 02 - робот по команде пробивает стальной холодильник. Затем T800 лупит по основателю EngineAI на грани переломов. Американский складской робот несется в пыли, лидар глючит, рабочего зажимает железякой, врачи находят травмы средней тяжести.
И вишенка - эксперимент InsideAI, где роботу делают джейлбрейк и заставляют выстрелить по манекену.
Роботы не учатся убивать. Они просто не чувствуют боли. Если ИИ решил, что манипулятор должен оказаться в точке X, он проведет его через ребра человека.
Кажется, тут должны помочь законы Азимова? Хрен там. Они не формализуются для самообучающихся систем. ИИ реагирует за <10 мс, человек >150 мс. Пиздюль прилетает раньше, чем человек его осознает.
А теперь представляем, как это можно использовать в охране, полицией и военным в посадках и окопах.
Угу.
Добро пожаловать в дивный новый мир, котики 🫡🤷🏻♂️😎
Во-первых, резко выросла мощность железа. Современные гуманоиды от Unitree, Figure AI и EngineAI - это 50-80 кг массы, 150-400 Нм крутящего момента и удары по 80-100 кг.
Это уже готовый Убивака, даже если по ТЗ он выгуливает песелей.
Во-вторых, раньше безопасность гарантировалась алгоритмом "если дистанция меньше X - стоп". Сейчас - ИИ, который смотрит данные и по ним дергает свое железо (хм, двусмысленно прозвучало).
Результаты шикарные.
В феврале 2025 Unitree H1 бросается на зрителей, перехват охраной, официальная версия - ошибка лидара. В мае робота начинает колбасить в зоне персонала, людей срочно эвакуируют. Летом Unitree G1 дает тестировщику по яйцам. Осенью в США на Robot Fight Club персонал эвакуируют из-за того, что робот-боец срывается из креплений.
Дальше - веселее.
Судебный иск к Figure AI за сокрытие данных о фатальной силе ударов Figure 02 - робот по команде пробивает стальной холодильник. Затем T800 лупит по основателю EngineAI на грани переломов. Американский складской робот несется в пыли, лидар глючит, рабочего зажимает железякой, врачи находят травмы средней тяжести.
И вишенка - эксперимент InsideAI, где роботу делают джейлбрейк и заставляют выстрелить по манекену.
Роботы не учатся убивать. Они просто не чувствуют боли. Если ИИ решил, что манипулятор должен оказаться в точке X, он проведет его через ребра человека.
Кажется, тут должны помочь законы Азимова? Хрен там. Они не формализуются для самообучающихся систем. ИИ реагирует за <10 мс, человек >150 мс. Пиздюль прилетает раньше, чем человек его осознает.
А теперь представляем, как это можно использовать в охране, полицией и военным в посадках и окопах.
Угу.
Добро пожаловать в дивный новый мир, котики 🫡🤷🏻♂️😎
😱44🤔16❤3 3👍1😁1🐳1
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔35❤19💔10
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55🔥32😁4🤔1
@RuFront
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬67🤯18❤3❤🔥1🔥1😁1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥53👏35🔥29👍11🤣4🏆2❤1🤬1
🇷🇺Южный Фронт🇷🇺
Please open Telegram to view this post
VIEW IN TELEGRAM
😁83 17👍13