Forwarded from InYourEyes (Виталий)
Физические версии Resident Evil Requiem сейчас распроданы во всех крупных розничных сетях США.
Сейчас игру на диске нельзя приобрести на Amazon, Walmart, GameStop и Target.
#игры@inyoueyes
Сейчас игру на диске нельзя приобрести на Amazon, Walmart, GameStop и Target.
#игры@inyoueyes
Forwarded from InYourEyes (Виталий)
3 марта в PS Plus появятся PGA Tour 2K25, Monster Hunter Rise, Slime Rancher 2 и The Elder Scrolls Online Collection: Gold Road.
#playstation@inyoueyes
#playstation@inyoueyes
Уже раскатали Nano Banana 2 везде. Быстро они. Банан всё ещё топчик для картинок. https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/
Google
Nano Banana 2: Combining Pro capabilities with lightning-fast speed
Our latest image generation model offers advanced world knowledge, production-ready specs, subject consistency and more, all at Flash speed.
Forwarded from StopGame.ru
Media is too big
VIEW IN TELEGRAM
Полноценный трейлер Pokémon Winds & Waves.
Отправляемся загорать с новым поколением покемонов в 2027 году на Nintendo Switch 2.
Подпишись: @stopgameru
Отправляемся загорать с новым поколением покемонов в 2027 году на Nintendo Switch 2.
Подпишись: @stopgameru
Forwarded from r/ретранслятор
Японская компания Banpresto, занимающаяся производством фигурок, начала выпускать вешалки для одежды в виде Юдзиро Ханмы из аниме «Баки».
Абсолютно гениально
r/#anime
Абсолютно гениально
r/#anime
Forwarded from r/ретранслятор
This media is not supported in your browser
VIEW IN TELEGRAM
Оказывается, легендарная фраза Рафики из «Короля льва», когда он поднимает маленького Симбу на скале, переводится совсем не так эпично, как звучит.
Теперь вам придётся жить с этим
r/#funny
Теперь вам придётся жить с этим
r/#funny
Forwarded from Сиолошная
Промежуточное состояние ситуации Anthropic <-> Минобороны <-> OpenAI:
— Президент США заявил, что не допустит, что частная компания будет диктовать свои условия в вопросах нац. безопасности. Поэтому все агентства должны отказаться от использования продуктов Anthropic в ближайшее время. Хоть формулировки были жёсткие (в духе Трампа), это был достаточно мягкий исход — просто разрыв контракта.
— Однако глава Минобороны США пошёл дальше и объявил Anthropic риском для цепочки поставок — статус, который никогда до этого не применялся к американским компаниям. Он предназначен для компаний из враждебных стран, таких как китайский технологический гигант Huawei. Это выглядит явной эскалацией по сравнению с «мягким» путём, который был описан Трампом.
— Но на этом он не остановился: кроме этого он указал, что ни один из подрядчиков Минобороны не может использовать продукты Anthropic. Прямая трактовка формулировки из его заявления означает, что условный Amazon или Google не могут предоставлять их модели на своих облаках — ведь обе компании работают с Пентагоном. Инженеры также не могут использовать условный Claude Code в работе.
— Однако эти ограничения не следуют из статуса риска для цепочки поставок. По закону, который описывает статус, выходит, что запрещается использовать продукты компании лишь при исполнении контактной деятельности непосредственно для государства. То есть один и тот же инженер в Amazon может использовать Claude Code, чтобы сделать задачу по улучшению веб-сайта, но не может использовать при разработке ПО для Минобороны.
— Anthropic заявили, что будут оспаривать присвоение статуса в суде. Я думаю, что у них хорошие шансы на победу, но процесс может затянуться.
— после этого стало известно, что OpenAI подписали контракт с Минобороны. Он отличается от того, который ранее был у Anthropic. По словам источников, OpenAI подписали договор с формулировкой, от которой отказались Anthropic.
— В контракте с OpenAI, вероятно, указано что-то вроде: «Министерство обороны уполномочено использовать наши модели для всех законных целей (all lawful purposes, то, что не хотели добавлять Anthropic). Во избежание сомнений, под «законными целями» не подразумеваются [список законов и нормативных актов, запрещающих внутреннее массовое наблюдение и автономное оружие на основе ИИ]».
— Контракт с OpenAI также включает в себя различные механизмы обеспечения безопасности, в том числе средства защиты для ограничения работы моделей в описанных выше сценариях. OpenAI может тренировать модели и отдельные классификаторы, чтобы обнаруживать запросы, потенциально подпадающие под ограничение. Кроме этого, модели будут развёрнуты в облаке, агентства не получат доступ к весам.
В чём же разница между позициями OpenAI и Anthropic?
Anthropic хотели чего-то вроде: «Правительство США не может использовать наши модели для массовой слежки внутри страны или для создания автономного оружия на основе искусственного интеллекта без нашего согласия». Механизм запрета — мнение Anthropic о том, что является и не является легитимным.
OpenAI частично остаются в этом цикле, формируя меры ограничения работы моделей, но определение легитимности в большей степени переходит государству и его институтам. Именно государство будет определять, что входит в такие термины, как «массовая слежка» и так далее — что является «законным», а что нет.
Потенциально это открывает дорогу к сценариям, где высокопоставленные чины принимают решение в спешке (например, в ходе конфликта), а затем пост-фактум в суде доказывают, что это было законным.
Также существует информация, что договор содержал возможность экстренного отключения механизмов обеспечения ограничений (например, в случае их неправильной работы) — и что эта часть очень не понравилась Anthropic. Однако я не нашёл источника этой инфомрации, которому можно доверять.
В любом случае я думаю, что общественности было бы полезно узнать все подробности контракта и ограничений. Некоторые из сотрудников (бывших и настоящих) OpenAI уже выразили желание изучить документы, чтобы понять, во что вписалась компания.
— Президент США заявил, что не допустит, что частная компания будет диктовать свои условия в вопросах нац. безопасности. Поэтому все агентства должны отказаться от использования продуктов Anthropic в ближайшее время. Хоть формулировки были жёсткие (в духе Трампа), это был достаточно мягкий исход — просто разрыв контракта.
— Однако глава Минобороны США пошёл дальше и объявил Anthropic риском для цепочки поставок — статус, который никогда до этого не применялся к американским компаниям. Он предназначен для компаний из враждебных стран, таких как китайский технологический гигант Huawei. Это выглядит явной эскалацией по сравнению с «мягким» путём, который был описан Трампом.
— Но на этом он не остановился: кроме этого он указал, что ни один из подрядчиков Минобороны не может использовать продукты Anthropic. Прямая трактовка формулировки из его заявления означает, что условный Amazon или Google не могут предоставлять их модели на своих облаках — ведь обе компании работают с Пентагоном. Инженеры также не могут использовать условный Claude Code в работе.
— Однако эти ограничения не следуют из статуса риска для цепочки поставок. По закону, который описывает статус, выходит, что запрещается использовать продукты компании лишь при исполнении контактной деятельности непосредственно для государства. То есть один и тот же инженер в Amazon может использовать Claude Code, чтобы сделать задачу по улучшению веб-сайта, но не может использовать при разработке ПО для Минобороны.
— Anthropic заявили, что будут оспаривать присвоение статуса в суде. Я думаю, что у них хорошие шансы на победу, но процесс может затянуться.
— после этого стало известно, что OpenAI подписали контракт с Минобороны. Он отличается от того, который ранее был у Anthropic. По словам источников, OpenAI подписали договор с формулировкой, от которой отказались Anthropic.
— В контракте с OpenAI, вероятно, указано что-то вроде: «Министерство обороны уполномочено использовать наши модели для всех законных целей (all lawful purposes, то, что не хотели добавлять Anthropic). Во избежание сомнений, под «законными целями» не подразумеваются [список законов и нормативных актов, запрещающих внутреннее массовое наблюдение и автономное оружие на основе ИИ]».
— Контракт с OpenAI также включает в себя различные механизмы обеспечения безопасности, в том числе средства защиты для ограничения работы моделей в описанных выше сценариях. OpenAI может тренировать модели и отдельные классификаторы, чтобы обнаруживать запросы, потенциально подпадающие под ограничение. Кроме этого, модели будут развёрнуты в облаке, агентства не получат доступ к весам.
В чём же разница между позициями OpenAI и Anthropic?
Anthropic хотели чего-то вроде: «Правительство США не может использовать наши модели для массовой слежки внутри страны или для создания автономного оружия на основе искусственного интеллекта без нашего согласия». Механизм запрета — мнение Anthropic о том, что является и не является легитимным.
OpenAI частично остаются в этом цикле, формируя меры ограничения работы моделей, но определение легитимности в большей степени переходит государству и его институтам. Именно государство будет определять, что входит в такие термины, как «массовая слежка» и так далее — что является «законным», а что нет.
Потенциально это открывает дорогу к сценариям, где высокопоставленные чины принимают решение в спешке (например, в ходе конфликта), а затем пост-фактум в суде доказывают, что это было законным.
Также существует информация, что договор содержал возможность экстренного отключения механизмов обеспечения ограничений (например, в случае их неправильной работы) — и что эта часть очень не понравилась Anthropic. Однако я не нашёл источника этой инфомрации, которому можно доверять.
В любом случае я думаю, что общественности было бы полезно узнать все подробности контракта и ограничений. Некоторые из сотрудников (бывших и настоящих) OpenAI уже выразили желание изучить документы, чтобы понять, во что вписалась компания.
Forwarded from Сиолошная
Сиолошная
Промежуточное состояние ситуации Anthropic <-> Минобороны <-> OpenAI: — Президент США заявил, что не допустит, что частная компания будет диктовать свои условия в вопросах нац. безопасности. Поэтому все агентства должны отказаться от использования продуктов…
И комментарий с пояснениями от заместителя госсекретаря по вопросам внешней помощи:
— В договоре есть ссылки на определенные действующие правовые нормы и предусмотрены некоторые обоюдно согласованные механизмы безопасности. И это, повторюсь, тот самый компромисс, который был предложен компании Anthropic и который она отвергла.
Даже если суть проблем остается той же, существует огромная разница между
(1) официальным закреплением конкретных требований к безопасности через отсылку к правовым и политическим институтам, являющимся продуктом нашей конституционной и политической системы
и
(2) настаиванием на наборе мер предосторожности, трактовка которых оставляется на усмотрение частной компании и ее генерального директора (CEO).
Как мы уже говорили, это фундаментальная проблема: кто должен принимать эти важнейшие решения? Подход (1), принятый OpenAI, опирается на законы и тем самым совершенно обоснованно передает полномочия по решению этих вопросов в ведение нашей демократической системы. Подход (2) недопустимым образом отдает эти вопросы на откуп одному неподотчетному генеральному директору, который узурпировал бы суверенный контроль над нашими самыми критически важными системами (😀 )
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
OpenAI опубликовали детали договорённостей к Минобороны и часть контракта. Последнее оставим на разбор юристам, которые оценят размеры дыр в законах.
Ключевое: подтвердилась информация из поста выше, что в контракте написано «Министерство обороны уполномочено использовать наши модели для всех законных целей. Во избежание сомнений, под «законными целями» не подразумеваются [список законов и нормативных актов, запрещающих внутреннее массовое наблюдение и автономное оружие на основе ИИ]».
В дополнение к предоставлению моделей и формирования правил в договоре, OpenAI следят за соблюдением этих «красных линий» с помощью многоуровневого подхода. Они сохраняют за собой полный контроль над инфраструктурой безопасности, развертывают системы через облако, в процесс вовлечены сотрудники OpenAI, имеющие соответствующий допуск, в том числе исследователи по алайнменту и безопасности.
OpenAI не предоставляют модели «без защитных барьеров» или модели, не прошедшие дообучение безопасности (чтобы отказываться от выполнения определенных запросов), и не предоставляют веса для самостоятельного развёртывания.
В рамках этой сделки OpenAI попросили, чтобы аналогичные условия были предложены всем ИИ-лабораториям, и, в частности, чтобы правительство постаралось урегулировать ситуацию с Anthropic. Подпишут Anthropic новые контракты или нет — покажет время.
«Изначально мы не спешили заключать контракт на развертывание в закрытых сетях, так как не считали, что наши меры защиты и системы к этому готовы. Мы усердно работали над тем, чтобы развертывание стало возможным с гарантиями того, что наши «красные линии» не будут пересечены» — тут стоит вспомнить, что Anthropic подписали первые контракты с государством в июне 2024-го, а с ноября того же года модели были доступны Пентагону через Palantir (и AWS), в том числе для использования в закрытых сетях.
Как сегодня сказал Dario в интервью, «мы разрешаем работу с моделью в 99% сценариях использования, и отграждаемся от двух» (представьте себе как глупо выглядят люди, которые думали, что Anthropic только сейчас начали работу, и их не устроил контракт с Минобороны в целом).
Далее OpenAI пишут, что из всей доступной информации они считают, что контракт обеспечивает даже лучшие гарантии и более ответственные меры защиты, чем ранние соглашения, включая первоначальный контракт Anthropic — потому что явно прописано развёртывание в облаке, отсутствие возможности отключения инфраструктуры безопасности, и в цикл включены сотрудники компании.
В конце дают ответы на некоторые вопросы, вот три наиболее важных
Q: Считаете ли вы, что Anthropic следует признать «риском для цепочки поставок»?
A: Нет, и мы четко обозначили позицию по этому вопросу правительству.
Q: Что произойдет, если правительство нарушит условия контракта?
A: Как и в случае с любым контрактом, мы можем расторгнуть его, если контрагент нарушает условия (как сделали Anthropic).
Q: Что, если правительство просто изменит закон или существующие политики?
A: В нашем контракте прямо упоминаются законы и политики в области слежки и автономного оружия в их нынешнем виде, поэтому даже если эти законы или политики изменятся в будущем, использование наших систем все равно должно будет соответствовать текущим стандартам, закрепленным в соглашении.
Ключевое: подтвердилась информация из поста выше, что в контракте написано «Министерство обороны уполномочено использовать наши модели для всех законных целей. Во избежание сомнений, под «законными целями» не подразумеваются [список законов и нормативных актов, запрещающих внутреннее массовое наблюдение и автономное оружие на основе ИИ]».
В дополнение к предоставлению моделей и формирования правил в договоре, OpenAI следят за соблюдением этих «красных линий» с помощью многоуровневого подхода. Они сохраняют за собой полный контроль над инфраструктурой безопасности, развертывают системы через облако, в процесс вовлечены сотрудники OpenAI, имеющие соответствующий допуск, в том числе исследователи по алайнменту и безопасности.
OpenAI не предоставляют модели «без защитных барьеров» или модели, не прошедшие дообучение безопасности (чтобы отказываться от выполнения определенных запросов), и не предоставляют веса для самостоятельного развёртывания.
В рамках этой сделки OpenAI попросили, чтобы аналогичные условия были предложены всем ИИ-лабораториям, и, в частности, чтобы правительство постаралось урегулировать ситуацию с Anthropic. Подпишут Anthropic новые контракты или нет — покажет время.
«Изначально мы не спешили заключать контракт на развертывание в закрытых сетях, так как не считали, что наши меры защиты и системы к этому готовы. Мы усердно работали над тем, чтобы развертывание стало возможным с гарантиями того, что наши «красные линии» не будут пересечены» — тут стоит вспомнить, что Anthropic подписали первые контракты с государством в июне 2024-го, а с ноября того же года модели были доступны Пентагону через Palantir (и AWS), в том числе для использования в закрытых сетях.
Как сегодня сказал Dario в интервью, «мы разрешаем работу с моделью в 99% сценариях использования, и отграждаемся от двух» (представьте себе как глупо выглядят люди, которые думали, что Anthropic только сейчас начали работу, и их не устроил контракт с Минобороны в целом).
Далее OpenAI пишут, что из всей доступной информации они считают, что контракт обеспечивает даже лучшие гарантии и более ответственные меры защиты, чем ранние соглашения, включая первоначальный контракт Anthropic — потому что явно прописано развёртывание в облаке, отсутствие возможности отключения инфраструктуры безопасности, и в цикл включены сотрудники компании.
В конце дают ответы на некоторые вопросы, вот три наиболее важных
Q: Считаете ли вы, что Anthropic следует признать «риском для цепочки поставок»?
A: Нет, и мы четко обозначили позицию по этому вопросу правительству.
Q: Что произойдет, если правительство нарушит условия контракта?
A: Как и в случае с любым контрактом, мы можем расторгнуть его, если контрагент нарушает условия (как сделали Anthropic).
Q: Что, если правительство просто изменит закон или существующие политики?
A: В нашем контракте прямо упоминаются законы и политики в области слежки и автономного оружия в их нынешнем виде, поэтому даже если эти законы или политики изменятся в будущем, использование наших систем все равно должно будет соответствовать текущим стандартам, закрепленным в соглашении.
Forwarded from Nintendo | psprices.com (Oleg Gabaraev)
Microsoft кормит: South of Midnight от создателей We Happy Few выйдет на Switch 2 уже 31 марта — cейчас проект доступен только на Xbox Series и ПК, где он получил в целом положительные отзывы.
🔵 Игра представляет собой приключенческий экшен от третьего лица, действие которого разворачивается среди пейзажей Глубокого Юга США.🔵 Вам предстоит взять на себя роль Хейзел, ставшей «Прядильщицей» — магической целительницей разорванных связей и духов.🔵 Ей предстоит исследовать различные локации и знакомиться с существами из южного фольклора. Особый акцент в проекте сделан на повествовании, визуальном стиле и музыкальной составляющей.🇷🇺 В игре доступен текстовый перевод на русский язык.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Токио Метро внезапно ворвалась в коллабу Overwatch x Hello Kitty. 😳 Предлагают специальный 24 проездной и дадут то ли стикеры, то ли файл. Ещё и саму коллабу попиарили.
#Overwatch #HelloKitty #JP #Japan
#Overwatch #HelloKitty #JP #Japan
Forwarded from Denis Sexy IT 🤖
А помните мем Гарри Поттер + Баленсиага?
Ну теперь это почти короткометражка:
https://youtu.be/gtnt84CDP-s
То есть, пара лет, и будем фильмы-мемы смотреть
Ну теперь это почти короткометражка:
https://youtu.be/gtnt84CDP-s
То есть, пара лет, и будем фильмы-мемы смотреть
YouTube
Harry Potter by Balenciaga (2026)
Merch: https://demonflyingfox.com/
Spotify: https://bit.ly/4afQdkm
Patreon to support this channel: https://www.patreon.com/user?u=87233464
Instagram: https://www.instagram.com/demonflyingfox
Spotify: https://bit.ly/4afQdkm
Patreon to support this channel: https://www.patreon.com/user?u=87233464
Instagram: https://www.instagram.com/demonflyingfox
Forwarded from r/ретранслятор
This media is not supported in your browser
VIEW IN TELEGRAM
В Photoshop появилась функция преобразования 2D-слоёв в 3D.
Объёмные объекты можно вращать, менять их перспективу и размер. Также они могут автоматически подстраиваться под освещение и фон, заметно упрощая работу
Объёмные объекты можно вращать, менять их перспективу и размер. Также они могут автоматически подстраиваться под освещение и фон, заметно упрощая работу