Forwarded from Denis Sexy IT 🤖
Протестировал полезный MCP-сервер: https://github.com/punitarani/fli
Больше я руками авиа-билеты не выбираю, только с Google Flights через MCP☕️
Больше я руками авиа-билеты не выбираю, только с Google Flights через MCP
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡18👍7
Еженедельный дайджест | 22.03 - 29.03
или "Sora мертва, Anthropic судится с Пентагоном, а GPT-5.4 стал первыми о боже мой да всем насрать "
OpenAI закрывает Sora. Да, ту самую Sora, которую джва года ждали. Вебапп умрёт 26 апреля, API - в сентябре. Причина - "неустойчивая экономика видеогенерации в масштабе". Дисней подписал с ними контракт на $1 млрд в декабре - и теперь этот контракт летит в помойку вместе с Sora.
Не знаю, связано или нет, но OpenAI отменило закупку 40% мирового объёма памяти и разорвало контракты с Samsung и SK Hynix. Хоть какие-то хорошие новости. Держатели акций, фиксируем прибыль.
Anthropic vs Пентагон. Anthropic отказались разрешить использование Claude в автономных системах вооружений. В ответ Пентагон объявил их supply chain risk - ярлык, который обычно вешают на иноагентов (в хорошем? смысле этого слова). Федеральный судья: "это выглядит как попытка уничтожить компанию" и временно заблокировал бан. OpenAI тем временем тихонько подписали новый контракт с DoD (а с недавних пор department of war), что вызвало внутренний бунт и как минимум одну публичную отставку.
GTC 2026 (16-19 марта). Jensen показал Vera Rubin, заявил $1T+ в пайплайне инфраструктурных заказов, представил Nemotron Coalition (Mistral, Perplexity, Cursor). Physical AI и robotics впервые вышли на главную сцену. Agentic AI из слайдов переехал в продакшен - Fortune 500 показывали реальные деплои, не демки.
MCP перевалил за 97 миллионов установок. Agentic tooling - это уже не "интересный эксперимент", это стандарт.
Morgan Stanley предупредил о дефиците электроэнергии в США на 9-18 ГВт из-за AI compute. Загруженность пиццерии возлеПентагона дата-центров увеличилась вдвое.
@derplearning
или "Sora мертва, Anthropic судится с Пентагоном, а GPT-5.4 стал первым
OpenAI закрывает Sora. Да, ту самую Sora, которую джва года ждали. Вебапп умрёт 26 апреля, API - в сентябре. Причина - "неустойчивая экономика видеогенерации в масштабе". Дисней подписал с ними контракт на $1 млрд в декабре - и теперь этот контракт летит в помойку вместе с Sora.
Не знаю, связано или нет, но OpenAI отменило закупку 40% мирового объёма памяти и разорвало контракты с Samsung и SK Hynix. Хоть какие-то хорошие новости. Держатели акций, фиксируем прибыль.
Anthropic vs Пентагон. Anthropic отказались разрешить использование Claude в автономных системах вооружений. В ответ Пентагон объявил их supply chain risk - ярлык, который обычно вешают на иноагентов (в хорошем? смысле этого слова). Федеральный судья: "это выглядит как попытка уничтожить компанию" и временно заблокировал бан. OpenAI тем временем тихонько подписали новый контракт с DoD (а с недавних пор department of war), что вызвало внутренний бунт и как минимум одну публичную отставку.
GTC 2026 (16-19 марта). Jensen показал Vera Rubin, заявил $1T+ в пайплайне инфраструктурных заказов, представил Nemotron Coalition (Mistral, Perplexity, Cursor). Physical AI и robotics впервые вышли на главную сцену. Agentic AI из слайдов переехал в продакшен - Fortune 500 показывали реальные деплои, не демки.
MCP перевалил за 97 миллионов установок. Agentic tooling - это уже не "интересный эксперимент", это стандарт.
Morgan Stanley предупредил о дефиците электроэнергии в США на 9-18 ГВт из-за AI compute. Загруженность пиццерии возле
@derplearning
❤12🔥8
Forwarded from Нейросети и Блендер
This media is not supported in your browser
VIEW IN TELEGRAM
На Reddit завирусился отличный пример разоблачения:
скаммера с дипфейк-лицом попросили поднести 3 пальца к лицу просто чтобы подтвердить, что перед ними не AI.
👍 На этом моменте он просто вышел из звонка.
Если хотите быстрее вычислять таких ребят, вот ещё пара простых проверок:
• попросите человека повернуть голову вбок или назад. На таких движениях AI модельки часто начинают сыпаться
• внимательно посмотрите на волосы, линию роста волос и края лица. Там артефакты часто заметнее всего
🚨 Если бы Kling 3.0 или Seedance 2.0 могли бы в realtime, то тут уже наверное я бы попросил дверь открыть или покрутиться на кресле раз 5.
скаммера с дипфейк-лицом попросили поднести 3 пальца к лицу просто чтобы подтвердить, что перед ними не AI.
Если хотите быстрее вычислять таких ребят, вот ещё пара простых проверок:
• попросите человека повернуть голову вбок или назад. На таких движениях AI модельки часто начинают сыпаться
• внимательно посмотрите на волосы, линию роста волос и края лица. Там артефакты часто заметнее всего
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19😁14
axios@1.14.1 - или русская рулетка в npm install
axios - самый популярный HTTP-клиент в npm, 100M+ скачиваний в неделю. Сегодня выяснилось, что версия 1.14.1 тянет за собой plain-crypto-js@4.2.1 - пакет, которого вчера не существовало. Классический supply chain attack.
Под раздачу также попал axios@0.30.4 (для тех кто на легаси и думал что в безопасности - нет).
Что делает малварь:
- деобфусцирует payload в рантайме
- динамически подгружает fs, os, execSync чтобы обойти статический анализ
- выполняет shell команды
- копирует файлы в temp и ProgramData
- удаляет следы после себя
Все по классике - обфусцированный dropper который сам за собой убирает.
Если у вас axios - пинните версию, проверяйте lockfile, не обновляйтесь. npm audit вам не поможет, он уже давно декоративный.
100 миллионов скачиваний в неделю. Один npm install - и твоя циска в зоне риска.
Обколются своими агентами и вайбкодятдруг друга
Тред
@derplearning
axios - самый популярный HTTP-клиент в npm, 100M+ скачиваний в неделю. Сегодня выяснилось, что версия 1.14.1 тянет за собой plain-crypto-js@4.2.1 - пакет, которого вчера не существовало. Классический supply chain attack.
Под раздачу также попал axios@0.30.4 (для тех кто на легаси и думал что в безопасности - нет).
Что делает малварь:
- деобфусцирует payload в рантайме
- динамически подгружает fs, os, execSync чтобы обойти статический анализ
- выполняет shell команды
- копирует файлы в temp и ProgramData
- удаляет следы после себя
Все по классике - обфусцированный dropper который сам за собой убирает.
Если у вас axios - пинните версию, проверяйте lockfile, не обновляйтесь. npm audit вам не поможет, он уже давно декоративный.
100 миллионов скачиваний в неделю. Один npm install - и твоя циска в зоне риска.
Обколются своими агентами и вайбкодят
Тред
@derplearning
1😱35🔥5❤1🤬1🤩1🗿1
Forwarded from Neural Shit
Я в резюме: загляните на мой гитхаб, там шикарные проекты!
Мои проекты:
Мои проекты:
This media is not supported in your browser
VIEW IN TELEGRAM
❤24🔥13🤣12👍5🎉2🫡1
Ffmpeg перепишут на расте для вашей безопасности. Он и так быстрый слишком.
Тред
С 1 апреля конечно же
@derplearning
Тред
@derplearning
😁47🔥4😱2❤1👍1🗿1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
RawGen: Image2Raw и Text2Raw
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
🎉3
Мем смешной, ситуация страшная (с)
В последнее время Клод жрет токены как не в себя, и юзеры жалуются, что одни и те же задачи теперь стоят в 5 раз больше токенов.
reddit
В последнее время Клод жрет токены как не в себя, и юзеры жалуются, что одни и те же задачи теперь стоят в 5 раз больше токенов.
😢17😱8💯2😁1
Forwarded from Neural Shit
Интересное исследование от стэнфордских исследователей: пишут, что наше хвалёное компьютерное зрение это очень часто просто чушь, поданная с полной уверенностью.
Авторы вскрыли "эффект миража". Это когда мы просим нейронку описать картинку, которую забыли прикрепить (ну или она не прогрузилась по дороге), а кремниевый болван вместо того, чтобы сказать “бро, ты забыл загрузить изображение", начинает затирать про детали: какой там рентген, какие птички на ветках, какие цифры на номерах машины и т.д.
Самое интересное в препринте:
— Зрительные миражи: современные мультимодалки в среднем чаще чем в 60% случаев уверенно описывают несуществующие изображения. А при некоторых инструкциях у многих моделей эта хрень доходит вообще до 90–100%. Никаких “картинка не загружена”. Только уверенный полёт фантазии.
— Бенчмарки местами мусор: авторы показывают, что без картинок модели сохраняют в среднем 70–80% своей якобы “визуальной” точности. Тоесть огромный кусок успеха в “визуальных” тестах добывается тупо по тексту вопроса, скрытым паттернам датасета и статистике ответов.
— Медицинская беда: если изображения нет, модель не просто тупит, а часто начинает видеть патологию. В их примерах миражи в медицине заметно смещены в сторону всякой жести: меланом, карцином и прочих спидораков. Тоесть если картинка потерялась в пайплайне, эта скотина может не признать отсутствие данных, а уверенно сочинить диагноз.
— Унижение гигантов: исследователи взяли сравнительно мелкую модель Qwen-2.5 на 3 млрд параметров, дообучили её угадывать ответы по chest X-ray benchmark без картинок, и этот мелкий пиздюк обогнал и гигантские модели, и в среднем живых радиологов. Просто потому, что научился читать не снимки, а саму структуру теста.
Для лечения этой шизы они предлагают метод B-Clean: вычищать из бенчмарков все вопросы, которые модели могут брать без реального зрения, чтобы оценивать не мастерство врать, а хоть какое-то настоящее использование картинки.
тут статья
Авторы вскрыли "эффект миража". Это когда мы просим нейронку описать картинку, которую забыли прикрепить (ну или она не прогрузилась по дороге), а кремниевый болван вместо того, чтобы сказать “бро, ты забыл загрузить изображение", начинает затирать про детали: какой там рентген, какие птички на ветках, какие цифры на номерах машины и т.д.
Самое интересное в препринте:
— Зрительные миражи: современные мультимодалки в среднем чаще чем в 60% случаев уверенно описывают несуществующие изображения. А при некоторых инструкциях у многих моделей эта хрень доходит вообще до 90–100%. Никаких “картинка не загружена”. Только уверенный полёт фантазии.
— Бенчмарки местами мусор: авторы показывают, что без картинок модели сохраняют в среднем 70–80% своей якобы “визуальной” точности. Тоесть огромный кусок успеха в “визуальных” тестах добывается тупо по тексту вопроса, скрытым паттернам датасета и статистике ответов.
— Медицинская беда: если изображения нет, модель не просто тупит, а часто начинает видеть патологию. В их примерах миражи в медицине заметно смещены в сторону всякой жести: меланом, карцином и прочих спидораков. Тоесть если картинка потерялась в пайплайне, эта скотина может не признать отсутствие данных, а уверенно сочинить диагноз.
— Унижение гигантов: исследователи взяли сравнительно мелкую модель Qwen-2.5 на 3 млрд параметров, дообучили её угадывать ответы по chest X-ray benchmark без картинок, и этот мелкий пиздюк обогнал и гигантские модели, и в среднем живых радиологов. Просто потому, что научился читать не снимки, а саму структуру теста.
Для лечения этой шизы они предлагают метод B-Clean: вычищать из бенчмарков все вопросы, которые модели могут брать без реального зрения, чтобы оценивать не мастерство врать, а хоть какое-то настоящее использование картинки.
тут статья
🏆23🔥8😁6❤2💯2🤣2😱1
Forwarded from Борис опять
Астронавты Artemis II сделали красивые фото Земли в высоком разрешении, тут и тут можно скачать себе новые обои.
Еще, оказывается, есть лайв трансляция на Youtube прямо с корабля. What a time to be alive
Еще, оказывается, есть лайв трансляция на Youtube прямо с корабля. What a time to be alive
NASA
Artemis II Captures the Terminator Line - NASA
art002e000190 (April 3, 2026) - A view of Earth taken by NASA astronaut and Artemis II Commander Reid Wiseman from one of the Orion spacecraft's four windows after completing the translunar injection burn on April 2, 2026.
❤3👍1