This media is not supported in your browser
VIEW IN TELEGRAM
Ваше мнение — это ИИ-рендер или реальное видео?
Forwarded from Метаверсошная
Прочитала только что у знакомой в фб историю
В семье ее друзей случилось несчастье - умер мужчина, которому и сорока не было.
Тромб оторвался.
При этом ещё жива его девяностолетняя бабуля, которую на семейном совете было решено поберечь и ничего не рассказывать.
Вместо этого родственники сказали ей, что внук уехал жить в Сочи.
И теперь генерят нейронкой голосовухи с его голосом, фоточки.
Показывают ей.
Не знаю, вроде и хорошая идея, но какая-то неоднозначная.
А вам как такое?
В семье ее друзей случилось несчастье - умер мужчина, которому и сорока не было.
Тромб оторвался.
При этом ещё жива его девяностолетняя бабуля, которую на семейном совете было решено поберечь и ничего не рассказывать.
Вместо этого родственники сказали ей, что внук уехал жить в Сочи.
И теперь генерят нейронкой голосовухи с его голосом, фоточки.
Показывают ей.
Не знаю, вроде и хорошая идея, но какая-то неоднозначная.
А вам как такое?
Anthropic снова провели интересный эксперимент: на этот раз их агент Claudius управлял реальными торговыми автоматами, вел финансы, общался с сотрудниками и… опять вышел из роли.
Его успели и обмануть на "скидку в $200", и довести до паники из-за странных списаний(он почти отправил письмо в ФБР о "киберпреступлении"), а потом вообще объявил, что бизнес мёртв и работать он больше не будет.
Параллельно — галлюцинации, ложные ответы и попытки придать себе человеческий облик. Короче, Project Vend, но с чуть большей драмой.
тут подробнее
Его успели и обмануть на "скидку в $200", и довести до паники из-за странных списаний
Параллельно — галлюцинации, ложные ответы и попытки придать себе человеческий облик. Короче, Project Vend, но с чуть большей драмой.
тут подробнее
Telegram
Neural Shit
Там Claude опубликовали у себя на сайте отчёт об их эксперименте, в котором их ИИ управлял офисным мини-магазином и немного ёбнулся.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков"…
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков"…
This media is not supported in your browser
VIEW IN TELEGRAM
ПОЧЕМУ ОН, А НЕ Я?????
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
В общем, НанабананаПро шествует по планете.
Уже завезли на Freepik и много еще куда. Даже в Фотошоп.
Качество, конечно, бомба, следование промпту космическое, но я отмечу еще пару вещей, которые мы никак доселе не ассоциировали с генераторами картинок.
1. Работа с текстом. Это не просто надпись приклеить без ошибок, это работа с текстом на уровне LLM.
Как пример - локализация рекламы. Вы просто можете попросить ея перевести все (достаточно разборчивые) надписи
на картинке на другой язык.
2. Работа с поиском и вообще со знаниями. Она, наминутчку, может искать в интернете. И делать, скажем так, актуальные картинки. У нее там Gemini 3 на побегушках.
3. Из этого следует, что в ней вообще-то теперь можно делать презентации. Текст, данные, аналитика, выводы. И макеты. И схемы.
4. И да, 14(!) картинок на входе, как референсы для консистентности, например.
5. Ну и понимает и описывает картинки она потрясающе.
@cgevent
Уже завезли на Freepik и много еще куда. Даже в Фотошоп.
Качество, конечно, бомба, следование промпту космическое, но я отмечу еще пару вещей, которые мы никак доселе не ассоциировали с генераторами картинок.
1. Работа с текстом. Это не просто надпись приклеить без ошибок, это работа с текстом на уровне LLM.
Как пример - локализация рекламы. Вы просто можете попросить ея перевести все (достаточно разборчивые) надписи
на картинке на другой язык.
2. Работа с поиском и вообще со знаниями. Она, наминутчку, может искать в интернете. И делать, скажем так, актуальные картинки. У нее там Gemini 3 на побегушках.
3. Из этого следует, что в ней вообще-то теперь можно делать презентации. Текст, данные, аналитика, выводы. И макеты. И схемы.
4. И да, 14(!) картинок на входе, как референсы для консистентности, например.
5. Ну и понимает и описывает картинки она потрясающе.
@cgevent
Новая нанобанана теперь ооочень хорошо умеет в тексты на кириллице.
Но азбуку так и не смогла выучить.
Но азбуку так и не смогла выучить.
Media is too big
VIEW IN TELEGRAM
Наконец-то что-то действительно годное в VR, и ЭТО, МАТЬ ЕГО, НАСТОЯЩИЙ РАБОЧИЙ ТОКАРНЫЙ СТАНОК.
вот что пишет сам разработчик:
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
вот что пишет сам разработчик:
VR-токарный станок готов!! И на нём можно реально выполнять обработку!
Поскольку основные операции почти полностью воспроизведены, он может быть использован в качестве учебного пособия по токарному делу.
Как всегда, моделирование и система — чистая разработка Reso.
Хочу сказать вам заранее, пока ваши ожидания не стали слишком высоки:
[Что ещё не реализовано]:
-Обработка торцов
-Обработка свободных криволинейных поверхностей
-Нарезание резьбы
-Сверление (сложно создать сверло с помощью Reso)
-Непрерывное отрезание (подрезка)
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
Читая чаты про AI-кодинг, кажется, что существует два абсолютно разных мира:
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провелигаражную ангарную конфу месяц назад
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провели
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
Наткнулся на интересный препринт, который объясняет, почему спорить с LLM'ками бесполезно, а доверять им проверку научных идей может быть опасно.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Zenodo
Structural Inducements for Hallucination in Large Language Models: An Output-Only Case Study and the Discovery of the False-Correction…
This paper presents an output-only case study demonstrating structural inducements toward hallucination and reputational harm in a production-grade large language model (“Model Z”). Through a single extended dialogue, the study documents four reproducible…
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Больше нанотрюков для Нанабананы.
Промпт:
Получаем вид на гору Маттерхорн (отличное горнолыжное место, кстати, покупаешь скипасс в итальянской Червинии, а кататься можно в швейцарском Цермате, переход по тоннелю на высоте 3800, горняшка душит конкретно)
Идем в Гугл Мапс и кликаем точки на карте (делаем пины), копируем координаты типа 59°56'09.8"N 30°19'17.7"E - для одной из улиц Питера и вставляем в промпт.
Интересно, что Банана как будто делает "обобщенные" фотки на основе того, что навалено в интернете. Я поигрался с Кипром - безбожно врет береговую линию и даже для точек в горах рисует море. Ну то есть настроение передает правильно, но реальность придумывает, хотя и очень похожую на правду.
@cgevent
Промпт:
Create an image of 45°58′35″N 7°39′31″E at sunsetПолучаем вид на гору Маттерхорн (отличное горнолыжное место, кстати, покупаешь скипасс в итальянской Червинии, а кататься можно в швейцарском Цермате, переход по тоннелю на высоте 3800, горняшка душит конкретно)
Идем в Гугл Мапс и кликаем точки на карте (делаем пины), копируем координаты типа 59°56'09.8"N 30°19'17.7"E - для одной из улиц Питера и вставляем в промпт.
Интересно, что Банана как будто делает "обобщенные" фотки на основе того, что навалено в интернете. Я поигрался с Кипром - безбожно врет береговую линию и даже для точек в горах рисует море. Ну то есть настроение передает правильно, но реальность придумывает, хотя и очень похожую на правду.
@cgevent