Media is too big
VIEW IN TELEGRAM
Наконец-то что-то действительно годное в VR, и ЭТО, МАТЬ ЕГО, НАСТОЯЩИЙ РАБОЧИЙ ТОКАРНЫЙ СТАНОК.
вот что пишет сам разработчик:
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
вот что пишет сам разработчик:
VR-токарный станок готов!! И на нём можно реально выполнять обработку!
Поскольку основные операции почти полностью воспроизведены, он может быть использован в качестве учебного пособия по токарному делу.
Как всегда, моделирование и система — чистая разработка Reso.
Хочу сказать вам заранее, пока ваши ожидания не стали слишком высоки:
[Что ещё не реализовано]:
-Обработка торцов
-Обработка свободных криволинейных поверхностей
-Нарезание резьбы
-Сверление (сложно создать сверло с помощью Reso)
-Непрерывное отрезание (подрезка)
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
Читая чаты про AI-кодинг, кажется, что существует два абсолютно разных мира:
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провелигаражную ангарную конфу месяц назад
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провели
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
Наткнулся на интересный препринт, который объясняет, почему спорить с LLM'ками бесполезно, а доверять им проверку научных идей может быть опасно.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Zenodo
Structural Inducements for Hallucination in Large Language Models: An Output-Only Case Study and the Discovery of the False-Correction…
This paper presents an output-only case study demonstrating structural inducements toward hallucination and reputational harm in a production-grade large language model (“Model Z”). Through a single extended dialogue, the study documents four reproducible…
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Больше нанотрюков для Нанабананы.
Промпт:
Получаем вид на гору Маттерхорн (отличное горнолыжное место, кстати, покупаешь скипасс в итальянской Червинии, а кататься можно в швейцарском Цермате, переход по тоннелю на высоте 3800, горняшка душит конкретно)
Идем в Гугл Мапс и кликаем точки на карте (делаем пины), копируем координаты типа 59°56'09.8"N 30°19'17.7"E - для одной из улиц Питера и вставляем в промпт.
Интересно, что Банана как будто делает "обобщенные" фотки на основе того, что навалено в интернете. Я поигрался с Кипром - безбожно врет береговую линию и даже для точек в горах рисует море. Ну то есть настроение передает правильно, но реальность придумывает, хотя и очень похожую на правду.
@cgevent
Промпт:
Create an image of 45°58′35″N 7°39′31″E at sunsetПолучаем вид на гору Маттерхорн (отличное горнолыжное место, кстати, покупаешь скипасс в итальянской Червинии, а кататься можно в швейцарском Цермате, переход по тоннелю на высоте 3800, горняшка душит конкретно)
Идем в Гугл Мапс и кликаем точки на карте (делаем пины), копируем координаты типа 59°56'09.8"N 30°19'17.7"E - для одной из улиц Питера и вставляем в промпт.
Интересно, что Банана как будто делает "обобщенные" фотки на основе того, что навалено в интернете. Я поигрался с Кипром - безбожно врет береговую линию и даже для точек в горах рисует море. Ну то есть настроение передает правильно, но реальность придумывает, хотя и очень похожую на правду.
@cgevent
Forwarded from Ai molodca (Alexander Dobrokotov)
Сколько стоит нейро-видео: результаты 💵
Готово. Поработал с данными в Gemini 3 и Claude, принес вам любопытный лонгрид.
✨ ЧИТАТЬ ✨
Внутри:
Почему один нейро-ролик стоит 3 625 ₽, а другой — 3 000 000 ₽?
Что на самом деле продают специалисты — генерации или ответственность?
Кто берёт 300к+ за видео?
Ну и много другое: цены, сегменты, профессии, топ-10% и экономика.
Ремарка: не думаю, что это истина в последней инстанции, все-таки нужна побольше выборка, но среднюю температура по больнице можно пощупать.
Ну и спасибо за ответы! В 2026 повторим.
Готово. Поработал с данными в Gemini 3 и Claude, принес вам любопытный лонгрид.
Внутри:
Почему один нейро-ролик стоит 3 625 ₽, а другой — 3 000 000 ₽?
Что на самом деле продают специалисты — генерации или ответственность?
Кто берёт 300к+ за видео?
Ну и много другое: цены, сегменты, профессии, топ-10% и экономика.
Ремарка: не думаю, что это истина в последней инстанции, все-таки нужна побольше выборка, но среднюю температура по больнице можно пощупать.
Ну и спасибо за ответы! В 2026 повторим.
Please open Telegram to view this post
VIEW IN TELEGRAM
Официально: мы живем в эпоху цифрового мусора. Австралийский словарь Macquarie Dictionary (авторитетные ребята) выбрал главное слово года, и это слово — "AI Slop".
Люди, кстати, полностью поддержали выбор жюри в народном голосовании.
P.S.: Кембриджский словарь на днях выбрал свое слово — "Parasocial" (парасоциальный). Это про наши односторонние отношения с ИИ-ботами.
Люди, кстати, полностью поддержали выбор жюри в народном голосовании.
P.S.: Кембриджский словарь на днях выбрал свое слово — "Parasocial" (парасоциальный). Это про наши односторонние отношения с ИИ-ботами.
www.abc.net.au
Macquarie Dictionary names 'AI slop' as word of the year 2025
'AI slop' refers to low-quality content created by generative AI which often contains errors and is not requested by the user, according to Macquarie.
Там Антропики выкатили Claude Opus 4.5.
Что имеем:
Цена: внезапно, аттракцион невиданной щедрости ($$5/25 против $15/75 у Opus 4.1)
Фичи: завезли параметр "effort". Теперь можно крутить ручку "напряжения мозгов". Хочется быстро — ставим поменьше, хочется, чтобы думал усерднее — ставим high.
Наконец-то научили его зумить картинку. Если раньше он часто мисскликал и тыкался в интерфейсы как слепой котенок, то теперь может присмотреться к мелким кнопкам.
Anthropic мамой клянутся, что это лучшая модель для кодинга и сложных агентов. Якобы рвет всех в бенчмарках. Но мы-то с вами знаем....
Честно, я к Клоду отношусь максимально равнодушно и почти им не пользуюсь. Слишком много сои, морализаторства и вечных "я не могу это сделать, это неэтично". Я плотно сижу на Gemini, она как-то роднее и меньше душнит.
Решил сегодня дать Клоду 4.5 шанс. Настраивал домашний роутер, нужно было прописать банальные правила для файрвола. Описал ему задачу, в промпте капсом упомянул:
И он сразу же завернул вообще весь трафик до админки в туннель. А я, конечно же, доверился этому чугунному болванчику и скопировал всё это дело не глядя (а после поехал в магазин за патч-кордом). Яснопонятно, что сам дурак и тот же Gemini мог поступить так же, но всё равно какой-то осадочек есть.
Что имеем:
Цена: внезапно, аттракцион невиданной щедрости ($$5/25 против $15/75 у Opus 4.1)
Фичи: завезли параметр "effort". Теперь можно крутить ручку "напряжения мозгов". Хочется быстро — ставим поменьше, хочется, чтобы думал усерднее — ставим high.
Наконец-то научили его зумить картинку. Если раньше он часто мисскликал и тыкался в интерфейсы как слепой котенок, то теперь может присмотреться к мелким кнопкам.
Anthropic мамой клянутся, что это лучшая модель для кодинга и сложных агентов. Якобы рвет всех в бенчмарках. Но мы-то с вами знаем....
Честно, я к Клоду отношусь максимально равнодушно и почти им не пользуюсь. Слишком много сои, морализаторства и вечных "я не могу это сделать, это неэтично". Я плотно сижу на Gemini, она как-то роднее и меньше душнит.
Решил сегодня дать Клоду 4.5 шанс. Настраивал домашний роутер, нужно было прописать банальные правила для файрвола. Описал ему задачу, в промпте капсом упомянул:
.....накидай правила, ТОЛЬКО, ПОЖАЛУЙСТА, ХОРОШЕНЬКО ПОДУМАЙ, ЧТОБЫ Я СЛУЧАЙНО НЕ ОТРЕЗАЛ СЕБЕ ДОСТУП К АДМИНКЕ ПО WI-FI, НЕ ХОЧЕТСЯ ИСКАТЬ ПАТЧ-КОРД И СБРАСЫВТЬ РОУТЕР
И он сразу же завернул вообще весь трафик до админки в туннель. А я, конечно же, доверился этому чугунному болванчику и скопировал всё это дело не глядя (а после поехал в магазин за патч-кордом). Яснопонятно, что сам дурак и тот же Gemini мог поступить так же, но всё равно какой-то осадочек есть.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Пару лет назад генерировал нейронками для этого канала странные идеи для патентов.
Сейчас решил всё это дело попробовать визуализировать с помощью новой нанобананы.
1. Кофемашина с функцией массажа жоп.
2. Будильник, работающий на основе слёз
3. Массажное кресло для кур, улучшающее качество яйца
4. Светильник, работающий на энергии крика
5. Методика засолки огурцов с использованием космических лучей
6. Микроволновая печь с встроенной функцией караоке
7. Способ увеличения растений с помощью нытья
Сейчас решил всё это дело попробовать визуализировать с помощью новой нанобананы.
1. Кофемашина с функцией массажа жоп.
2. Будильник, работающий на основе слёз
3. Массажное кресло для кур, улучшающее качество яйца
4. Светильник, работающий на энергии крика
5. Методика засолки огурцов с использованием космических лучей
6. Микроволновая печь с встроенной функцией караоке
7. Способ увеличения растений с помощью нытья