Странный предмет
607 subscribers
497 photos
18 videos
3 files
256 links
Источник песен и басен
Download Telegram
Курсор(точнее клауда, видимо) не умеет работать с символом �, постоянно его теряет при редактировании строки. Но, сука, описывает изменения так, как будто он это сделал специально.

Напоминает эксперименты Либета или рационализацию в психологии — когда человек сначала сделал какую-то херню, а потом подвел обоснование под то, почему он это сделал, очень разумное, красивое, но не имеющее смысла.

Прикладная психология LLM, блин.
1😁12🤔1🤡1
Навайбкодил еще одного бота: @caldavllm_bot
К нему можно подключить caldav-календарь, а потом присылать ему текст в виде "4 числа готовы ботинки" или "с 30 до 4 числа забрать заказ", или просто пересылать сообщения о каких-нибудь записях к врачу, и он это парсит, делает из этого событие и добавляет в календарь. Внутри — парсинг с LLM, конкретнее, запрос к deepseek (можно что угодно использовать, deepseek адски дешевый прост, я за все время потратил не больше 20 рублей, а у меня там только на тесты ушло тыщи две запросов). Делает он это с помощью огромного промта на две страницы (в исходниках можно найти).
Можете использовать этот инстанс (там ограчение примерно на 20 использований в день), можете поднять у себя, docker compose ready: https://github.com/vvzvlad/caldavllm_bot

Активно пользуюсь пару дней, удобно. Единственный минус — если у вас календарь не у гугла и не у фастмайла, надо погуглить caldav-адрес вашего сервиса. Если найдете для какого-нибудь сервиса, маякните в комментарии, добавлю для него быструю команду.
111🔥5👍3🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
Сейсмостанции в европе увидели волну от землетрясения в тайланде
1🔥16👍2😍2🤯1
https://tttttt.me/meow_design/1649

Чувак говорит о том, что когда вы показываете какой-то проект в уже готовом виде, обьем работы над которым неочевиден (дизайн, лозунг какой-нибудь), то очень сложно обосновать, почему вот за эти три слова или простой логотип надо щас отдать много-много денег (хотя работа над ним была проведена реально большая). Просто потому что на возражение "что сложного в словах intel inside?" ответить очень сложно, если все эти слова уже увидели.
И он предлагает вариант: презентовать не только готовый результат, но еще и показывать процесс и все этапы разработки.
Очень с этим согласен: мы пару раз заказывали дизайн и нам его презентовали именно в таким виде, и это выглядело очень круто.
1❤‍🔥7👍41🥱1
ваще насрать на игровые консоли, но это клевое!
8🔥1🥰1
Второй день в ухаха
10😁3
1😁19👍2🔥1
Представьте, вы дизайнер и долго-долго дрочите логотип, чтобы была и типографика красивая, и смотрелось хорошо...
А потом приходит производство и такое "хахаха, ебали мы вас в рот"
😁14😭7
https://habr.com/en/companies/yandex/articles/897626/
Яндекс долбоебы оказывается. "Пук-среньк, мы не закрыли наш ДЦ ДГУ патамучта ну не могут же оба луча упасть одновременно, мы такого не видели". Оказывается, могут. Читать что там эти Uptime Institute понаписали? Да нахуя.
Не, ок, если мы свои сервисы там хостите и у вас инфра переживает падение ДЦ, то стройте его как хотите, ваше дело. Но блядь, у вас там виртуалки клиентов вашего облака (не самого дешевого кстати) без резерва живут, у вас ничего в голове не щелкает? Упасть по питания (и не потому что ДГУ сутки проработало, а потом дизель кончился, это хотя бы сильно нештатная ситуация, а тупо в первые же минуты, как ибп сдох) — это прям совсем днищенский уровень же, а.
Недавно кстати https://1984.hosting/ тоже упал по питанию, но им хотя бы простительно, они в чужом ДЦ живут.
5🔥3💯2
Вот кстати в чатике меня натолкнули на интересную мысль. Короче, есть А. — по сравнению с ней я апологет ИИ, потому что применяю очень много его в программировании, а она его отрицает, в связи с чем мы часто сремся.
Но по меркам некоторых людей, отрицатель ИИ — это я, потому что в куче ситуаций они его используют, а я нет. Почему? Потому что я ему не доверяю — множество примеров, где я ловил LLM на том, что они пишут ответ так, как я бы его хотел увидеть, а не так, как реально правда (выше пример с японскими машинистами и часами).

Короче, критерий — это верифицируемость результата. Типа, если я сам могу сделать штуку (узнать, найти, и тд), то мне не нужен ИИ. Если я _знаю_ какое вино подается к рыбе или могу это понять/узнать из первой ссылки в гугле или из значков в винной карте, то зачем мне показывать меню ИИ? А вот если я _не_знаю_ и не могу легко это узнать, то мне тоже нет смысла показывать меню ИИ — потому что я не смогу отличить пиздеж ИИ от реальных ответов, потому что для меня не существует возможность проверить правильность совета — любое "мне не нравится", я могу отнести на счет того, что я просто быдло в вине и не понимаю.
Поэтому тут для меня совет ИИ равнозначен тыканью пальцем в рандомную строчку. Плюс в тыканье пальцем в том, что я все же делаю какие-то выводы из прошлых опытов, и лучше запоминаю что же именно я выбрал и почему это стоит/не стоит делать в следующий раз.

А вот программирование — одна из немногих областей, где сложно делать штуки, но относительно легко их проверять. Условно, код на 2кб — сложный. Но проверить что он делает то, что мне надо — довольно просто. Если проверять становится сложнее, то можно написать тесты на каждый аспект. Поэтому "умный идиот" ИИ просто не имеет шансов тут серьезно накосячить — слишком легко проверить результат и сказать "ты сделал херню, переделай".

Из других примеров задач с легкой верификацией — это генерация картинок (нарисовать картинку сложно, а вот посмотреть на нее и понять, нравится она мне или нет — просто) и всякое "сколько энергии в тротиловом эквиваленте в человеке, летящем в самолете" (в режиме калькулятора llm ошибается редко и чаще всего в тупых вещах, которые ловятся просмотром цепочки расчетов, что сделать сильно проще, чем считать вручную).
Ну еще пожалуй, поиск в интернете. Просмотреть 100 ссылок занимает время, а вот когда ссылка найдена, проверить что в ней то, что мне надо — надо очень мало времени.
23🥰10👍9💯61🔥1
50💅9💯1
10👀113😁3🫡1
🤣18😨3🔥1😁1
МНЕ НАДО
1👍179🤣8😁4🤡1