ElKornacio
11.1K subscribers
180 photos
58 videos
1 file
226 links
Авторский канал про технологии и бизнес.
Тут матерятся (и дают качественную аналитику).
@sewald
Download Telegram
сам не верю, что это происходит. прошлый видос я записал месяца 3 назад. уф 🙂

⚡️ сравниваем GPT-5-Codex и Sonnet-4.5! ⚡️

https://www.youtube.com/watch?v=AYG7Pn0MG6Y
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥33👍163🎉2
про китайцев, правда, забыли 🍤
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁796👍1
Forwarded from ElKornacio
блин, ребята, читаю что мне в ЛС пишут + мониторю чаты по кодингу с AI, и существует два поразительно разных мира

в одном мире чуваки обмазываются с ног до головы всякими таскмастерами/context7/supercode/memory bank/roo commander/и так далее, пишут какие-то собственные кастом-моды, каталоги правил, используют не просто агентов, а целые группы разных агентов

в другом - особо никто даже агентов не юзает, в лучшем случае - чистый Курсор/JetBrains(с ai), а в худшем случае вообще пишут код в chatgpt/deepseek-чате.

мне кажется этот разрыв существует в основном потому, что второй группе людей не хочется тратить десятки часов на изучение кучи разношерстных инструментов и их настройку.

попробую как-нибудь найти время и подробно расписать то, как у меня настроена среда, как и чем я пользуюсь, и как можно оч быстро настроить себе тоже самое.
104🔥121👍478😁1
часто думаю про этот свой пост (выше ^).
забавно, прошло почти полгода, а ситуация только усугубилась.

новые модели почти неотличимы по качеству - если дать вслепую поработать с Sonnet 4.5/Opus/GPT-5-codex - 99% не смогут определить, что за модель сейчас выполняла задачу. выигрыш от смены одной топ-модели на другую - проценты.

при этом, разрыв между разрабом, который реально умеет в ИИ-инструменты для кодинга и тем, кто просто копипастит таски из джиры в чат Курсора - десятки процентов (типа, буквально. тот же metr/стенфордский рисерч это явно показывают).

одна из главных проблем ИИ-тулов: они _выглядят_ простыми. вы видите окно чата, печатаете "сделай это", и оно делает. эта обманчивая простота создаёт ощущение, что погружаться не нужно - ну что вы, сообщение в чат не напишите что ли? а если ИИ выдал плохой результат - так это потому что он тупой, а не потому, что 90% юзеров тратят < 15 минут на изучение инструмента.

дополнительная беда - даже если ты хочешь разобраться в теме, 80% гайдов в инете про "вайб-кодинг" нацелены на не-разработчиков. у них другие потребности, другие паттерны использования. им плевать на качество результирующего кода, техдолг, прочие вещи.

инфу о том, как _разработчику_ профессионально юзать ИИ для своих задач, как выстраивать целые пайплайны, снижать техдолг, настраивать специализированных агентов и прочее, найти безумно сложно, её приходится по крупицам собирать во всяких авторских блогах.

14 октября я и ещё 9 топовых ребят будем рассказывать именно про это: как AI-инструментами кратно ускорять разработку. без воды, буллщита, с максимальной заточкой под ЦА разработчиков, CTO, тимлидов, etc.

спикеры - это прям огненные чуваки, которых я читаю сам - Максим, у которого офигенные детальные разборы новых тулов, Глеб - автор shotgun, Саша, у которого я читаю разборы пейперов, и другие крутые эксперты.

в общем, это must see, особенно учитывая, что есть вариант бесплатного участия.

⚡️ велком: ai-dev.live ⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥6323👍10🤡64
блин, ребята, вот всё понимаю, OpenAI, DevDay, всё такое.
но вот все, кто писаются кипятком от agent kit / agent builder - вы чего?
почему это позиционируется как революция? шопроисходит?

вы же понимаете что это gate-keeped пропиетарный аля-n8n, который отстаёт на 95% по функционалу и привязан к openai api? даже если, дай бог, со временем там будут не-openai модели - он всё равно отстаёт по функционалу и коммьюнити от n8n / zapier невероятно.

это же просто очередной not-invented-here от OpenAI. смотрю посты в некоторых каналах, и прям ужасаюсь от того, как любой инфоповод пытаются обернуть в "это революция". я потыкал - там функциональный разрыв с n8n примерно как у калькулятора с макбуком.

уф 🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
248💯27👍13🔥9😁8🥴2👏1🤯1
👀 ой, а что это тут у нас вышло? 👀

https://www.youtube.com/watch?v=t-X1KR29Gpg

P.S. давно хотел попробовать монтировать сам. с большим кол-вом визуала мне нравится больше, как будто приятнее смотреть. что думаете?

P.P.S. обещанный в видео файл с glm cli: вот ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥53👍12🥰52
ElKornacio
👀 ой, а что это тут у нас вышло? 👀 https://www.youtube.com/watch?v=t-X1KR29Gpg P.S. давно хотел попробовать монтировать сам. с большим кол-вом визуала мне нравится больше, как будто приятнее смотреть. что думаете? P.P.S. обещанный в видео файл с glm cli:…
кажется, получился бэнгер. одно из самых быстро-растущих видео на канале, и уровень лайков какой-то бешенный - каждый 10 зритель поставил лайк.

в общем, не пропускайте, видимо с визуальными вставками вам заходит больше, чем 30 минут сухой болтовни 🙂

P.S. обещанный в видео файл с glm cli: вот ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
129👍26🔥12
давайте от развлекательно-практического контента к чутка более сложному.
оч зашёл новый paper от Samsung - и он сейчас начал круто хайпить в твиттере.

они представляют новый класс моделей - Tiny Recursion Model - TRM.
предельно простая концепция, которая мне очень напомнила работу диффузоров - делаем много маленьких итераций, на каждом шаге чуть-чуть улучшая качество ответа, прежде чем отдать его юзеру. за счёт использования маленьких сеток вместо огромных эти итерации происходят очень быстро, а качество не падает.
более того: в определённом спектре задач требующих итеративных рассуждений (головоломки, загадки, всякие логические фокусы), модель превосходит текущие решения (Sudoku-Extreme с ~55% до 87%, Maze-Hard с ~75% до 85%, на тестах по "здравому смыслу" ARC: ARC-AGI-1 - 45%, ARC-AGI-2 - 8%).
а обучение таких сеток выходит дешевле и проще в силу их очень мелкого размера (~7M параметров).

короче, очень люблю когда исследователи тестят новые концепции / архитектуры моделек. на мой вкус, с выхода dLLM это первая интересная новинка в этой области.
2👍58🔥297👾2
когда-то давно я писал свою первую научную работу про ИИ.
в те времена под термином ИИ подразумевали сегодняшний AGI - то есть "всесильный крутой супер-интеллект".

то, что сделал я, было далеко от этого, поэтому мне хотелось термин попроще, что-то, что отражало бы ограниченное применение моего решения.

только спустя 15 лет, перечитав название работы, я понял, почему папа шутил, что я первый в мире, кто расшифровал ИИ как "интеллект с инвалидностью" 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁149🔥44👏13👍109
блин, ребята, созванивались час назад со спикерами мельком обсудить нашу панельную дискуссию на ai-dev.live
мы должны были обсудить наброски тем в духе "какими будут следующие 2-3 года в разработке под влиянием ИИ"

и прям практически по каждой теме - очень горячая дискуссия, с крутыми сильными аргументами со всех сторон.
еле смогли прекратить спорить, есть ли будущее у джунов в ИИ-мире, какие скиллы синьоров останутся нужны, поделились парой сплетен "из первых рук" о том, как некоторые компании категорично требуют разрабов изучать ИИ-тулы, и так далее.

в общем, будь я на вашем месте - я бы записался послушать. кажется, будет прям огонь-огонь 🔥

P.S. напомню - есть опция бесплатного участия. всё на сайте: ai-dev.live
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥60👍20👌103🥰3💩2🥱1
👀 а у нас тем временем вышла новая open-source SOTA от Ant: Ling-1T (да-да, опен модель на триллион параметров. MoE, 50b на 1 токен)

по бенчам тащит люто, но самое впечатляющее - это не reasoning модель. то есть поверх неё скорее всего в течение 1-2 месяцев ещё и ризонер выйдет.

был бы я рад написать "с нетерпением жду её на cerebras", но вангую, что 1 триллион тупо не влезет на их вафлю( учитывая, что они даже qwen-coder квантовали, а там в два раза меньше весов 🙂

потыкать можно на zenmux.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥23👍12😱21🤔1🥱1
ElKornacio
👀 а у нас тем временем вышла новая open-source SOTA от Ant: Ling-1T (да-да, опен модель на триллион параметров. MoE, 50b на 1 токен) по бенчам тащит люто, но самое впечатляющее - это не reasoning модель. то есть поверх неё скорее всего в течение 1-2 месяцев…
слушайте, я написал, что вангую ризонер на основе этой модели в течение пары месяцев, а он...
тоже вышел уже сегодня. Ring-1T 🙂

хороший день!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥376😁5👍4🗿1
читаю State of AI 2025 (не выжимку, а фулл-версию естессно).

помню, в 2024 у меня ушло ~2.5 недели на чтение репорта. там каждый слайд на вес золота - можно прям по кусочкам гуглить неизвестные термины, и за пару-тройку недель углубленного чтения и заметок перейти из категории "70-й персентиль знаний про AI-индустрию" в "топ 0.5%". у меня на слайд уходило минут 20. в 2024 там было около 200 слайдов.

так вот, в этом году у меня на первые 100 слайдов ушёл всего день.
личный повод для гордости - загуглить или перепроверить или углубиться в какие-то темы пришлось всего раз 10.
огромное количество рисерчей, которые я уже знал и читал пейперы, а иногда даже и на Хабр про них писал.

сорри, что такой самовлюблённый пост, но я прям не ожидал: в том году, у меня степень погруженности была ~5%, почти все вещи в репорте были для меня в новинку.

в этом году - я знал 70% инфы из репорта прям хорошо, и ещё 20% поверхностно знал. степень погруженности в рынок такая, что один из самых главных AI-репортов почти не содержит новой инфы 🙂

я, естессно, несколько видео запишу по следам этого репорта - как с обзорами конкретных ниш (типа "ИИ в задачах кодинга"), так и с широкими обзорами (типа "а что реально революционного с ИИ произошло за 2025", с высоты птичьего полёта).

но если вы недавно в AI, и хотите плотно связать несколько следующих лет с ИИ, может, бизнеса ради, или любопытства, или желания быть глубоко в курсе самой главной технологии человечества сейчас - начните с State of AI.

гуглите каждый неизвестный термин, записывайте важные моменты в заметки, перечитайте непонятные места пару раз, самые сложные штуки попросите объяснить gpt - он идеален для изучения нового.

в конце этого приключения вы обнаружите, что легко читаете любой arxiv paper и понимаете о чём он, понимаете структуру рынка и бизнеса в ИИ, и довольно точно представляете, что будет происходить и что надо делать лично вам 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍72🔥4212👏63👎1🥱1👀1🤝1
🔥 а между тем, ai-dev.live уже начинается. залетайте, скоро начнётся первый доклад)
Please open Telegram to view this post
VIEW IN TELEGRAM
120👍54🗿1
продолжаю рисерчить State of AI.

один из самых смешных слайдов.
"да, в вопросах энергетики США проигрывает Китаю буквально во всём, в том числе в 10 раз отстаёт в росте и в 2.5 раза в общем энергопотреблении, но... зато электричество у нас на 8% дешевле, и отключений за год было на 4 часа меньше))"

🙂🙂🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁46🔥115🥱3
привет, ребята!

пока подготовка видосов по следам State of AI идёт полным ходом, хочу пошерить инфу о дружественной конфе "Вайб Цех".
это оффлаин, в Питере, и оно по знакомой горячей теме: как меняется роль человека в разработке. онлаин доступ тоже есть, я буду смотреть как раз в онлайне 🙂

Валера Ковальский расскажет про трансформацию от писателя кода к AI-дирижеру, Саша Абрамов про то, почему LLM так хороши в программировании, Макс Скорченко про то как перестать работать и начать управлять. и кучу всего ещё - панельки, разбор продакшн кейсов, etc.

save the date: 25 октября, 10:00-15:00, Not Bad Loft

👀 [подробнее вся инфа тут] 👀

P.S. если что, у меня в канале нет рекламы: я рассказываю только про клёвые проекты чуваков, которых знаю.
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥30👍127😁1
ребята, я чутка затих из-за завала по всем фронтам.
но микро-объявление сделать хочу.

я перестал постить в телеграм анонсы новых вышедших видосов.
умные ребята мне подсказали, что люди часто кликают на них из интереса, но само видео почти не смотрят, потому что скроллить ленту в телеге и залипнуть на полчаса со звуком на ютубе - сильно разные паттерны поведения.
поэтому лить аудиторию с телеги на ютуб-видео = ухудшать метрики видосов = получать меньшие охваты.

но видосы оооочень активно выходят, и будут ещё активнее! до конца октября у меня планируется ещё ~8 видео.

сегодня там вышла первая часть обзора State of AI: рассказываю про главные скачки в интеллекте и удешевлении моделей за последний год (и почему они происходили).
завтра должна выйти вторая часть: обзор видео-моделей и моделей мира за последний год (sora 2 / veo 3 / genie, видос уже на монтаже)
послезавтра: третья часть - изменения в экономике ИИ за последний год (кстати, там прям прикольно - ИИ-компании начали люто зарабатывать в 2025).

это из уже отснятых.

потом в планах:
1. обзор "круговых" сделок в ИИ - все обратили внимание на кейс NVidia <> Oracle <> OpenAI, а их там штук 5, и они все прикольные.
2. обзор того, как ИИ обманывает людей в тестах. это один из самых угарных видосов - расскажу про SnitchBench, покажу как ИИ мамой клянётся, что не предаст вас, и тут же незаметно дергает тулколл, чтобы предать, или как ИИ случайно "палит" в chain-of-thought, что он догадался, что его тестируют, и подстраивает ответы.

после чего ещё будет парочка видосов про кодинг и новостых (ну и думаю Gemini 3 к этому моменту уже выйдет в релиз, обзорчик бахну).

в общем, если вы бы не хотели пропускать эти видосы - пожалуйста, подпишитесь на ютуб напрямую. тогда они точно будут в ваших лентах)

🔥 https://www.youtube.com/@elkornacio 🔥

🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
8🔥70👍168🆒2😁1
OpenAI там свой браузер выкатили.

ваши мысли? составит конкуренцию всем остальным, или будет нишевой игрушкой?

P.S. а я там новый видос на ютуб залил, кстати.
7🔥18👎8👍3😁3🤔2👌2🤡1
от текста статьи конечно веет сильнейшим созиализм-biased вайбом, но энивей интересно

https://futurism.com/artificial-intelligence/goldman-sachs-genz-automation

P.S. ну и термин jobless growth понравился
1🔥8👍2🥱1