Brodetskyi. Tech, VC, Startups
20.8K subscribers
838 photos
208 videos
42 files
3.16K links
Tech, VC, Business, Startups, AI and more.
👤 linkedin.com/in/andrii-brodetskyi
✉️ @politehnik
Download Telegram
241004-Brave1-report-v.1.pdf
787.4 KB
🚀 Дослідження української індустрії безпілотників від Brave1 та KSE
Please open Telegram to view this post
VIEW IN TELEGRAM
State of AI Report - 2024 ONLINE.pdf
36.6 MB
📍 Вийшов щорічний State of AI Report від Air Street Capital. Потужний звіт на 200+ сторінок. Можна за один вечір дізнатись все важливе про стан справ в індустрії. Рекомендую!

Тут огляд ключових тез на 14 хв від автора.
Brodetskyi. Tech, VC, Startups
Dealroom-Magnificent-Seven.pdf
📈 Magnificent 7 vs. 2000s Tech Bubble: higher concentration, but healthier fundamentals
The four horsemen of SaaS homepage
Dating in tech
Brodetskyi. Tech, VC, Startups
📝 Потрапив у ось такий список в непоганій компанії, поряд з Яном Лекуном і Андреєм Карпати. Доповню своїм шортлістом: • Jim Fan, NVIDIA Research Manager & Lead of Embodied AI • Kelvin Mu, Early Stage Investor @ Translink Capital • AI Explained, кращий…
💡 DOU зібрали рекомендації книг про AI від різних фахівців, від міністра цифрової трансформації до дата-саєнтистів та менеджерів tech компаній. Вийшов гарний список з різноманітними перспективами, від технічних до філософських. Я теж долучився з максимально прикладною рекомендацією.
💡 Гарний пост про те, як ефективніше працювати з LLM. Постійно використовую 1, 3, 4 і 6 підхід, і особливо 7 (RAG) - в основному, тільки з додатковими документами і використовую Claude, там найбільше цінності. Елементарно, закинути туди кілька PDF з релевантними матеріалами (аналітика, звіти і тд), і вже зовсім інший результат отримуєш, ніж з plain vanilla LLM, як не викручуйся там з промтами.

Рекомендую!
Brodetskyi. Tech, VC, Startups
📝 Годинна розмова від Anthropic про те, як ефективно писати промпти. Enjoy.
📝 Ну і prompt engineering best practices від OpenAI та Anthropic теж варто проглянути (або послухати). Так би мовити, документація від виробника. Якщо хтось і розуміє магію LLM зсередини, то це власне їх розробники.
Brodetskyi. Tech, VC, Startups
🚀 Неочікувано напишу про крипто. Роман Могильний, кофаундер Reface, будує prediction market Limitless. Підняли $3m від сильного профільного інвестора 1confirmation (ранній інвестор в Coinbase, Polkadot, OpenSea, Ethereum, Bitcoin, dYdX), класно зростають і…
🎯 Fascinating data from the 2024 election on prediction markets vs traditional polling.

The standout winner? Prediction markets, particularly Polymarket ($3.7B in election-related trades), which showed remarkable forecasting accuracy:
• Called Trump's victory at 95% confidence by 11:43 PM ET - nearly 6 hours before AP
• Correctly predicted outcomes in key swing states while polls showed tight races

📊 Key insight: While polls underestimated Trump by ~5 points even after adjustments, prediction markets proved more accurate at capturing real voter sentiment.

Interesting signals:
• Google Trends spotted a pattern 48 hours early: "where to vote" searches were significantly higher in red states (14 of top 15)
• Alternative data and market-based signals outperformed traditional polling methods

💭 The lesson? Market-based information aggregation could be more effective than traditional polling for predicting outcomes. This has huge implications for how we forecast major events.
📈 Number go up
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
🧠 Ось і The Information про це пишуть: OpenAI Shifts Strategy as Rate of ‘GPT’ AI Improvements Slows

• Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично всі доступні дані. Відповідно, фокус зміщується на покращення моделі після тренування, зокрема, те що називають "дати моделі подумати", як в o1 - коли модель генерує кілька варіантів відповідей, а потім їх оцінює і обирає чи синтезує кращий.

• Якраз тут очікується наступний значний приріст якості моделей, а не в масштабуванні. Чим довше модель має можливість "думати", тим краще вона справляється з задачами на reasoning, в даному випадку (графік) з розв'язанням задач з математичних олімпіад.

• Загалом прогрес в розвитку LLM не зупиняється, але розробники моделей змінюють підхід - від "зазубрювання" знань до розвитку "мислення" моделей. Це може дати дуже непоганий приріст продуктивності. Власне, уже зараз ви можете задати складне питання моделям GPT-4 і o1 і оцінити різницю в якості відповідей.