This media is not supported in your browser
VIEW IN TELEGRAM
This hits hard 🥲
Brodetskyi. Tech, VC, Startups
Dealroom-Magnificent-Seven.pdf
📈 Magnificent 7 vs. 2000s Tech Bubble: higher concentration, but healthier fundamentals
Brodetskyi. Tech, VC, Startups
📝 Потрапив у ось такий список в непоганій компанії, поряд з Яном Лекуном і Андреєм Карпати. Доповню своїм шортлістом: • Jim Fan, NVIDIA Research Manager & Lead of Embodied AI • Kelvin Mu, Early Stage Investor @ Translink Capital • AI Explained, кращий…
💡 DOU зібрали рекомендації книг про AI від різних фахівців, від міністра цифрової трансформації до дата-саєнтистів та менеджерів tech компаній. Вийшов гарний список з різноманітними перспективами, від технічних до філософських. Я теж долучився з максимально прикладною рекомендацією.
DOU
Книги про штучний інтелект для ІТ-спеціалістів: вибір фахівців
Склали добірку книжок про штучний інтелект і машинне навчання від експертів. Тут є фундаментальні видання про математику й роботу нейромереж, історичні огляди та посібники про те, як використовувати ШІ для програмування й бізнесу. Обирайте, що вам до смаку…
💡 Гарний пост про те, як ефективніше працювати з LLM. Постійно використовую 1, 3, 4 і 6 підхід, і особливо 7 (RAG) - в основному, тільки з додатковими документами і використовую Claude, там найбільше цінності. Елементарно, закинути туди кілька PDF з релевантними матеріалами (аналітика, звіти і тд), і вже зовсім інший результат отримуєш, ніж з plain vanilla LLM, як не викручуйся там з промтами.
Рекомендую!
Рекомендую!
Brodetskyi. Tech, VC, Startups
📝 Годинна розмова від Anthropic про те, як ефективно писати промпти. Enjoy.
📝 Ну і prompt engineering best practices від OpenAI та Anthropic теж варто проглянути (або послухати). Так би мовити, документація від виробника. Якщо хтось і розуміє магію LLM зсередини, то це власне їх розробники.
Openai
OpenAI Platform
Explore developer resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's platform.
Brodetskyi. Tech, VC, Startups
🚀 Неочікувано напишу про крипто. Роман Могильний, кофаундер Reface, будує prediction market Limitless. Підняли $3m від сильного профільного інвестора 1confirmation (ранній інвестор в Coinbase, Polkadot, OpenSea, Ethereum, Bitcoin, dYdX), класно зростають і…
🎯 Fascinating data from the 2024 election on prediction markets vs traditional polling.
The standout winner? Prediction markets, particularly Polymarket ($3.7B in election-related trades), which showed remarkable forecasting accuracy:
• Called Trump's victory at 95% confidence by 11:43 PM ET - nearly 6 hours before AP
• Correctly predicted outcomes in key swing states while polls showed tight races
📊 Key insight: While polls underestimated Trump by ~5 points even after adjustments, prediction markets proved more accurate at capturing real voter sentiment.
Interesting signals:
• Google Trends spotted a pattern 48 hours early: "where to vote" searches were significantly higher in red states (14 of top 15)
• Alternative data and market-based signals outperformed traditional polling methods
💭 The lesson? Market-based information aggregation could be more effective than traditional polling for predicting outcomes. This has huge implications for how we forecast major events.
The standout winner? Prediction markets, particularly Polymarket ($3.7B in election-related trades), which showed remarkable forecasting accuracy:
• Called Trump's victory at 95% confidence by 11:43 PM ET - nearly 6 hours before AP
• Correctly predicted outcomes in key swing states while polls showed tight races
📊 Key insight: While polls underestimated Trump by ~5 points even after adjustments, prediction markets proved more accurate at capturing real voter sentiment.
Interesting signals:
• Google Trends spotted a pattern 48 hours early: "where to vote" searches were significantly higher in red states (14 of top 15)
• Alternative data and market-based signals outperformed traditional polling methods
💭 The lesson? Market-based information aggregation could be more effective than traditional polling for predicting outcomes. This has huge implications for how we forecast major events.
Investopedia
Polymarket Saw Trump's Win Coming. What's Next for Online Prediction Markets?
President-elect Donald Trump wasn't the only one declaring victory on Wednesday. So were the online betting markets that forecast his election victory.
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
📝Про тренди. Нещодавно Y Combinator оновив свій Request for Startups — перелік перспективних напрямів, над якими we’d like to see more people working on. Це цікавий і корисний для фаундерів список. • 35% — різні застосування ШІ, зокрема для фізичного світу…
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
🧠 Ось і The Information про це пишуть: OpenAI Shifts Strategy as Rate of ‘GPT’ AI Improvements Slows
• Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично всі доступні дані. Відповідно, фокус зміщується на покращення моделі після тренування, зокрема, те що називають "дати моделі подумати", як в o1 - коли модель генерує кілька варіантів відповідей, а потім їх оцінює і обирає чи синтезує кращий.
• Якраз тут очікується наступний значний приріст якості моделей, а не в масштабуванні. Чим довше модель має можливість "думати", тим краще вона справляється з задачами на reasoning, в даному випадку (графік) з розв'язанням задач з математичних олімпіад.
• Загалом прогрес в розвитку LLM не зупиняється, але розробники моделей змінюють підхід - від "зазубрювання" знань до розвитку "мислення" моделей. Це може дати дуже непоганий приріст продуктивності. Власне, уже зараз ви можете задати складне питання моделям GPT-4 і o1 і оцінити різницю в якості відповідей.
• Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично всі доступні дані. Відповідно, фокус зміщується на покращення моделі після тренування, зокрема, те що називають "дати моделі подумати", як в o1 - коли модель генерує кілька варіантів відповідей, а потім їх оцінює і обирає чи синтезує кращий.
• Якраз тут очікується наступний значний приріст якості моделей, а не в масштабуванні. Чим довше модель має можливість "думати", тим краще вона справляється з задачами на reasoning, в даному випадку (графік) з розв'язанням задач з математичних олімпіад.
• Загалом прогрес в розвитку LLM не зупиняється, але розробники моделей змінюють підхід - від "зазубрювання" знань до розвитку "мислення" моделей. Це може дати дуже непоганий приріст продуктивності. Власне, уже зараз ви можете задати складне питання моделям GPT-4 і o1 і оцінити різницю в якості відповідей.
Brodetskyi. Tech, VC, Startups
🧠 Ось і The Information про це пишуть: OpenAI Shifts Strategy as Rate of ‘GPT’ AI Improvements Slows • Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично…
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
speedinvest-pirates-the-ultimate-guide-to-startup-metrics.pdf
✍️ Повний гайд по метриках tech компаній для інвестора