Brodetskyi. Tech, VC, Startups
📝Про тренди. Нещодавно Y Combinator оновив свій Request for Startups — перелік перспективних напрямів, над якими we’d like to see more people working on. Це цікавий і корисний для фаундерів список. • 35% — різні застосування ШІ, зокрема для фізичного світу…
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
🧠 Ось і The Information про це пишуть: OpenAI Shifts Strategy as Rate of ‘GPT’ AI Improvements Slows
• Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично всі доступні дані. Відповідно, фокус зміщується на покращення моделі після тренування, зокрема, те що називають "дати моделі подумати", як в o1 - коли модель генерує кілька варіантів відповідей, а потім їх оцінює і обирає чи синтезує кращий.
• Якраз тут очікується наступний значний приріст якості моделей, а не в масштабуванні. Чим довше модель має можливість "думати", тим краще вона справляється з задачами на reasoning, в даному випадку (графік) з розв'язанням задач з математичних олімпіад.
• Загалом прогрес в розвитку LLM не зупиняється, але розробники моделей змінюють підхід - від "зазубрювання" знань до розвитку "мислення" моделей. Це може дати дуже непоганий приріст продуктивності. Власне, уже зараз ви можете задати складне питання моделям GPT-4 і o1 і оцінити різницю в якості відповідей.
• Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично всі доступні дані. Відповідно, фокус зміщується на покращення моделі після тренування, зокрема, те що називають "дати моделі подумати", як в o1 - коли модель генерує кілька варіантів відповідей, а потім їх оцінює і обирає чи синтезує кращий.
• Якраз тут очікується наступний значний приріст якості моделей, а не в масштабуванні. Чим довше модель має можливість "думати", тим краще вона справляється з задачами на reasoning, в даному випадку (графік) з розв'язанням задач з математичних олімпіад.
• Загалом прогрес в розвитку LLM не зупиняється, але розробники моделей змінюють підхід - від "зазубрювання" знань до розвитку "мислення" моделей. Це може дати дуже непоганий приріст продуктивності. Власне, уже зараз ви можете задати складне питання моделям GPT-4 і o1 і оцінити різницю в якості відповідей.
Brodetskyi. Tech, VC, Startups
🧠 Ось і The Information про це пишуть: OpenAI Shifts Strategy as Rate of ‘GPT’ AI Improvements Slows • Нова модель Orion показує нижчий приріст перфомансу відносно GPT-4, ніж GPT-4 відносно GPT-3. Одна з головних причин - для тренування уже використали практично…
Please open Telegram to view this post
VIEW IN TELEGRAM
Brodetskyi. Tech, VC, Startups
speedinvest-pirates-the-ultimate-guide-to-startup-metrics.pdf
✍️ Повний гайд по метриках tech компаній для інвестора