Brodetskyi. Tech, VC, Startups
20.8K subscribers
839 photos
208 videos
42 files
3.16K links
Tech, VC, Business, Startups, AI and more.
👤 linkedin.com/in/andrii-brodetskyi
✉️ @politehnik
Download Telegram
🗣 Телефонне шахрайство "мама, я в поліції, скинь грошей" отримало нове життя завдяки технологіям voice cloning: літнім людям дзвонять шахраї, імітуючи їхніх близьких за допомогою ШІ. В тексті WP наводяться кілька прикладів, коли шахраї таким чином виманювали десятки тисяч доларів. Легкість, з якою можна скопіювати голос людини, лякає: достатньо взяти з її соцмереж записи кількох реплік та скористатись сервісом за кілька десятків доларів.
Суперпотужний текст про те, як працює ChatGPT, від Стівена Волфрама. Попри його складність і об'єм, це науково-популярний текст, тому якщо ви не тренуєте моделі власноруч і не можете читати технічні пейпери про трансформери, спробуйте його прочитати. Краще розуміючи, як працюють LLMs, ви зможете ефективніше їх використовувати.

https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
🏦 Топ-тема у світі тех і фінансів — падіння Silicon Valley Bank, який обслуговував величезну кількість американських фондів та тех-компаній.

В 2021 році в умовах нульових ставок банк придбав багато довгострокових бондів з низьким купоном. Потім Федрезерв підняв ставки, ці бонди стали виглядати непривабливим активом, ціни на них впали. Банк був змушений продати їх за низькими цінами і зафіксував великі збитки.

Потім оголосив про випуск акцій, щоб покращити баланс, але не прокомунікував це нормально і клієнти кинулись забирати свої депозити. Стався класичний bank run. Наразі в банку діє тимчасова адміністрація.

Дивлячись на те, скільки top tier фондів та високо оцінених компаній мали там депозити, я впевнений, що банкрутства не буде, уряду США зараз не потрібен такий удар по тех-сектору — ефект доміно, банкрутства фондів, тех-компаній... Швидше за все SVB викуплять банки, зацікавлені у венчурі, наприклад JPMorgan.

Ну і звісно є питання, чому в 16-му за обсягом активів банку США такий поганий interest rate risk management. Це навіть не програма CFA, ми це з одногрупниками на магістратурі КШЕ рахували — duration і convexity, чутливість ціни портфоліо бондів до зміни облікової ставки... Не знайшли куди припаркувати надмірну ліквідність рекордного 2021-го, а тепер і банку немає.

Гарний привід перечитати про модель Даймонда-Дибвіга, які досліджували роль банків у фінансовій системі. Банки — ключові інститути, які перетворюють "довгі" гроші інвесторів на ліквідність для позичальників; Bank run — ситуація, коли вкладники панічно кидаються забирати свої депозити, бо вірять, що банк має збанкрутувати; це може бути (як в даному випадку) self-fulfilling prophecy, тобто без паніки не було б і банкрутства. За дослідження на цю тему Даймонд і Дибвіг минулого року отримали премію імені Нобеля з економіки, ось тут писав про них.
🎭 Український стартап Reface круто нашумів свого часу — захопив заголовки всіх медіа, очолив App Store в США, залучив інвестиції від a16z... Але досі не знайшов стійку бізнес-модель. Ось гарний текст про це, буде корисно почитати тим, хто робить продукт.

Навіть з крутою технологією і цікавим продуктом ключове питання — як на цьому заробити (= кому це може дати цінність, як знаходити та утримувати клієнтів, чи сходиться юніт-економіка і тд).
Інсайд дня.

Напередодні початку великої війни казахстанський фінтех‑гігант Kaspi.kz ледь не купив дітище Чечоткіних. Сума угоди, що не відбулася, ніколи не оголошувалася. Проте троє співрозмовників Forbes кажуть, що Rozetka оцінили в суму між $1 млрд і $3 млрд. «Їм лишалося кілька тижнів до того, щоб «помацати мільярд», – каже підприємець, знайомий із перебігом перемовин.
Ну що, як вам GPT-4? (демо / пейпер)

Нові можливості дійсно вражають: текст генерується краще, тести проходяться краще (див. ілюстрацію). Проте недоліки залишились: галюцинації, обмежений контекст, відсутність навчання з досвіду. Роботу з графікою ще не тестував.

До речі, я уже кілька тижнів використовую GPT-4 безкоштовно — саме він під капотом нового Bing, який завдяки цьому набрав 100 млн DAU.
Продовжуємо занурюватись в тему LLMs. Зараз буде пачка відбірного, щільного контенту по темі.

Спочатку для розминки — Ян ЛеКун про обмеження LLMs. Рівень складності — базовий. Легка розмова з журналістом, можна слухати замість подкасту. Бесіда фокусується не суто на LLMs, а на питанні "наскільки це близько до AGI". Тому цікаво послухати міркування такого фахівця як ЛеКун, про те, чого не вистачає мовним моделям на шляху до AGI — зокрема внутрішніх моделей світу та здатності планувати (=оперувати поняттям часу та складати послідовності дій з причинно-наслідковими зв'язками). Деякі з його ідей раніше публікував в текстовому форматі.

До речі він там зауважує ще багато правильних речей. Наприклад, що трансформери багато в чому побудовані на результатах відкритих досліджень ШІ-лабораторій Alphabet/Meta. Але самі тех-гіганти не стали першими випускати такий продукт як ChatGPT. Саме тому що для таких компаній висока ціна помилки — Meta уже випускала раніше мовну модель навчену на наукових текстах; всього за два дні інтернет-спільнота розмовляла з моделлю про користь споживання битого скла та інший треш, і експеримент швидко закрили. OpenAI натомість позиціонувала себе як маленьку дослідницьку компанію, тому могла дозволити собі випустити чатбота, який інколи видає нісенітницю, без репутаційних ризиків.

Послухайте, там багато цікавого.
До речі, щодо відкритості OpenAI. Цей проект починався як неприбуткова дослідницька організація, яка публікувала всі свої дослідження у відкритому доступі. Хороша тенденція, яку започаткували AI-лабораторії тех-гігантів, і яка сприяла швидкому поширенню cutting edge знань. З часом відкритості в OpenAI ставало менше. Пізніше компанія перестала бути некомерційною. А щоб залучати фінансування, стартапу потрібно показувати вражаючі демо. Такі як ChatGPT. (Це я продовжую переказувати ідеї ЛеКуна з розмови в попередньому пості.)

Якщо в технічних пейперах по GPT-3 та InstructGPT можна знайти багато подробиць про навчання, датасет моделі (див. ілюстрацію) та ручне шліфування відповідей, то в пейпері по GPT-4 розробників та дослідників з усього світу чекало розчарування: Given both the competitive landscape and the safety implications of large-scale models like GPT-4, this report contains no further details about the architecture (including model size), hardware, training compute, dataset construction, training method, or similar.

Здається, час перейменовувати компанію на Closed AI.
Далі лекція професора Стенфорда, фахівця з обчислювальної лінгвістики Крістофера Поттса. Складність — середня. Погляд на LLMs з точки зору NLP. З 6 хвилини — цікавий фрагмент про стрімкий прогрес мовних моделей за останні роки, і особливо цікавий слайд про те, як драматично зростає здібність моделей виконувати певні задачі зі зростанням їх розміру (див.ілюстрацію). Висвітлено механізм навчання ChatGPT, виклики і можливі підходи до використання мовних моделей для універсальних задач.

Серед океану інфошуму про LLMs фахівців з обчислювальної лінгвістики незаслужено обходять увагою. Хоча, здавалось би, саме до них треба іти за поясненнями цього феномену в першу чергу.
Microsoft інтегрує AI-асистента в свої офісні сервіси. А тепер давайте згадаємо про беззаперечну перевагу Microsoft над конкурентами в дистрибуції. У Office 345 млн платних користувачів. Багато компаній зараз працюють над офісними застосунками з AI, і дехто може зробити продукт, кращий ніж у Microsoft. Але хто зможе викатити його на таку кількість користувачів? Здається, ніхто. Google теж працює над AI-фічами для свого офісного пакета, але має лише 9 млн платних користувачів-організацій.

Памятаєте, колись був популярним Slack? Коли під час пандемії всі переходили на ремоут, Microsoft запустив по своїм каналам дистрибуції Teams. Тепер у нього 280 млн користувачів, а у Slack — 18 млн.

Microsoft має шанс стати лідером в ніші AI productivity apps суто за рахунок потужної ринкової позиції.
🤝 В четвер буду тут. Має бути непоганий нетворкінг, тож якщо працюєте в VC чи будуєте стартап, зверніть увагу.

==

23 березня в Unit.City (та онлайн) відбудеться Challenger AI Accelerator | Demo Day, під час якого 8 команд презентують свої рішення в Digital & AI/ML сфері.

Серед учасників: Elomia Health, CheckEye, BeHolder, Softbrik, AirLaw, ParkingAround, Scally, GetPin. Ви також матимете нагоду послухати панельну дискусію на тему стійкості української бізнес-екосистеми та персонально поспілкуватись із командами, міжнародними інвесторами та представниками корпорацій. Реєстрація: bit.ly/challenger_AI_DemoDay
Brodetskyi. Tech, VC, Startups
Вам еще не надоела движуха вокруг Pornhub? Надеюсь что нет, потому что я хочу поделиться с вами отличным текстом FT о собственниках MindGeek — компании, которой принадлежат самые популярные порносайты в интернете, в том числе Pornhub, YouPorn, RedTube и Brazzers.…
Компанію MindGeek, яка володіє Pornhub та іншими популярними порно-стрімінгами, купив новий канадський private equity фонд з іронічною назвою Ethical Capital Partners. Переглянув лінкедіни його топів, там люди з цікавими бекграундами: директор мережі канабіс-клінік, кримінальний адвокат, керівник держагентства з обігу наркотиків, фіндиректор канабіс-стартапу. Досвідчені профі ринків етичного капіталу!

До речі, заплутану схему з реальними власниками MindGeek кілька років тому викрили в розслідуванні FT, писав про це. Для розуміння масштабу: revenue MindGeek за 2018 рік — $460 млн, profit margin — 50%. Вері гуд бізнес. З компанією досі судяться за незаконні відео, на яких вона заробляла роками.
Crazy stuff. Guys from Stanford fine-tuned Meta's LLaMa model using OpenAI's text-davinci-003 model (improved InstructGPT). The result is a powerful model that performs many tasks on par with OpenAI's model. But the cost of training was just $600.

https://youtu.be/xslW5sQOkC8

https://crfm.stanford.edu/2023/03/13/alpaca.html
Google відкриває доступ до свого AI-асистента Bard. Поки доступно в US/UK. Записався в waiting list через VPN. Коли отримаю доступ, порівняю його з Bing AI і поділюсь враженнями.

Який би з сервісів не став кращим в довгостроковій перспективі, динаміка мені подобається. Користувачам ця конкуренція між гігантами приносить лише нові потужні сервіси. Звісно, кости на підтримання такого сервісу зовсім інші, ніж для звичайного пошуку, відповідно і прибутковість такого пошуку нижча. Пізніше проаналізую дані і напишу про це.
В коментарях спитали про лист із закликом загнати джина в пляшку. Мій короткий коментар: не спрацює, хоча речі там озвучуються раціональні. Базова теорія ігор: домінантна стратегія для кожного з гравців в даній ситуації — продовжувати свої розробки, що б там не робили конкуренти. Якщо вони припинять, ти їх переженеш, якщо не припинять — принаймні не відстанеш.

Тому не спрацює.
Brodetskyi. Tech, VC, Startups
І ось гарний матеріал комп'ютерників з Прінстона про те, яких помилок припускаються журналісти, пишучи про ШІ: • Хибне порівняння ШІ та людей: коли програму наділяють суб'єктністю чи порівнюють з людським інтелектом • Перебільшення та хибні твердження про…
Якщо вас теж лякають графіки про те, як мовні моделі справляються з різними інтелектуальними задачами, цей текст дозволить трохи розслабитись.

По-перше, деякі з бенчмарків, на яких тестували GPT-4, були в навчальному датасеті (це називається training data contamination). При тестуванні на нових аналогічних тестах GPT-4 показує зовсім інші результати (0/10 замість 10/10). Тобто, інколи нейромережа класно проходить тест лише тому, що запам'ятала буквально його питання і відповіді.

По-друге, проходження професійного тесту далеко не дорівнює наявності професійних компетенцій.

Professional exams, especially the bar exam, notoriously overemphasize subject-matter knowledge and underemphasize real-world skills, which are far harder to measure in a standardized, computer-administered way. In other words, not only do these exams emphasize the wrong thing, they overemphasize precisely the thing that language models are good at.

Ну а ще будь-який бенчмарк стає ціллю для тренування, і перестає бути корисним, тому що все тренування перетворюється в підгонку результату під конкретний тест — емпіричне правило, відоме як закон Гудхарта.

В кінці є лінки на джерела про недоліки тестів для LLMs та альтернативні підходи до оцінювання їх продуктивності.

Виходить, ввів вас в оману цим графіком від Open AI, вибачаюсь! Краще перечитайте ще один текст від пана Нараянана з Прінстона, щоб краще помічати такі маніпуляції.
👨🏻‍💻 Нещодавно мав цікавий досвід — бізнес-школа KSE провела спільний буткемп з Центром підприємництва МІТ, де я був одним з менторів. Розповів про це детальніше в LinkedIn.

Дуже зацінив програму "Disciplined Entrepreneurship" від керівника цього центру. В її основі проста ідея: підприємництво це не мистецтво і не дар, а звичайне ремесло, якому можна навчитись. В МІТ студентам дають детальний фреймворк, який допомагає людям з технічним/інженерним мисленням розвинути мислення бізнесове/продуктове: хто користувач, які його потреби, як він приймає рішення, скільки можна заробити на цьому ринку, як порахувати юніт-економіку і т.д. Суперпрактичні і корисні речі для фаундерів. Без жодного натяку на фігню з поп-книжок про позитивне мислення та квадранти грошового потоку. Купа прикладів, таблиць, питань та детальних пояснень. Все класно структуровано, читаєш і кайфуєш. Такий фірмовий МІТ style — from nerds for nerds.

Ну а про власне буткемп і команди написав на LinkedIn, лінк вище, а на фото спойлер.