Inside Google’s big AI shuffle — and how it plans to stay competitive, with Google DeepMind CEO Demis Hassabis
Интересное интервью Демиса Хассабиса, CEO Google DeepMind, с Nilay Patel в рамках подкаста Decoder от Verge, которое было дано 3 недели назад в начале июля.
В рамках интервью обсуждались вопросы:
- про объединения Deepmind и Google Brain в одну компанию Google Deepmind, которая внутри Google будет заниматься больше продуктовыми историями, чем абстрактными штуками типа Alpha Go (игра в го) или Alpha Fold, которыми был знаменит Deepmind (вот интересная документалка насчет Alpha Go)
- про причину объединения - гипотеза интервьюера была в том, что OpenAI совершила прорыв с LLM и что Google теперь надо сфокусироваться и ускориться будучи в роли догоняющего
- про причину хайпа около LLM - гипотеза в том, что LLM решают задачи, понятные большинству обывателей и решают их неплохо, а предыдущие вещи от Deepmind слишком сложны для понимания обывателей и понятны только специалистам в узких сферах
- про культурные коллизии между двумя подразделениями (Brain и Deepmind), что стали теперь одним целым
- про подход к решению задач, который использует сам Демис - здесь Демис рассказывает про шахматы, которыми он долго занимается, про визуализацию итогового результата и backcasting от целевого решения назад к текущемуу (аля working backwards от Amazon)
- про микс глубоких новых исследований (условно, что придет на смену LLM) и масштабирования текущих решений (больше параметров, больше примеров для обучения, больше мощности)
- про продукты Google в формате Bard и SGE (Search Generative Experience) - эта история про текущие продуктовые вещи с использованием LLM в Google и опыт их использования
- про знаменитую заметку "Google 'We Have No Moat, And Neither Does OpenAI'" - Демис сказал, что думает, что заметка была реальной, но с выводами в этой заметке он не согласен
- про сроки наступления AGI - оценка Демиса ~ 10 лет
- про дообучение моделей при помощи людей, которые рейтингуют ответы LLM как правильные или нет и так далее
- про риски и регуляцию AI, так как Демис подписал письмо от Center for AI Safety
- про комбинацию моделей аля LLM + специфичные модели для решения задач из предметной области - приблизительно об этом же рассказывал Стивен Вольфрам в книге "What Is ChatGPT Doing ... and Why Does It Work?" (подробнее здесь)
- про исследование "Stochastic Parrots" внутри Google, что привело к замедлению LLM в Google и дальнейшему увольнению авторов после буста ChatGPT от OpenAI
- про то, как не попасть в цикл обучения нейросетей на материале, сгенерированным нейросетями, что может привести к ухудшению моделей - тут предлагается создать специальные watermarks, что встроены в сгенерированные материалы, что позволит их распознать при обучении новых моделей
#AI #ML #Engineering #Software #DataScience #SoftwareDevelopment
Интересное интервью Демиса Хассабиса, CEO Google DeepMind, с Nilay Patel в рамках подкаста Decoder от Verge, которое было дано 3 недели назад в начале июля.
В рамках интервью обсуждались вопросы:
- про объединения Deepmind и Google Brain в одну компанию Google Deepmind, которая внутри Google будет заниматься больше продуктовыми историями, чем абстрактными штуками типа Alpha Go (игра в го) или Alpha Fold, которыми был знаменит Deepmind (вот интересная документалка насчет Alpha Go)
- про причину объединения - гипотеза интервьюера была в том, что OpenAI совершила прорыв с LLM и что Google теперь надо сфокусироваться и ускориться будучи в роли догоняющего
- про причину хайпа около LLM - гипотеза в том, что LLM решают задачи, понятные большинству обывателей и решают их неплохо, а предыдущие вещи от Deepmind слишком сложны для понимания обывателей и понятны только специалистам в узких сферах
- про культурные коллизии между двумя подразделениями (Brain и Deepmind), что стали теперь одним целым
- про подход к решению задач, который использует сам Демис - здесь Демис рассказывает про шахматы, которыми он долго занимается, про визуализацию итогового результата и backcasting от целевого решения назад к текущемуу (аля working backwards от Amazon)
- про микс глубоких новых исследований (условно, что придет на смену LLM) и масштабирования текущих решений (больше параметров, больше примеров для обучения, больше мощности)
- про продукты Google в формате Bard и SGE (Search Generative Experience) - эта история про текущие продуктовые вещи с использованием LLM в Google и опыт их использования
- про знаменитую заметку "Google 'We Have No Moat, And Neither Does OpenAI'" - Демис сказал, что думает, что заметка была реальной, но с выводами в этой заметке он не согласен
- про сроки наступления AGI - оценка Демиса ~ 10 лет
- про дообучение моделей при помощи людей, которые рейтингуют ответы LLM как правильные или нет и так далее
- про риски и регуляцию AI, так как Демис подписал письмо от Center for AI Safety
- про комбинацию моделей аля LLM + специфичные модели для решения задач из предметной области - приблизительно об этом же рассказывал Стивен Вольфрам в книге "What Is ChatGPT Doing ... and Why Does It Work?" (подробнее здесь)
- про исследование "Stochastic Parrots" внутри Google, что привело к замедлению LLM в Google и дальнейшему увольнению авторов после буста ChatGPT от OpenAI
- про то, как не попасть в цикл обучения нейросетей на материале, сгенерированным нейросетями, что может привести к ухудшению моделей - тут предлагается создать специальные watermarks, что встроены в сгенерированные материалы, что позволит их распознать при обучении новых моделей
#AI #ML #Engineering #Software #DataScience #SoftwareDevelopment
The Verge
ChatGPT gets the headlines, but scientific research like AlphaFold is also the future of AI, says Google DeepMind CEO Demis Hassabis
The buzz around AI has moved from science research to chatbots, but Google DeepMind’s CEO says it’s all relevant to progress.
👍4❤2🔥2
Романтика искусственного интелекта
Лет 5 назад я прочитал интересную книгу "Романтика искусственного интелекта" за авторством Потопахина, которая вышла в далеком 2016 году.
Мне тогда эта книга понравилась тему, что оставила больше вопросов, чем дала ответов:) И одной из основных мыслей, проходящих сквозь всю книгу, была мысль о том, что есть 2 вопроса относительно AI:
1. Глобальный - "что такое интеллект и как создать систему, как минимум равнозначную человеку, а может быть, его и превосходящую"
2. Локальный - "как для каждого отдельно взятого интеллектуального процесса создать его эффективную техническую модель"
Причем сейчас в основном все исследования по AI решают задачи 2 типа, которые являются прикладными и которые в потенциале хорошо монетизируются:)
А вообще, книга состоит всего из 7 глав:
1. Задача тысячелетия - размышления на тему того, чем является интеллект и что им не является
2. Вся жизнь игра - рассмотрение способов обучения искусственного интелекта игре в разнообразные игры
3. Интеллект искусственный и обучаемый - рассмотрение неотъемлемого свойства интеллекта, а именно возможности обучения
4. Сетевая архитектура - куда же без нейронных сетей:)
5. Распознавание образов - тоже очень популярная тема, в которой есть ряд достижений
6. Искусственное познание - от систем логического вывода теорем до самоорганизующихся систем AI:)
7. Интеллект, равный человеческому?! - напутствие в мир AI от автора и целой когорты исследователей, посредством приведения их избранных цитат на заданную тему
Итого, книга легко читается и почти не содержит математики, т.к. она служит целям популяризации искусственного интеллекта.
P.S.
Отдельное спасибо автору за то, что в главе относительно игр основные примеры рассматривались на базе шахмат:
- дерево перебора
- оценочная функция
- минимакс и альфа-бета-алгоритм
- разные этапы игры и изменение оценочной функции на основе приоритетов факторов на разных этапах
Почуствовал дежавю, так как в дестве много лет играл в шахматы:)
#Chess #AI #Math #DataScience
Лет 5 назад я прочитал интересную книгу "Романтика искусственного интелекта" за авторством Потопахина, которая вышла в далеком 2016 году.
Мне тогда эта книга понравилась тему, что оставила больше вопросов, чем дала ответов:) И одной из основных мыслей, проходящих сквозь всю книгу, была мысль о том, что есть 2 вопроса относительно AI:
1. Глобальный - "что такое интеллект и как создать систему, как минимум равнозначную человеку, а может быть, его и превосходящую"
2. Локальный - "как для каждого отдельно взятого интеллектуального процесса создать его эффективную техническую модель"
Причем сейчас в основном все исследования по AI решают задачи 2 типа, которые являются прикладными и которые в потенциале хорошо монетизируются:)
А вообще, книга состоит всего из 7 глав:
1. Задача тысячелетия - размышления на тему того, чем является интеллект и что им не является
2. Вся жизнь игра - рассмотрение способов обучения искусственного интелекта игре в разнообразные игры
3. Интеллект искусственный и обучаемый - рассмотрение неотъемлемого свойства интеллекта, а именно возможности обучения
4. Сетевая архитектура - куда же без нейронных сетей:)
5. Распознавание образов - тоже очень популярная тема, в которой есть ряд достижений
6. Искусственное познание - от систем логического вывода теорем до самоорганизующихся систем AI:)
7. Интеллект, равный человеческому?! - напутствие в мир AI от автора и целой когорты исследователей, посредством приведения их избранных цитат на заданную тему
Итого, книга легко читается и почти не содержит математики, т.к. она служит целям популяризации искусственного интеллекта.
P.S.
Отдельное спасибо автору за то, что в главе относительно игр основные примеры рассматривались на базе шахмат:
- дерево перебора
- оценочная функция
- минимакс и альфа-бета-алгоритм
- разные этапы игры и изменение оценочной функции на основе приоритетов факторов на разных этапах
Почуствовал дежавю, так как в дестве много лет играл в шахматы:)
#Chess #AI #Math #DataScience
❤5🔥5👍2
Practical ML Conf 2023
Внезапно сегодня утром наткнулся в Youtube на трансляци конференции по ML от Yandex. Вот ссылки на
- Трансляцию первого зала
- Трансляцию второго зала
Вот ссылка на канал конференции и ее сайт
P.S.
Расписание конфы приложил в изображениях.
Думаю, что вечером посмотрю что-то интересное из этой трансляции:)
#Conference #ML #DataScience #Software
Внезапно сегодня утром наткнулся в Youtube на трансляци конференции по ML от Yandex. Вот ссылки на
- Трансляцию первого зала
- Трансляцию второго зала
Вот ссылка на канал конференции и ее сайт
P.S.
Расписание конфы приложил в изображениях.
Думаю, что вечером посмотрю что-то интересное из этой трансляции:)
#Conference #ML #DataScience #Software
👍8🔥4❤2
Why Most Data Projects Fail and How to Avoid It • Jesse Anderson • YOW! 2022
Интересное выступление про data проекты от Jesse Anderson, автора книги "Data Teams". Автор говорит о ключевых вопросах, которые стоит задать при старте проектов
- Who - Автор говорит про правильный состав команды для data проектов. Собственно автор про это написал целую книгу и он говорит про баланс data scientists, data engineers, operations.
- What - Автор задает вопрос про бизнес значение того data продукта/проекта, которым вы занимаетесь. Автор говорит о том, что фразы "Мы делаем AI" от CEO не хватает для data strategy:) В общем, надо понимать как ваш проект принесет ценность для бизнеса. Причем помимо стратегии нужен план и его execution. Особенно во времена, когда tech компании занимаются сокращениями в направлениях, что не приносят деньги.
- When - Автор говорит о том, а когда эта бизнес ценность будет создана. Нужен проект с понятными временными границами, чтобы он не был слишокм долгим, чтобы быть отмененным где-то посердине и не слишком коротким, обещающим золотые горы, которым на самом деле будет невозможно соответствовать.
- Where - И вот мы наконец-то добрались до первого технического вопроса, а где собственно эти данные будут обрабатываться, как будет выглядеть архитектура решения. И тут для ответа тоже не хватает фразу "Мы будем использовать технологию XYZ вендора ABC". Проблема в том, что вендор может пообещать все что угодно, но это обещание не факт, что выполнимо, более того, не факт, что оно оптимально для заказчика:)
- How - Здесь речь идет про план выполнения и про фокусировку на приоритетных направлениях. Хотя часто такие data проекты пытаются успеть сразу везде, а дальше теряют эффективность на context switches и застывают на месте, переставая генерировать какую-либо ценность кроме рассказов о наступлении AI:) Автор интересно рассказывает про то, как бизнес заказчикам перпендикулярно на конкретные технические решения, но важно какую бизнес-ценность они могут получить по результатам выполнения плана.
- Why - Автор задает вопрос, а почему же эти данные обладают ценностью? Просто отгружать данные и гонять ETL/ELT пайпланы не достаточно. Важно понимать как использование данных в новых проектах позволит обеспечить нужный ROI (return on investments), причем автор говорит о том, что он ищет 10x ROI для data проектов
Напоследок автор говорит о том, что для AI и data проектов важно понимать, что такие проекты сложны и требуют навыков, людей и организационных изменений для своего успеха. И это достаточно сложно и не все способны приносить пользу в таких проектах. Конкретно, автор рассказывает про то, что если запускать data и AI проекты внутри DWH команд, то такие проекты обречены на неудачу ("the team where good data projects go to die). Это обусловлено не тем, что DWH технологии плохие, а потому, что это скорее проблема людей ("people problem"), которые очень специфично разбираются с проблемами и очень специфичным образом выстраивают свою работу. В общем, автор говорит о том, что эта не та команда, которая должна отвечать за data и AI проекты нового типа.
В конце автор рассказывает о том, как можно получить помощь с такими проектами за счет аутсорсинга (если у компании нет своей инженерной команды и культуры), за счет привлечения консультантов (правда, автор говорит о том, что консультанты по менеджменту типа BCG, Bain, Mckinsey зачастую не обладают компетенциями для помощи в таких data проектах). В конце автор упоминает свою книгу "Data teams", которую он написал для менеджеров, которым предстоит запускать data и AI проекты.
P.S.
Мне автор продал свою книгу, поэтому я добавлю ее в свой long list на чтение:)
#Management #Leadership #Data #DataScience #AI #Engineering #Software #SoftwareDevelopment #ML
Интересное выступление про data проекты от Jesse Anderson, автора книги "Data Teams". Автор говорит о ключевых вопросах, которые стоит задать при старте проектов
- Who - Автор говорит про правильный состав команды для data проектов. Собственно автор про это написал целую книгу и он говорит про баланс data scientists, data engineers, operations.
- What - Автор задает вопрос про бизнес значение того data продукта/проекта, которым вы занимаетесь. Автор говорит о том, что фразы "Мы делаем AI" от CEO не хватает для data strategy:) В общем, надо понимать как ваш проект принесет ценность для бизнеса. Причем помимо стратегии нужен план и его execution. Особенно во времена, когда tech компании занимаются сокращениями в направлениях, что не приносят деньги.
- When - Автор говорит о том, а когда эта бизнес ценность будет создана. Нужен проект с понятными временными границами, чтобы он не был слишокм долгим, чтобы быть отмененным где-то посердине и не слишком коротким, обещающим золотые горы, которым на самом деле будет невозможно соответствовать.
- Where - И вот мы наконец-то добрались до первого технического вопроса, а где собственно эти данные будут обрабатываться, как будет выглядеть архитектура решения. И тут для ответа тоже не хватает фразу "Мы будем использовать технологию XYZ вендора ABC". Проблема в том, что вендор может пообещать все что угодно, но это обещание не факт, что выполнимо, более того, не факт, что оно оптимально для заказчика:)
- How - Здесь речь идет про план выполнения и про фокусировку на приоритетных направлениях. Хотя часто такие data проекты пытаются успеть сразу везде, а дальше теряют эффективность на context switches и застывают на месте, переставая генерировать какую-либо ценность кроме рассказов о наступлении AI:) Автор интересно рассказывает про то, как бизнес заказчикам перпендикулярно на конкретные технические решения, но важно какую бизнес-ценность они могут получить по результатам выполнения плана.
- Why - Автор задает вопрос, а почему же эти данные обладают ценностью? Просто отгружать данные и гонять ETL/ELT пайпланы не достаточно. Важно понимать как использование данных в новых проектах позволит обеспечить нужный ROI (return on investments), причем автор говорит о том, что он ищет 10x ROI для data проектов
Напоследок автор говорит о том, что для AI и data проектов важно понимать, что такие проекты сложны и требуют навыков, людей и организационных изменений для своего успеха. И это достаточно сложно и не все способны приносить пользу в таких проектах. Конкретно, автор рассказывает про то, что если запускать data и AI проекты внутри DWH команд, то такие проекты обречены на неудачу ("the team where good data projects go to die). Это обусловлено не тем, что DWH технологии плохие, а потому, что это скорее проблема людей ("people problem"), которые очень специфично разбираются с проблемами и очень специфичным образом выстраивают свою работу. В общем, автор говорит о том, что эта не та команда, которая должна отвечать за data и AI проекты нового типа.
В конце автор рассказывает о том, как можно получить помощь с такими проектами за счет аутсорсинга (если у компании нет своей инженерной команды и культуры), за счет привлечения консультантов (правда, автор говорит о том, что консультанты по менеджменту типа BCG, Bain, Mckinsey зачастую не обладают компетенциями для помощи в таких data проектах). В конце автор упоминает свою книгу "Data teams", которую он написал для менеджеров, которым предстоит запускать data и AI проекты.
P.S.
Мне автор продал свою книгу, поэтому я добавлю ее в свой long list на чтение:)
#Management #Leadership #Data #DataScience #AI #Engineering #Software #SoftwareDevelopment #ML
YouTube
Why Most Data Projects Fail and How to Avoid It • Jesse Anderson • YOW! 2022
This presentation was recorded at YOW! 2022. #GOTOcon #YOW
https://yowcon.com
Jesse Anderson - Managing director of Big Data Institute, host of The Data Dream Team podcast @jessetanderson
RESOURCES
https://twitter.com/jessetanderson
https://www.jesse-anderson.com…
https://yowcon.com
Jesse Anderson - Managing director of Big Data Institute, host of The Data Dream Team podcast @jessetanderson
RESOURCES
https://twitter.com/jessetanderson
https://www.jesse-anderson.com…
👍7🔥6❤1
Deep Learning от MIT Press
Эта книга John D. Kelleher вышла в серии Essential Knowledge Series и содержит интересное введение в deep learning. Я уже рассказывал про другую книгу "Data Science" из этой же серии, в которой он выступал в качестве соавтора. В этой книге автор рассказывает про нейронные сети на пальцах и только в одной главе (про backpropagation) он погружается немного в математику. И хоть с издания книги в 2019 году утекло много воды, но она мне кажется до сих пор неплохим обзором deep learning для людей далеких от ml. Сама книга состоит из 7 глав
1. Introduction to deep learning - введение начинается с того, что deep learning помогает принимать решения на основе данных. Автор вспоминает про тройку терминов AI (artificial intelligence), ML (machine learning), deep learning и показывает их вложенность друг в друга: deep learning ⊂ ML ⊂ AI. Дальше приводится пример с простым dataset, функцией как детерминированным маппингом входных значений в выходные, а дальше перехода от детерминизма к угадыванию функции по доступным в датасете inputs и outputs (объяснение ml на пальцах). Конечно угадать точно можно не всегда и многое зависит от доступного датасета. Дальше на пальцах разбирается обучение с учителем, без него, а также reinforcement learning. А к концу главы автор рассказывает про причины успешности deep learning: что нам не приходится самим заниматься выделением значимых фич (feature engineering), также это хорошо работает в домене с большим количеством фич (размерность задачи) и большим объемом данных (добавлю от себя про важность большого количества GPU). Кстати, в этом тексте упоминается AlphaGo, про которая есть крутая документалка.
2. Conceptual foundations - здесь рассказывается про то, что такое модель, как можно подобрать параметры модели с использованием доступных данных, как комбинируя простые модели можно получить комплексную модель
3. Neural networks: the building blocks of deep learning - краткое объяснение нейронных сетей, того как они работают и откуда появилось название глубоких нейронных сетей (от наличия hidden layers, которые расположены между input и output layers)
4. A Brief history of deep learning - здесь автор дает выжимку из истории развития нейронных сетей, причем фокус здесь как на концептуальных, так и на практических прорывах. Это описание истории показалось мне меньше biased, чем в книге "Антология машинного обучения" ("The Deep Learning Revolution"), про которую я писал раньше. Отдельно автор рассказывает почему deep learning стало так развивается в последнее время - тут работает цикл из трех элементов, что усиливают друг друга: big data, улучшение алгоритмов, улучшение железа
5. Convolutional and recurrent neural networks - здесь описывается работы сверточных и рекуррентных нейронных сетей, где первые отлично подходят для работы с изображениями, а вторые лучше для работы с текстом. Причем описание нейронных сетей дается буквально на пальцах (мне кажется, что его поймут и люди, что далеки от математики)
6. Learning functions - эта глава самая математическая из всех и здесь идет речь про градиентный спуск и backpropagation algorithm. Первый алгоритм абсолютно стандартен для задач поиска минимума/максимума функции, а вот алгоритм обратного распространения ошибки в 80х годах сильно продвинул глубокие нейронные сети в популярности, так как этот способ позволял определять как менять веса hidden layers в нейронной сети при обучении. Собственно, именно при рассмотрении backpropagation надо немного знать про частные производные
7. The future of deep learning - здесь автор описывает светлое будущее deep learning, которое за 4 прошедших года кажется наступило в виде пришествия LLM (large language models)
В общем, книга достаточно легко читается и классно подойдет для первоначального знакомства с этой областью на уровне научпоп литературы:)
#ML #Data #Learning #DataScience #Software #PopularScience
Эта книга John D. Kelleher вышла в серии Essential Knowledge Series и содержит интересное введение в deep learning. Я уже рассказывал про другую книгу "Data Science" из этой же серии, в которой он выступал в качестве соавтора. В этой книге автор рассказывает про нейронные сети на пальцах и только в одной главе (про backpropagation) он погружается немного в математику. И хоть с издания книги в 2019 году утекло много воды, но она мне кажется до сих пор неплохим обзором deep learning для людей далеких от ml. Сама книга состоит из 7 глав
1. Introduction to deep learning - введение начинается с того, что deep learning помогает принимать решения на основе данных. Автор вспоминает про тройку терминов AI (artificial intelligence), ML (machine learning), deep learning и показывает их вложенность друг в друга: deep learning ⊂ ML ⊂ AI. Дальше приводится пример с простым dataset, функцией как детерминированным маппингом входных значений в выходные, а дальше перехода от детерминизма к угадыванию функции по доступным в датасете inputs и outputs (объяснение ml на пальцах). Конечно угадать точно можно не всегда и многое зависит от доступного датасета. Дальше на пальцах разбирается обучение с учителем, без него, а также reinforcement learning. А к концу главы автор рассказывает про причины успешности deep learning: что нам не приходится самим заниматься выделением значимых фич (feature engineering), также это хорошо работает в домене с большим количеством фич (размерность задачи) и большим объемом данных (добавлю от себя про важность большого количества GPU). Кстати, в этом тексте упоминается AlphaGo, про которая есть крутая документалка.
2. Conceptual foundations - здесь рассказывается про то, что такое модель, как можно подобрать параметры модели с использованием доступных данных, как комбинируя простые модели можно получить комплексную модель
3. Neural networks: the building blocks of deep learning - краткое объяснение нейронных сетей, того как они работают и откуда появилось название глубоких нейронных сетей (от наличия hidden layers, которые расположены между input и output layers)
4. A Brief history of deep learning - здесь автор дает выжимку из истории развития нейронных сетей, причем фокус здесь как на концептуальных, так и на практических прорывах. Это описание истории показалось мне меньше biased, чем в книге "Антология машинного обучения" ("The Deep Learning Revolution"), про которую я писал раньше. Отдельно автор рассказывает почему deep learning стало так развивается в последнее время - тут работает цикл из трех элементов, что усиливают друг друга: big data, улучшение алгоритмов, улучшение железа
5. Convolutional and recurrent neural networks - здесь описывается работы сверточных и рекуррентных нейронных сетей, где первые отлично подходят для работы с изображениями, а вторые лучше для работы с текстом. Причем описание нейронных сетей дается буквально на пальцах (мне кажется, что его поймут и люди, что далеки от математики)
6. Learning functions - эта глава самая математическая из всех и здесь идет речь про градиентный спуск и backpropagation algorithm. Первый алгоритм абсолютно стандартен для задач поиска минимума/максимума функции, а вот алгоритм обратного распространения ошибки в 80х годах сильно продвинул глубокие нейронные сети в популярности, так как этот способ позволял определять как менять веса hidden layers в нейронной сети при обучении. Собственно, именно при рассмотрении backpropagation надо немного знать про частные производные
7. The future of deep learning - здесь автор описывает светлое будущее deep learning, которое за 4 прошедших года кажется наступило в виде пришествия LLM (large language models)
В общем, книга достаточно легко читается и классно подойдет для первоначального знакомства с этой областью на уровне научпоп литературы:)
#ML #Data #Learning #DataScience #Software #PopularScience
❤8👍4🔥3
Hello Deep Learning • Bert Hubert • GOTO 2023
Интересное выступление Bert Hubert с рассказом про Deep Learning на пальцах. Сам Bert достаточно известный товарищ, который является немного ученым, разработчиком и предпринимателем. Забавно, как вначале он говорит, что много лет игнорировал хайп вокруг deep learning, отчасти потому что также яро проповедовали и blockchain, который оказался пшиком. Но после появления chatGPT игнорировать глубокое обучение уже было нельзя и он решил погрузиться в этот домен. Для этого он выбрал подход, что похож на "Kubernetes the hard way" от Kelsey Hightower. Для этого Берт взял стандартную задачу по распознаванию цифр и решил ее решить с нуля:) А дальше он кратко рассказал про
- Статью Attention is all you need
- NIST и его подборку рукописных цифр как базу для обучения
- Подход втупую через вычитание значений пикселей для 3 и 7 между собой и ручное разделение множеств
- Дальше усложняем с перемножением на рандомную матрицу
- Дальше добавляем функцию потерь (loss function)
- Переход к трем слоям для классификации цифр по десяти категориям
- Добавление нелинейности при перемножениях (ReLU и GELU)
- Добавление градиентов для обучения коэффициентов модели и получение хороших результатов
- Добавление шума в исходные данные и получение полного треша в качестве результатов от обученной модели и дальше автор говорит следующее
И дальше автор делает финальные выводы по выступлению
- Deep learning реально
- Deep learning позволяет получать магические результаты
- Deep learning не является волшебным и обманчиво простым
- Все еще можно попасть на борт этого корабля:)
В итоге, автор предлагает не опираться на внешние API облачных сервисов, а делать свои продукты поверх решений, доступных on-premise.
Автор предлагает посмотреть на следующие материалы
- Whisper.cpp: state of the art voice transcription in dozens of languages, entirely self-contained on your own computer/phone: https://github.com/ggerganov/whisper.cpp
- LlaMA “GPT-like”, self-contained, own computer etc: https://github.com/ggerganov/llama.cpp
- https://berthub.eu/articles/posts/hello-deep-learning/ - the series behind this presentation, https://github.com/berthubert/hello-dl
- https://berthub.eu/articles/posts/ai-is-guaranteed-to-disrupt-us/
#ML #DataScience #Data #Math #Software #SoftwareDevelopment #Engineering
Интересное выступление Bert Hubert с рассказом про Deep Learning на пальцах. Сам Bert достаточно известный товарищ, который является немного ученым, разработчиком и предпринимателем. Забавно, как вначале он говорит, что много лет игнорировал хайп вокруг deep learning, отчасти потому что также яро проповедовали и blockchain, который оказался пшиком. Но после появления chatGPT игнорировать глубокое обучение уже было нельзя и он решил погрузиться в этот домен. Для этого он выбрал подход, что похож на "Kubernetes the hard way" от Kelsey Hightower. Для этого Берт взял стандартную задачу по распознаванию цифр и решил ее решить с нуля:) А дальше он кратко рассказал про
- Статью Attention is all you need
- NIST и его подборку рукописных цифр как базу для обучения
- Подход втупую через вычитание значений пикселей для 3 и 7 между собой и ручное разделение множеств
- Дальше усложняем с перемножением на рандомную матрицу
- Дальше добавляем функцию потерь (loss function)
- Переход к трем слоям для классификации цифр по десяти категориям
- Добавление нелинейности при перемножениях (ReLU и GELU)
- Добавление градиентов для обучения коэффициентов модели и получение хороших результатов
- Добавление шума в исходные данные и получение полного треша в качестве результатов от обученной модели и дальше автор говорит следующее
Production use of a neural network tends to go through these four phases (if you are lucky):
1. It works on the training data
2. It also works on the validation data
3. After a lot of disappointment, we get it to work on other people’s real life data too
4. Other people can get it to work on their own data as well
Almost all demos declare victory after phase 2.
И дальше автор делает финальные выводы по выступлению
- Deep learning реально
- Deep learning позволяет получать магические результаты
- Deep learning не является волшебным и обманчиво простым
- Все еще можно попасть на борт этого корабля:)
В итоге, автор предлагает не опираться на внешние API облачных сервисов, а делать свои продукты поверх решений, доступных on-premise.
Автор предлагает посмотреть на следующие материалы
- Whisper.cpp: state of the art voice transcription in dozens of languages, entirely self-contained on your own computer/phone: https://github.com/ggerganov/whisper.cpp
- LlaMA “GPT-like”, self-contained, own computer etc: https://github.com/ggerganov/llama.cpp
- https://berthub.eu/articles/posts/hello-deep-learning/ - the series behind this presentation, https://github.com/berthubert/hello-dl
- https://berthub.eu/articles/posts/ai-is-guaranteed-to-disrupt-us/
#ML #DataScience #Data #Math #Software #SoftwareDevelopment #Engineering
YouTube
Hello Deep Learning • Bert Hubert • GOTO 2023
This presentation was recorded at GOTO Amsterdam 2023. #GOTOcon #GOTOams
https://gotoams.nl
Bert Hubert - Geeky Entrepreneur @ahuopjouwbuis
RESOURCES
https://berthub.eu/articles/posts/hello-deep-learning
https://arxiv.org/abs/1706.03762
https://github…
https://gotoams.nl
Bert Hubert - Geeky Entrepreneur @ahuopjouwbuis
RESOURCES
https://berthub.eu/articles/posts/hello-deep-learning
https://arxiv.org/abs/1706.03762
https://github…
🔥6👍3❤2
Jeff Dean: AI isn't as smart as you think -- but it could be | TED
Интересное выступление Джеффа Дина на TED два года назад на тему AI, в котором он подсветил области развития нейронных сетей (слева как сейчас, а справа куда стоит копать)
1) Separate models -> General purpose models
2) Image or text or speach -> All modalities at once
3) Dense models -> Sparse models
Интересно, что эти направления сейчас у всех на слуху, правда в лидеры выбился Open AI со своим ChatGPT. Возможно это обусловлено концовкой выступления, где Chris Anderson (head of TED ) спрашивал Джеффа Дина насчет ответственного подхода к AI. А дальше Джефф объяснял как в Google отвественно подходят к AI, но этот ответственный подход кажется влияет на T2M (time to market). Но дальше Google начал активно уменьшать свою команду AI Ethics и сфокусировался на сокращении отставания от конкурентов.
P.S.
Мне персонально интересно следить за карьерой Джеффа, который приложил руку ко многим инфраструктурным проектам Google:
- Google Search и whitepaper
- MapReduce и whitepaper
- BigTable и whitepaper
- Google Spanner и whitepaper
- Protocol Buffers (protobuf)
- и куча чего еще
Сейчас Джефф является Google's Chief Scientist, фокусирующемся на AI для Google DeepMind and Google Research.
Интересно, что в приведенном мной видео Джефф рассказывает, что писал учебную работу по нейронным сетям еще в далеком 1990 году:)
В общем, я думаю, что у Джеффа все получится и я с большим удовольствием изучу следующие whitepapers на тему AI (последние были в 2022 году)
#ML #AI #DataScience
Интересное выступление Джеффа Дина на TED два года назад на тему AI, в котором он подсветил области развития нейронных сетей (слева как сейчас, а справа куда стоит копать)
1) Separate models -> General purpose models
2) Image or text or speach -> All modalities at once
3) Dense models -> Sparse models
Интересно, что эти направления сейчас у всех на слуху, правда в лидеры выбился Open AI со своим ChatGPT. Возможно это обусловлено концовкой выступления, где Chris Anderson (head of TED ) спрашивал Джеффа Дина насчет ответственного подхода к AI. А дальше Джефф объяснял как в Google отвественно подходят к AI, но этот ответственный подход кажется влияет на T2M (time to market). Но дальше Google начал активно уменьшать свою команду AI Ethics и сфокусировался на сокращении отставания от конкурентов.
P.S.
Мне персонально интересно следить за карьерой Джеффа, который приложил руку ко многим инфраструктурным проектам Google:
- Google Search и whitepaper
- MapReduce и whitepaper
- BigTable и whitepaper
- Google Spanner и whitepaper
- Protocol Buffers (protobuf)
- и куча чего еще
Сейчас Джефф является Google's Chief Scientist, фокусирующемся на AI для Google DeepMind and Google Research.
Интересно, что в приведенном мной видео Джефф рассказывает, что писал учебную работу по нейронным сетям еще в далеком 1990 году:)
В общем, я думаю, что у Джеффа все получится и я с большим удовольствием изучу следующие whitepapers на тему AI (последние были в 2022 году)
#ML #AI #DataScience
YouTube
Jeff Dean: AI isn't as smart as you think -- but it could be | TED
What is AI, really? Jeff Dean, the head of Google's AI efforts, explains the underlying technology that enables artificial intelligence to do all sorts of things, from understanding language to diagnosing disease -- and presents a roadmap for building better…
🔥13❤5👍3
Jeff Dean (Google): Exciting Trends in Machine Learning
Интересная лекция Джеффа Дина, что прошла две недели назад в Rice Univerysity, в которой Джефф рассказывает про интересные тенденции в области искусственного интеллекта и машинного обучения. По-факту, это обновленная и расширенная с 12 минут до полутора часов версия доклад Джеффа с TED, про которую я писал в начале недели. Здесь Джефф тоже начинает с улучшения алгоритмов и железа, а потом добирается до современных ML систем общего назначения и дает бзор семейства мультимодальных моделей Gemini. Джефф также рассказывает как эти новые модели могут применяться в науке, технике и здравоохранении.
#ML #AI #DataScience #Software
Интересная лекция Джеффа Дина, что прошла две недели назад в Rice Univerysity, в которой Джефф рассказывает про интересные тенденции в области искусственного интеллекта и машинного обучения. По-факту, это обновленная и расширенная с 12 минут до полутора часов версия доклад Джеффа с TED, про которую я писал в начале недели. Здесь Джефф тоже начинает с улучшения алгоритмов и железа, а потом добирается до современных ML систем общего назначения и дает бзор семейства мультимодальных моделей Gemini. Джефф также рассказывает как эти новые модели могут применяться в науке, технике и здравоохранении.
#ML #AI #DataScience #Software
YouTube
Jeff Dean (Google): Exciting Trends in Machine Learning
Abstract: In this talk I’ll highlight several exciting trends in the field of AI and machine learning. Through a combination of improved algorithms and major efficiency improvements in ML-specialized hardware, we are now able to build much more capable, general…
❤8🔥4👍2
Why Most Data Projects Fail & How to Avoid It • Jesse Anderson • GOTO 2023
Интересное выступление про data проекты от Jesse Anderson, автора книги "Data Teams". Автор говорит о ключевых вопросах, которые стоит задать при старте проектов
- Who - Автор говорит про правильный состав команды для data проектов. Собственно автор про это написал целую книгу и он говорит про баланс data scientists, data engineers, operations.
- What - Автор задает вопрос про бизнес значение того data продукта/проекта, которым вы занимаетесь. Автор говорит о том, что фразы "Мы делаем AI" от CEO не хватает для data strategy:) В общем, надо понимать как ваш проект принесет ценность для бизнеса. Причем помимо стратегии нужен план и его execution. Особенно во времена, когда tech компании занимаются сокращениями в направлениях, что не приносят деньги.
- When - Автор говорит о том, а когда эта бизнес ценность будет создана. Нужен проект с понятными временными границами, чтобы он не был слишокм долгим, чтобы быть отмененным где-то посердине и не слишком коротким, обещающим золотые горы, которым на самом деле будет невозможно соответствовать.
- Where - И вот мы наконец-то добрались до первого технического вопроса, а где собственно эти данные будут обрабатываться, как будет выглядеть архитектура решения. И тут для ответа тоже не хватает фразу "Мы будем использовать технологию XYZ вендора ABC". Проблема в том, что вендор может пообещать все что угодно, но это обещание не факт, что выполнимо, более того, не факт, что оно оптимально для заказчика:)
- How - Здесь речь идет про план выполнения и про фокусировку на приоритетных направлениях. Хотя часто такие data проекты пытаются успеть сразу везде, а дальше теряют эффективность на context switches и застывают на месте, переставая генерировать какую-либо ценность кроме рассказов о наступлении AI:) Автор интересно рассказывает про то, как бизнес заказчикам перпендикулярно на конкретные технические решения, но важно какую бизнес-ценность они могут получить по результатам выполнения плана.
- Why - Автор задает вопрос, а почему же эти данные обладают ценностью? Просто отгружать данные и гонять ETL/ELT пайпланы не достаточно. Важно понимать как использование данных в новых проектах позволит обеспечить нужный ROI (return on investments), причем автор говорит о том, что он ищет 10x ROI для data проектов
Напоследок автор говорит о том, что для AI и data проектов важно понимать, что такие проекты сложны и требуют навыков, людей и организационных изменений для своего успеха. И это достаточно сложно и не все способны приносить пользу в таких проектах. Конкретно, автор рассказывает про то, что если запускать data и AI проекты внутри DWH команд, то такие проекты обречены на неудачу ("the team where good data projects go to die). Это обусловлено не тем, что DWH технологии плохие, а потому, что это скорее проблема людей ("people problem"), которые очень специфично разбираются с проблемами и очень специфичным образом выстраивают свою работу. В общем, автор говорит о том, что эта не та команда, которая должна отвечать за data и AI проекты нового типа.
P.S.
Такое же выступление было на YOW 2022 и я про него рассказывал раньше. Выступление получилось хорошим и автор заново его рассказал уже на goto конференции в 2023 году:)
P.P.S.
Мне мысли автора нравятся и я запланировал прочитать его книгу еще год назад, но до сих пор не прочитал:)
#Management #Leadership #Data #DataScience #AI #Engineering #Software #SoftwareDevelopment #ML
Интересное выступление про data проекты от Jesse Anderson, автора книги "Data Teams". Автор говорит о ключевых вопросах, которые стоит задать при старте проектов
- Who - Автор говорит про правильный состав команды для data проектов. Собственно автор про это написал целую книгу и он говорит про баланс data scientists, data engineers, operations.
- What - Автор задает вопрос про бизнес значение того data продукта/проекта, которым вы занимаетесь. Автор говорит о том, что фразы "Мы делаем AI" от CEO не хватает для data strategy:) В общем, надо понимать как ваш проект принесет ценность для бизнеса. Причем помимо стратегии нужен план и его execution. Особенно во времена, когда tech компании занимаются сокращениями в направлениях, что не приносят деньги.
- When - Автор говорит о том, а когда эта бизнес ценность будет создана. Нужен проект с понятными временными границами, чтобы он не был слишокм долгим, чтобы быть отмененным где-то посердине и не слишком коротким, обещающим золотые горы, которым на самом деле будет невозможно соответствовать.
- Where - И вот мы наконец-то добрались до первого технического вопроса, а где собственно эти данные будут обрабатываться, как будет выглядеть архитектура решения. И тут для ответа тоже не хватает фразу "Мы будем использовать технологию XYZ вендора ABC". Проблема в том, что вендор может пообещать все что угодно, но это обещание не факт, что выполнимо, более того, не факт, что оно оптимально для заказчика:)
- How - Здесь речь идет про план выполнения и про фокусировку на приоритетных направлениях. Хотя часто такие data проекты пытаются успеть сразу везде, а дальше теряют эффективность на context switches и застывают на месте, переставая генерировать какую-либо ценность кроме рассказов о наступлении AI:) Автор интересно рассказывает про то, как бизнес заказчикам перпендикулярно на конкретные технические решения, но важно какую бизнес-ценность они могут получить по результатам выполнения плана.
- Why - Автор задает вопрос, а почему же эти данные обладают ценностью? Просто отгружать данные и гонять ETL/ELT пайпланы не достаточно. Важно понимать как использование данных в новых проектах позволит обеспечить нужный ROI (return on investments), причем автор говорит о том, что он ищет 10x ROI для data проектов
Напоследок автор говорит о том, что для AI и data проектов важно понимать, что такие проекты сложны и требуют навыков, людей и организационных изменений для своего успеха. И это достаточно сложно и не все способны приносить пользу в таких проектах. Конкретно, автор рассказывает про то, что если запускать data и AI проекты внутри DWH команд, то такие проекты обречены на неудачу ("the team where good data projects go to die). Это обусловлено не тем, что DWH технологии плохие, а потому, что это скорее проблема людей ("people problem"), которые очень специфично разбираются с проблемами и очень специфичным образом выстраивают свою работу. В общем, автор говорит о том, что эта не та команда, которая должна отвечать за data и AI проекты нового типа.
P.S.
Такое же выступление было на YOW 2022 и я про него рассказывал раньше. Выступление получилось хорошим и автор заново его рассказал уже на goto конференции в 2023 году:)
P.P.S.
Мне мысли автора нравятся и я запланировал прочитать его книгу еще год назад, но до сих пор не прочитал:)
#Management #Leadership #Data #DataScience #AI #Engineering #Software #SoftwareDevelopment #ML
YouTube
Why Most Data Projects Fail & How to Avoid It • Jesse Anderson • GOTO 2023
This presentation was recorded at GOTO Amsterdam 2023. #GOTOcon #GOTOams
https://gotoams.nl
Jesse Anderson - Managing director of Big Data Institute, Host of The Data Dream Team Podcast @jessetanderson
RESOURCES
https://twitter.com/jessetanderson
https://www.jesse…
https://gotoams.nl
Jesse Anderson - Managing director of Big Data Institute, Host of The Data Dream Team Podcast @jessetanderson
RESOURCES
https://twitter.com/jessetanderson
https://www.jesse…
🔥6❤2👍2
GitHub Copilot: Coding Will Never Be The Same Again • Ryan J. Salva • YOW! 2023
Интересное выступление от Ryan J. Salva, VP of Product в Github, который рассказывает о том, как работает Copilot, и сопровождает все это несколькими демо. Ну и основным лейтмотивом выступления является обсуждение того, как Copilot помогает инженерам повышать свою продуктивность и изменять свой способ работы с кодом. Основные мысли в выступлении следующие
- Copilot умеет делать подсказки кода, который возможно вам будет полезен, исходя из контекста
- Контест обычно задается тем промптом, который вы пишите вначале в виде комментария на естественном языке
- Кроме того, у пользователя есть возможность общаться с помощником в чате, задавая вопросы по кодовой базе или прося сгенерировать какой-то кусок кода
- Архитектура системы на пальцах состоит из трех частей: code editor <-> proxy <-> model
- Контекст обирается со всего редактора (автор показывает на примере VS Code). В дело идут другие открытые вкладки, что тоже используются для контекста
- Для разных целей используются разные модели - условно для подсказок нужно low latency, поэтому используется модель попроще и побыстрее (GPT-3.5), а для чата приемлемо некоторое время ожидания, поэтому можно использовать модель помощнее и помедленнее (GPT-4)
- В принципе, в чате можно попросить Copilot сгенерировать ответ, используя данные всего вашего проекта (workspace)
- Дальше есть возможность использовать RAG (retrieval augmented generation), когда к вопросам пользователя «подмешивается» дополнительная информацию из каких‑то внешних источников для расширения возможностей copilot
-- Пример с документацией по внутренней дизайн системе для создания интерфейсов
-- Пример с информацией из observability платформ (splunk, datadog, ...) для связки условного сбоя, изменений за последнее время и имен авторов (чтобы подключить их к разбору инцидента)
- Дальше автор рассказывает про fine tunning модели, например для внесения смещения в сторону определенных стилей, версий API или SDK, языков программирования. Тут автор говорит, что модель дообучается на той обратной связи, что ей доступна (принятые и отклоненные suggestions, код, что прошел код ревью на merge request и код, что в результате код ревью был исключен и так далее)
- Ребята в Github проводили много экспериментов по исследованию влияния использования LLMs и результаты показывали значимые эффекты. Особенно мне понравилось исследование, где качество MRs оценивали инженеры вслепую, когда не знали использовали ли авторы MRs при работе LLMs или нет. И эта слепая оценка показала значимо более высокие оценки качества MRs у тех, кто пользовался помощью LLMs
- Интересно, что LLMs больше бустят начинающих разработчиков, а у продолжающих эффект меньше
- Дальше автор рассказывает про экономический эффект, что они посчитали в результате исследования с командой McKinsey и там получилось число 1.5 триллиона долларов за следующие три года (вообще консультанты любят рисовать большие цифры)
- Ну и завершается все тем, что ИИ не отнимет работу и инженеров, а скорее избавит их от рутины и в будущем для инженеров будет важна креативность и системное мышление, что позволит решать более сложные задачи, а вот зубрить синтаксиса языка придется меньше:)
#AI #Software #Leadership #Future #ML #DataScience #Productivity #Engineering #Processes
Интересное выступление от Ryan J. Salva, VP of Product в Github, который рассказывает о том, как работает Copilot, и сопровождает все это несколькими демо. Ну и основным лейтмотивом выступления является обсуждение того, как Copilot помогает инженерам повышать свою продуктивность и изменять свой способ работы с кодом. Основные мысли в выступлении следующие
- Copilot умеет делать подсказки кода, который возможно вам будет полезен, исходя из контекста
- Контест обычно задается тем промптом, который вы пишите вначале в виде комментария на естественном языке
- Кроме того, у пользователя есть возможность общаться с помощником в чате, задавая вопросы по кодовой базе или прося сгенерировать какой-то кусок кода
- Архитектура системы на пальцах состоит из трех частей: code editor <-> proxy <-> model
- Контекст обирается со всего редактора (автор показывает на примере VS Code). В дело идут другие открытые вкладки, что тоже используются для контекста
- Для разных целей используются разные модели - условно для подсказок нужно low latency, поэтому используется модель попроще и побыстрее (GPT-3.5), а для чата приемлемо некоторое время ожидания, поэтому можно использовать модель помощнее и помедленнее (GPT-4)
- В принципе, в чате можно попросить Copilot сгенерировать ответ, используя данные всего вашего проекта (workspace)
- Дальше есть возможность использовать RAG (retrieval augmented generation), когда к вопросам пользователя «подмешивается» дополнительная информацию из каких‑то внешних источников для расширения возможностей copilot
-- Пример с документацией по внутренней дизайн системе для создания интерфейсов
-- Пример с информацией из observability платформ (splunk, datadog, ...) для связки условного сбоя, изменений за последнее время и имен авторов (чтобы подключить их к разбору инцидента)
- Дальше автор рассказывает про fine tunning модели, например для внесения смещения в сторону определенных стилей, версий API или SDK, языков программирования. Тут автор говорит, что модель дообучается на той обратной связи, что ей доступна (принятые и отклоненные suggestions, код, что прошел код ревью на merge request и код, что в результате код ревью был исключен и так далее)
- Ребята в Github проводили много экспериментов по исследованию влияния использования LLMs и результаты показывали значимые эффекты. Особенно мне понравилось исследование, где качество MRs оценивали инженеры вслепую, когда не знали использовали ли авторы MRs при работе LLMs или нет. И эта слепая оценка показала значимо более высокие оценки качества MRs у тех, кто пользовался помощью LLMs
- Интересно, что LLMs больше бустят начинающих разработчиков, а у продолжающих эффект меньше
- Дальше автор рассказывает про экономический эффект, что они посчитали в результате исследования с командой McKinsey и там получилось число 1.5 триллиона долларов за следующие три года (вообще консультанты любят рисовать большие цифры)
- Ну и завершается все тем, что ИИ не отнимет работу и инженеров, а скорее избавит их от рутины и в будущем для инженеров будет важна креативность и системное мышление, что позволит решать более сложные задачи, а вот зубрить синтаксиса языка придется меньше:)
#AI #Software #Leadership #Future #ML #DataScience #Productivity #Engineering #Processes
YouTube
GitHub Copilot: Coding Will Never Be The Same Again • Ryan J. Salva • YOW! 2023
This presentation was recorded at YOW! Australia 2023. #GOTOcon #YOW
https://yowcon.com
Ryan J. Salva - VP of Product at GitHub @RyanJSalva
RESOURCES
https://twitter.com/ryanjsalva
https://www.linkedin.com/in/ryanjsalva
https://github.com/ryanjsalva
h…
https://yowcon.com
Ryan J. Salva - VP of Product at GitHub @RyanJSalva
RESOURCES
https://twitter.com/ryanjsalva
https://www.linkedin.com/in/ryanjsalva
https://github.com/ryanjsalva
h…
❤17👍9🔥2😁1🤔1
YAC 2023 - Нейросерия (1 сезон, 1 эпизод)
Интересный формат Yet another conference, которую лет 10 назад я посещал лично. А теперь это сделано в виде сериала, первая серия, которого посвящена трансформационным изменениям от LLMs, причем показано как они влият на продукты самого Яндекса.
- Рассказывается про то, как новая Алиса стала умнее общаться с пользователями - сначала с помощью навыка "Давай придумай", а потом и в обычном режиме
- Про связь LLMs и поиска - мы все видели как ChatGPT встраивался в Bing и вот недавно Яндекс выкатил Нейро
- Про этические аспекты, включая галлюцинации и цензуру, например, на нецензурную лексику
- Про визуальные продукты и Шедеврум от Яндекса
- Про суммаризацию статей и видео в Yandex Browser (удобная штука, которая позволяет экономить время)
- Про то, как LLMs помогают преодолеть проблему чистого листа в контентных сервисах (написать болванку объявления, отзыва, ответа на обращение, письма, ...)
- Ну и про будущее AI, где будет распространено создание персональных ассистентов для разных сфер - аля экосистема персональных помощников, которую мы запустили в Тинькофф
#ML #AI #Software #DataScience
Интересный формат Yet another conference, которую лет 10 назад я посещал лично. А теперь это сделано в виде сериала, первая серия, которого посвящена трансформационным изменениям от LLMs, причем показано как они влият на продукты самого Яндекса.
- Рассказывается про то, как новая Алиса стала умнее общаться с пользователями - сначала с помощью навыка "Давай придумай", а потом и в обычном режиме
- Про связь LLMs и поиска - мы все видели как ChatGPT встраивался в Bing и вот недавно Яндекс выкатил Нейро
- Про этические аспекты, включая галлюцинации и цензуру, например, на нецензурную лексику
- Про визуальные продукты и Шедеврум от Яндекса
- Про суммаризацию статей и видео в Yandex Browser (удобная штука, которая позволяет экономить время)
- Про то, как LLMs помогают преодолеть проблему чистого листа в контентных сервисах (написать болванку объявления, отзыва, ответа на обращение, письма, ...)
- Ну и про будущее AI, где будет распространено создание персональных ассистентов для разных сфер - аля экосистема персональных помощников, которую мы запустили в Тинькофф
#ML #AI #Software #DataScience
YouTube
YaC 2023. Нейросерия
Эта серия о том, как генеративные модели приучают нас всё делать по-новому: искать в интернете то, чего до нас никто не искал, решать математические задачи за секунду и получать из простого запроса картину, список идей или удивительную историю.
00:00 Интро…
00:00 Интро…
👍5❤3🔥1
МегаШкола ИТМО 2024 Игорь Котенков - State of the LLM Landscape
Интересный доклад с обобщением состояния дел в LLM (large language modes) от Игоря Котенкова, автора канала "Сиолошная" (@seeallochnaya), который я почитываю с интересом. Конкретно в этом видео автор за 2 часа дает хороший обзор последних достижений для студентов ИТМО.
Из презентации (что доступна здесь) я вынес следующие моменты
- Что такое большие языковые модели, как они работают и для чего их сейчас используют
- Как LLMs уже влияют на реальный мир (особенно когда они начинают использовать интернет для выполнения действий) и какое их ждет будущее
- Как обучают большие языковые модели - по-факту, модели предсказывают следующее слово в контексте, модель обучается на большом количестве текста (значимая часть интернета), дальше на выходе получается многогигабайт параметров, которые задают веса в моделе
- Дальше модельку доучивают с использованием человека - есть пара текстов, где один из ответов выбирается человеком как лучший и это подается модельке. В итоге, это ускоряет процесс обучения и оптимизирует человеческие предпочтения.
- ChatGPT - для создания модели использовались огромные мощности и высококачественные данные, а дальше продукт стал самым быстрорастущим в мире и достиг 100 млн пользователей примерно за 2 месяца
- Чатботы сейчас уже можно использовать для автоматизации деятельности, например, для повышения эффективности разработчиков (подробнее в докладе про Copilot) или для повышения эффективности консультантов (пример от BCG)
- LLMs могут научиться не просто гененрировать текст, но и некоторым навыкам, например, математическим
- Исследователи активно работают на интерпертируемостью LLMs, в перспективе это позволяет модели запоминать и применять паттерны, а не запоминать все подряд.
- При использовании LLMs могут быть проблемы с утечкой конфиденциальной информации
- Пока единственный гарантированный способ сделать LLM лучше - это насыпать больше мощностей и подкинуть данные получше на стадии обучения, но исследователи постоянно пытаются придумать еще что-то, например, оптимизируя алгоритмы
- К моделям можно подключать инструменты, например, калькулятор (или Wolfram Alfa, про это можно подробнее почитать в книге Стивена Вольфрама "What Is ChatGPT Doing ... and Why Does It Work?", про которую я рассказывал раньше)
- Модели можно помогать, попросив построить цепочку рассуждения (chain-of-thought prompting)
- Дальше внешние инструменты и chain-of-thought можно объединить в подходе ReAct (Reasoning + Actions). ReAct - это способ промтинга, позволяющий модели выполнять несколько шагов поиска информации. Игорь дает интересные примеры с моделями
-- Для поиска информации в интернете и вставкой текста в модель
-- Для использования сервиса для обмана капчи:)
-- Для синтеза ядов
-- Для генерации предметов в майнкрафте, где модель создала себе skill library и выучила скиллы по созданию предметов
- LLMs могут работать не только с текстом, но и с видео, звуками и другими модальностями
- На базе LLMs можно создавать автономные браузерные агенты, которые будут выполнять действия на сайте, предсказывая, что нужно сделать.
- Для обучения моделей можно использовать синтетические данные, сгенерированные другими моделями. Это позволяет улучшить качество обучения и увеличить навыки модели.
- Есть направление по использованию LLM в научных исследованиях, так как LLM могут генерировать десятки тысяч, сотни тысяч ответов на задачи, что позволяет строить дерево мыслей и находить правильный ответ. В будущем такие модели могут быть использованы для создания научных статей и новых знаний.
- Сейчас LLMs могут выдумывать факты или соглашаться с неправильными фактами, но это может быть решено в будущем.
- Дальше ML будет охватывать все новые и новые сферы или доводить до идеала те, в которых уже применяются технологии. В итоге, будет работа как по созданию лучших моделей, так и по интеграции существующих моделей для решения реальных бизнес-задач.
#DataScience #ML #AI #Data #PopularScience #Math
Интересный доклад с обобщением состояния дел в LLM (large language modes) от Игоря Котенкова, автора канала "Сиолошная" (@seeallochnaya), который я почитываю с интересом. Конкретно в этом видео автор за 2 часа дает хороший обзор последних достижений для студентов ИТМО.
Из презентации (что доступна здесь) я вынес следующие моменты
- Что такое большие языковые модели, как они работают и для чего их сейчас используют
- Как LLMs уже влияют на реальный мир (особенно когда они начинают использовать интернет для выполнения действий) и какое их ждет будущее
- Как обучают большие языковые модели - по-факту, модели предсказывают следующее слово в контексте, модель обучается на большом количестве текста (значимая часть интернета), дальше на выходе получается многогигабайт параметров, которые задают веса в моделе
- Дальше модельку доучивают с использованием человека - есть пара текстов, где один из ответов выбирается человеком как лучший и это подается модельке. В итоге, это ускоряет процесс обучения и оптимизирует человеческие предпочтения.
- ChatGPT - для создания модели использовались огромные мощности и высококачественные данные, а дальше продукт стал самым быстрорастущим в мире и достиг 100 млн пользователей примерно за 2 месяца
- Чатботы сейчас уже можно использовать для автоматизации деятельности, например, для повышения эффективности разработчиков (подробнее в докладе про Copilot) или для повышения эффективности консультантов (пример от BCG)
- LLMs могут научиться не просто гененрировать текст, но и некоторым навыкам, например, математическим
- Исследователи активно работают на интерпертируемостью LLMs, в перспективе это позволяет модели запоминать и применять паттерны, а не запоминать все подряд.
- При использовании LLMs могут быть проблемы с утечкой конфиденциальной информации
- Пока единственный гарантированный способ сделать LLM лучше - это насыпать больше мощностей и подкинуть данные получше на стадии обучения, но исследователи постоянно пытаются придумать еще что-то, например, оптимизируя алгоритмы
- К моделям можно подключать инструменты, например, калькулятор (или Wolfram Alfa, про это можно подробнее почитать в книге Стивена Вольфрама "What Is ChatGPT Doing ... and Why Does It Work?", про которую я рассказывал раньше)
- Модели можно помогать, попросив построить цепочку рассуждения (chain-of-thought prompting)
- Дальше внешние инструменты и chain-of-thought можно объединить в подходе ReAct (Reasoning + Actions). ReAct - это способ промтинга, позволяющий модели выполнять несколько шагов поиска информации. Игорь дает интересные примеры с моделями
-- Для поиска информации в интернете и вставкой текста в модель
-- Для использования сервиса для обмана капчи:)
-- Для синтеза ядов
-- Для генерации предметов в майнкрафте, где модель создала себе skill library и выучила скиллы по созданию предметов
- LLMs могут работать не только с текстом, но и с видео, звуками и другими модальностями
- На базе LLMs можно создавать автономные браузерные агенты, которые будут выполнять действия на сайте, предсказывая, что нужно сделать.
- Для обучения моделей можно использовать синтетические данные, сгенерированные другими моделями. Это позволяет улучшить качество обучения и увеличить навыки модели.
- Есть направление по использованию LLM в научных исследованиях, так как LLM могут генерировать десятки тысяч, сотни тысяч ответов на задачи, что позволяет строить дерево мыслей и находить правильный ответ. В будущем такие модели могут быть использованы для создания научных статей и новых знаний.
- Сейчас LLMs могут выдумывать факты или соглашаться с неправильными фактами, но это может быть решено в будущем.
- Дальше ML будет охватывать все новые и новые сферы или доводить до идеала те, в которых уже применяются технологии. В итоге, будет работа как по созданию лучших моделей, так и по интеграции существующих моделей для решения реальных бизнес-задач.
#DataScience #ML #AI #Data #PopularScience #Math
YouTube
State of the LLM Landscape – Игорь Котенков
МегаШкола ИТМО 2024
На сайт AI Talent Hub: https://ai.itmo.ru/?utm_source=youtube&utm_medium=video&utm_campaign=kotenkov
В рамках МегаШколы ИТМО Игорь Котенков - ex-Head of AI, популяризатор AI, автор telegram-канала "Сиолошная" рассмотрел основные этапы…
На сайт AI Talent Hub: https://ai.itmo.ru/?utm_source=youtube&utm_medium=video&utm_campaign=kotenkov
В рамках МегаШколы ИТМО Игорь Котенков - ex-Head of AI, популяризатор AI, автор telegram-канала "Сиолошная" рассмотрел основные этапы…
🔥6❤4👍1
Your AI Survival Guide • Sol Rashidi & Joe Reis • GOTO 2024
Интересный выпуск книжного клуба "Goto Book Club" про искусственный интеллект, в котором Joe Reis берет интервью у Sol Rashidi, автора книги "Your AI Survival Guide". И вот из чего состоит это интервью
- Sol рассказывает о своем опыте работы с искусственным интеллектом: помогала запускать IBM Watson в 2011, была Chief Data and AI Officer в Sony Music, Chief Data and Analytics Officer в Merck Pharmaceutical и т.д. В общем, она занималась AI в больших корпорациях, но уже 8 месяцев как она стала ex C-suite executive
- AI теперь демократизировался и он доступен не только крупным компаниям, что есть хорошо, но из-за этого возникает всеобщий хайп
- А книга посвящена реальным проблемам и неудачам, связанным с искусственным интеллектом, и как их избежать.
- Выбор AI стратегии в компании должен зависеть от зрелости самой организации и ее готовности к риску
- Если организация консервативна (как многие корпорации), то важно убедиться, что стратегия ориентирована на внутренний мир, а не на внешний. Суть в том, что мы можем подвести внутренних клиентов, когда пытаемся внедрить AI, но скорее всего мы не готовы экспериментировать на внешних клиентах
- Одновременно надо держать в голове крупные цели, но начинать с малого и тренировать мышцы (условно надо сорвать низковисящие фрукты и показать, что стратегия работает)
- Сол прикольно рассказывает о том, что при выборе провайдера AI решений не надо слушать маркетинговый булшит продажников, а надо общаться с инженерами и solution архитекторами (которые обычно есть у провайдеров) - это поволяет понять насколько решение реально закрывает ваши потребности и его действительно можно тащить в прод
- По мнению Сол open source подходит для небольших компаний или PoC, но в enterprise чаще используют managed сервисы. Отчасти это объясняется тем, что в enterprises в принципе любят коробки, так как крутые технари не готовы идти в условную корпорацию, поэтому собственных компетенций корпорациям не хватает.
- Дальше Joe задал вопрос про то, что ждет AI в будущем и Sol дала прогноз насчет трех вещей
-- В будущем компании начнут учитывать стоимость использования managed сервисах при оценке ROI внедряемых AI инноваций. Эту стоимость надо учитывать при внедрении решений. Сейчас все внедряют AI, но не всегда сводят экономику при этом
-- Сейчас на AI тратятся огромные энергетические ресурсы, как на тренировки, так и на inference. Это все не очень сочетается с ESG повесткой и устойчивым развитием. Дальше тренды на AI и ESG попробуют свести вместе
-- Сейчас хайп разворачивается вокруг LLM, которые показывают state-of-the-art результаты во многих областях. Много компаний делают foundational модели, другие файн-тюнят их под свои нужды. Сол предполагает, что дальше появится какой-то managed middle-layer, что позволит корпорациям не спускаться до уровня LLM.
- Под конец Joe спрашивает Sol о том, как разработчикам повышать свою квалификацию в AI и Сол отвечает, что надо начинать с использования искусственного интеллекта в собственной жизни и в решении собственных проблем. Это может быть полезным для повышения квалификации. Сол предлагает изучать различные приложения и игроков в этой области, а также экспериментировать с ними. Также она предлагает пройти курсы по AI от топовых университетов, что доступны на Coursera, Edx, Linkedin.
#DataScience #ML #AI #Data #PopularScience #Engineering
Интересный выпуск книжного клуба "Goto Book Club" про искусственный интеллект, в котором Joe Reis берет интервью у Sol Rashidi, автора книги "Your AI Survival Guide". И вот из чего состоит это интервью
- Sol рассказывает о своем опыте работы с искусственным интеллектом: помогала запускать IBM Watson в 2011, была Chief Data and AI Officer в Sony Music, Chief Data and Analytics Officer в Merck Pharmaceutical и т.д. В общем, она занималась AI в больших корпорациях, но уже 8 месяцев как она стала ex C-suite executive
- AI теперь демократизировался и он доступен не только крупным компаниям, что есть хорошо, но из-за этого возникает всеобщий хайп
- А книга посвящена реальным проблемам и неудачам, связанным с искусственным интеллектом, и как их избежать.
- Выбор AI стратегии в компании должен зависеть от зрелости самой организации и ее готовности к риску
- Если организация консервативна (как многие корпорации), то важно убедиться, что стратегия ориентирована на внутренний мир, а не на внешний. Суть в том, что мы можем подвести внутренних клиентов, когда пытаемся внедрить AI, но скорее всего мы не готовы экспериментировать на внешних клиентах
- Одновременно надо держать в голове крупные цели, но начинать с малого и тренировать мышцы (условно надо сорвать низковисящие фрукты и показать, что стратегия работает)
- Сол прикольно рассказывает о том, что при выборе провайдера AI решений не надо слушать маркетинговый булшит продажников, а надо общаться с инженерами и solution архитекторами (которые обычно есть у провайдеров) - это поволяет понять насколько решение реально закрывает ваши потребности и его действительно можно тащить в прод
- По мнению Сол open source подходит для небольших компаний или PoC, но в enterprise чаще используют managed сервисы. Отчасти это объясняется тем, что в enterprises в принципе любят коробки, так как крутые технари не готовы идти в условную корпорацию, поэтому собственных компетенций корпорациям не хватает.
- Дальше Joe задал вопрос про то, что ждет AI в будущем и Sol дала прогноз насчет трех вещей
-- В будущем компании начнут учитывать стоимость использования managed сервисах при оценке ROI внедряемых AI инноваций. Эту стоимость надо учитывать при внедрении решений. Сейчас все внедряют AI, но не всегда сводят экономику при этом
-- Сейчас на AI тратятся огромные энергетические ресурсы, как на тренировки, так и на inference. Это все не очень сочетается с ESG повесткой и устойчивым развитием. Дальше тренды на AI и ESG попробуют свести вместе
-- Сейчас хайп разворачивается вокруг LLM, которые показывают state-of-the-art результаты во многих областях. Много компаний делают foundational модели, другие файн-тюнят их под свои нужды. Сол предполагает, что дальше появится какой-то managed middle-layer, что позволит корпорациям не спускаться до уровня LLM.
- Под конец Joe спрашивает Sol о том, как разработчикам повышать свою квалификацию в AI и Сол отвечает, что надо начинать с использования искусственного интеллекта в собственной жизни и в решении собственных проблем. Это может быть полезным для повышения квалификации. Сол предлагает изучать различные приложения и игроков в этой области, а также экспериментировать с ними. Также она предлагает пройти курсы по AI от топовых университетов, что доступны на Coursera, Edx, Linkedin.
#DataScience #ML #AI #Data #PopularScience #Engineering
YouTube
Your AI Survival Guide • Sol Rashidi & Joe Reis • GOTO 2024
This interview was recorded for the GOTO Book Club. #GOTOcon #GOTObookclub
http://gotopia.tech/bookclub
Read the full transcription of the interview here:
https://gotopia.tech/episodes/307
Sol Rashidi - Author of "Your AI Survival Guide", Keynote Speaker…
http://gotopia.tech/bookclub
Read the full transcription of the interview here:
https://gotopia.tech/episodes/307
Sol Rashidi - Author of "Your AI Survival Guide", Keynote Speaker…
👍6❤3🔥2
Глубокое обучение и анализ данных. Практическое руководство
Прочитал эту книгу Дмитрия Малова за пару недель, что пришлись на отпуск и разъезды. Книга издана в 2023 году и сопровождается кодом и графиками, что доступны на Github. В книге 270 страниц, разделенных на 8 отдельных глав, причем автор пытается сначала изложить необходимые основы, а дальше уже переходить к практике и примерам:
1. Основы машинного обучения - здесь автор начинает с базиса, в который входит
- Линейная алгебра - скаляр, вектор, матрица, тензор, норма
- Теория информации и теорвер - случайная величина, распределение вероятности, условная вероятность, матожидание, дисперсия, ковариация, правило Байеса
- Основные понятия машинного обучения и решаемые задачи - классификация, регрессия, обнаружение аномалий, машинный перевод, структурный вывод, синтез и выбборка), а также отношение к опыту при обучении и варианты обучения с учителем, без учителя, с частичным привлечением учителя, а также обучение с подкреплением
- Основы разработки: синтаксис python, основы ооп (абстракция, инкаспусляция, полиморфизм, наследование и композиция), процессы разработки: waterfall и agile:)
2. Основные алгоритмы машинного обучения - здесь автор начинает с предобработки данных, а дальше рассматривает алгоритмы снижения их размерности: линейные и нелинейные методы, линейную и логистическую регрессию, деревья решений, метод опорных векторов, наивный байесовский классификатор, k-means, k nearest neighbors, случайный лес и алгоритм градиентного бустинга. Все это умещается в 30 страниц, поэтому если вы отдельно не изучали все эти вещи, то иногда сложно успевать за мыслью автора (я слава богу до этого это все уже ботал лет 10 назад, когда у меня был приступ самообразования и я зависал на Coursera и Edx)
3. Основы глубокого обучения - здесь автор начинает с обратного распространения ошибки (backpropagation), дальше рассказывает про персептрон, цепь Маркова, машину Больцмана, сеть Хопфилда, сверточные нейронные сети (CNN), трансформеры, рекуррентные нейронные сети (RNN), автокодировщики, генеративно состязательные сети (GAN). А в конце приводит пример системы, которую автор походу делал для whitepaper или диплома:)
4. Основы data science - интересно, что тут рассказ начинается с методологии работы с данными, а точнее с CRISP-DM (Cross-Industry Standard Process for Data Mining, дальше рассказывается про роли в команде ML-разработки, где примечательны data analyst, data engineer, data scientist. Дальше автор рассказывает про тренды: deep fakes и борьба с ними, интерес бизнеса к обучению end2end моделей, Auto ML для low-code и no-code использования, MLOps (я недавно писал про whitepaper на эту тему от Google и участвовал в подкасте на эту же тему). А заканчивает эту главу автор тем, что рассматривает популярные библиотеки для ML разработки, среди которых хотелось бы упомянуть TensorFlow, PyTorch, Keras
5. Задачи глубокого обучения - в этой главе автор приводит примеры задач и показывает как их можно решать при помощи deep learning. Тут как раз пригодится код из репозитория, чтобы поиграть с задачами самому. Тут есть примеры аугментации данных, компьютерного зрения и использования OpenCV, классическая задача на распознование символов, обработка естественного языка, обработка аудио, а также обработка видео. В общем, в этой и следующих трех главах собрана самая мякотка:)
6-8. Последние три главы посвящены знакомству с TensorFlow, Keras и PyTorch. Здесь показано как решать задачи из 5 главы с использованием конкретной библиотеки.
Если финализировать саммари по книге, то она показалась мне кратким интро в область deep learning. В ней есть вся нужная базовая инфа, но чтобы ее понять придется почитать дополнительные материалы. Здесь же есть примеры задач и код, который может стать стартовой точкой для ваших экспериментов. В общем, книга мне скорее понравилась, но надо учесть, что за исключением конкретных библиотек TensorFlow, Keras и PyTorch все остальное я уже достаточно давно и неплохо изучил:)
#AI #Math #Statistics #Software #DataScience #ML
Прочитал эту книгу Дмитрия Малова за пару недель, что пришлись на отпуск и разъезды. Книга издана в 2023 году и сопровождается кодом и графиками, что доступны на Github. В книге 270 страниц, разделенных на 8 отдельных глав, причем автор пытается сначала изложить необходимые основы, а дальше уже переходить к практике и примерам:
1. Основы машинного обучения - здесь автор начинает с базиса, в который входит
- Линейная алгебра - скаляр, вектор, матрица, тензор, норма
- Теория информации и теорвер - случайная величина, распределение вероятности, условная вероятность, матожидание, дисперсия, ковариация, правило Байеса
- Основные понятия машинного обучения и решаемые задачи - классификация, регрессия, обнаружение аномалий, машинный перевод, структурный вывод, синтез и выбборка), а также отношение к опыту при обучении и варианты обучения с учителем, без учителя, с частичным привлечением учителя, а также обучение с подкреплением
- Основы разработки: синтаксис python, основы ооп (абстракция, инкаспусляция, полиморфизм, наследование и композиция), процессы разработки: waterfall и agile:)
2. Основные алгоритмы машинного обучения - здесь автор начинает с предобработки данных, а дальше рассматривает алгоритмы снижения их размерности: линейные и нелинейные методы, линейную и логистическую регрессию, деревья решений, метод опорных векторов, наивный байесовский классификатор, k-means, k nearest neighbors, случайный лес и алгоритм градиентного бустинга. Все это умещается в 30 страниц, поэтому если вы отдельно не изучали все эти вещи, то иногда сложно успевать за мыслью автора (я слава богу до этого это все уже ботал лет 10 назад, когда у меня был приступ самообразования и я зависал на Coursera и Edx)
3. Основы глубокого обучения - здесь автор начинает с обратного распространения ошибки (backpropagation), дальше рассказывает про персептрон, цепь Маркова, машину Больцмана, сеть Хопфилда, сверточные нейронные сети (CNN), трансформеры, рекуррентные нейронные сети (RNN), автокодировщики, генеративно состязательные сети (GAN). А в конце приводит пример системы, которую автор походу делал для whitepaper или диплома:)
4. Основы data science - интересно, что тут рассказ начинается с методологии работы с данными, а точнее с CRISP-DM (Cross-Industry Standard Process for Data Mining, дальше рассказывается про роли в команде ML-разработки, где примечательны data analyst, data engineer, data scientist. Дальше автор рассказывает про тренды: deep fakes и борьба с ними, интерес бизнеса к обучению end2end моделей, Auto ML для low-code и no-code использования, MLOps (я недавно писал про whitepaper на эту тему от Google и участвовал в подкасте на эту же тему). А заканчивает эту главу автор тем, что рассматривает популярные библиотеки для ML разработки, среди которых хотелось бы упомянуть TensorFlow, PyTorch, Keras
5. Задачи глубокого обучения - в этой главе автор приводит примеры задач и показывает как их можно решать при помощи deep learning. Тут как раз пригодится код из репозитория, чтобы поиграть с задачами самому. Тут есть примеры аугментации данных, компьютерного зрения и использования OpenCV, классическая задача на распознование символов, обработка естественного языка, обработка аудио, а также обработка видео. В общем, в этой и следующих трех главах собрана самая мякотка:)
6-8. Последние три главы посвящены знакомству с TensorFlow, Keras и PyTorch. Здесь показано как решать задачи из 5 главы с использованием конкретной библиотеки.
Если финализировать саммари по книге, то она показалась мне кратким интро в область deep learning. В ней есть вся нужная базовая инфа, но чтобы ее понять придется почитать дополнительные материалы. Здесь же есть примеры задач и код, который может стать стартовой точкой для ваших экспериментов. В общем, книга мне скорее понравилась, но надо учесть, что за исключением конкретных библиотек TensorFlow, Keras и PyTorch все остальное я уже достаточно давно и неплохо изучил:)
#AI #Math #Statistics #Software #DataScience #ML
👍9🔥3❤2
Artificial Intelligence Index Report 2024 (Рубрика #AI)
Недавно почитал этот отчет от Stanford University for Human-Centered AI, который в виде pdf занимает солидные 500+ страниц:) Отчет является достаточно значимым в индустрии и затрагивает большое количество тем (он разбит на 9 отдельных глав вида: RnD, tech performance, responsible AI, economy, science & medicine, education, policy & governance, diversity, public opinion). Каждая глава содержит большое количество отсылок к исследованиям, различные визуализации и нетривиальные выводы, которые выливаются в следюущие top-level находки
1. AI beats humans on some tasks, but not on all - железные друзья уже превосходят людей в ряде задач, пока не во всех, но еще не вечер
2. Industry continues to dominate frontier AI research - создание foundational моделей - дело дорогое, поэтому крупные компании его могут себе позволить, а вот академическим исследователям не хватает бюджетов для конкуренции. Поэтому многие прорывные результаты рождаются в корпорациях
3. Frontier models get way more expensive - интересно наблюдать экспоненциальный рост стоимости моделек, который дает стабильный рост результатов
4. The United States leads China, the EU, and the U.K. as the leading source of top AI models - USA пока впереди Китая в рамках AI (а если посмотреть на другие новости про запрет экспорта части технологий в Китай, то кажется, что USA хочет продолать быть лидером)
5. Robust and standardized evaluations for LLM responsibility are seriously lacking - вопрос оценки моделей достаточно сложен (во второй части про tech performance авторы рассказывают про разные варианты бенчмарков)
6. Generative AI investment skyrockets - видно, что тема инвестиций в AI горячая и все стартапы теперь пытаются добавить себе в описание рассказы про искусственный интеллект, чтобы повысить оценку бизнеса у инвесторов:)
7. The data is in: AI makes workers more productive and leads to higher quality work - есть исследования, что показывают повышение продуктивности и качества работы с использованием искусственного интеллекта
8. Scientific progress accelerates even further, thanks to AI - искусственный интеллект теперь помогает естественному двигать науку вперед. Интересно посмотреть что будет в отчете следующего года - по-факту, это позитивная спираль обратной связи и если AI сможет ускорять научные исследования, то лучше ему начать с области исследований AI:)
9. The number of AI regulations in the United States sharply increases - как обычно с большими возможностями приходит и большая ответственность, которую накладывают регуляторы. По-идее, это фиксирует границы и правила игры, но одновременно замедляет исследование нового. Но AI теперь слишком большой слон, чтобы регуляторы им не заинтересовались:)
10. People across the globe are more cognizant of AI’s potential impact—and more nervous - люди нервничают, так как появляется ощущение, что мы живем в эпоху перемен и технологическая сингулярность не за горами. Одновременно, не ясно когда и чью работу отдадут нашим железным друзьям и как потеря работы отразится на нашей жизни. Правда, пока AI скорее идет в сторону ассистентов людей, но при такой скорости развития моделей и получения данных для обучения ассистент скоро сможет превзойти учителя и ...
В общем, рекомендую отчет к ознакомлению всем интересующимся в современных технологических трендах.
#AI #ML #Software #Engineering #DataScience
Недавно почитал этот отчет от Stanford University for Human-Centered AI, который в виде pdf занимает солидные 500+ страниц:) Отчет является достаточно значимым в индустрии и затрагивает большое количество тем (он разбит на 9 отдельных глав вида: RnD, tech performance, responsible AI, economy, science & medicine, education, policy & governance, diversity, public opinion). Каждая глава содержит большое количество отсылок к исследованиям, различные визуализации и нетривиальные выводы, которые выливаются в следюущие top-level находки
1. AI beats humans on some tasks, but not on all - железные друзья уже превосходят людей в ряде задач, пока не во всех, но еще не вечер
2. Industry continues to dominate frontier AI research - создание foundational моделей - дело дорогое, поэтому крупные компании его могут себе позволить, а вот академическим исследователям не хватает бюджетов для конкуренции. Поэтому многие прорывные результаты рождаются в корпорациях
3. Frontier models get way more expensive - интересно наблюдать экспоненциальный рост стоимости моделек, который дает стабильный рост результатов
4. The United States leads China, the EU, and the U.K. as the leading source of top AI models - USA пока впереди Китая в рамках AI (а если посмотреть на другие новости про запрет экспорта части технологий в Китай, то кажется, что USA хочет продолать быть лидером)
5. Robust and standardized evaluations for LLM responsibility are seriously lacking - вопрос оценки моделей достаточно сложен (во второй части про tech performance авторы рассказывают про разные варианты бенчмарков)
6. Generative AI investment skyrockets - видно, что тема инвестиций в AI горячая и все стартапы теперь пытаются добавить себе в описание рассказы про искусственный интеллект, чтобы повысить оценку бизнеса у инвесторов:)
7. The data is in: AI makes workers more productive and leads to higher quality work - есть исследования, что показывают повышение продуктивности и качества работы с использованием искусственного интеллекта
8. Scientific progress accelerates even further, thanks to AI - искусственный интеллект теперь помогает естественному двигать науку вперед. Интересно посмотреть что будет в отчете следующего года - по-факту, это позитивная спираль обратной связи и если AI сможет ускорять научные исследования, то лучше ему начать с области исследований AI:)
9. The number of AI regulations in the United States sharply increases - как обычно с большими возможностями приходит и большая ответственность, которую накладывают регуляторы. По-идее, это фиксирует границы и правила игры, но одновременно замедляет исследование нового. Но AI теперь слишком большой слон, чтобы регуляторы им не заинтересовались:)
10. People across the globe are more cognizant of AI’s potential impact—and more nervous - люди нервничают, так как появляется ощущение, что мы живем в эпоху перемен и технологическая сингулярность не за горами. Одновременно, не ясно когда и чью работу отдадут нашим железным друзьям и как потеря работы отразится на нашей жизни. Правда, пока AI скорее идет в сторону ассистентов людей, но при такой скорости развития моделей и получения данных для обучения ассистент скоро сможет превзойти учителя и ...
В общем, рекомендую отчет к ознакомлению всем интересующимся в современных технологических трендах.
#AI #ML #Software #Engineering #DataScience
👍4❤3🔥3
Introducing GPT-4o (Рубрика #AI)
Вчера был интересный анонс новой модели от OpenAI и живое демо ее возможностей.
Видео длится 26 минут и его интересно посмотреть в оригинале, так как там было несколько интересных новостей:
- Появление настольной версии ChatGPT (для Mac)
- Запуск новой флагманской модели GPT-4o, которая действительно мультимодальна и с ней можно разговаривать, показывать видео и картинки и задавать по ним вопросы.
- Latency на ответы у модели такое, что с ней вполне можно приятно разговаривать без задержек в несколько секунд на генерацию ответа - это мне напомнило фильм "Она", который был про взаимоотношения AI как персонального ассистента и главного героя, кстати фильм вышел в 2013 году
- GPT-4o в 2 раза быстрее, на 50% дешевле и рейт-лимиты в 5 раз выше, чем в GPT4-Turbo
- GPT-4o будет доступен для всех пользователей (даже бесплатных)
- В демо был интересный кейс помощи в решении линейного уравнения - похоже GPT-4o теперь еще больше импакта способен принести в Edtech
- Дальше был пример работы с python кодом, код конечно простой был, но ChatGPT хорошо рассказал что это за код, зачем он нужен, а потом еще проанализировала график, который этот код и рисовал
- Другой пример с переводом в режиме реального времени тоже выглядел вдохновляюще
- Ну и последний пример - это анализ эмоций по выражению лица, которое транслируется при помощи селфи-камеры
В общем, очень интересная демка после которой вспоминается третий закон Артура Кларка
И кажется технологии от OpenAI приближаются к этому достаточно развитому уровню:)
#AI #DataScience #ML
Вчера был интересный анонс новой модели от OpenAI и живое демо ее возможностей.
Видео длится 26 минут и его интересно посмотреть в оригинале, так как там было несколько интересных новостей:
- Появление настольной версии ChatGPT (для Mac)
- Запуск новой флагманской модели GPT-4o, которая действительно мультимодальна и с ней можно разговаривать, показывать видео и картинки и задавать по ним вопросы.
- Latency на ответы у модели такое, что с ней вполне можно приятно разговаривать без задержек в несколько секунд на генерацию ответа - это мне напомнило фильм "Она", который был про взаимоотношения AI как персонального ассистента и главного героя, кстати фильм вышел в 2013 году
- GPT-4o в 2 раза быстрее, на 50% дешевле и рейт-лимиты в 5 раз выше, чем в GPT4-Turbo
- GPT-4o будет доступен для всех пользователей (даже бесплатных)
- В демо был интересный кейс помощи в решении линейного уравнения - похоже GPT-4o теперь еще больше импакта способен принести в Edtech
- Дальше был пример работы с python кодом, код конечно простой был, но ChatGPT хорошо рассказал что это за код, зачем он нужен, а потом еще проанализировала график, который этот код и рисовал
- Другой пример с переводом в режиме реального времени тоже выглядел вдохновляюще
- Ну и последний пример - это анализ эмоций по выражению лица, которое транслируется при помощи селфи-камеры
В общем, очень интересная демка после которой вспоминается третий закон Артура Кларка
Любая достаточно развитая технология неотличима от магии.
И кажется технологии от OpenAI приближаются к этому достаточно развитому уровню:)
#AI #DataScience #ML
YouTube
Introducing GPT-4o
OpenAI Spring Update – streamed live on Monday, May 13, 2024.
Introducing GPT-4o, updates to ChatGPT, and more.
Introducing GPT-4o, updates to ChatGPT, and more.
🔥14👍8⚡2👏1
Google I/O 2024: Everything Revealed in 12 Minutes (Рубрика #AI)
Прошел один день с анонса GPT-4o от OpenAI и состоялся Google I/O, который пропустившим можно посмотреть в виде 12-минутной нарезки ключевых моментов от CNET. Забавно, что само мероприятие Google I/O можно заменой одной буквы переименовать в Google AI, о котором в основном и говорили со сцены:)
- Project Astra - как Gemini умеет работать с видео с камеры телефона и воспринимать окружающее пространство
- Veo Generative AI Video Model - модель для генерации видео навроде Sora
- Trillium TPU - шестое поколение процессоров для обработки тензоров (в 4.7 раза эффективнее, чем раньше)
- Axion Processor - custom ARM процессор
- Gemini AI Google Search - как AI встраивается в Google Search: AI Overviews в качестве дополнительного блока сверху поисковой выдачи, дальше пример с поиском ресторанов под определенную задачу
- Gemini AI Video Search - поиск по видео, когда ты снимаешь камерой смартфона что-то и задаешь вопрос, выглядит интересно
- Gemini AI 'Live' Voice Chat - голосовой ассистент, с которым можно естественно разговаривать в real-time
- Gemini AI Gems - персонализированные ассистенты, которым можно задать инструкции и дальше они будут вести себя в соответствии с ними
- Android 15 AI Powered Search - AI полным ходом заезжает в Android (сначала на Pixel, а потом и на другие телефоны), где были показаны три изменения: доработки поиска, gemini становится ассистентом на Android, новая AI gemini модель будет работать на устройстве
- Circle To Search - поиск по кружочку:)
- Gemini AI Context Aware - обсуждение с учетом контекста (в демо пример с общение насчет pickleball и теннисом - вопросы, генерация картинок, вопросы по видео)
- Android 15 with Gemini Nano with Multimodality - подробнее про модель, работающую на устройстве (Geini Nano с мультимодельностью, on-device foundational model)
- How many times AI was mentioned at Google I/O - шутка на тему частого упоминания AI
P.S.
На Google I/O было много примеров использования AI во всех продуктах компании. Кажется, что это отличный способ сделать AI вездесущим со стороны Google и найти где он действительно причиняет добро пользователям, а дальше это монетизировать:)
P.P.S.
Но даже в день Google I/O у OpenAI была интересная новость про уход из компании Ilya Sutskever, chief scientist, а также со-основателя компании. Если вспомнить мелодраму с уходом Сэма Альтмана и его возвращением в OpenAI, то эта новость не кажется особенно неожиданной, так как Илья поучаствовал в этой истории как один из зачинщиков, большая часть из которых уже давно покинула компанию. Но Илья сначала потерял место в совете директоров после возвращения Сэма, а теперь вообще пошел заниматься чем-то, про что он написал в своем твитте так
#AI #DataScience #ML #Bigtech
Прошел один день с анонса GPT-4o от OpenAI и состоялся Google I/O, который пропустившим можно посмотреть в виде 12-минутной нарезки ключевых моментов от CNET. Забавно, что само мероприятие Google I/O можно заменой одной буквы переименовать в Google AI, о котором в основном и говорили со сцены:)
- Project Astra - как Gemini умеет работать с видео с камеры телефона и воспринимать окружающее пространство
- Veo Generative AI Video Model - модель для генерации видео навроде Sora
- Trillium TPU - шестое поколение процессоров для обработки тензоров (в 4.7 раза эффективнее, чем раньше)
- Axion Processor - custom ARM процессор
- Gemini AI Google Search - как AI встраивается в Google Search: AI Overviews в качестве дополнительного блока сверху поисковой выдачи, дальше пример с поиском ресторанов под определенную задачу
- Gemini AI Video Search - поиск по видео, когда ты снимаешь камерой смартфона что-то и задаешь вопрос, выглядит интересно
- Gemini AI 'Live' Voice Chat - голосовой ассистент, с которым можно естественно разговаривать в real-time
- Gemini AI Gems - персонализированные ассистенты, которым можно задать инструкции и дальше они будут вести себя в соответствии с ними
- Android 15 AI Powered Search - AI полным ходом заезжает в Android (сначала на Pixel, а потом и на другие телефоны), где были показаны три изменения: доработки поиска, gemini становится ассистентом на Android, новая AI gemini модель будет работать на устройстве
- Circle To Search - поиск по кружочку:)
- Gemini AI Context Aware - обсуждение с учетом контекста (в демо пример с общение насчет pickleball и теннисом - вопросы, генерация картинок, вопросы по видео)
- Android 15 with Gemini Nano with Multimodality - подробнее про модель, работающую на устройстве (Geini Nano с мультимодельностью, on-device foundational model)
- How many times AI was mentioned at Google I/O - шутка на тему частого упоминания AI
P.S.
На Google I/O было много примеров использования AI во всех продуктах компании. Кажется, что это отличный способ сделать AI вездесущим со стороны Google и найти где он действительно причиняет добро пользователям, а дальше это монетизировать:)
P.P.S.
Но даже в день Google I/O у OpenAI была интересная новость про уход из компании Ilya Sutskever, chief scientist, а также со-основателя компании. Если вспомнить мелодраму с уходом Сэма Альтмана и его возвращением в OpenAI, то эта новость не кажется особенно неожиданной, так как Илья поучаствовал в этой истории как один из зачинщиков, большая часть из которых уже давно покинула компанию. Но Илья сначала потерял место в совете директоров после возвращения Сэма, а теперь вообще пошел заниматься чем-то, про что он написал в своем твитте так
I am excited for what comes next — a project that is very personally meaningful to me about which I will share details in due time.
#AI #DataScience #ML #Bigtech
YouTube
Google I/O 2024: Everything Revealed in 12 Minutes
Google revealed a slew of Gemini AI software updates at its developers conference and introduced Project Astra and Project Veo.
Read: Google Ups Its AI Game With Project Astra, AI Overviews and Gemini Updates https://bit.ly/3ymFNyo
0:00 Intro
0:30 Project…
Read: Google Ups Its AI Game With Project Astra, AI Overviews and Gemini Updates https://bit.ly/3ymFNyo
0:00 Intro
0:30 Project…
👍5❤2🔥2
ChatGPT from Scratch: How to Train an Enterprise AI Assistant • Phil Winder • GOTO 2023 (Рубрика #AI)
Интересное выступление от Phil Winder, CEO компании Winder.AI и автора книги "Reinforcement Learning". В этом видео автор рассказывает базово про chatGPT и показывает забавную демку с файнтюнингом модели для написания лирики, а дальше эту созданную лирику зачитывает на фоне музыки, сгенерированной Stable Audio. Если же переходить к основному контенту, то
- Автор начинает с краткой истории LLM, где автор прослеживает эволюционный путь LLM от их рудиментарных форм до передовых архитектур, таких как GPT-4, и как это влияет на область обработки естественного языка (NLP).
- Дальше он рассказывает про базовую архитектуру и компоненты больших языковых моделей (encoder-decoder в трансформерах и дальше только декодер как в GPT)
- Потом речь идет про методы предварительной обработки наборов данных, специфичных для предметной области, которые приводят к созданию узкоспециализированного и эффективного LLM
- После этого доходит очередь до стратегий эффективного и экономичного обучения моделей: от тонкой настройки предварительно обученных моделей до обучения с нуля.
- Напоследок автор дает рекомендации по развертыванию для LLM, включая использование облачных сервисов, таких как AWS и Azure (и тут он показывает заодно демку)
- Ну и в финале приводятся соображения безопасности и этики при развертывании LLM в бизнес-среде, включая конфиденциальность данных и интерпретируемость модели.
#AI #ML #DataScience
Интересное выступление от Phil Winder, CEO компании Winder.AI и автора книги "Reinforcement Learning". В этом видео автор рассказывает базово про chatGPT и показывает забавную демку с файнтюнингом модели для написания лирики, а дальше эту созданную лирику зачитывает на фоне музыки, сгенерированной Stable Audio. Если же переходить к основному контенту, то
- Автор начинает с краткой истории LLM, где автор прослеживает эволюционный путь LLM от их рудиментарных форм до передовых архитектур, таких как GPT-4, и как это влияет на область обработки естественного языка (NLP).
- Дальше он рассказывает про базовую архитектуру и компоненты больших языковых моделей (encoder-decoder в трансформерах и дальше только декодер как в GPT)
- Потом речь идет про методы предварительной обработки наборов данных, специфичных для предметной области, которые приводят к созданию узкоспециализированного и эффективного LLM
- После этого доходит очередь до стратегий эффективного и экономичного обучения моделей: от тонкой настройки предварительно обученных моделей до обучения с нуля.
- Напоследок автор дает рекомендации по развертыванию для LLM, включая использование облачных сервисов, таких как AWS и Azure (и тут он показывает заодно демку)
- Ну и в финале приводятся соображения безопасности и этики при развертывании LLM в бизнес-среде, включая конфиденциальность данных и интерпретируемость модели.
#AI #ML #DataScience
YouTube
ChatGPT from Scratch: How to Train an Enterprise AI Assistant • Phil Winder • GOTO 2023
This presentation was recorded at GOTO Copenhagen 2023. #GOTOcon #GOTOcph
https://gotocph.com
Phil Winder - CEO of Winder.AI, Author of "Reinforcement Learning" @philwinder263
RESOURCES
https://twitter.com/DrPhilWinder
https://linkedin.com/in/drphilwinder…
https://gotocph.com
Phil Winder - CEO of Winder.AI, Author of "Reinforcement Learning" @philwinder263
RESOURCES
https://twitter.com/DrPhilWinder
https://linkedin.com/in/drphilwinder…
👍4🔥4❤3
Turbo ML Conf (Рубрика #ML)
Астрологи объявили неделю анонсов мероприятий Т-Банка, поэтому я расскажу сегодня про первую ML конференцию, которую мы приоводим 20 июля для всех, кто занимается машинным обучением. Организаторы говорят, что посетить ее будет интересно всем: исследователям, ML-инженерам, SDE инженерам, техлидам и даже тимлидам.
Конференция состоит из плотной программы из технических докладов, а также вечернего афтепати. Там будет:
- Четыре потока — NLP & MLOps/LLMOps, Research & RnD, CV & Speech и RecSys & TS;
- Кейсы лидеров индустрии — заглянем в самое сердце AI-продуктов Т-Банка, VK, SberDevices, Яндекса, MTS AI, AIRI, Lamoda и других бигтехов;
- Афтепати, нетворкинг и уникальные челленджи, чтобы проверить свои скиллы на деле.
Мерооприятие пройдет в Москве в Гоэлро Лофте, на сайте есть форма регистрации, так что у желающих есть возможность попробовать добыть билетик.
P.S.
Меня на мероприятие позвали хоть я и не занимаюсь особо ML, поэтому если не случиться форс-мажора, то я приду послушать доклады и пообащться с посетителями (если есть желание меня поймать и о чем-то поспрашивать, то там это возможно получится сделать).
#Conference #Software #ML #DataScience
Астрологи объявили неделю анонсов мероприятий Т-Банка, поэтому я расскажу сегодня про первую ML конференцию, которую мы приоводим 20 июля для всех, кто занимается машинным обучением. Организаторы говорят, что посетить ее будет интересно всем: исследователям, ML-инженерам, SDE инженерам, техлидам и даже тимлидам.
Конференция состоит из плотной программы из технических докладов, а также вечернего афтепати. Там будет:
- Четыре потока — NLP & MLOps/LLMOps, Research & RnD, CV & Speech и RecSys & TS;
- Кейсы лидеров индустрии — заглянем в самое сердце AI-продуктов Т-Банка, VK, SberDevices, Яндекса, MTS AI, AIRI, Lamoda и других бигтехов;
- Афтепати, нетворкинг и уникальные челленджи, чтобы проверить свои скиллы на деле.
Мерооприятие пройдет в Москве в Гоэлро Лофте, на сайте есть форма регистрации, так что у желающих есть возможность попробовать добыть билетик.
P.S.
Меня на мероприятие позвали хоть я и не занимаюсь особо ML, поэтому если не случиться форс-мажора, то я приду послушать доклады и пообащться с посетителями (если есть желание меня поймать и о чем-то поспрашивать, то там это возможно получится сделать).
#Conference #Software #ML #DataScience
Turbo ML Conf
Делимся опытом, разбираемся в трендах и погружаемся в кейсы
🔥11❤4👍2
Developing Apps with GPT-4 and ChatGPT: Build Intelligent Chatbots, Content Generators, and More (Разработка приложений на базе GPT-4 и ChatGPT) (Рубрика #AI)
Во второй день отпуска я прочитал коротенькую книгу 2023 года про создание приложений с использованием GPT (Generative pre-trained transformers), которая отлично подходит для новичков или тех, что пропустили последние пару лет хайпа относительно LLM (large language models). Эта книжка максимально простая и практичная, в ней всего пять глав и вот какие они
1) Обзор GPT-4 и ChatGPT - здесь авторы рассказывают в паре слов про NLP (natural language processing), вспоминают про появление трансформеров после ключевой статьи "Attention Is All You Need" от ребят из Google, а дальше про развитие этой идеи от OpenAI и появление серии моделей GPT-X, где X пока от одного до четырех. Дальше авторы показывают варианты использования LLM (от компаний Khan Academy, Duolingo, Morgan Stanley, Waymark, ...). А заканчивается глава рассказом про галлюцинации AI и возможностью их тюнинга под задачи (fine tuning)
2) Глубокое погружение в GPT-4 и API ChatGPT - здесь авторы рассказывают про API для использования OpenAI и речь идет про получение ключа доступа, использования playground или библиотеки. Дальше они переходят к рассказу о том, какие модели есть (это уже устарело), рассказывают про формат API и показывают как его использовать из python кода, а потом говорят про схему ценообразования и безопасность моделей.
3) Создание приложений с помощью GPT-4 и ChatGPT - эта глава посвящена проектированию приложений и авторы немного говорят о принципах, где нам стоит анализировать входные и выходные данные для защиты от атак вида prompt Injection, а дальше идет демонстрация простеньких приложений
- Генератора новостей
- Краткого саммари видео с Youtube на основе transcripts
- Ассистента для видеоигры, который сможет отвечать на вопросы по лору и справочникам об игре
- Голосового управления с простеньким набором функций
4) Передовые технологии GPT-4 и ChatGPT - здесь авторы рассказывают про prompt engineering, а точнее про то, как писать эффективные промпты, как попросить LLM пошагово двигаться по процессу, реализовать few-shot learning с примерами в промпте, а также как еще сложнее спроектировать промт для решения задачи. Вторая половина главы посвящена fine tunning моделей OpenAI, которые позволяют доучить модель на ваших данных, но сильно поднимает стоимость использования API. Демонстрация fine tuning модели сделана на примере создания приложения для генерации писем для email маркетинга:)
5) Расширение возможностей LLM с помощью LangChaing Framework и плагинов - эта глава пожалуй наиболее интересна и посвящена фреймворку LangChain, который позволяет создавать мощные приложения. Интересно, что в этой же главе рассказывается про плагины, которые в дальнейшем были заменены на GPTs, кастомные версии chatGPT, которые может сделать любой для решения специфических задач. И в начале 2024 года появился магазин GPTs Store для этих моделей. А вот LangChain с тех пор прокачался еще сильнее:)
В общем, эта книга дает базовые представления о создании приложений с использованием LLM, но сама область настолько быстро развивается, что книга годовой давности уже кажется анахронизмом:)
#AI #ML #DataScience #Data #Engineering
Во второй день отпуска я прочитал коротенькую книгу 2023 года про создание приложений с использованием GPT (Generative pre-trained transformers), которая отлично подходит для новичков или тех, что пропустили последние пару лет хайпа относительно LLM (large language models). Эта книжка максимально простая и практичная, в ней всего пять глав и вот какие они
1) Обзор GPT-4 и ChatGPT - здесь авторы рассказывают в паре слов про NLP (natural language processing), вспоминают про появление трансформеров после ключевой статьи "Attention Is All You Need" от ребят из Google, а дальше про развитие этой идеи от OpenAI и появление серии моделей GPT-X, где X пока от одного до четырех. Дальше авторы показывают варианты использования LLM (от компаний Khan Academy, Duolingo, Morgan Stanley, Waymark, ...). А заканчивается глава рассказом про галлюцинации AI и возможностью их тюнинга под задачи (fine tuning)
2) Глубокое погружение в GPT-4 и API ChatGPT - здесь авторы рассказывают про API для использования OpenAI и речь идет про получение ключа доступа, использования playground или библиотеки. Дальше они переходят к рассказу о том, какие модели есть (это уже устарело), рассказывают про формат API и показывают как его использовать из python кода, а потом говорят про схему ценообразования и безопасность моделей.
3) Создание приложений с помощью GPT-4 и ChatGPT - эта глава посвящена проектированию приложений и авторы немного говорят о принципах, где нам стоит анализировать входные и выходные данные для защиты от атак вида prompt Injection, а дальше идет демонстрация простеньких приложений
- Генератора новостей
- Краткого саммари видео с Youtube на основе transcripts
- Ассистента для видеоигры, который сможет отвечать на вопросы по лору и справочникам об игре
- Голосового управления с простеньким набором функций
4) Передовые технологии GPT-4 и ChatGPT - здесь авторы рассказывают про prompt engineering, а точнее про то, как писать эффективные промпты, как попросить LLM пошагово двигаться по процессу, реализовать few-shot learning с примерами в промпте, а также как еще сложнее спроектировать промт для решения задачи. Вторая половина главы посвящена fine tunning моделей OpenAI, которые позволяют доучить модель на ваших данных, но сильно поднимает стоимость использования API. Демонстрация fine tuning модели сделана на примере создания приложения для генерации писем для email маркетинга:)
5) Расширение возможностей LLM с помощью LangChaing Framework и плагинов - эта глава пожалуй наиболее интересна и посвящена фреймворку LangChain, который позволяет создавать мощные приложения. Интересно, что в этой же главе рассказывается про плагины, которые в дальнейшем были заменены на GPTs, кастомные версии chatGPT, которые может сделать любой для решения специфических задач. И в начале 2024 года появился магазин GPTs Store для этих моделей. А вот LangChain с тех пор прокачался еще сильнее:)
В общем, эта книга дает базовые представления о создании приложений с использованием LLM, но сама область настолько быстро развивается, что книга годовой давности уже кажется анахронизмом:)
#AI #ML #DataScience #Data #Engineering
❤3👍2🔥2🤡1