🎄📚 Новогодний Подарок: пусть мечты о Data Science станут реальностью!
Не упустите шанс выиграть коллекцию из 6 топовых книг по машинному обучению и Data Science – праздничный подарок от Деда Мороза в редакции канала @data_secrets
Вы верите в чудеса? Команда решила воплотить ваши мечты о знаниях в области Data Science в реальность! Дед Мороз, который, кстати, живет прямо у них в редакции, приготовил особенный подарок на Новый Год.
В редакции выбрали 6 самых востребованных книг по машинному обучению и Data Science, которые станут идеальным новогодним подарком для пяти счастливчиков. Участие в розыгрыше простое и захватывающее – подпишитесь на каналы @data_secrets и @xor_journal и кликните на кнопку «Участвовать».
Не пропустите объявление победителей 15 декабря в 19:00 на канале Data Secrets. Пусть этот Новый Год откроет для вас новые горизонты в мире Data Science. С наступающим Новым Годом и удачи в розыгрыше! 🌟📈
#реклама
Не упустите шанс выиграть коллекцию из 6 топовых книг по машинному обучению и Data Science – праздничный подарок от Деда Мороза в редакции канала @data_secrets
Вы верите в чудеса? Команда решила воплотить ваши мечты о знаниях в области Data Science в реальность! Дед Мороз, который, кстати, живет прямо у них в редакции, приготовил особенный подарок на Новый Год.
В редакции выбрали 6 самых востребованных книг по машинному обучению и Data Science, которые станут идеальным новогодним подарком для пяти счастливчиков. Участие в розыгрыше простое и захватывающее – подпишитесь на каналы @data_secrets и @xor_journal и кликните на кнопку «Участвовать».
Не пропустите объявление победителей 15 декабря в 19:00 на канале Data Secrets. Пусть этот Новый Год откроет для вас новые горизонты в мире Data Science. С наступающим Новым Годом и удачи в розыгрыше! 🌟📈
#реклама
❤8🔥6👍3
В области искусственного интеллекта существует важная задача: адаптация больших предобученных языковых моделей, (например GPT-4 или Llama), для конкретных задач. Традиционный подход - полное дообучение, требует переобучения всех параметров модели. Но так как модели большие - переобучать их непомерно дорого и ресурсоемко.
Решением этой проблемы является метод LoRA (Low-Rank Adaptation), разработанный исследователями из Microsoft. Кстати, я уже упоминал этот метод раньше.
LoRA фиксирует веса предобученной модели и встраивает обучаемые матрицы разложения низкого ранга в каждый/любой по выбору слой трансформера. Таким образом, мы можем значительно снизить количество обучаемых параметров для последующих задач.
💡 Как это работает?
- Обычно, когда мы учим модель, мы меняем множество настроек (называемых весами) в ней. Это как регулировка множества крутилок, чтобы модель лучше справлялась со своей задачей.
- LoRA говорит, что не нужно крутить все крутилки. Она предлагает менять только некоторые из них, основываясь на идее, что это будет почти так же эффективно.
- Получается, что вместо того чтобы настраивать множество параметров, мы фокусируемся только на ключевых. Следовательно, процесс обучения становится быстрее и требует меньше ресурсов (денег).
Эксперименты показали, что LoRA работает наравне или лучше, чем полное дообучение на таких моделях, как RoBERTa, DeBERTa, GPT-2 и GPT-3, несмотря на меньшее количество обучаемых параметров.
🔗 GitHub проекта
🤩 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍12❤5
🌟 Google представляет Gemini: свою собственную крутую языковую модель!
Google запускает Gemini, самую мощную и универсальную (из своих) модель искусственного интеллекта, оптимизированную для работы во всём - от центров обработки данных до смартфонов.
Сегодняшний день стал знаковым для мира технологий. Google представила Gemini, свой самый передовой и функциональный искусственный интеллект, способный значительно лучше взаимодействовать с разработчиками и корпоративными клиентами.
Gemini представлен в трёх вариантах: Ultra, Pro и Nano, каждый из которых адаптирован под различные задачи и устройства. Gemini Nano уже работает на Pixel 8 Pro, демонстрируя высокую эффективность работы ИИ на устройствах. В ближайшем будущем Gemini будет доступна для опытов в Google AI Studio, где разработчики смогут тестировать собственные мультимодальные запросы.
Отмечая этот значительный шаг в развитии ИИ, Google подчеркивает своё стремление к инновациям. Gemini обещает изменить представление о возможностях искусственного интеллекта, предлагая более гибкие и мощные решения для самых разнообразных задач.
Хочу заметить, что Сундар Пичаи - CEO Гугла, напрямую говорит, что эта волна ИИ намного больше, чем интернет и все что было до этого. Так что если кто-то все еще сомневается - AI это для всех!
Ссылка
Google запускает Gemini, самую мощную и универсальную (из своих) модель искусственного интеллекта, оптимизированную для работы во всём - от центров обработки данных до смартфонов.
Сегодняшний день стал знаковым для мира технологий. Google представила Gemini, свой самый передовой и функциональный искусственный интеллект, способный значительно лучше взаимодействовать с разработчиками и корпоративными клиентами.
Gemini представлен в трёх вариантах: Ultra, Pro и Nano, каждый из которых адаптирован под различные задачи и устройства. Gemini Nano уже работает на Pixel 8 Pro, демонстрируя высокую эффективность работы ИИ на устройствах. В ближайшем будущем Gemini будет доступна для опытов в Google AI Studio, где разработчики смогут тестировать собственные мультимодальные запросы.
Отмечая этот значительный шаг в развитии ИИ, Google подчеркивает своё стремление к инновациям. Gemini обещает изменить представление о возможностях искусственного интеллекта, предлагая более гибкие и мощные решения для самых разнообразных задач.
Хочу заметить, что Сундар Пичаи - CEO Гугла, напрямую говорит, что эта волна ИИ намного больше, чем интернет и все что было до этого. Так что если кто-то все еще сомневается - AI это для всех!
Ссылка
🔥22😁3🤩3🎉1
Media is too big
VIEW IN TELEGRAM
Гулял по Нью Йорку, случайно нашел Оптимуса и Cybertrack.
Оптимус - новый робот, которого разрабатывает Tesla, ниже взрослого человека, но не сильно.
Cybertrack же наоборот огроменный. Он правда выглядит как будто его экспортировали прямиком из компьютерной игры!
Локация
Оптимус - новый робот, которого разрабатывает Tesla, ниже взрослого человека, но не сильно.
Cybertrack же наоборот огроменный. Он правда выглядит как будто его экспортировали прямиком из компьютерной игры!
Локация
🔥20❤5😁2🤩2
Prompt Engineering: Простые Слова, Большие Изменения
Минимальные изменения в запросах к AI могут радикально повысить точность его ответов.
В мире искусственного интеллекта, где точность и способность к обработке больших данных играют ключевую роль, новые методы работы с запросами открывают новые возможности.
Исследование модели Claude 2.1 от Anthropic выявило, что добавление фразы “Вот самое релевантное предложение в контексте:” в начало ответа модели повысило точность «доставания» ответов из больших документов (200к токенов) с 27% до 98%.
Кажется это рекорд со времен: «дам тебе 200$ чаевых»
🐨 Заметка
Минимальные изменения в запросах к AI могут радикально повысить точность его ответов.
В мире искусственного интеллекта, где точность и способность к обработке больших данных играют ключевую роль, новые методы работы с запросами открывают новые возможности.
Исследование модели Claude 2.1 от Anthropic выявило, что добавление фразы “Вот самое релевантное предложение в контексте:” в начало ответа модели повысило точность «доставания» ответов из больших документов (200к токенов) с 27% до 98%.
Кажется это рекорд со времен: «дам тебе 200$ чаевых»
Please open Telegram to view this post
VIEW IN TELEGRAM
😱22👍11🎉4🤯1
S-LoRA: матрица намного ближе, чем кажется
S-LoRA превращает любую большую языковую модель в "Матрицу", где каждый Агент Смит может быть адаптирован в уникального персонажа, создавая целый мир на одной платформе.
Представьте, если бы Агент Смит из "Матрицы" мог превращаться в любого уникального персонажа по вашему желанию. Вот рецепт:
1. Базовая модель - Агент Смит: LLaMA, наша базовая модель, аналогична Агенту Смиту - мощной и адаптируемой форме ИИ, готовой к изменениям.
2. LoRA-адаптеры - Настройки персонажей: Каждый LoRA-адаптер добавляет свои уникальные характеристики к базовой модели, превращая стандартного Агента Смита в множество разнообразных персонажей.
3. S-LoRA - Матрица: S-LoRA действует как "Матрица", в рамках которой все эти преобразования происходят. Она позволяет масштабировать и управлять множеством адаптированных персонажей, поддерживая сложную сеть взаимодействующих и эволюционирующих форм.
S-LoRA открывает новые горизонты в использовании LLMs, позволяя нам не только создавать уникальные характеристики базовой модели, но и управлять ими в масштабах, сравнимых с "Матрицей".
🤩 Статья
🐙 Код
S-LoRA превращает любую большую языковую модель в "Матрицу", где каждый Агент Смит может быть адаптирован в уникального персонажа, создавая целый мир на одной платформе.
Представьте, если бы Агент Смит из "Матрицы" мог превращаться в любого уникального персонажа по вашему желанию. Вот рецепт:
1. Базовая модель - Агент Смит: LLaMA, наша базовая модель, аналогична Агенту Смиту - мощной и адаптируемой форме ИИ, готовой к изменениям.
2. LoRA-адаптеры - Настройки персонажей: Каждый LoRA-адаптер добавляет свои уникальные характеристики к базовой модели, превращая стандартного Агента Смита в множество разнообразных персонажей.
3. S-LoRA - Матрица: S-LoRA действует как "Матрица", в рамках которой все эти преобразования происходят. Она позволяет масштабировать и управлять множеством адаптированных персонажей, поддерживая сложную сеть взаимодействующих и эволюционирующих форм.
S-LoRA открывает новые горизонты в использовании LLMs, позволяя нам не только создавать уникальные характеристики базовой модели, но и управлять ими в масштабах, сравнимых с "Матрицей".
🤩 Статья
🐙 Код
❤16🔥10👍3😁3😢1
Новый open source DL фрэймворк от Apple
Apple выпустила MLX фрэймворк, который нативно работает на Apple Silicon после одной команды pip install и без других зависимостей.
Главные фичи MLX:
- Стандартные APIs: Python; C++; mlx.nn и mlx.optimizers с API-интерфейсами, вдохновленными PyTorch
- Преобразования составных функций для автоматического дифференцирования, векторизации и оптимизации графа вычислений
- Ленивые вычисления (lazy computation) : массивы материализуются только при необходимости
- Динамическое построение вычислительных графов: изменение формы аргументов функции не приводит к медленной компиляции, а отладка проста и интуитивно понятна.
- Операции могут выполняться на любом из поддерживаемых устройств (CPU и GPU).
- Унифицированная модель памяти: Массивы в MLX находятся в общей памяти. При этом операции с массивами можно выполнять на любом из поддерживаемых типов устройств без перемещения данных.
💻 GitHub
By @innovationitsme
Apple выпустила MLX фрэймворк, который нативно работает на Apple Silicon после одной команды pip install и без других зависимостей.
Главные фичи MLX:
- Стандартные APIs: Python; C++; mlx.nn и mlx.optimizers с API-интерфейсами, вдохновленными PyTorch
- Преобразования составных функций для автоматического дифференцирования, векторизации и оптимизации графа вычислений
- Ленивые вычисления (lazy computation) : массивы материализуются только при необходимости
- Динамическое построение вычислительных графов: изменение формы аргументов функции не приводит к медленной компиляции, а отладка проста и интуитивно понятна.
- Операции могут выполняться на любом из поддерживаемых устройств (CPU и GPU).
- Унифицированная модель памяти: Массивы в MLX находятся в общей памяти. При этом операции с массивами можно выполнять на любом из поддерживаемых типов устройств без перемещения данных.
💻 GitHub
By @innovationitsme
👍26🔥9🎉2😢1
YouTube
Digital Life Project: Autonomous 3D Characters with Social Intelligence
Homepage: https://digital-life-project.com/
Abstract: In this work, we present Digital Life Project, a framework utilizing language as the universal medium to build autonomous 3D characters, who are capable of engaging in social interactions and expressing…
Abstract: In this work, we present Digital Life Project, a framework utilizing language as the universal medium to build autonomous 3D characters, who are capable of engaging in social interactions and expressing…
Китайские ученые запустили полностью автономных виртуальных персон-агентов
This is beyond insanity🙃
берём LLM, прикручиваем к ней api calls - actions, крафтим персону - system prompt, картинку - сначала текстуры, потом уже экшенами управляем маникеном. Получаем полностью автономного ИИ способного управлять виртуальным миром.
Есть шанс что первых 100% автономных роботов мы увидим сразу после Рождества. Как раз у людей появится возможность время дома провести.
Проект
This is beyond insanity🙃
берём LLM, прикручиваем к ней api calls - actions, крафтим персону - system prompt, картинку - сначала текстуры, потом уже экшенами управляем маникеном. Получаем полностью автономного ИИ способного управлять виртуальным миром.
Есть шанс что первых 100% автономных роботов мы увидим сразу после Рождества. Как раз у людей появится возможность время дома провести.
Проект
👍17🔥11❤4
Dudes, игрался сегодня весь день с https://ollama.ai и https://stability.ai/news/stablelm-zephyr-3b-stability-llm. Чума, языковые модели уже на вашем маке
Ollama
Get up and running with large language models.
👍20❤3
Верни как было!
Anonymous Poll
30%
Да, с заголовками и GPT текстами
70%
Нет, коротко, на смешанных языках и с жаргоном
Конкуренция принципов воплощения квантовых компьютеров: ридберговские атомы обходят сверхпроводники
Квантовый компьютер - грандиозная и сложная для воплощения цель. Считается, что третья квантовая революция случится, когда мы научимся дирижировать хотя бы сотней логических кубитов (устойчивых к ошибкам квантовых носителей информации).
Читая о прорывах, важно понимать, о каких именно кубитах идёт речь. Свежий рекорд IBM в 1121 физических кубитов (суперпроводники), или Atom Computing 1180 физических кубитов (ионы), к сожалению, не обещает эффективности. Максимальное подтвержденное число логических кубитов у бостонской QuEra Computing - 25 (ионы).
В сверхпроводниковых квантовых компьютерах для детекции и коррекции ошибок на каждый "логический" кубит нужно 13 физических (это если при масштабировании все пойдет по плану, а оно пока не идет, и есть оценки в 1000 физических кубитов на 1 логический).
В альтернативном подходе к воплощению квантовых компьютеров главный герой - ридберговский атом. Это атом щелочного металла, электрон которого "отодвинут" на большое расстояние от ядра с помощью лазера. Излюбленный ион в таких экспериментах - мягкий серебристый радиоактивный рубидий-87 (87Rb).
Исследователи из Гарварда с партнёрами из MIT, Caltech, Princeton и той самой QuEra в предварительно принятой к публикации в Nature статье утверждают, что смогли организовать систему 87Rb в гиперкуб, и ошибки могут быть обнаружены и скорректированы на уровне софта. Это звучит как голубая мечта квантовых инженеров, которым в рамках традиционных представлений для создания дееспособного квантового процессора необходимы были бы миллионы физических кубитов.
Учёные создали схему из 48 логических кубитов с программной коррекцией ошибок и достигли преимущества в согласованности на порядок выше, чем у систем сопоставимого размера, т.о. предложив рецепт масштабирования до гигантских систем. Метят на 10000 физических кубитов. Учитывая финансирование от Пентагона, звучит так фантастически, что даже верится
💎 Статья, где есть 7D гиперкуб
Квантовый компьютер - грандиозная и сложная для воплощения цель. Считается, что третья квантовая революция случится, когда мы научимся дирижировать хотя бы сотней логических кубитов (устойчивых к ошибкам квантовых носителей информации).
Читая о прорывах, важно понимать, о каких именно кубитах идёт речь. Свежий рекорд IBM в 1121 физических кубитов (суперпроводники), или Atom Computing 1180 физических кубитов (ионы), к сожалению, не обещает эффективности. Максимальное подтвержденное число логических кубитов у бостонской QuEra Computing - 25 (ионы).
В сверхпроводниковых квантовых компьютерах для детекции и коррекции ошибок на каждый "логический" кубит нужно 13 физических (это если при масштабировании все пойдет по плану, а оно пока не идет, и есть оценки в 1000 физических кубитов на 1 логический).
В альтернативном подходе к воплощению квантовых компьютеров главный герой - ридберговский атом. Это атом щелочного металла, электрон которого "отодвинут" на большое расстояние от ядра с помощью лазера. Излюбленный ион в таких экспериментах - мягкий серебристый радиоактивный рубидий-87 (87Rb).
Исследователи из Гарварда с партнёрами из MIT, Caltech, Princeton и той самой QuEra в предварительно принятой к публикации в Nature статье утверждают, что смогли организовать систему 87Rb в гиперкуб, и ошибки могут быть обнаружены и скорректированы на уровне софта. Это звучит как голубая мечта квантовых инженеров, которым в рамках традиционных представлений для создания дееспособного квантового процессора необходимы были бы миллионы физических кубитов.
Учёные создали схему из 48 логических кубитов с программной коррекцией ошибок и достигли преимущества в согласованности на порядок выше, чем у систем сопоставимого размера, т.о. предложив рецепт масштабирования до гигантских систем. Метят на 10000 физических кубитов. Учитывая финансирование от Пентагона, звучит так фантастически, что даже верится
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍5🤩4❤1
Из коммента перенесу сюда. Спасибо за ценный инпут, @void_visionary
Forwarded from Gideon Nightforge
Раз тут пошёл тред про квантовые вычисления (а я этим интересуюсь и занимаюсь в рамках магистерской диссертации в NLP и, возможных, квантовых применениях), то добавлю несколько интересных деталей.
Квантоые вычисления - это не что-то далёкое от нас, но новости о достижениях в этой сфере достаточно тяжело доходят до обычных пользователей и/или специалистов из других сфер.
На данный момент, любой желающий может зарегестрироваться на официальном сайте IBM Quantum и получить в своё распоряжениеJupyterLab QuantumLab в облаке с доступом к реальным 7-ми кубитовым компьютерам (не симуляция) на 10 минут каждый месяц (да, это вам не Google Colab).
Более того, вы можете запросить большую мощность (27, 65 и 127 кубит), но для этого нужно хорошее обоснование. Аналогично, вы можете поиграться с симуляциями квантовых компьютеров на том же сайте. Для регистрации кроме почты ничего не нужно.
Ах, и да, вам не нужны какие-либо новые языки. И IBM, и Google Quantum AI используют библиотеки для python (например, у Google это библиотека CIRQ, у IBM это Qiskit) 💀
Как вы видите, прогресс не стоит на месте, уже есть удобная инфраструктура, языки, физические машины и доступное облако. Напомню, про квадратично и экспоненциальное ускорение в некоторых квантовых алгоритмах в сравнении с классическими, и, в связи, с этим напомню, что раньше в ODS (да упокой господь его душу) был курс по Квантовому ML (если вы верите, что это Next Big Thing, то Welcome).
Квантоые вычисления - это не что-то далёкое от нас, но новости о достижениях в этой сфере достаточно тяжело доходят до обычных пользователей и/или специалистов из других сфер.
На данный момент, любой желающий может зарегестрироваться на официальном сайте IBM Quantum и получить в своё распоряжение
Более того, вы можете запросить большую мощность (27, 65 и 127 кубит), но для этого нужно хорошее обоснование. Аналогично, вы можете поиграться с симуляциями квантовых компьютеров на том же сайте. Для регистрации кроме почты ничего не нужно.
Ах, и да, вам не нужны какие-либо новые языки. И IBM, и Google Quantum AI используют библиотеки для python (например, у Google это библиотека CIRQ, у IBM это Qiskit) 💀
Как вы видите, прогресс не стоит на месте, уже есть удобная инфраструктура, языки, физические машины и доступное облако. Напомню, про квадратично и экспоненциальное ускорение в некоторых квантовых алгоритмах в сравнении с классическими, и, в связи, с этим напомню, что раньше в ODS (да упокой господь его душу) был курс по Квантовому ML (если вы верите, что это Next Big Thing, то Welcome).
🔥36❤8🤩5👍4
Жизнь возвращается в Долину
Последний месяц ощущаю, как в Сан Франциско возвращается жизнь. Сотни новых людей переезжают в Долину и СФ, чтобы заниматься AI. По AI хакатону каждый день, а то и по несколько. VC не могут говорить ни о чем кроме LLM. Те кто по хитрее - пилит инструменты для разработчиков всяких ассистентов.
e/acc
Пристегните ремни, начинается NeurIPS - самая горячая конференция на планете (прямо сейчас)
Последний месяц ощущаю, как в Сан Франциско возвращается жизнь. Сотни новых людей переезжают в Долину и СФ, чтобы заниматься AI. По AI хакатону каждый день, а то и по несколько. VC не могут говорить ни о чем кроме LLM. Те кто по хитрее - пилит инструменты для разработчиков всяких ассистентов.
e/acc
Пристегните ремни, начинается NeurIPS - самая горячая конференция на планете (прямо сейчас)
🔥42👍6❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Dobb·E: open-source framework для обучения домашних роботов
На протяжении всей истории мы успешно интегрировали в наши дома различные машины. Посудомоечные машины, стиральные машины, миксеры и роботы-пылесосы — вот лишь несколько недавних примеров. Однако эти машины превосходно справляются с эффективным выполнением только одной задачи. Концепция «универсальной машины» в доме — домашнего помощника, который может адаптироваться и учиться в соответствии с нашими потребностями, оставаясь при этом экономически эффективным — уже давно является целью робототехники, к которой неуклонно стремятся на протяжении десятилетий.
Чтобы решить эту задачу, авторы разработали Dobb·E, доступную и универсальную систему общего назначения для обучения роботизированным манипуляциям в домашних условиях.
Команда собрала 13 часов данных в 22 домах в для обучения модели предварительно обученным представлениям (HPR).Авторы показали, что в новой домашней обстановке модель дообучается за 5 минут с помощью демонстрационного инструмента для сбора данных («The Stick»или волшебная селфи палка), из дешевых деталей и iPhone. После этого необходимо около 15 минут для адаптации модели.
Важно то, что Dobb·E может надежно решить задачу с помощью Stretch, мобильного робота, легко доступного на рынке.
За месяц система тестировалась в 10 домах, выполнив о общей сложности 109 различных задач с 81% показателем успешности.
Авторы отмечают, что помимо высокого процента успеха, эксперименты выявили множество уникальных проблем, отсутствующих или игнорируемых в лабораторной робототехнике. Они варьируются от эффектов сильных теней до различного качества демонстрации неопытными пользователями.
Не круто ли это? Мне вспомнился релевантный клип из 90х, присоединяю его к посту.
Может совсем скоро мы увидим домашних роботов поваров, барист, бармэнов, гладильщиков рубашек, выгуливателей собак итп (добавляйте свои версии в комментарии)
🤖 Сайт
🪩 Клип
На протяжении всей истории мы успешно интегрировали в наши дома различные машины. Посудомоечные машины, стиральные машины, миксеры и роботы-пылесосы — вот лишь несколько недавних примеров. Однако эти машины превосходно справляются с эффективным выполнением только одной задачи. Концепция «универсальной машины» в доме — домашнего помощника, который может адаптироваться и учиться в соответствии с нашими потребностями, оставаясь при этом экономически эффективным — уже давно является целью робототехники, к которой неуклонно стремятся на протяжении десятилетий.
Чтобы решить эту задачу, авторы разработали Dobb·E, доступную и универсальную систему общего назначения для обучения роботизированным манипуляциям в домашних условиях.
Команда собрала 13 часов данных в 22 домах в для обучения модели предварительно обученным представлениям (HPR).Авторы показали, что в новой домашней обстановке модель дообучается за 5 минут с помощью демонстрационного инструмента для сбора данных («The Stick»
Важно то, что Dobb·E может надежно решить задачу с помощью Stretch, мобильного робота, легко доступного на рынке.
За месяц система тестировалась в 10 домах, выполнив о общей сложности 109 различных задач с 81% показателем успешности.
Авторы отмечают, что помимо высокого процента успеха, эксперименты выявили множество уникальных проблем, отсутствующих или игнорируемых в лабораторной робототехнике. Они варьируются от эффектов сильных теней до различного качества демонстрации неопытными пользователями.
Не круто ли это? Мне вспомнился релевантный клип из 90х, присоединяю его к посту.
Может совсем скоро мы увидим домашних роботов поваров, барист, бармэнов, гладильщиков рубашек, выгуливателей собак итп (добавляйте свои версии в комментарии)
🤖 Сайт
🪩 Клип
👍22🔥11❤3
В исследовании MIT, людям дали базовые знания о ChatGPT. Это помогло сократить время работы на 40% и увеличить эффективность на 18%.
Но это не предел. Есть продвинутые уловки, которые делают работу с ChatGPT в разы лучше. Например, если давить на жалость или пообещать ChatGPT чаевые, он будет давать более развернутые ответы.
13 декабря я научу тебя использовать такие уловки: как для обычной жизни, так и для бизнеса. Поделюсь теми приемами, которые я сам постоянно применяю в работе. Стрим начнётся в 20:00, зарегистрироваться можно бесплатно, по ссылке https://tttttt.me/SharifovWebinarBot
#реклама
Но это не предел. Есть продвинутые уловки, которые делают работу с ChatGPT в разы лучше. Например, если давить на жалость или пообещать ChatGPT чаевые, он будет давать более развернутые ответы.
13 декабря я научу тебя использовать такие уловки: как для обычной жизни, так и для бизнеса. Поделюсь теми приемами, которые я сам постоянно применяю в работе. Стрим начнётся в 20:00, зарегистрироваться можно бесплатно, по ссылке https://tttttt.me/SharifovWebinarBot
#реклама
😁46😢13👍1🔥1