Ищете партнёра для стартапа? Как насчёт AI?
Во второй волне акселератора Sber500 х GigaChat ждём самые интересные бизнес-проекты с рабочим прототипом или MVP+, которые хотят внедрять GigaChat в сервисы, запускать новые фичи и выводить продукты на рынок на его основе.
Участники пройдут через два этапа:
🤩 Подать заявку на бесплатное участие можно на сайте акселератора до 27 сентября.
Во второй волне акселератора Sber500 х GigaChat ждём самые интересные бизнес-проекты с рабочим прототипом или MVP+, которые хотят внедрять GigaChat в сервисы, запускать новые фичи и выводить продукты на рынок на его основе.
Участники пройдут через два этапа:
🤩 Онлайн-буткемп, где можно будет протестировать гипотезы, получить доступ к API, инструкциям по интеграции и другим материалам GigaChat, посетить Q&A-сессии с экспертами
🤩 Основная программа для лучших проектов с возможностью доработать стартап с международными менторами и презентовать его инвесторам. Часть участников пригласят на октябрьский демо-день на Moscow Startup Summit
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4😁3🔥2👍1
Учиться со шпаргалками — правильно. Но только если ты нейросеть 🤩
В карточках рассказываем про методику RAG — способ «обновить» AI-сознание, чтобы пользователь мог получать больше актуальной информации
🤩 — если тоже хотите такую методику
В карточках рассказываем про методику RAG — способ «обновить» AI-сознание, чтобы пользователь мог получать больше актуальной информации
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍4🔥2😁1
AI-модели учатся почти так же, как люди
➡️ Zero-shot Learning — это подход к машинному обучению, когда AI учат выполнять задачу, опираясь на текст промпта и загруженный датасет
➡️ Few-shot Learning — метод, позволяющий LLM опираться на примеры от пользователей, чтобы дать более конкретный и точный ответ
Примеры коммуникации с такими моделями оставили в карточках!
❤️ — если учитесь налету
💔 — делаете круто, но с примерами
Некоторые сразу понимают суть задачи, а другим нужны примеры уже выполненной работы — референсы
✔️ скорость работы✖️ непредсказуемый результат
✔️ высокая точность ответа✖️ нужен подробный промпт
Примеры коммуникации с такими моделями оставили в карточках!
❤️ — если учитесь налету
💔 — делаете круто, но с примерами
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💔9❤7👍3
О чём будем говорить на GigaChat Audio Day?
Anonymous Quiz
23%
11%
6%
60%
❤5👍3🔥2💯1
Предлагаем проверить правильность ответа лично — на GigaChat Audio Day 🤩
Команда технического директора GigaChat Фёдора Минькина приглашает на большой диджитал-митап data-аналитиков, специалистов в области ML, NLP и SpeechTech, а также всех, кому интересно узнать о распознавании речи и эмоций больше.
В программе:
Встречаемся в Нижнем Новгороде уже 3 октября! Успевайте зарегистрироваться по ссылке.
Команда технического директора GigaChat Фёдора Минькина приглашает на большой диджитал-митап data-аналитиков, специалистов в области ML, NLP и SpeechTech, а также всех, кому интересно узнать о распознавании речи и эмоций больше.
В программе:
🤩 обсуждение речевых технологий в ведущих продуктах Сбера: GigaChat и SaluteSpeech
🤩 нетворкинг, где со спикерами и экспертами можно будет пообщаться лично
Встречаемся в Нижнем Новгороде уже 3 октября! Успевайте зарегистрироваться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🔥3🤔1
Последний раунд AI-квиза! О какой проблеме обучения моделей идёт речь на картинке?
Ответы принимаем ниже👇
Ответы принимаем ниже
Please open Telegram to view this post
VIEW IN TELEGRAM
Больше — не всегда лучше (как минимум в вопросах обучения AI-моделей)
Объясняем на простой метафоре:👇
Точно так же и с искусственным интеллектом. Можно бесконечно «скармливать» модели новые данные, увеличивая её параметры. Она станет немного умнее, но затраты на обучение — временные, финансовые и энергетические — вырастут в разы.
Бороться с этой проблемой помогает дистилляция. Это способ «сжать» большую умную модель в более компактную, которая работает почти так же хорошо, но делает это на базе меньших вычислений.
Объясняем на простой метафоре:
Представьте студента, который готовится к экзамену по программированию. Он изучил три ключевых учебника, освоил основы и даже научился писать код. Но преподаватель советует прочитать ещё пять книг. Студент тратит время и силы, но не находит в них ничего принципиально нового.
Точно так же и с искусственным интеллектом. Можно бесконечно «скармливать» модели новые данные, увеличивая её параметры. Она станет немного умнее, но затраты на обучение — временные, финансовые и энергетические — вырастут в разы.
Бороться с этой проблемой помогает дистилляция. Это способ «сжать» большую умную модель в более компактную, которая работает почти так же хорошо, но делает это на базе меньших вычислений.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4😁3👍2🔥1
👍 — сходили бы на AI-спектакль
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤4👍2🤔1💯1
AI и сам своего рода учёный 😼
Рассказываем о нейросетях в науке⬆️
❤️ — если рады прогрессу
💔 — пока не готовы пускать AI в науку
Рассказываем о нейросетях в науке
🤩 как искусственный интеллект помогает исследователям химии сегодня
🤩 что мешает AI развиваться дальше в этой сфере(спойлер: учёные из Сбера нашли ответ)
❤️ — если рады прогрессу
💔 — пока не готовы пускать AI в науку
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7💔4👍3🔥1