AI для Всех
15K subscribers
1.32K photos
181 videos
11 files
1.52K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
🎙️ Realtime API: Будущее мультимодальных AI-приложений

Сегодня OpenAI представила— Realtime API, которая позволяет создавать мультимодальные, разговорные интерфейсы с малой задержкой. Это API поддерживает взаимодействие с AI через голос и текст в режиме реального времени. Вот что важно знать:

🧠 Как это работает?
Realtime API работает через WebSocket, что позволяет поддерживать постоянное соединение. Поток взаимодействия следующий:
1 Пользователь говорит 🎤
2 Аудио передаётся в API для обработки
3 API возвращает текстовые или голосовые ответы
4 Возможна интеграция с функциями, например, запрос на получение данных или выполнение задач.

🔧 Почему это важно?
Раньше для голосового взаимодействия с AI приходилось использовать несколько инструментов: Whisper для распознавания речи, Chat Completions для создания ответов, и TTS для преобразования текста в голос. Теперь же, с Realtime API, всё это объединено в один интерфейс, что значительно сокращает задержку и делает взаимодействие более плавным.

💡 Возможности:
• Мультимодальный ввод и вывод: Поддержка как текста, так и голоса.
• Нативная обработка речи: AI может отвечать в режиме реального времени без промежуточного преобразования текста.
• Вызов функций: Мгновенные действия по голосовому запросу (например, узнать погоду или забронировать билет).
• Сохранение состояния: Поддержка непрерывного разговора в течение сессии.

🚀 Применение:
1 Голосовые ассистенты для умного дома или клиентской поддержки.
2 Интерактивные истории с возможностью управлять сюжетом через голос.
3 Здоровье и благополучие: Реальные голосовые советы в ответ на запросы пользователей.

Вывод:
Realtime API от OpenAI значительно сокращает задержку, упрощает голосовые интерфейсы и открывает новые возможности для разработки приложений с естественным голосовым взаимодействием. Это шаг вперёд в построении более интуитивных и отзывчивых AI-приложений.
🔥138👍4
Еще из прикольного, все объявления на мероприятии делает голос ChatGPT (ну типа, please join your sits, session will resume shortly)
🔥10
Показали цены на prompt caching
🔥3
1👍1
Оптимизация точности, задержки и стоимости в приложениях на базе LLM

Разработка приложений с использованием крупных языковых моделей (LLM) всегда связана с поиском баланса между точностью, задержкой и стоимостью. В этом докладе рассказывали, как эффективно оптимизировать каждую из этих составляющих.

Точность: как установить правильную цель
Первый шаг на пути к высокой точности — создание наборов оценок (evals), которые помогают протестировать производительность модели на различных этапах.

Один из способов установить целевую точность — разработать модель затрат. Сравните стоимость ошибок и успехов модели: сколько стоит исправление ошибки и сколько экономит правильное решение? Так вы сможете определить, какая точность будет для вас приемлемой. Стоит отметить, что пользователи часто ожидают от LLM более высокой точности, чем от людей.

Задержка: как её уменьшить
Задержка — это время, которое проходит от момента запроса до получения ответа. Она складывается из нескольких составляющих:

- Сетевая задержка (примерно 200 мс из-за роутинга OpenAI).
- Время до первого токена (TTFT) — задержка перед началом генерации ответа.
- Время между токенами (TBT) — задержка между выводом каждого токена.
- Количество выводимых токенов — больше токенов требует больше времени.

Как снизить задержку:

- Используйте короткие запросы и меньшие модели.
- Внедрите кэширование запросов, чтобы избегать повторной генерации.
- Сократите количество выводимых токенов — 100 токенов генерируются в 10 раз быстрее, чем 1000.

Стоимость: как сделать приложение экономичнее
Многие способы сокращения задержки также помогают снизить затраты. Например:

- Кэширование позволяет сэкономить на повторной генерации одного и того же ответа.
- Пакетные запросы (Batch Requests) снижают накладные расходы за счёт обработки нескольких запросов одновременно.
Чем меньше токенов — тем дешевле и быстрее будет работа модели.
Используйте специально сгенерированные промпты из плэйграунда

Заключение: сбалансированный подход
Оптимизация LLM-приложений требует внимательного подхода к каждому аспекту: точности, задержке и стоимости.

Установите целевые показатели, проанализируйте источники задержек и найдите способы сокращения затрат. Такой подход поможет вам создать более быстрое, точное и экономичное решение.
👍6🔥31😐1