Google совместно с Kaggle представили пятидневный интенсивный курс по генеративному искусственному интеллекту, который доступен в формате самостоятельного обучения.
Курс, который проходил в прямом эфире с 11 по 15 ноября 2024 года, охватывает базовые технологии и методы генеративного ИИ. Программа включает изучение базовых моделей, инженерии промптов, векторных баз данных и эмбедингов, ИИ-агентов, специализированных моделей для конкретных областей и MLOps для GenAi.
Каждый день курса посвящен определенной теме и включает теоретические материалы, практические задания и возможность взаимодействия с экспертами Google.
Участники изучат развитие LLM, начиная с трансформеров и заканчивая техниками тонкой настройки и ускорения инференса. Познакомятся с методами инженерии промптов для оптимизации взаимодействия с LLM.
В рамках курса будут рассмотрены концепции эмбедингов и векторных баз данных, алгоритмы векторного поиска и научатся создавать ИИ-агентов, понимая их основные компоненты и итеративный процесс разработки.
Курс включает создание и применение специализированных LLM: SecLM и Med-PaLM, с комментариями разработчиков. Участники узнают, как адаптировать практики MLOps для генеративного ИИ и использовать инструменты Vertex AI для базовых моделей и приложений генеративного ИИ.
В рамках практических занятий на платформе Kaggle участники смогут применить полученные знания, создавая системы вопросов и ответов на основе извлечения информации, нейронные сети классификации и агентные системы заказа.
Курс разработан экспертами Google: Анантой Навалгарией, Марком Макдональдом, Пейдж Бейли и другими.
⚠️ Для доступа к коду курса необходимы аккаунты на Kaggle (c верификацией номера телефона), Google Ai Studio (для создания API KEY).
@ai_machinelearning_big_data
#AI #ML #LLM #GenAI #Course
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤7🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
Он позволяет легко создавать аудиоверсии статей или блогов, упрощая процесс создания подкастов для контент-мейкеров, блогеров или в целях обучения.
Установка:
$ pip install podcastfyPodcastfy — удобный и простой в использовании инструмент для быстрого прототипирования решений по автоматическому созданию аудиоконтента и интеграции в более крупные ML-проекты.
▪Github
▪Paper
▪Colab
@ai_machinelearning_big_data
#podcast #gemini #openai #elevenlabs #genai #notebooklm
Please open Telegram to view this post
VIEW IN TELEGRAM
❤58👍34🔥11😐2
Исследователи из Мюнхенского университета предложили методику генерации изображений, основанную на байесовском выводе. Экспериментальная модель, которая получила название Bayesian Sample Inference (BSI), имитирует процесс постепенного уточнения данных: ее инференс начинается с «размытого» представления об изображении и последовательно корректируется с использованием шумовых измерений до финального результата. По заверениям авторов, их метод позволяет точнее воспроизводить распределение данных, чем классические решения на основе диффузии.
BSI-модель стартует с априорного распределения, где начальная точность намеренно задаётся низкой — это эквивалентно «размытой картинке», покрывающей всё множество возможных изображений. На каждом шаге генерации, предиктор, построенный на U-Net или ViT, анализирует текущий промежуточный «результат» и генерирует оценку соответствия относительно "идеального" изображения, который, в свою очередь, участвует в пересчете среднего значения и точности для следующего шага генерации.
Такой подход позволяет BSI-модели балансировать между имеющимися знаниями и новыми данными, избегая переобучения и сохраняя разнообразие генерации. Эксперименты выявили, что BSI сохраняет разнообразие сгенерированных образцов даже при малом числе шагов — это выгодно отличает её от аналогов, склонных к «повторяющимся» генерациям.
BSI напрямую сравнивали с диффузионными VDM- и EDM-моделями и BFNs. Оказалось, что BSI-архитектура не только включает BFNs как частный случай, но и превосходит их в тестах на правдоподобие. Например, на наборах CIFAR10 и ImageNet BSI показала лучшие результаты, достигнув 2.64 (BFNs) и 3.22 (VDM) бит на измерение соответственно, но не смогла превзойти модели с точным расчетом правдоподобия (i-DODE).
Эта новая потенциально методика может стать гейм-чейнджером для генерации изображений.
#AI #ML #Bayesian #GenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤50🔥32👍23👌1🤝1
Вот как изменилась доля трафика на рынке ИИ за последние полгода:
🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
⚡ Claude: 1,6%
🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%
🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
⚡ Claude: 1,2%
🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
⚡ Claude: 1,4% (+0,2%)
Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.
@ai_machinelearning_big_data
#GenAI #ТрендыРынка
🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
⚡ Claude: 1,6%
🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%
🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
⚡ Claude: 1,2%
🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
⚡ Claude: 1,4% (+0,2%)
Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.
@ai_machinelearning_big_data
#GenAI #ТрендыРынка
👍67❤36🔥15🥰3🌭1
This media is not supported in your browser
VIEW IN TELEGRAM
Модель поэтапно строит изображение слева направо и сверху вниз, уточняя детали на каждом шаге. Это делает итоговую картинку качественной, естественной и согласованной.
Например, можно написать запрос:
«Сделай картинку милого кота» — и она появится.
А можно загрузить фото кота и попросить: «Добавь коту шапку» — и модель отредактирует изображение.
🎯 Что умеет Qwen VLo:
• Точная генерация: не путает объекты, сохраняет структуру, меняет, например, цвет машины на фото без искажений
• Редактирование по команде: «Сделай фото в стиле Ван Гога» или «добавь солнечное небо» — всё выполняется по инструкции
• Глубокое понимание: может обрабатывать сложные задачи — выделение объектов, сегментация, редактирование текста и фона
• Мультиязычность: понимает запросы на английском, китайском и других языках — просто опишите, что нужно
🧪 Сейчас Qwen VLo доступна в виде превью через Qwen Chat.
👉 Попробовать: https://chat.qwen.ai
👉 Детали: https://qwenlm.github.io/blog/qwen-vlo/
@ai_machinelearning_big_data
#Qwen #Alibaba #ai #genai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41❤16🔥13
Он выступает прослойкой между вашим агентом (например, LangChain, LlamaIndex, VertexAI) и базой данных, упрощая работу с базой, подключение, управление, безопасность и мониторинг.,
Подходит для разработки AI-агентов, которые могут создавать и управлять в реальными БД.
Особенности:
Если делаете агентов, которые работают с
SQL/PostgreSQL/MySQL — точно стоит попробовать.▪ GitHub: https://github.com/googleapis/genai-toolbox
@ai_machinelearning_big_data
#AI #ML #aiagent #opensource #MCP #databases #genai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤56👍24🔥16⚡3🥰1🍓1
🎧 Топ кллаборация: NotebookLM × The Economist
Представьте: вы слушаете свежие экономические обзоры как обычный подкаст, но в любой момент можете *вклиниться в диалог*, задать вопрос или высказать своё мнение.
💡 Это не просто чтение — это интерактивный диалог с материалом.
Именно такой сценарий реализован в новом AI-ноутбуке *The World Ahead 2025* от Google и *The Economist*.
Отличный пример того, как может выглядеть будущее персонализированной аналитики и медиа.
🔗 Попробовать можно здесь:
https://notebooklm.google.com/notebook/5881d15d-7b82-4002-8613-df59b6eece4c
@ai_machinelearning_big_data
#notebooklm #ml #ai #genai
Представьте: вы слушаете свежие экономические обзоры как обычный подкаст, но в любой момент можете *вклиниться в диалог*, задать вопрос или высказать своё мнение.
💡 Это не просто чтение — это интерактивный диалог с материалом.
Именно такой сценарий реализован в новом AI-ноутбуке *The World Ahead 2025* от Google и *The Economist*.
Отличный пример того, как может выглядеть будущее персонализированной аналитики и медиа.
🔗 Попробовать можно здесь:
https://notebooklm.google.com/notebook/5881d15d-7b82-4002-8613-df59b6eece4c
@ai_machinelearning_big_data
#notebooklm #ml #ai #genai
👍86🔥32❤21😁5
OpenAI поддерживает проект Critterz — первый полнометражный анимационный фильм, созданный преимущественно с применением генеративного ИИ.
- вместо привычных 3 лет производство займёт всего 9 месяцев
- бюджет — менее $30 млн (значительно меньше, чем обычно стоит производство подобных анимационных фильмов)
- премьера намечена на Каннский кинофестиваль в мае 2026 года, после чего планируется мировой прокат
Команда собирается привлечь живых актёров для озвучивания персонажей и нанять художников, которые подготовят эскизы. Эти материалы будут загружаться в инструменты OpenAI — включая GPT-5 и модели генерации изображений.
@ai_machinelearning_big_data
#ai #openai #genai
@ai_machinelearning_big_data
#ai #openai #genai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56❤28🔥17😁11🤬8😭8🥱5⚡3🤔2😢1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
Google выпустили LiteRT-LM - фреймворк для запуска LLM прямо на устройстве (offline), с минимальной задержкой и без API-вызовов.
Если вы пилите приложения, это полезная штука, потому что:
- Работает на устройстве: нет задержек от удалённых серверов
- Нет расходов на API
- Дает доступ к Локальному GenAI
🔍 Основное
- LiteRT-LM уже используется внутри Gemini Nano / Gemma в Chrome, Chromebook Plus и Pixel Watch.
- Открытый C++ интерфейс (preview) для интеграции в кастомные решения.
- Архитектура: Engine + Session
• Engine хранит базовую модель, ресурсы - общий для всех функций
• Session - контекст для отдельных задач, с возможностью клонирования, копирования “по записи” (Copy-on-Write) и лёгких переключений
- Поддержка аппаратного ускорения (CPU / GPU / NPU) и кроссплатформенность (Android, Linux, macOS, Windows и др.)
- Для Pixel Watch используется минимальный “pipeline” - только необходимые компоненты - чтобы уложиться в ограничения памяти и размера бинарей
Google опенсорснули целый стек для запуска GenAI на устройствах:
- LiteRT быстрый «движок», который запускает отдельные AI-модели на устройстве.
- LiteRT-LM - интерфейс C++ для работы с LLM. Он объединяет сразу несколько инстурментов : кэширование промптов, хранение контекста, клонирование сессий и т.д.
- LLM Inference API - готовые интерфейсы для разработчиков (Kotlin, Swift, JS). Работают поверх LiteRT-LM, чтобы можно было легко встраивать GenAI в приложения.
@ai_machinelearning_big_data
#AI #Google #LiteRT #LiteRTLM #GenAI #EdgeAI #OnDeviceAI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍99❤32🔥20💘4
📊 GenAI Traffic - статистика по ИИ трафику.
Свежие данные показывают, как меняется расстановка сил среди генеративных ИИ:
- ChatGPT продолжает терять долю рынка.
- Perplexity впервые перешагнул порог 2%.
🗓️ Год назад:
ChatGPT — 87.1%
Gemini — 6.4%
Perplexity — 1.7%
Claude — 1.7%
Copilot — 1.1%
🗓️ 6 месяцев назад:
ChatGPT — 78.8%
DeepSeek — 6.8%
Gemini — 5.5%
Grok — 3.1%
Perplexity — 1.5%
Claude — 1.3%
Copilot — 1.3%
🗓️ 3 месяца назад:
ChatGPT — 78.3%
Gemini — 8.7%
DeepSeek — 4.5%
Grok — 2.6%
Perplexity — 1.6%
Claude — 1.5%
Copilot — 1.2%
🗓️ Месяц назад:
ChatGPT — 76.4%
Gemini — 10.8%
DeepSeek — 4.0%
Grok — 2.2%
Perplexity — 2.0%
Claude — 1.9%
Copilot — 1.2%
🗓️ Сегодня:
ChatGPT — 74.1%
Gemini — 12.9%
DeepSeek — 3.7%
Perplexity — 2.4%
Grok — 2.0%
Claude — 2.0%
Copilot — 1.2%
📈 Тенденция очевидна:
ChatGPT теряет медленно, но верно трафик, рынок становится более сбалансированным, а Gemini и Perplexity показывают стабильный рост интереса пользователей. С выходом Gemini 3.0 рост, Google может ещё больше улучшить свои позиции.
@ai_machinelearning_big_data
#AI #GenAI #Analytics #ChatGPT #Gemini #Perplexity #Claude #DeepSeek #Copilot
Свежие данные показывают, как меняется расстановка сил среди генеративных ИИ:
- ChatGPT продолжает терять долю рынка.
- Perplexity впервые перешагнул порог 2%.
🗓️ Год назад:
ChatGPT — 87.1%
Gemini — 6.4%
Perplexity — 1.7%
Claude — 1.7%
Copilot — 1.1%
🗓️ 6 месяцев назад:
ChatGPT — 78.8%
DeepSeek — 6.8%
Gemini — 5.5%
Grok — 3.1%
Perplexity — 1.5%
Claude — 1.3%
Copilot — 1.3%
🗓️ 3 месяца назад:
ChatGPT — 78.3%
Gemini — 8.7%
DeepSeek — 4.5%
Grok — 2.6%
Perplexity — 1.6%
Claude — 1.5%
Copilot — 1.2%
🗓️ Месяц назад:
ChatGPT — 76.4%
Gemini — 10.8%
DeepSeek — 4.0%
Grok — 2.2%
Perplexity — 2.0%
Claude — 1.9%
Copilot — 1.2%
🗓️ Сегодня:
ChatGPT — 74.1%
Gemini — 12.9%
DeepSeek — 3.7%
Perplexity — 2.4%
Grok — 2.0%
Claude — 2.0%
Copilot — 1.2%
📈 Тенденция очевидна:
ChatGPT теряет медленно, но верно трафик, рынок становится более сбалансированным, а Gemini и Perplexity показывают стабильный рост интереса пользователей. С выходом Gemini 3.0 рост, Google может ещё больше улучшить свои позиции.
@ai_machinelearning_big_data
#AI #GenAI #Analytics #ChatGPT #Gemini #Perplexity #Claude #DeepSeek #Copilot
👍105🤔90🔥19❤17👏13🤩11💯7🤗3😁1
⚡️ LongCat-Flash-Omni - открытая 560B MoE-модель (27B активных параметров), которая умеет вести живой диалог в реальном времени, слышать, видеть и отвечать голосом.
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
Ключевые фишки:
-модель разговаривает и видит собеседника, реагирует на беседу в реальном времени
- 128K контекст
- продвинутая MoE-архитектура: высокое качество при меньших затратах (27B активных параметров из 560B)
- Полгный open-source
По тестам:
- лидер на OmniBench, DailyOmni
- хорошие показатели на ASR (распознавании речи), DocVQA, RefCOCO
- обходит лучше Qwen3-Omni Instruct
- и очень близка к Gemini-2.5-Flash, но это все таки*открытая* модель
Открытая мультимодальная модель, которую можно запускать локально, хороший вариант для голосовых ассистентов.
🤖 Model: https://modelscope.cn/models/meituan-longcat/LongCat-Flash-Omni
🌐 Demo: https://longcat.ai
📄 Full technical report & code:
https://github.com/meituan-longcat/LongCat-Flash-Omni
@ai_machinelearning_big_data
#AI #OpenSourceAI #Multimodal #MoE #LLM #GenAI
🔥62❤44👍24
💡 Релиз Z-Image: быстрая 6B модель
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
❤39👍20🥰3🦄3🔥2😁2