This media is not supported in your browser
VIEW IN TELEGRAM
При чем тут AI? Это на пол пути между домом Sam Altman и офисом OpenAI
🔥21❤5🤯3
Concept Sliders: гранулярный контроль над генерацией изображений
✨ Concept Sliders - это новый инструмент, который дает художникам уникальную возможность настраивать концептуальные детали изображений, созданных с помощью GenAI.
🛠️ Как Это Работает:
Используя эти слайдеры, художники могут легко изменять атрибуты изображений - например, эмоции или возраст персонажа - не нарушая общую структуру картины.
Concept Sliders это LoRA поверх предварительно обученных моделей. Они обучаются понимать визуальные концепции через контраст между парами изображений.
🎭 Эта технология не ограничивается только изображениями. Представьте, что с помощью подобных инструментов можно было бы точно настраивать эмоции и темы в текстах и голосе, или даже оттенки и нюансы в музыке. Так что ждём уже в ближайший месяц на всех платформах для генерации контента!
🪚 Проект
📜 Статья
🎚️ Обученные слайдеры
🖥 Colab
🤗 Демо
🛠️ Как Это Работает:
Используя эти слайдеры, художники могут легко изменять атрибуты изображений - например, эмоции или возраст персонажа - не нарушая общую структуру картины.
Concept Sliders это LoRA поверх предварительно обученных моделей. Они обучаются понимать визуальные концепции через контраст между парами изображений.
🎭 Эта технология не ограничивается только изображениями. Представьте, что с помощью подобных инструментов можно было бы точно настраивать эмоции и темы в текстах и голосе, или даже оттенки и нюансы в музыке. Так что ждём уже в ближайший месяц на всех платформах для генерации контента!
🪚 Проект
📜 Статья
🎚️ Обученные слайдеры
🤗 Демо
Please open Telegram to view this post
VIEW IN TELEGRAM
❤26🔥9👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Цепная реакция: новые технологии требуют новых интерфейсов
В мире, где ИИ становится всё более технически доступным (и всё более платным), появляется потребность в инструментах, где ИИ был бы буквально на кончиках пальцев. Чтобы мы продолжали делать привычные действия, а получался бы результат, усиленный мощью лучших моделей.
FalClient как раз такой инструмент для интеграции функций AI в проекты Swift. С ним можно делать очень удобные штуки. Например, запилить приложение для iOS в духе недавно вышедшего и очень понравившегося нам tldraw (тоже, кстати, powered by fal.ai), где можно рисовать в режиме реального времени с намного лучшим результатом, чем палка-палка-огуречик. А можно пойти дальше, добавив возможность еще ближе приблизиться к естественному процессу рисования, уточняя и меняя уже сгенерированный рисунок. Конечно, очень не помешает сохранение версий, потому что вовремя остановиться "улучшать" картинку бывает очень сложно.
И это уже лежит в папочке FalRealtimeSampleApp. В общем, цена вопроса $0.00111/s. Можно свою модель использовать, а можно "общественную": Stable Diffusion, Background Removal, ControlNet и тд. со скоростью вывода до ~120ms.
Получается, пост-ии мир уже кристаллизовался в организованную (и иерархическую) структуру: кто-то плавит руду (карточки NVIDIA), другие прокладывают рельсы (aws, google и все облака), третьи делают поезда (модели OpenAI, Meta, Stability, Neural.love у вас же своя?), четвертые строят вокзалы (fal.ai и все про inference), а кто-то делает мягкие сидения, чтобы было удобненько ехать (AI-powered apps). Со всеми барьерами входа в самые ресурсоемкие ниши. Быстро как-то это произошло.
👩🚀 falclient
В мире, где ИИ становится всё более технически доступным (и всё более платным), появляется потребность в инструментах, где ИИ был бы буквально на кончиках пальцев. Чтобы мы продолжали делать привычные действия, а получался бы результат, усиленный мощью лучших моделей.
FalClient как раз такой инструмент для интеграции функций AI в проекты Swift. С ним можно делать очень удобные штуки. Например, запилить приложение для iOS в духе недавно вышедшего и очень понравившегося нам tldraw (тоже, кстати, powered by fal.ai), где можно рисовать в режиме реального времени с намного лучшим результатом, чем палка-палка-огуречик. А можно пойти дальше, добавив возможность еще ближе приблизиться к естественному процессу рисования, уточняя и меняя уже сгенерированный рисунок. Конечно, очень не помешает сохранение версий, потому что вовремя остановиться "улучшать" картинку бывает очень сложно.
И это уже лежит в папочке FalRealtimeSampleApp. В общем, цена вопроса $0.00111/s. Можно свою модель использовать, а можно "общественную": Stable Diffusion, Background Removal, ControlNet и тд. со скоростью вывода до ~120ms.
Получается, пост-ии мир уже кристаллизовался в организованную (и иерархическую) структуру: кто-то плавит руду (карточки NVIDIA), другие прокладывают рельсы (aws, google и все облака), третьи делают поезда (модели OpenAI, Meta, Stability, Neural.love у вас же своя?), четвертые строят вокзалы (fal.ai и все про inference), а кто-то делает мягкие сидения, чтобы было удобненько ехать (AI-powered apps). Со всеми барьерами входа в самые ресурсоемкие ниши. Быстро как-то это произошло.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30❤6😁3👍1
🎄📚 Новогодний Подарок: пусть мечты о Data Science станут реальностью!
Не упустите шанс выиграть коллекцию из 6 топовых книг по машинному обучению и Data Science – праздничный подарок от Деда Мороза в редакции канала @data_secrets
Вы верите в чудеса? Команда решила воплотить ваши мечты о знаниях в области Data Science в реальность! Дед Мороз, который, кстати, живет прямо у них в редакции, приготовил особенный подарок на Новый Год.
В редакции выбрали 6 самых востребованных книг по машинному обучению и Data Science, которые станут идеальным новогодним подарком для пяти счастливчиков. Участие в розыгрыше простое и захватывающее – подпишитесь на каналы @data_secrets и @xor_journal и кликните на кнопку «Участвовать».
Не пропустите объявление победителей 15 декабря в 19:00 на канале Data Secrets. Пусть этот Новый Год откроет для вас новые горизонты в мире Data Science. С наступающим Новым Годом и удачи в розыгрыше! 🌟📈
#реклама
Не упустите шанс выиграть коллекцию из 6 топовых книг по машинному обучению и Data Science – праздничный подарок от Деда Мороза в редакции канала @data_secrets
Вы верите в чудеса? Команда решила воплотить ваши мечты о знаниях в области Data Science в реальность! Дед Мороз, который, кстати, живет прямо у них в редакции, приготовил особенный подарок на Новый Год.
В редакции выбрали 6 самых востребованных книг по машинному обучению и Data Science, которые станут идеальным новогодним подарком для пяти счастливчиков. Участие в розыгрыше простое и захватывающее – подпишитесь на каналы @data_secrets и @xor_journal и кликните на кнопку «Участвовать».
Не пропустите объявление победителей 15 декабря в 19:00 на канале Data Secrets. Пусть этот Новый Год откроет для вас новые горизонты в мире Data Science. С наступающим Новым Годом и удачи в розыгрыше! 🌟📈
#реклама
❤8🔥6👍3
В области искусственного интеллекта существует важная задача: адаптация больших предобученных языковых моделей, (например GPT-4 или Llama), для конкретных задач. Традиционный подход - полное дообучение, требует переобучения всех параметров модели. Но так как модели большие - переобучать их непомерно дорого и ресурсоемко.
Решением этой проблемы является метод LoRA (Low-Rank Adaptation), разработанный исследователями из Microsoft. Кстати, я уже упоминал этот метод раньше.
LoRA фиксирует веса предобученной модели и встраивает обучаемые матрицы разложения низкого ранга в каждый/любой по выбору слой трансформера. Таким образом, мы можем значительно снизить количество обучаемых параметров для последующих задач.
💡 Как это работает?
- Обычно, когда мы учим модель, мы меняем множество настроек (называемых весами) в ней. Это как регулировка множества крутилок, чтобы модель лучше справлялась со своей задачей.
- LoRA говорит, что не нужно крутить все крутилки. Она предлагает менять только некоторые из них, основываясь на идее, что это будет почти так же эффективно.
- Получается, что вместо того чтобы настраивать множество параметров, мы фокусируемся только на ключевых. Следовательно, процесс обучения становится быстрее и требует меньше ресурсов (денег).
Эксперименты показали, что LoRA работает наравне или лучше, чем полное дообучение на таких моделях, как RoBERTa, DeBERTa, GPT-2 и GPT-3, несмотря на меньшее количество обучаемых параметров.
🔗 GitHub проекта
🤩 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍12❤5
🌟 Google представляет Gemini: свою собственную крутую языковую модель!
Google запускает Gemini, самую мощную и универсальную (из своих) модель искусственного интеллекта, оптимизированную для работы во всём - от центров обработки данных до смартфонов.
Сегодняшний день стал знаковым для мира технологий. Google представила Gemini, свой самый передовой и функциональный искусственный интеллект, способный значительно лучше взаимодействовать с разработчиками и корпоративными клиентами.
Gemini представлен в трёх вариантах: Ultra, Pro и Nano, каждый из которых адаптирован под различные задачи и устройства. Gemini Nano уже работает на Pixel 8 Pro, демонстрируя высокую эффективность работы ИИ на устройствах. В ближайшем будущем Gemini будет доступна для опытов в Google AI Studio, где разработчики смогут тестировать собственные мультимодальные запросы.
Отмечая этот значительный шаг в развитии ИИ, Google подчеркивает своё стремление к инновациям. Gemini обещает изменить представление о возможностях искусственного интеллекта, предлагая более гибкие и мощные решения для самых разнообразных задач.
Хочу заметить, что Сундар Пичаи - CEO Гугла, напрямую говорит, что эта волна ИИ намного больше, чем интернет и все что было до этого. Так что если кто-то все еще сомневается - AI это для всех!
Ссылка
Google запускает Gemini, самую мощную и универсальную (из своих) модель искусственного интеллекта, оптимизированную для работы во всём - от центров обработки данных до смартфонов.
Сегодняшний день стал знаковым для мира технологий. Google представила Gemini, свой самый передовой и функциональный искусственный интеллект, способный значительно лучше взаимодействовать с разработчиками и корпоративными клиентами.
Gemini представлен в трёх вариантах: Ultra, Pro и Nano, каждый из которых адаптирован под различные задачи и устройства. Gemini Nano уже работает на Pixel 8 Pro, демонстрируя высокую эффективность работы ИИ на устройствах. В ближайшем будущем Gemini будет доступна для опытов в Google AI Studio, где разработчики смогут тестировать собственные мультимодальные запросы.
Отмечая этот значительный шаг в развитии ИИ, Google подчеркивает своё стремление к инновациям. Gemini обещает изменить представление о возможностях искусственного интеллекта, предлагая более гибкие и мощные решения для самых разнообразных задач.
Хочу заметить, что Сундар Пичаи - CEO Гугла, напрямую говорит, что эта волна ИИ намного больше, чем интернет и все что было до этого. Так что если кто-то все еще сомневается - AI это для всех!
Ссылка
🔥22😁3🤩3🎉1
Media is too big
VIEW IN TELEGRAM
Гулял по Нью Йорку, случайно нашел Оптимуса и Cybertrack.
Оптимус - новый робот, которого разрабатывает Tesla, ниже взрослого человека, но не сильно.
Cybertrack же наоборот огроменный. Он правда выглядит как будто его экспортировали прямиком из компьютерной игры!
Локация
Оптимус - новый робот, которого разрабатывает Tesla, ниже взрослого человека, но не сильно.
Cybertrack же наоборот огроменный. Он правда выглядит как будто его экспортировали прямиком из компьютерной игры!
Локация
🔥20❤5😁2🤩2
Prompt Engineering: Простые Слова, Большие Изменения
Минимальные изменения в запросах к AI могут радикально повысить точность его ответов.
В мире искусственного интеллекта, где точность и способность к обработке больших данных играют ключевую роль, новые методы работы с запросами открывают новые возможности.
Исследование модели Claude 2.1 от Anthropic выявило, что добавление фразы “Вот самое релевантное предложение в контексте:” в начало ответа модели повысило точность «доставания» ответов из больших документов (200к токенов) с 27% до 98%.
Кажется это рекорд со времен: «дам тебе 200$ чаевых»
🐨 Заметка
Минимальные изменения в запросах к AI могут радикально повысить точность его ответов.
В мире искусственного интеллекта, где точность и способность к обработке больших данных играют ключевую роль, новые методы работы с запросами открывают новые возможности.
Исследование модели Claude 2.1 от Anthropic выявило, что добавление фразы “Вот самое релевантное предложение в контексте:” в начало ответа модели повысило точность «доставания» ответов из больших документов (200к токенов) с 27% до 98%.
Кажется это рекорд со времен: «дам тебе 200$ чаевых»
Please open Telegram to view this post
VIEW IN TELEGRAM
😱22👍11🎉4🤯1
S-LoRA: матрица намного ближе, чем кажется
S-LoRA превращает любую большую языковую модель в "Матрицу", где каждый Агент Смит может быть адаптирован в уникального персонажа, создавая целый мир на одной платформе.
Представьте, если бы Агент Смит из "Матрицы" мог превращаться в любого уникального персонажа по вашему желанию. Вот рецепт:
1. Базовая модель - Агент Смит: LLaMA, наша базовая модель, аналогична Агенту Смиту - мощной и адаптируемой форме ИИ, готовой к изменениям.
2. LoRA-адаптеры - Настройки персонажей: Каждый LoRA-адаптер добавляет свои уникальные характеристики к базовой модели, превращая стандартного Агента Смита в множество разнообразных персонажей.
3. S-LoRA - Матрица: S-LoRA действует как "Матрица", в рамках которой все эти преобразования происходят. Она позволяет масштабировать и управлять множеством адаптированных персонажей, поддерживая сложную сеть взаимодействующих и эволюционирующих форм.
S-LoRA открывает новые горизонты в использовании LLMs, позволяя нам не только создавать уникальные характеристики базовой модели, но и управлять ими в масштабах, сравнимых с "Матрицей".
🤩 Статья
🐙 Код
S-LoRA превращает любую большую языковую модель в "Матрицу", где каждый Агент Смит может быть адаптирован в уникального персонажа, создавая целый мир на одной платформе.
Представьте, если бы Агент Смит из "Матрицы" мог превращаться в любого уникального персонажа по вашему желанию. Вот рецепт:
1. Базовая модель - Агент Смит: LLaMA, наша базовая модель, аналогична Агенту Смиту - мощной и адаптируемой форме ИИ, готовой к изменениям.
2. LoRA-адаптеры - Настройки персонажей: Каждый LoRA-адаптер добавляет свои уникальные характеристики к базовой модели, превращая стандартного Агента Смита в множество разнообразных персонажей.
3. S-LoRA - Матрица: S-LoRA действует как "Матрица", в рамках которой все эти преобразования происходят. Она позволяет масштабировать и управлять множеством адаптированных персонажей, поддерживая сложную сеть взаимодействующих и эволюционирующих форм.
S-LoRA открывает новые горизонты в использовании LLMs, позволяя нам не только создавать уникальные характеристики базовой модели, но и управлять ими в масштабах, сравнимых с "Матрицей".
🤩 Статья
🐙 Код
❤16🔥10👍3😁3😢1
Новый open source DL фрэймворк от Apple
Apple выпустила MLX фрэймворк, который нативно работает на Apple Silicon после одной команды pip install и без других зависимостей.
Главные фичи MLX:
- Стандартные APIs: Python; C++; mlx.nn и mlx.optimizers с API-интерфейсами, вдохновленными PyTorch
- Преобразования составных функций для автоматического дифференцирования, векторизации и оптимизации графа вычислений
- Ленивые вычисления (lazy computation) : массивы материализуются только при необходимости
- Динамическое построение вычислительных графов: изменение формы аргументов функции не приводит к медленной компиляции, а отладка проста и интуитивно понятна.
- Операции могут выполняться на любом из поддерживаемых устройств (CPU и GPU).
- Унифицированная модель памяти: Массивы в MLX находятся в общей памяти. При этом операции с массивами можно выполнять на любом из поддерживаемых типов устройств без перемещения данных.
💻 GitHub
By @innovationitsme
Apple выпустила MLX фрэймворк, который нативно работает на Apple Silicon после одной команды pip install и без других зависимостей.
Главные фичи MLX:
- Стандартные APIs: Python; C++; mlx.nn и mlx.optimizers с API-интерфейсами, вдохновленными PyTorch
- Преобразования составных функций для автоматического дифференцирования, векторизации и оптимизации графа вычислений
- Ленивые вычисления (lazy computation) : массивы материализуются только при необходимости
- Динамическое построение вычислительных графов: изменение формы аргументов функции не приводит к медленной компиляции, а отладка проста и интуитивно понятна.
- Операции могут выполняться на любом из поддерживаемых устройств (CPU и GPU).
- Унифицированная модель памяти: Массивы в MLX находятся в общей памяти. При этом операции с массивами можно выполнять на любом из поддерживаемых типов устройств без перемещения данных.
💻 GitHub
By @innovationitsme
👍26🔥9🎉2😢1
YouTube
Digital Life Project: Autonomous 3D Characters with Social Intelligence
Homepage: https://digital-life-project.com/
Abstract: In this work, we present Digital Life Project, a framework utilizing language as the universal medium to build autonomous 3D characters, who are capable of engaging in social interactions and expressing…
Abstract: In this work, we present Digital Life Project, a framework utilizing language as the universal medium to build autonomous 3D characters, who are capable of engaging in social interactions and expressing…
Китайские ученые запустили полностью автономных виртуальных персон-агентов
This is beyond insanity🙃
берём LLM, прикручиваем к ней api calls - actions, крафтим персону - system prompt, картинку - сначала текстуры, потом уже экшенами управляем маникеном. Получаем полностью автономного ИИ способного управлять виртуальным миром.
Есть шанс что первых 100% автономных роботов мы увидим сразу после Рождества. Как раз у людей появится возможность время дома провести.
Проект
This is beyond insanity🙃
берём LLM, прикручиваем к ней api calls - actions, крафтим персону - system prompt, картинку - сначала текстуры, потом уже экшенами управляем маникеном. Получаем полностью автономного ИИ способного управлять виртуальным миром.
Есть шанс что первых 100% автономных роботов мы увидим сразу после Рождества. Как раз у людей появится возможность время дома провести.
Проект
👍17🔥11❤4