This media is not supported in your browser
VIEW IN TELEGRAM
Цепная реакция: новые технологии требуют новых интерфейсов
В мире, где ИИ становится всё более технически доступным (и всё более платным), появляется потребность в инструментах, где ИИ был бы буквально на кончиках пальцев. Чтобы мы продолжали делать привычные действия, а получался бы результат, усиленный мощью лучших моделей.
FalClient как раз такой инструмент для интеграции функций AI в проекты Swift. С ним можно делать очень удобные штуки. Например, запилить приложение для iOS в духе недавно вышедшего и очень понравившегося нам tldraw (тоже, кстати, powered by fal.ai), где можно рисовать в режиме реального времени с намного лучшим результатом, чем палка-палка-огуречик. А можно пойти дальше, добавив возможность еще ближе приблизиться к естественному процессу рисования, уточняя и меняя уже сгенерированный рисунок. Конечно, очень не помешает сохранение версий, потому что вовремя остановиться "улучшать" картинку бывает очень сложно.
И это уже лежит в папочке FalRealtimeSampleApp. В общем, цена вопроса $0.00111/s. Можно свою модель использовать, а можно "общественную": Stable Diffusion, Background Removal, ControlNet и тд. со скоростью вывода до ~120ms.
Получается, пост-ии мир уже кристаллизовался в организованную (и иерархическую) структуру: кто-то плавит руду (карточки NVIDIA), другие прокладывают рельсы (aws, google и все облака), третьи делают поезда (модели OpenAI, Meta, Stability, Neural.love у вас же своя?), четвертые строят вокзалы (fal.ai и все про inference), а кто-то делает мягкие сидения, чтобы было удобненько ехать (AI-powered apps). Со всеми барьерами входа в самые ресурсоемкие ниши. Быстро как-то это произошло.
👩🚀 falclient
В мире, где ИИ становится всё более технически доступным (и всё более платным), появляется потребность в инструментах, где ИИ был бы буквально на кончиках пальцев. Чтобы мы продолжали делать привычные действия, а получался бы результат, усиленный мощью лучших моделей.
FalClient как раз такой инструмент для интеграции функций AI в проекты Swift. С ним можно делать очень удобные штуки. Например, запилить приложение для iOS в духе недавно вышедшего и очень понравившегося нам tldraw (тоже, кстати, powered by fal.ai), где можно рисовать в режиме реального времени с намного лучшим результатом, чем палка-палка-огуречик. А можно пойти дальше, добавив возможность еще ближе приблизиться к естественному процессу рисования, уточняя и меняя уже сгенерированный рисунок. Конечно, очень не помешает сохранение версий, потому что вовремя остановиться "улучшать" картинку бывает очень сложно.
И это уже лежит в папочке FalRealtimeSampleApp. В общем, цена вопроса $0.00111/s. Можно свою модель использовать, а можно "общественную": Stable Diffusion, Background Removal, ControlNet и тд. со скоростью вывода до ~120ms.
Получается, пост-ии мир уже кристаллизовался в организованную (и иерархическую) структуру: кто-то плавит руду (карточки NVIDIA), другие прокладывают рельсы (aws, google и все облака), третьи делают поезда (модели OpenAI, Meta, Stability, Neural.love у вас же своя?), четвертые строят вокзалы (fal.ai и все про inference), а кто-то делает мягкие сидения, чтобы было удобненько ехать (AI-powered apps). Со всеми барьерами входа в самые ресурсоемкие ниши. Быстро как-то это произошло.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30❤6😁3👍1
🎄📚 Новогодний Подарок: пусть мечты о Data Science станут реальностью!
Не упустите шанс выиграть коллекцию из 6 топовых книг по машинному обучению и Data Science – праздничный подарок от Деда Мороза в редакции канала @data_secrets
Вы верите в чудеса? Команда решила воплотить ваши мечты о знаниях в области Data Science в реальность! Дед Мороз, который, кстати, живет прямо у них в редакции, приготовил особенный подарок на Новый Год.
В редакции выбрали 6 самых востребованных книг по машинному обучению и Data Science, которые станут идеальным новогодним подарком для пяти счастливчиков. Участие в розыгрыше простое и захватывающее – подпишитесь на каналы @data_secrets и @xor_journal и кликните на кнопку «Участвовать».
Не пропустите объявление победителей 15 декабря в 19:00 на канале Data Secrets. Пусть этот Новый Год откроет для вас новые горизонты в мире Data Science. С наступающим Новым Годом и удачи в розыгрыше! 🌟📈
#реклама
Не упустите шанс выиграть коллекцию из 6 топовых книг по машинному обучению и Data Science – праздничный подарок от Деда Мороза в редакции канала @data_secrets
Вы верите в чудеса? Команда решила воплотить ваши мечты о знаниях в области Data Science в реальность! Дед Мороз, который, кстати, живет прямо у них в редакции, приготовил особенный подарок на Новый Год.
В редакции выбрали 6 самых востребованных книг по машинному обучению и Data Science, которые станут идеальным новогодним подарком для пяти счастливчиков. Участие в розыгрыше простое и захватывающее – подпишитесь на каналы @data_secrets и @xor_journal и кликните на кнопку «Участвовать».
Не пропустите объявление победителей 15 декабря в 19:00 на канале Data Secrets. Пусть этот Новый Год откроет для вас новые горизонты в мире Data Science. С наступающим Новым Годом и удачи в розыгрыше! 🌟📈
#реклама
❤8🔥6👍3
В области искусственного интеллекта существует важная задача: адаптация больших предобученных языковых моделей, (например GPT-4 или Llama), для конкретных задач. Традиционный подход - полное дообучение, требует переобучения всех параметров модели. Но так как модели большие - переобучать их непомерно дорого и ресурсоемко.
Решением этой проблемы является метод LoRA (Low-Rank Adaptation), разработанный исследователями из Microsoft. Кстати, я уже упоминал этот метод раньше.
LoRA фиксирует веса предобученной модели и встраивает обучаемые матрицы разложения низкого ранга в каждый/любой по выбору слой трансформера. Таким образом, мы можем значительно снизить количество обучаемых параметров для последующих задач.
💡 Как это работает?
- Обычно, когда мы учим модель, мы меняем множество настроек (называемых весами) в ней. Это как регулировка множества крутилок, чтобы модель лучше справлялась со своей задачей.
- LoRA говорит, что не нужно крутить все крутилки. Она предлагает менять только некоторые из них, основываясь на идее, что это будет почти так же эффективно.
- Получается, что вместо того чтобы настраивать множество параметров, мы фокусируемся только на ключевых. Следовательно, процесс обучения становится быстрее и требует меньше ресурсов (денег).
Эксперименты показали, что LoRA работает наравне или лучше, чем полное дообучение на таких моделях, как RoBERTa, DeBERTa, GPT-2 и GPT-3, несмотря на меньшее количество обучаемых параметров.
🔗 GitHub проекта
🤩 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍12❤5
🌟 Google представляет Gemini: свою собственную крутую языковую модель!
Google запускает Gemini, самую мощную и универсальную (из своих) модель искусственного интеллекта, оптимизированную для работы во всём - от центров обработки данных до смартфонов.
Сегодняшний день стал знаковым для мира технологий. Google представила Gemini, свой самый передовой и функциональный искусственный интеллект, способный значительно лучше взаимодействовать с разработчиками и корпоративными клиентами.
Gemini представлен в трёх вариантах: Ultra, Pro и Nano, каждый из которых адаптирован под различные задачи и устройства. Gemini Nano уже работает на Pixel 8 Pro, демонстрируя высокую эффективность работы ИИ на устройствах. В ближайшем будущем Gemini будет доступна для опытов в Google AI Studio, где разработчики смогут тестировать собственные мультимодальные запросы.
Отмечая этот значительный шаг в развитии ИИ, Google подчеркивает своё стремление к инновациям. Gemini обещает изменить представление о возможностях искусственного интеллекта, предлагая более гибкие и мощные решения для самых разнообразных задач.
Хочу заметить, что Сундар Пичаи - CEO Гугла, напрямую говорит, что эта волна ИИ намного больше, чем интернет и все что было до этого. Так что если кто-то все еще сомневается - AI это для всех!
Ссылка
Google запускает Gemini, самую мощную и универсальную (из своих) модель искусственного интеллекта, оптимизированную для работы во всём - от центров обработки данных до смартфонов.
Сегодняшний день стал знаковым для мира технологий. Google представила Gemini, свой самый передовой и функциональный искусственный интеллект, способный значительно лучше взаимодействовать с разработчиками и корпоративными клиентами.
Gemini представлен в трёх вариантах: Ultra, Pro и Nano, каждый из которых адаптирован под различные задачи и устройства. Gemini Nano уже работает на Pixel 8 Pro, демонстрируя высокую эффективность работы ИИ на устройствах. В ближайшем будущем Gemini будет доступна для опытов в Google AI Studio, где разработчики смогут тестировать собственные мультимодальные запросы.
Отмечая этот значительный шаг в развитии ИИ, Google подчеркивает своё стремление к инновациям. Gemini обещает изменить представление о возможностях искусственного интеллекта, предлагая более гибкие и мощные решения для самых разнообразных задач.
Хочу заметить, что Сундар Пичаи - CEO Гугла, напрямую говорит, что эта волна ИИ намного больше, чем интернет и все что было до этого. Так что если кто-то все еще сомневается - AI это для всех!
Ссылка
🔥22😁3🤩3🎉1
Media is too big
VIEW IN TELEGRAM
Гулял по Нью Йорку, случайно нашел Оптимуса и Cybertrack.
Оптимус - новый робот, которого разрабатывает Tesla, ниже взрослого человека, но не сильно.
Cybertrack же наоборот огроменный. Он правда выглядит как будто его экспортировали прямиком из компьютерной игры!
Локация
Оптимус - новый робот, которого разрабатывает Tesla, ниже взрослого человека, но не сильно.
Cybertrack же наоборот огроменный. Он правда выглядит как будто его экспортировали прямиком из компьютерной игры!
Локация
🔥20❤5😁2🤩2
Prompt Engineering: Простые Слова, Большие Изменения
Минимальные изменения в запросах к AI могут радикально повысить точность его ответов.
В мире искусственного интеллекта, где точность и способность к обработке больших данных играют ключевую роль, новые методы работы с запросами открывают новые возможности.
Исследование модели Claude 2.1 от Anthropic выявило, что добавление фразы “Вот самое релевантное предложение в контексте:” в начало ответа модели повысило точность «доставания» ответов из больших документов (200к токенов) с 27% до 98%.
Кажется это рекорд со времен: «дам тебе 200$ чаевых»
🐨 Заметка
Минимальные изменения в запросах к AI могут радикально повысить точность его ответов.
В мире искусственного интеллекта, где точность и способность к обработке больших данных играют ключевую роль, новые методы работы с запросами открывают новые возможности.
Исследование модели Claude 2.1 от Anthropic выявило, что добавление фразы “Вот самое релевантное предложение в контексте:” в начало ответа модели повысило точность «доставания» ответов из больших документов (200к токенов) с 27% до 98%.
Кажется это рекорд со времен: «дам тебе 200$ чаевых»
Please open Telegram to view this post
VIEW IN TELEGRAM
😱22👍11🎉4🤯1
S-LoRA: матрица намного ближе, чем кажется
S-LoRA превращает любую большую языковую модель в "Матрицу", где каждый Агент Смит может быть адаптирован в уникального персонажа, создавая целый мир на одной платформе.
Представьте, если бы Агент Смит из "Матрицы" мог превращаться в любого уникального персонажа по вашему желанию. Вот рецепт:
1. Базовая модель - Агент Смит: LLaMA, наша базовая модель, аналогична Агенту Смиту - мощной и адаптируемой форме ИИ, готовой к изменениям.
2. LoRA-адаптеры - Настройки персонажей: Каждый LoRA-адаптер добавляет свои уникальные характеристики к базовой модели, превращая стандартного Агента Смита в множество разнообразных персонажей.
3. S-LoRA - Матрица: S-LoRA действует как "Матрица", в рамках которой все эти преобразования происходят. Она позволяет масштабировать и управлять множеством адаптированных персонажей, поддерживая сложную сеть взаимодействующих и эволюционирующих форм.
S-LoRA открывает новые горизонты в использовании LLMs, позволяя нам не только создавать уникальные характеристики базовой модели, но и управлять ими в масштабах, сравнимых с "Матрицей".
🤩 Статья
🐙 Код
S-LoRA превращает любую большую языковую модель в "Матрицу", где каждый Агент Смит может быть адаптирован в уникального персонажа, создавая целый мир на одной платформе.
Представьте, если бы Агент Смит из "Матрицы" мог превращаться в любого уникального персонажа по вашему желанию. Вот рецепт:
1. Базовая модель - Агент Смит: LLaMA, наша базовая модель, аналогична Агенту Смиту - мощной и адаптируемой форме ИИ, готовой к изменениям.
2. LoRA-адаптеры - Настройки персонажей: Каждый LoRA-адаптер добавляет свои уникальные характеристики к базовой модели, превращая стандартного Агента Смита в множество разнообразных персонажей.
3. S-LoRA - Матрица: S-LoRA действует как "Матрица", в рамках которой все эти преобразования происходят. Она позволяет масштабировать и управлять множеством адаптированных персонажей, поддерживая сложную сеть взаимодействующих и эволюционирующих форм.
S-LoRA открывает новые горизонты в использовании LLMs, позволяя нам не только создавать уникальные характеристики базовой модели, но и управлять ими в масштабах, сравнимых с "Матрицей".
🤩 Статья
🐙 Код
❤16🔥10👍3😁3😢1
Новый open source DL фрэймворк от Apple
Apple выпустила MLX фрэймворк, который нативно работает на Apple Silicon после одной команды pip install и без других зависимостей.
Главные фичи MLX:
- Стандартные APIs: Python; C++; mlx.nn и mlx.optimizers с API-интерфейсами, вдохновленными PyTorch
- Преобразования составных функций для автоматического дифференцирования, векторизации и оптимизации графа вычислений
- Ленивые вычисления (lazy computation) : массивы материализуются только при необходимости
- Динамическое построение вычислительных графов: изменение формы аргументов функции не приводит к медленной компиляции, а отладка проста и интуитивно понятна.
- Операции могут выполняться на любом из поддерживаемых устройств (CPU и GPU).
- Унифицированная модель памяти: Массивы в MLX находятся в общей памяти. При этом операции с массивами можно выполнять на любом из поддерживаемых типов устройств без перемещения данных.
💻 GitHub
By @innovationitsme
Apple выпустила MLX фрэймворк, который нативно работает на Apple Silicon после одной команды pip install и без других зависимостей.
Главные фичи MLX:
- Стандартные APIs: Python; C++; mlx.nn и mlx.optimizers с API-интерфейсами, вдохновленными PyTorch
- Преобразования составных функций для автоматического дифференцирования, векторизации и оптимизации графа вычислений
- Ленивые вычисления (lazy computation) : массивы материализуются только при необходимости
- Динамическое построение вычислительных графов: изменение формы аргументов функции не приводит к медленной компиляции, а отладка проста и интуитивно понятна.
- Операции могут выполняться на любом из поддерживаемых устройств (CPU и GPU).
- Унифицированная модель памяти: Массивы в MLX находятся в общей памяти. При этом операции с массивами можно выполнять на любом из поддерживаемых типов устройств без перемещения данных.
💻 GitHub
By @innovationitsme
👍26🔥9🎉2😢1
YouTube
Digital Life Project: Autonomous 3D Characters with Social Intelligence
Homepage: https://digital-life-project.com/
Abstract: In this work, we present Digital Life Project, a framework utilizing language as the universal medium to build autonomous 3D characters, who are capable of engaging in social interactions and expressing…
Abstract: In this work, we present Digital Life Project, a framework utilizing language as the universal medium to build autonomous 3D characters, who are capable of engaging in social interactions and expressing…
Китайские ученые запустили полностью автономных виртуальных персон-агентов
This is beyond insanity🙃
берём LLM, прикручиваем к ней api calls - actions, крафтим персону - system prompt, картинку - сначала текстуры, потом уже экшенами управляем маникеном. Получаем полностью автономного ИИ способного управлять виртуальным миром.
Есть шанс что первых 100% автономных роботов мы увидим сразу после Рождества. Как раз у людей появится возможность время дома провести.
Проект
This is beyond insanity🙃
берём LLM, прикручиваем к ней api calls - actions, крафтим персону - system prompt, картинку - сначала текстуры, потом уже экшенами управляем маникеном. Получаем полностью автономного ИИ способного управлять виртуальным миром.
Есть шанс что первых 100% автономных роботов мы увидим сразу после Рождества. Как раз у людей появится возможность время дома провести.
Проект
👍17🔥11❤4
Dudes, игрался сегодня весь день с https://ollama.ai и https://stability.ai/news/stablelm-zephyr-3b-stability-llm. Чума, языковые модели уже на вашем маке
Ollama
Get up and running with large language models.
👍20❤3
Верни как было!
Anonymous Poll
30%
Да, с заголовками и GPT текстами
70%
Нет, коротко, на смешанных языках и с жаргоном
Конкуренция принципов воплощения квантовых компьютеров: ридберговские атомы обходят сверхпроводники
Квантовый компьютер - грандиозная и сложная для воплощения цель. Считается, что третья квантовая революция случится, когда мы научимся дирижировать хотя бы сотней логических кубитов (устойчивых к ошибкам квантовых носителей информации).
Читая о прорывах, важно понимать, о каких именно кубитах идёт речь. Свежий рекорд IBM в 1121 физических кубитов (суперпроводники), или Atom Computing 1180 физических кубитов (ионы), к сожалению, не обещает эффективности. Максимальное подтвержденное число логических кубитов у бостонской QuEra Computing - 25 (ионы).
В сверхпроводниковых квантовых компьютерах для детекции и коррекции ошибок на каждый "логический" кубит нужно 13 физических (это если при масштабировании все пойдет по плану, а оно пока не идет, и есть оценки в 1000 физических кубитов на 1 логический).
В альтернативном подходе к воплощению квантовых компьютеров главный герой - ридберговский атом. Это атом щелочного металла, электрон которого "отодвинут" на большое расстояние от ядра с помощью лазера. Излюбленный ион в таких экспериментах - мягкий серебристый радиоактивный рубидий-87 (87Rb).
Исследователи из Гарварда с партнёрами из MIT, Caltech, Princeton и той самой QuEra в предварительно принятой к публикации в Nature статье утверждают, что смогли организовать систему 87Rb в гиперкуб, и ошибки могут быть обнаружены и скорректированы на уровне софта. Это звучит как голубая мечта квантовых инженеров, которым в рамках традиционных представлений для создания дееспособного квантового процессора необходимы были бы миллионы физических кубитов.
Учёные создали схему из 48 логических кубитов с программной коррекцией ошибок и достигли преимущества в согласованности на порядок выше, чем у систем сопоставимого размера, т.о. предложив рецепт масштабирования до гигантских систем. Метят на 10000 физических кубитов. Учитывая финансирование от Пентагона, звучит так фантастически, что даже верится
💎 Статья, где есть 7D гиперкуб
Квантовый компьютер - грандиозная и сложная для воплощения цель. Считается, что третья квантовая революция случится, когда мы научимся дирижировать хотя бы сотней логических кубитов (устойчивых к ошибкам квантовых носителей информации).
Читая о прорывах, важно понимать, о каких именно кубитах идёт речь. Свежий рекорд IBM в 1121 физических кубитов (суперпроводники), или Atom Computing 1180 физических кубитов (ионы), к сожалению, не обещает эффективности. Максимальное подтвержденное число логических кубитов у бостонской QuEra Computing - 25 (ионы).
В сверхпроводниковых квантовых компьютерах для детекции и коррекции ошибок на каждый "логический" кубит нужно 13 физических (это если при масштабировании все пойдет по плану, а оно пока не идет, и есть оценки в 1000 физических кубитов на 1 логический).
В альтернативном подходе к воплощению квантовых компьютеров главный герой - ридберговский атом. Это атом щелочного металла, электрон которого "отодвинут" на большое расстояние от ядра с помощью лазера. Излюбленный ион в таких экспериментах - мягкий серебристый радиоактивный рубидий-87 (87Rb).
Исследователи из Гарварда с партнёрами из MIT, Caltech, Princeton и той самой QuEra в предварительно принятой к публикации в Nature статье утверждают, что смогли организовать систему 87Rb в гиперкуб, и ошибки могут быть обнаружены и скорректированы на уровне софта. Это звучит как голубая мечта квантовых инженеров, которым в рамках традиционных представлений для создания дееспособного квантового процессора необходимы были бы миллионы физических кубитов.
Учёные создали схему из 48 логических кубитов с программной коррекцией ошибок и достигли преимущества в согласованности на порядок выше, чем у систем сопоставимого размера, т.о. предложив рецепт масштабирования до гигантских систем. Метят на 10000 физических кубитов. Учитывая финансирование от Пентагона, звучит так фантастически, что даже верится
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍5🤩4❤1
Из коммента перенесу сюда. Спасибо за ценный инпут, @void_visionary