Forwarded from Точка сингулярности💥
🧬 Первый в мире «жидкий ИИ».
Похож на #ChatGPT, но прозрачен, энергоэффективен и почти в 500 раз дешевле.
Вчера самый популярный ИИ- стартап Бостона Liquid AI провел большое публичное мероприятие в MIT, чтобы продемонстрировать свои последние разработки, материализовавшие их «уникальный и революционный подход к ИИ» (видео рассказ о мероприятии).
«Мы создаем самые эффективные и самые мощные системы ИИ, которые вы еще не видели» и «Liquid AI делает возможным то, что до сих пор было невозможным» - объявил соучредитель Liquid AI Рамин Хасини, открывший мероприятие вместе с губернатором Маурой Хили.
Бостон Глоб дала своему репортажу об этом событии название «Маленькие черви, большие мечты: как мозг беспозвоночного вдохновил Бостон на самую большую добавку к ИИ» с подзаголовками «Liquid AI стремится стать ключевым событием, «подобным приезду Beatles в Америку» и «Модель ИИ LiquidAI отличается от модели LLM #OpenAI».
Последнее – чистая правда. Ибо 3 новых модели LiquidAI – это модели генеративного ИИ принципиально нового класса LFM (Liquid Foundation Models - Жидкие Базовые Модели), демонстрирующие топовую производительность при любом масштабе, и при занимающие ощутимо меньший объем памяти, обеспечивая более эффективные вывод.
Кроме того, LFM:
• снижает зависимость от облачных сервисов (что снижает затраты и потребление энергии), в результате чего модель может работать на смартфоне без Интернета;
• обеспечивает большую объяснимость и прозрачность, чем архитектуры на основе трансформаторов, потому что поведение моделей LFM можно перемотать назад, чтобы увидеть, как они произвели результат;
• разработка 3х моделей потребовала всего лишь $38 млн интвестиций (сравните с $17.9 млрд у OpenAI)
«Вдохновленная структурой мозга червя C. elegans, архитектура класса LFM не похожа ни на что из того, что предлагают OpenAI,🧭 oogle и их конкуренты, однако, она может предложить те же самые революционные приложения, используя при этом много меньше электричества» - сказал Рамин Хасини.
Кардинальное отличие вот в чем:
• Внутри обычной нейронной сети свойства каждого моделируемого нейрона определяются статическим значением («весом»), который влияет на порог его возбуждения.
• В жидкостной нейронной сети поведение каждого нейрона управляется уравнением, которое предсказывает его поведение с течением времени. Сама же сеть, в ходе своего функционирования, решает каскад связанных уравнений. Конструкция делает сеть более эффективной и гибкой, позволяя ей обучаться даже после обучения, в отличие от обычной нейронной сети.
Все это звучит, как сказка. Но попробуйте сами поиграть с «жидким ИИ-чатботом». Мне очень понравилось.
🧩 #КаталогНейросетей
Похож на #ChatGPT, но прозрачен, энергоэффективен и почти в 500 раз дешевле.
Вчера самый популярный ИИ- стартап Бостона Liquid AI провел большое публичное мероприятие в MIT, чтобы продемонстрировать свои последние разработки, материализовавшие их «уникальный и революционный подход к ИИ» (видео рассказ о мероприятии).
«Мы создаем самые эффективные и самые мощные системы ИИ, которые вы еще не видели» и «Liquid AI делает возможным то, что до сих пор было невозможным» - объявил соучредитель Liquid AI Рамин Хасини, открывший мероприятие вместе с губернатором Маурой Хили.
Бостон Глоб дала своему репортажу об этом событии название «Маленькие черви, большие мечты: как мозг беспозвоночного вдохновил Бостон на самую большую добавку к ИИ» с подзаголовками «Liquid AI стремится стать ключевым событием, «подобным приезду Beatles в Америку» и «Модель ИИ LiquidAI отличается от модели LLM #OpenAI».
Последнее – чистая правда. Ибо 3 новых модели LiquidAI – это модели генеративного ИИ принципиально нового класса LFM (Liquid Foundation Models - Жидкие Базовые Модели), демонстрирующие топовую производительность при любом масштабе, и при занимающие ощутимо меньший объем памяти, обеспечивая более эффективные вывод.
Кроме того, LFM:
• снижает зависимость от облачных сервисов (что снижает затраты и потребление энергии), в результате чего модель может работать на смартфоне без Интернета;
• обеспечивает большую объяснимость и прозрачность, чем архитектуры на основе трансформаторов, потому что поведение моделей LFM можно перемотать назад, чтобы увидеть, как они произвели результат;
• разработка 3х моделей потребовала всего лишь $38 млн интвестиций (сравните с $17.9 млрд у OpenAI)
«Вдохновленная структурой мозга червя C. elegans, архитектура класса LFM не похожа ни на что из того, что предлагают OpenAI,
Кардинальное отличие вот в чем:
• Внутри обычной нейронной сети свойства каждого моделируемого нейрона определяются статическим значением («весом»), который влияет на порог его возбуждения.
• В жидкостной нейронной сети поведение каждого нейрона управляется уравнением, которое предсказывает его поведение с течением времени. Сама же сеть, в ходе своего функционирования, решает каскад связанных уравнений. Конструкция делает сеть более эффективной и гибкой, позволяя ей обучаться даже после обучения, в отличие от обычной нейронной сети.
Все это звучит, как сказка. Но попробуйте сами поиграть с «жидким ИИ-чатботом». Мне очень понравилось.
🧩 #КаталогНейросетей
Please open Telegram to view this post
VIEW IN TELEGRAM