Google AI расширяет возможности Samsung Galaxy S24
Samsung Galaxy S24 интегрирует новейшие функции Google AI.
Gemini модели от Google расширят возможности искусственного интеллекта на устройстве.
Gemini Pro взаимодействует с фирменными приложениями Samsung, обогащая их функционал.
Технология Generative Edit в галерее S24 преобразит редактирование фото - Объекты на фото можно удалять или передвигать одним нажатием.
Gemini Nano обеспечит обработку данных прямо на смартфоне - благодаря встроенному NPU.
Circle to Search упростит поиск информации на экране без отвлечения от текущих задач.
Google Messages предложит инструменты Magic Compose и Photomoji для создания текстов и эмодзи.
Android Auto представит резюме сообщений или групповых чатов и адаптивные ответы, делая вождение безопаснее.
Дизайн Android Auto будет гармонировать с интерфейсами Samsung и интегрирован в автомобиль.
#GoogleAI #SamsungGalaxyS24 #AndroidAuto
Samsung Galaxy S24 интегрирует новейшие функции Google AI.
Gemini модели от Google расширят возможности искусственного интеллекта на устройстве.
Gemini Pro взаимодействует с фирменными приложениями Samsung, обогащая их функционал.
Технология Generative Edit в галерее S24 преобразит редактирование фото - Объекты на фото можно удалять или передвигать одним нажатием.
Gemini Nano обеспечит обработку данных прямо на смартфоне - благодаря встроенному NPU.
Circle to Search упростит поиск информации на экране без отвлечения от текущих задач.
Google Messages предложит инструменты Magic Compose и Photomoji для создания текстов и эмодзи.
Android Auto представит резюме сообщений или групповых чатов и адаптивные ответы, делая вождение безопаснее.
Дизайн Android Auto будет гармонировать с интерфейсами Samsung и интегрирован в автомобиль.
#GoogleAI #SamsungGalaxyS24 #AndroidAuto
Запуск Samsung Galaxy S24
Стартовали продажи обновлённой линейки Samsung Galaxy S24.
Модели смартфонов: Galaxy S24, S24+ и S24 Ultra. Цены от $800 до $1,300.
Использование ИИ для обработки и улучшения изображений.
Функции AI: удаление объектов, перекомпоновка сцены, генеративные эффекты.
Генеративное AI заполнит части фона и добавит цифровой водяной знак на фото.
Instant Slow-mo создаёт плавное замедленное видео - ИИ создаёт промежуточные кадры.
Сотрудничество с Google для поиска выделенного текста: Circle for Search.
Улучшения ПО через модели Gemini Pro и Nano от Google, тестирование Gemini Ultra.
Galaxy S24 Ultra с ProVisual: высокое качество фото и коррекция размытости.
Камера S24 Ultra: 5-кратный зум, больше пикселей для съёмки в темноте, Super HDR.
Выбор памяти для S24 Ultra до 1 ТБ.
Дисплеи с адаптивной частотой от 1 до 120 Гц и защитой Gorilla Armor - 4х лучшая защита от царапин.
Корпус из титана.
Уже доступно в предзаказе, в продаже - в конце месяца.
#Samsung #GalaxyS24 #AI
Стартовали продажи обновлённой линейки Samsung Galaxy S24.
Модели смартфонов: Galaxy S24, S24+ и S24 Ultra. Цены от $800 до $1,300.
Использование ИИ для обработки и улучшения изображений.
Функции AI: удаление объектов, перекомпоновка сцены, генеративные эффекты.
Генеративное AI заполнит части фона и добавит цифровой водяной знак на фото.
Instant Slow-mo создаёт плавное замедленное видео - ИИ создаёт промежуточные кадры.
Сотрудничество с Google для поиска выделенного текста: Circle for Search.
Улучшения ПО через модели Gemini Pro и Nano от Google, тестирование Gemini Ultra.
Galaxy S24 Ultra с ProVisual: высокое качество фото и коррекция размытости.
Камера S24 Ultra: 5-кратный зум, больше пикселей для съёмки в темноте, Super HDR.
Выбор памяти для S24 Ultra до 1 ТБ.
Дисплеи с адаптивной частотой от 1 до 120 Гц и защитой Gorilla Armor - 4х лучшая защита от царапин.
Корпус из титана.
Уже доступно в предзаказе, в продаже - в конце месяца.
#Samsung #GalaxyS24 #AI
Microsoft задает новые стандарты для AI PC: 16GB RAM и 40 TOPS
Microsoft определила минимальные характеристики для AI PC, - не менее 16GB оперативной памяти.
Компания TrendForce подтверждает требование минимум 16GB RAM для Windows AI PC.
Для получения статуса AI PC системы должны обладать вычислительной мощностью в 40 TOPS.
Текущие чипы Intel Meteor Lake не соответствуют требованиям в 40 TOPS, в отличие от ожидаемых Lunar Lake.
Ожидается, что серия AMD Ryzen 8000 и платформа Qualcomm Snapdragon X Elite превысят 40 TOPS.
Летом могут быть анонсированы минимальные характеристики для AI PC и Windows 12.
Готовимся к апгрейдам.
#Microsoft #AI #RAM
Microsoft определила минимальные характеристики для AI PC, - не менее 16GB оперативной памяти.
Компания TrendForce подтверждает требование минимум 16GB RAM для Windows AI PC.
Для получения статуса AI PC системы должны обладать вычислительной мощностью в 40 TOPS.
Текущие чипы Intel Meteor Lake не соответствуют требованиям в 40 TOPS, в отличие от ожидаемых Lunar Lake.
Ожидается, что серия AMD Ryzen 8000 и платформа Qualcomm Snapdragon X Elite превысят 40 TOPS.
Летом могут быть анонсированы минимальные характеристики для AI PC и Windows 12.
Готовимся к апгрейдам.
#Microsoft #AI #RAM
👍1
OpenAI и Аризонский университет объявили о партнерстве в использовании ChatGPT
OpenAI анонсировала первое сотрудничество с университетом.
Аризонский государственный университет (ASU) получит доступ к ChatGPT Enterprise для образования и исследований.
Университет планирует создать личных AI-преподавателей и AI-аватаров как творческих ассистентов.
Данные ASU, используемые в ChatGPT, останутся конфиденциальными и не будут использоваться OpenAI для обучения моделей.
OpenAI заинтересована в расширении применения ChatGPT в высшем образовании.
Такими темпами ИИ заменит учителей.
#OpenAI #ChatGPT #ASU
OpenAI анонсировала первое сотрудничество с университетом.
Аризонский государственный университет (ASU) получит доступ к ChatGPT Enterprise для образования и исследований.
Университет планирует создать личных AI-преподавателей и AI-аватаров как творческих ассистентов.
Данные ASU, используемые в ChatGPT, останутся конфиденциальными и не будут использоваться OpenAI для обучения моделей.
OpenAI заинтересована в расширении применения ChatGPT в высшем образовании.
Такими темпами ИИ заменит учителей.
#OpenAI #ChatGPT #ASU
Интегрируем BigQuery & LangChain
LangChain обогащает модели ответами, используя структурированные данные из BigQuery.
Применения включают чат-боты, виртуальных помощников, генерацию кода и веб-приложения.
BigQuery - мощный инструмент для анализа массивов данных с высокой скоростью и гибкостью.
Интеграция с другими сервисами Google Cloud повышает эффективность обработки данных.
BigQuery Studio поддерживает выполнение SQL-запросов и работу с записными книжками.
Приведён пример анализа данных для выбора целевой аудитории в маркетинговых кампаниях.
Схема запроса предоставляет детальную информацию по структуре данных.
Созданная модель LLM формирует оптимизированные запросы для конкретных бизнес-задач.
BigQuery сам по себе очень мощный инструмент. В комбинации с LLM может дать действительно интересные результаты.
#LangChain #BigQuery #LLM
LangChain обогащает модели ответами, используя структурированные данные из BigQuery.
Применения включают чат-боты, виртуальных помощников, генерацию кода и веб-приложения.
BigQuery - мощный инструмент для анализа массивов данных с высокой скоростью и гибкостью.
Интеграция с другими сервисами Google Cloud повышает эффективность обработки данных.
BigQuery Studio поддерживает выполнение SQL-запросов и работу с записными книжками.
Приведён пример анализа данных для выбора целевой аудитории в маркетинговых кампаниях.
Схема запроса предоставляет детальную информацию по структуре данных.
Созданная модель LLM формирует оптимизированные запросы для конкретных бизнес-задач.
BigQuery сам по себе очень мощный инструмент. В комбинации с LLM может дать действительно интересные результаты.
#LangChain #BigQuery #LLM
Цукерберг на пути к созданию AGI
Исследовательская группа FAIR объединилась с командой генеративного ИИ для ускорения разработок.
Мощные вычислительные ресурсы поддерживают разработку крупных ИИ моделей - примерная оценка - 350 тысяч ускорителей Nvidia H100, а если включить в оценку все остальные GPU - примерно😨 600 тысяч H100 суммарной мощности😨
Выпущенные модели Llama 2 и разрабатываемая Llama 3 конкурируют с ведущими языковыми моделями.
Цукерберг поддерживает идею открытости доступа к моделям ИИ.
Делается акцент на развитии метавселенной и AR технологий.
ИИ будет играть ключевую роль в создании и заполнении виртуальных миров.
Будущее взаимодействия людей и ИИ видится как интегрированная часть общения.
Искусственный интеллект выходит на передний план будущего взаимодействия в виртуальных мирах.
#AGI
Исследовательская группа FAIR объединилась с командой генеративного ИИ для ускорения разработок.
Мощные вычислительные ресурсы поддерживают разработку крупных ИИ моделей - примерная оценка - 350 тысяч ускорителей Nvidia H100, а если включить в оценку все остальные GPU - примерно
Выпущенные модели Llama 2 и разрабатываемая Llama 3 конкурируют с ведущими языковыми моделями.
Цукерберг поддерживает идею открытости доступа к моделям ИИ.
Делается акцент на развитии метавселенной и AR технологий.
ИИ будет играть ключевую роль в создании и заполнении виртуальных миров.
Будущее взаимодействия людей и ИИ видится как интегрированная часть общения.
Искусственный интеллект выходит на передний план будущего взаимодействия в виртуальных мирах.
#AGI
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ppprompt | Sexy AI Prompts & Experiments | by @ponchiknews
This media is not supported in your browser
VIEW IN TELEGRAM
Runway представили новую фичу для Gen-2 — Multi Motion Brush
С ее помощью можно выделять и анимировать сразу несколько областей на изображении.
@ppprompt
С ее помощью можно выделять и анимировать сразу несколько областей на изображении.
@ppprompt
🔥1
ИИ - будущее предпринимательства
Сооснователь DeepMind Мустафа Сулейман предсказывает, что АИ сможет создавать и управлять бизнесом в течение ближайших пяти лет.
На Всемирном экономическом форуме в 2024 году Сулейман заявил, что АИ, прошедший экзамен, аналогичный тесту Тьюринга, будет оцениваться как предприниматель и изобретатель.
Повсеместное и недорогое распространение таких способностей АИ ожидается к концу десятилетия, что окажет заметное влияние на экономику.
Сулейман предвидит, что каждый получит персонального АИ-ассистента, способного повысить продуктивность и близко знать личную информацию пользователя.
Вместо определения 'интеллект' научное сообщество должно концентрироваться на реальных возможностях АИ, таких как взаимодействие с людьми, планирование и организация задач.
АИ становятся более доступными, что обещает переворот в будущем бизнеса и повседневной жизни.
#DeepMind #AI #Business
Сооснователь DeepMind Мустафа Сулейман предсказывает, что АИ сможет создавать и управлять бизнесом в течение ближайших пяти лет.
На Всемирном экономическом форуме в 2024 году Сулейман заявил, что АИ, прошедший экзамен, аналогичный тесту Тьюринга, будет оцениваться как предприниматель и изобретатель.
Повсеместное и недорогое распространение таких способностей АИ ожидается к концу десятилетия, что окажет заметное влияние на экономику.
Сулейман предвидит, что каждый получит персонального АИ-ассистента, способного повысить продуктивность и близко знать личную информацию пользователя.
Вместо определения 'интеллект' научное сообщество должно концентрироваться на реальных возможностях АИ, таких как взаимодействие с людьми, планирование и организация задач.
АИ становятся более доступными, что обещает переворот в будущем бизнеса и повседневной жизни.
#DeepMind #AI #Business
Google усиливает AI-присутствие в Великобритании
Google инвестирует $1 млрд в новый центр обработки данных в Великобритании.
Центр на 33 акрах обеспечит вычислительную мощность для AI и облачных услуг.
Ожидается поддержка инноваций в AI и надежности цифровых услуг для клиентов.
Планируется использование экологичных технологий, включая станцию восстановления тепла.
Инвестиция подчеркивает роль Великобритании как техноцентра и поддерживает локальные инновации.
Microsoft тоже строит в Британии огромный центр обработки данных за £2,5 млрд.
Тенденция усиливает статус страны как ведущего технологического хаба и научной державы.
Амбиции и деньги в игре: Британия превращается в AI-форпост.
#Google #AI #DataCenter
Google инвестирует $1 млрд в новый центр обработки данных в Великобритании.
Центр на 33 акрах обеспечит вычислительную мощность для AI и облачных услуг.
Ожидается поддержка инноваций в AI и надежности цифровых услуг для клиентов.
Планируется использование экологичных технологий, включая станцию восстановления тепла.
Инвестиция подчеркивает роль Великобритании как техноцентра и поддерживает локальные инновации.
Microsoft тоже строит в Британии огромный центр обработки данных за £2,5 млрд.
Тенденция усиливает статус страны как ведущего технологического хаба и научной державы.
Амбиции и деньги в игре: Британия превращается в AI-форпост.
#Google #AI #DataCenter
Андроиды Figure на службе в BMW: новая эра для робототехники
Компания Figure достигла рекордных сроков разработки роботов-андроидов для физической работы.
Роботы Figure 01 будут заниматься выполнением задач в производстве и логистике на заводе BMW в Spartanburg.
Достижение андроидами уровня автономии показано на примере приготовления кофе без участия человека.
Первый коммерческий проект Figure отличается от экспериментальных запусков аналогов.
ЦЕО Figure Бретт Адкок акцентирует на практическом применении роботов в реальном мире.
Глобальная цель — делать андроидов более эффективными, чем люди в определённых задачах.
Адкок объявил о планах открыто демонстрировать достижения и потенциал их разработок.
Теперь вопрос не в том, заменят ли роботы людей, а как быстро.
#Figure #Robotics #BMW
Компания Figure достигла рекордных сроков разработки роботов-андроидов для физической работы.
Роботы Figure 01 будут заниматься выполнением задач в производстве и логистике на заводе BMW в Spartanburg.
Достижение андроидами уровня автономии показано на примере приготовления кофе без участия человека.
Первый коммерческий проект Figure отличается от экспериментальных запусков аналогов.
ЦЕО Figure Бретт Адкок акцентирует на практическом применении роботов в реальном мире.
Глобальная цель — делать андроидов более эффективными, чем люди в определённых задачах.
Адкок объявил о планах открыто демонстрировать достижения и потенциал их разработок.
Теперь вопрос не в том, заменят ли роботы людей, а как быстро.
#Figure #Robotics #BMW
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну за 3Д-моделлеров и 3Д-стоки.
Про китайцев из DeemosTech я уже писал в своем посте про Чатаватаров.
Это бывшая лаборатория в Шанхайском университете.
Я не знаю, сколько у них там RnD отделов, но они собирают довольно годные демки по разным вариантам применения ИИ в 3Д. Их Том Круз был довольно узнаваем.
А сейчас они собрали прям очень сладкий пайплайн из Блендора и text-to-3D генераций.
В Блендоре вы расставляете кубики и пишете для них промпты, а ИИ генерит 3Д-модельки на месте этих кубиков. Тут нет магии, просто удобство, делаете композицию на баундинг-боксах, а потом "нейрорендерите" это в 3Д, с последующим "настоящим" рендером (там даже PBR-материалы обещаны).
Фишка тут в том, что их модель Rodin Gen-1 (1,5 миллиарда параметров, если что), является самой большой из доступных нативных 3D-моделей и учитывает входящие размеры объектов.
Пример того, как можно из опен сорса и палок собирать ловкие прототипы будущих инструментов.
Просто представьте, вот есть у вас сцена, выделяете любой объект и кричите в монитор, "теперь это не тупая машинка, а винтажный опель 1947 года, цвет баклажан, тонированные стекла".
Хихикаете?
А ведь скоро можно будет "наговорить сцену".
Поройтесь у них в твитторе, там довольно много свежака про Чатаватары и другие проекты.
https://twitter.com/DeemosTech
P.S. Для тех, кто давно читает мои посты про 3Д, есть одна маленькая деталь: all of the assets Rodin generates "should be retopologized".
Чуда нет, тут генерация картинок по промптам с разных ракурсов, а потом генерация облаков точек на основе этих картинок.
Кстати, Rodin - это Родэн, тот который скульптор.
Про китайцев из DeemosTech я уже писал в своем посте про Чатаватаров.
Это бывшая лаборатория в Шанхайском университете.
Я не знаю, сколько у них там RnD отделов, но они собирают довольно годные демки по разным вариантам применения ИИ в 3Д. Их Том Круз был довольно узнаваем.
А сейчас они собрали прям очень сладкий пайплайн из Блендора и text-to-3D генераций.
В Блендоре вы расставляете кубики и пишете для них промпты, а ИИ генерит 3Д-модельки на месте этих кубиков. Тут нет магии, просто удобство, делаете композицию на баундинг-боксах, а потом "нейрорендерите" это в 3Д, с последующим "настоящим" рендером (там даже PBR-материалы обещаны).
Фишка тут в том, что их модель Rodin Gen-1 (1,5 миллиарда параметров, если что), является самой большой из доступных нативных 3D-моделей и учитывает входящие размеры объектов.
Пример того, как можно из опен сорса и палок собирать ловкие прототипы будущих инструментов.
Просто представьте, вот есть у вас сцена, выделяете любой объект и кричите в монитор, "теперь это не тупая машинка, а винтажный опель 1947 года, цвет баклажан, тонированные стекла".
Хихикаете?
А ведь скоро можно будет "наговорить сцену".
Поройтесь у них в твитторе, там довольно много свежака про Чатаватары и другие проекты.
https://twitter.com/DeemosTech
P.S. Для тех, кто давно читает мои посты про 3Д, есть одна маленькая деталь: all of the assets Rodin generates "should be retopologized".
Чуда нет, тут генерация картинок по промптам с разных ракурсов, а потом генерация облаков точек на основе этих картинок.
Кстати, Rodin - это Родэн, тот который скульптор.
🕊1
Forwarded from Малоизвестное интересное
Начался Большой Раскол научного и инженерного подходов к интеллекту.
За кулисами давосской дуэли Карла Фристона и Яна Лекуна.
В ходе вчерашнего диалога на площадке давосского форума Фристон и Лекун стараются выглядеть спокойными и доброжелательными [1]. Фристону это удается лучше: он улыбается и много шутит. Лекуну сложнее: ему явно не до улыбок и шуток. Но он старается держать себя в руках, даже когда Фристон открыто смеётся над делом всей его жизни – глубоким обучением. «Глубокое обучение – полная чушь» - заявляет Фристон и называет набор факторов, принципиально не позволяющих создать человекоподобный интеллект на основе глубокого обучения. Лекун пытается утверждать обратное, однако вместо аргументов говорит лишь о своей субъективной вере в будущие еще не открытые возможности глубокого обучения. И потому «глубокое обучение необходимо, и я готов поспорить, что через 10-20 лет ИИ-системы все еще будут основаны на глубоком обучении».
Важность этого диалога двух «рок-звезд» (как их назвал модератор) в области изучения и создания интеллектуальных систем трудно переоценить. Ибо он знаменует начало открытого раскола двух альтернативных подходов к созданию человекоподобных интеллектуальных агентов:
1. «Инженерный подход к созданию искусственного интеллекта» на основе глубокого обучения, больших данных и больших языковых моделей (LLM) - ныне доминирующий ресурсоемкий и дорогостоящий подход.
2. Альтернативный - научный подход к созданию естественного интеллекта на основе активного вывода, позволяющего построение больших моделей, гибко составленных из более мелких, хорошо понятных моделей, для которых возможно явное, интерпретируемое обновление их убеждений.
Первым формальным заявлением, призывающим мир сменить парадигму разработки интеллектуальных систем, было декабрьское открытое письмо участников Бостонского глобального форума [2]. Среди 25 подписавших, оба наших выдающихся современника, чьи имена, имхо, во 2й половине XXI века, будут упоминаться в одном ряду с Ньютоном, Дарвином и Эйнштейном: Карл Фристон и Майкл Левин.
«Мы, нижеподписавшиеся, считаем, что на данном этапе коммерциализации и регулирования ИИ жизненно важно, чтобы альтернативное и научно обоснованное понимание биологических основ ИИ было публично озвучено, и чтобы были созваны междисциплинарные публичные семинары среди законодателей, регулирующих органов и технологов, инвесторов, ученых, журналистов, представителей НКО, религиозных сообществ, общественности и лидеров бизнеса.»
Через неделю после этого было опубликовано 2е открытое письмо [3] - от руководства компании VERSES (главным ученым которой является Карл Фристон) совету директоров OpenAI.
В письме говорится:
• Хартия OpenAI гласит: «…если проект, ориентированный на ценность и безопасность, приблизится к созданию AGI раньше, чем мы, мы обязуемся прекратить конкурировать с ним и начать оказывать помощь этому проекту».
• Отсутствие у больших моделей типа GPT-4 обобщаемости, объяснимости и управляемости предполагает, что они не приведут к AGI. Глубокого обучения недостаточно.
• Наша команда ученых-компьютерщиков, нейробиологов и инженеров под руководством Карла Фристона разработала альтернативный подход на основе активного вывода. Этот подход позволяет решить проблемы обобщаемости, объяснимости и управляемости, открывая путь к AGI
• Исходя из вышеизложенного, мы считаем, что VERSES заслуживает вашей помощи. В свою очередь мы предлагаем нашу помощь вам, чтобы гарантировать, что AGI и сверхразум развивались и использовались безопасным и полезным образом для всего человечества.
В OpenAI это письмо (по сути – вежливое предложение им капитулировать) проигнорировали.
Зато теперь ответил Лекун: будет не капитуляция, а война за AGI. И его компания к ней готова [4].
Но ведь не железом единым …
1 https://www.youtube.com/watch?v=SYQ8Siwy8Ic
2 https://bit.ly/424RWTb
3 https://bit.ly/48RuJq4
4 https://bit.ly/3O4Ncaj
#AGI
За кулисами давосской дуэли Карла Фристона и Яна Лекуна.
В ходе вчерашнего диалога на площадке давосского форума Фристон и Лекун стараются выглядеть спокойными и доброжелательными [1]. Фристону это удается лучше: он улыбается и много шутит. Лекуну сложнее: ему явно не до улыбок и шуток. Но он старается держать себя в руках, даже когда Фристон открыто смеётся над делом всей его жизни – глубоким обучением. «Глубокое обучение – полная чушь» - заявляет Фристон и называет набор факторов, принципиально не позволяющих создать человекоподобный интеллект на основе глубокого обучения. Лекун пытается утверждать обратное, однако вместо аргументов говорит лишь о своей субъективной вере в будущие еще не открытые возможности глубокого обучения. И потому «глубокое обучение необходимо, и я готов поспорить, что через 10-20 лет ИИ-системы все еще будут основаны на глубоком обучении».
Важность этого диалога двух «рок-звезд» (как их назвал модератор) в области изучения и создания интеллектуальных систем трудно переоценить. Ибо он знаменует начало открытого раскола двух альтернативных подходов к созданию человекоподобных интеллектуальных агентов:
1. «Инженерный подход к созданию искусственного интеллекта» на основе глубокого обучения, больших данных и больших языковых моделей (LLM) - ныне доминирующий ресурсоемкий и дорогостоящий подход.
2. Альтернативный - научный подход к созданию естественного интеллекта на основе активного вывода, позволяющего построение больших моделей, гибко составленных из более мелких, хорошо понятных моделей, для которых возможно явное, интерпретируемое обновление их убеждений.
Первым формальным заявлением, призывающим мир сменить парадигму разработки интеллектуальных систем, было декабрьское открытое письмо участников Бостонского глобального форума [2]. Среди 25 подписавших, оба наших выдающихся современника, чьи имена, имхо, во 2й половине XXI века, будут упоминаться в одном ряду с Ньютоном, Дарвином и Эйнштейном: Карл Фристон и Майкл Левин.
«Мы, нижеподписавшиеся, считаем, что на данном этапе коммерциализации и регулирования ИИ жизненно важно, чтобы альтернативное и научно обоснованное понимание биологических основ ИИ было публично озвучено, и чтобы были созваны междисциплинарные публичные семинары среди законодателей, регулирующих органов и технологов, инвесторов, ученых, журналистов, представителей НКО, религиозных сообществ, общественности и лидеров бизнеса.»
Через неделю после этого было опубликовано 2е открытое письмо [3] - от руководства компании VERSES (главным ученым которой является Карл Фристон) совету директоров OpenAI.
В письме говорится:
• Хартия OpenAI гласит: «…если проект, ориентированный на ценность и безопасность, приблизится к созданию AGI раньше, чем мы, мы обязуемся прекратить конкурировать с ним и начать оказывать помощь этому проекту».
• Отсутствие у больших моделей типа GPT-4 обобщаемости, объяснимости и управляемости предполагает, что они не приведут к AGI. Глубокого обучения недостаточно.
• Наша команда ученых-компьютерщиков, нейробиологов и инженеров под руководством Карла Фристона разработала альтернативный подход на основе активного вывода. Этот подход позволяет решить проблемы обобщаемости, объяснимости и управляемости, открывая путь к AGI
• Исходя из вышеизложенного, мы считаем, что VERSES заслуживает вашей помощи. В свою очередь мы предлагаем нашу помощь вам, чтобы гарантировать, что AGI и сверхразум развивались и использовались безопасным и полезным образом для всего человечества.
В OpenAI это письмо (по сути – вежливое предложение им капитулировать) проигнорировали.
Зато теперь ответил Лекун: будет не капитуляция, а война за AGI. И его компания к ней готова [4].
Но ведь не железом единым …
1 https://www.youtube.com/watch?v=SYQ8Siwy8Ic
2 https://bit.ly/424RWTb
3 https://bit.ly/48RuJq4
4 https://bit.ly/3O4Ncaj
#AGI
🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Нейросимволическая архитектура и ускорение обучения в 700 раз.
Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.
Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.
Отсюда два следствия.
Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.
Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.
Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html
Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.
Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.
В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.
Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.
Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".
Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.
Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.
Отсюда два следствия.
Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.
Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.
Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html
Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.
Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.
В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.
Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.
Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".
Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
Nvidia обходит GPT-4 с моделью ChatQA
Команда Nvidia представила ChatQA, новый конкурент GPT-4.
ChatQA базируется на методике настройки инструкций, делая акцент на уменьшение 'галлюцинаций'.
Методика включает в себя плотный поиск ответов и донастройку модели без синтетических данных.
ChatQA показала лучшие результаты на тестах по сравнению с GPT-4, особенно в задачах 'unanswerable'.
В некоторых тестах. на долю процента, но успех есть.
Интересно, что NVidia выводит на рынок своего трансформера.
На фоне того как МС собирается делать свои процессоры.
#Nvidia #ChatQA #GPT4
Команда Nvidia представила ChatQA, новый конкурент GPT-4.
ChatQA базируется на методике настройки инструкций, делая акцент на уменьшение 'галлюцинаций'.
Методика включает в себя плотный поиск ответов и донастройку модели без синтетических данных.
ChatQA показала лучшие результаты на тестах по сравнению с GPT-4, особенно в задачах 'unanswerable'.
В некоторых тестах. на долю процента, но успех есть.
Интересно, что NVidia выводит на рынок своего трансформера.
На фоне того как МС собирается делать свои процессоры.
#Nvidia #ChatQA #GPT4
IBM Consulting Advantage - AI ассистент для консультатов
IBM представила IBM Consulting Advantage, инновационную платформу искусственного интеллекта и библиотеку помощников, предназначенную для повышения эффективности консультантов.
Модели обучены на базе данных IBM и включают индивидуально подобранные запросы, модели и форматы вывода, сгруппированные по отраслевым вертикалям.
Повышает производительность консультантов на 50%.
#IBM #AI #ConsultingAdvantage
IBM представила IBM Consulting Advantage, инновационную платформу искусственного интеллекта и библиотеку помощников, предназначенную для повышения эффективности консультантов.
Модели обучены на базе данных IBM и включают индивидуально подобранные запросы, модели и форматы вывода, сгруппированные по отраслевым вертикалям.
Повышает производительность консультантов на 50%.
#IBM #AI #ConsultingAdvantage
🤔1
Forwarded from 42 секунды
Bloomberg: Accenture откроет десять AI-хабов по всему миру
– Accenture намерена открыть 10 инновационных AI-хабов
– Один из десяти новых центров будет запущен в Лондоне
– Accenture называет UK одним из самых важных рынков
– Главной целью за 2024 для Accenture будет рост бизнеса
– Компания намерена извлечь выгоду из популярности ИИ
– Она хочет удвоить число ИИ-специалистов до 80 тыс. чел.
– Общий мировой штат Accenture составляет 743 тыс. чел.
– Ее инвестиции в область ИИ за 3 года составят $3 млрд
@ftsec
– Accenture намерена открыть 10 инновационных AI-хабов
– Один из десяти новых центров будет запущен в Лондоне
– Accenture называет UK одним из самых важных рынков
– Главной целью за 2024 для Accenture будет рост бизнеса
– Компания намерена извлечь выгоду из популярности ИИ
– Она хочет удвоить число ИИ-специалистов до 80 тыс. чел.
– Общий мировой штат Accenture составляет 743 тыс. чел.
– Ее инвестиции в область ИИ за 3 года составят $3 млрд
@ftsec
Миллиард роботов-гуманоидов к 2040 году: видение Илона Маска
Миллиардер Илон Маск поделился прогнозом о появлении миллиарда роботов-гуманоидов на Земле к 2040 году.
Основания для подобных прогнозов подтверждаются разработками компании Tesla в сфере робототехники.
Прототип робота Tesla Optimus оценивается в 20 000 долларов.
Маск предсказывает производство миллионов таких единиц в будущем.
Создание гуманоидов, по словам Маска, расширяет миссию Tesla и не направлено на прямое достижение устойчивой энергетики.
Ожидается дальнейшее совершенствование Optimus, который через 5-10 лет станет невероятно мощным.
Если слова Маска станут реальностью, на улицах можно будет встретить столько же роботов, сколько сегодня смартфонов!
#ElonMusk #TeslaOptimus #Robotics
Миллиардер Илон Маск поделился прогнозом о появлении миллиарда роботов-гуманоидов на Земле к 2040 году.
Основания для подобных прогнозов подтверждаются разработками компании Tesla в сфере робототехники.
Прототип робота Tesla Optimus оценивается в 20 000 долларов.
Маск предсказывает производство миллионов таких единиц в будущем.
Создание гуманоидов, по словам Маска, расширяет миссию Tesla и не направлено на прямое достижение устойчивой энергетики.
Ожидается дальнейшее совершенствование Optimus, который через 5-10 лет станет невероятно мощным.
Если слова Маска станут реальностью, на улицах можно будет встретить столько же роботов, сколько сегодня смартфонов!
#ElonMusk #TeslaOptimus #Robotics
Увеличивается скорость с которой ИИ достигает уровня человека и обгоняет его в различных областях
https://contextual.ai/plotting-progress-in-ai/
И самое страшное для человека не только то, что эти графики становятся практически вертикальными - т.е. любая новая тема будет осваиваться ИИ всё быстрее и быстрее, а то, что правая верхняя часть - она не обнуляется, а накапливается.
Получается, что для новых поколений людей будущее уже будет состоять из сверхразумных ИИ, которые уже умеют все лучше, чем ты сможешь выучить за всю жизнь.
https://contextual.ai/plotting-progress-in-ai/
И самое страшное для человека не только то, что эти графики становятся практически вертикальными - т.е. любая новая тема будет осваиваться ИИ всё быстрее и быстрее, а то, что правая верхняя часть - она не обнуляется, а накапливается.
Получается, что для новых поколений людей будущее уже будет состоять из сверхразумных ИИ, которые уже умеют все лучше, чем ты сможешь выучить за всю жизнь.
🤔2😨1
Руководство по внедрению Microsoft Copilot Studio
Microsoft Copilot Studio приобретает популярность и успешно внедряется в организациях по всему миру.
Руководство помогает согласовывать проекты с дорожной картой продукта и выявлять риски.
Включает в себя контрольные вопросы, рекомендации, лучшие практики и примеры архитектур.
Процесс оценки выполнения основан на принципах фреймворка Success by Design.
Руководство можно использовать независимо заказчиками и партнёрами.
Это живой документ, который обновляется в течение всего жизненного цикла проекта.
Цель - обеспечить успешное преобразование с помощью комплексного инструмента реализации Microsoft Copilot Studio.
Может быть полезно не только для понимания как работает Copilot но и для планирования собственной архитектуры ИИ проектов.
#Microsoft #CopilotStudio #архитектураИИ
Microsoft Copilot Studio приобретает популярность и успешно внедряется в организациях по всему миру.
Руководство помогает согласовывать проекты с дорожной картой продукта и выявлять риски.
Включает в себя контрольные вопросы, рекомендации, лучшие практики и примеры архитектур.
Процесс оценки выполнения основан на принципах фреймворка Success by Design.
Руководство можно использовать независимо заказчиками и партнёрами.
Это живой документ, который обновляется в течение всего жизненного цикла проекта.
Цель - обеспечить успешное преобразование с помощью комплексного инструмента реализации Microsoft Copilot Studio.
Может быть полезно не только для понимания как работает Copilot но и для планирования собственной архитектуры ИИ проектов.
#Microsoft #CopilotStudio #архитектураИИ
Курс по LLM от mlabonne
Детальный качественный курс, даже скорее энциклопедия, для тех, кто хочет научиться работать с LLM.
Делится на Основы LLM, Ученый LLM и Инженер LLM.
Каждый раздел включает в себя блокноты с кодом, статьи и разъяснения.
Основы LLM
- Математика для МЛ: линейная алгебра, исчисления, статистика и вероятности.
- Python для МЛ: основы Python, обработка данных и библиотеки МЛ.
- Нейронные сети: Основы архитектуры, обучение, оптимизация и переобучение.
- Обработка естественного языка (NLP): Вводная информация, методы извлечения признаков, вложения слов и РНС.
Ученый LLM
- Архитектура LLM: Общий обзор архитектуры Transformer, токенизации, механизмов внимания и генерации текста.
- Создание инструкционного набора данных: Техники для создания наборов данных.
- Предварительное обучение моделей: Обзор обучения с акцентом на конвейерах данных и каузальном моделировании языка.
- Fine-Tuning: Техники, такие как fine-tuning, LoRA, QLoRA, Axolotl и DeepSpeed.
- Обучение с подкреплением от человеческого отзыва (RLHF).
- Оценка: Обсуждение метрик, общих и специфических бенчмарков, а также оценки человеком.
- Квантование: Введение в техники квантования для LLM.
- Новые тенденции: позиционные вложения, слияние моделей, группы экспертов и мультимодальные модели.
Инженер LLM
- Запуск LLM: API для LLM, открытые LLM, инженерия запросов и структурирование вывода.
- Создание векторного хранилища: Этапы создания векторного хранилища для увеличения эффективности генерации (RAG).
- Генерация с поиском: Объяснение оркестраторов, поисковиков, память и RAG.
- Продвинутый RAG: построение запросов, агентов и инструментов, а также постобработку.
- Оптимизация вывода: Flash Attention, кэш ключевых-значений и спекулятивное декодирование (использование малых моделей для генерации пред-ответов).
- Развертывание LLM: Локальное, демо, развертывание сервера и на эдж устройствах.
- Безопасность LLM: Обсуждает взлом запросов, закладки и защитные меры.
Курс - огонь!🤓
#GitHub #LLMCourse #MLabonne
------
@tsingular
Детальный качественный курс, даже скорее энциклопедия, для тех, кто хочет научиться работать с LLM.
Делится на Основы LLM, Ученый LLM и Инженер LLM.
Каждый раздел включает в себя блокноты с кодом, статьи и разъяснения.
Основы LLM
- Математика для МЛ: линейная алгебра, исчисления, статистика и вероятности.
- Python для МЛ: основы Python, обработка данных и библиотеки МЛ.
- Нейронные сети: Основы архитектуры, обучение, оптимизация и переобучение.
- Обработка естественного языка (NLP): Вводная информация, методы извлечения признаков, вложения слов и РНС.
Ученый LLM
- Архитектура LLM: Общий обзор архитектуры Transformer, токенизации, механизмов внимания и генерации текста.
- Создание инструкционного набора данных: Техники для создания наборов данных.
- Предварительное обучение моделей: Обзор обучения с акцентом на конвейерах данных и каузальном моделировании языка.
- Fine-Tuning: Техники, такие как fine-tuning, LoRA, QLoRA, Axolotl и DeepSpeed.
- Обучение с подкреплением от человеческого отзыва (RLHF).
- Оценка: Обсуждение метрик, общих и специфических бенчмарков, а также оценки человеком.
- Квантование: Введение в техники квантования для LLM.
- Новые тенденции: позиционные вложения, слияние моделей, группы экспертов и мультимодальные модели.
Инженер LLM
- Запуск LLM: API для LLM, открытые LLM, инженерия запросов и структурирование вывода.
- Создание векторного хранилища: Этапы создания векторного хранилища для увеличения эффективности генерации (RAG).
- Генерация с поиском: Объяснение оркестраторов, поисковиков, память и RAG.
- Продвинутый RAG: построение запросов, агентов и инструментов, а также постобработку.
- Оптимизация вывода: Flash Attention, кэш ключевых-значений и спекулятивное декодирование (использование малых моделей для генерации пред-ответов).
- Развертывание LLM: Локальное, демо, развертывание сервера и на эдж устройствах.
- Безопасность LLM: Обсуждает взлом запросов, закладки и защитные меры.
Курс - огонь!
#GitHub #LLMCourse #MLabonne
------
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Orion 14B: Новая базовая (и возможно огненная) LLM-модель от производителя подносов.
Это не шутка, это вполне себе интересная новость начала 2024 года.
Давайте по порядку.
Вышла новая базовая LLM-модель Orion 14B, которая обучена на 2.5Т многоязычном корпусе текстов, включая китайский, английский, японский, корейский и демонстрирует отличную производительность на этих языках. Есть файнтюн для чата, отлично работает при длине токена 200 тыс. и может поддерживать максимум 320 тыс.
Полный фарш из модификаций.
Orion-14B-Base
Orion-14B-Chat
Orion-14B-LongChat
Orion-14B-Chat-RAG
Orion-14B-Chat-Plugin
Orion-14B-Base-Int4
Orion-14B-Chat-Int4
Гики могут воспроследовать сюда, поглядеть спеки, скачать веса и даже есть демо (утром работало очень быстро).
https://huggingface.co/OrionStarAI/Orion-14B-Base
Демо:
https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo-EN
Теперь интересное.
Авторы модели (не файнтюна), а базовой кошерной модели - компания OrionStar. Которые производят роботов. В основном роботы-тележки-с-подносами. Которые бегают на выставках или в бизнесс-центрах и даже в аэропортах. См шапку.
Где они собирали датасеты неводомо из пдфки (ведомо что 90% - это китайский и английский). Но подумайте, производитель робототележек выпускает свою LLM!
Не стартап на сто миллионов, не гугль или микрософт. Просто промышленная компания.
Итого, что мы ожидаем в 2024 году? Полчища опен-сорсных моделей от компаний, у которых просто есть ресурсы. И это могут быть ЛЮБЫЕ крупные(пока) компании. А не только универы со стартапами и фаанги.
Не зря CBInsights пишут, что open source потихоньку сокращает разрыв с closed sourse - разрыв никуда не денется, но будет и дальше сокращаться.
Ну и следующий тренд - LLM-ки для инференска на телефонах.
Собираюсь разобрать 112 страниц этого отчета, но дайте время.
Немного смутило одно. В бенчмарках ни одного сравнения с Мистралем.
Хотите больше инфо, гляньте тут:
https://www.reddit.com/r/LocalLLaMA/comments/19ce7kw/a_new_base_model_orion_14b_trained_on_25t_tokens/
Это не шутка, это вполне себе интересная новость начала 2024 года.
Давайте по порядку.
Вышла новая базовая LLM-модель Orion 14B, которая обучена на 2.5Т многоязычном корпусе текстов, включая китайский, английский, японский, корейский и демонстрирует отличную производительность на этих языках. Есть файнтюн для чата, отлично работает при длине токена 200 тыс. и может поддерживать максимум 320 тыс.
Полный фарш из модификаций.
Orion-14B-Base
Orion-14B-Chat
Orion-14B-LongChat
Orion-14B-Chat-RAG
Orion-14B-Chat-Plugin
Orion-14B-Base-Int4
Orion-14B-Chat-Int4
Гики могут воспроследовать сюда, поглядеть спеки, скачать веса и даже есть демо (утром работало очень быстро).
https://huggingface.co/OrionStarAI/Orion-14B-Base
Демо:
https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo-EN
Теперь интересное.
Авторы модели (не файнтюна), а базовой кошерной модели - компания OrionStar. Которые производят роботов. В основном роботы-тележки-с-подносами. Которые бегают на выставках или в бизнесс-центрах и даже в аэропортах. См шапку.
Где они собирали датасеты неводомо из пдфки (ведомо что 90% - это китайский и английский). Но подумайте, производитель робототележек выпускает свою LLM!
Не стартап на сто миллионов, не гугль или микрософт. Просто промышленная компания.
Итого, что мы ожидаем в 2024 году? Полчища опен-сорсных моделей от компаний, у которых просто есть ресурсы. И это могут быть ЛЮБЫЕ крупные(пока) компании. А не только универы со стартапами и фаанги.
Не зря CBInsights пишут, что open source потихоньку сокращает разрыв с closed sourse - разрыв никуда не денется, но будет и дальше сокращаться.
Ну и следующий тренд - LLM-ки для инференска на телефонах.
Собираюсь разобрать 112 страниц этого отчета, но дайте время.
Немного смутило одно. В бенчмарках ни одного сравнения с Мистралем.
Хотите больше инфо, гляньте тут:
https://www.reddit.com/r/LocalLLaMA/comments/19ce7kw/a_new_base_model_orion_14b_trained_on_25t_tokens/
🔥1🤔1