Технозаметки Малышева
8.27K subscribers
3.73K photos
1.4K videos
40 files
3.92K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Нейросимволическая архитектура и ускорение обучения в 700 раз.

Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.

Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.

Отсюда два следствия.

Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.

Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.

Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html

Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.

Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.

В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.

Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.

Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".

Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
Nvidia обходит GPT-4 с моделью ChatQA

Команда Nvidia представила ChatQA, новый конкурент GPT-4.
ChatQA базируется на методике настройки инструкций, делая акцент на уменьшение 'галлюцинаций'.
Методика включает в себя плотный поиск ответов и донастройку модели без синтетических данных.
ChatQA показала лучшие результаты на тестах по сравнению с GPT-4, особенно в задачах 'unanswerable'.

В некоторых тестах. на долю процента, но успех есть.
Интересно, что NVidia выводит на рынок своего трансформера.
На фоне того как МС собирается делать свои процессоры.

#Nvidia #ChatQA #GPT4
IBM Consulting Advantage - AI ассистент для консультатов

IBM представила IBM Consulting Advantage, инновационную платформу искусственного интеллекта и библиотеку помощников, предназначенную для повышения эффективности консультантов.

Модели обучены на базе данных IBM и включают индивидуально подобранные запросы, модели и форматы вывода, сгруппированные по отраслевым вертикалям.

Повышает производительность консультантов на 50%.

#IBM #AI #ConsultingAdvantage
🤔1
Forwarded from 42 секунды
Bloomberg: Accenture откроет десять AI-хабов по всему миру

– Accenture намерена открыть 10 инновационных AI-хабов
– Один из десяти новых центров будет запущен в Лондоне
– Accenture называет UK одним из самых важных рынков
– Главной целью за 2024 для Accenture будет рост бизнеса
– Компания намерена извлечь выгоду из популярности ИИ
– Она хочет удвоить число ИИ-специалистов до 80 тыс. чел.
– Общий мировой штат Accenture составляет 743 тыс. чел.
– Ее инвестиции в область ИИ за 3 года составят $3 млрд

@ftsec
Миллиард роботов-гуманоидов к 2040 году: видение Илона Маска

Миллиардер Илон Маск поделился прогнозом о появлении миллиарда роботов-гуманоидов на Земле к 2040 году.
Основания для подобных прогнозов подтверждаются разработками компании Tesla в сфере робототехники.
Прототип робота Tesla Optimus оценивается в 20 000 долларов.
Маск предсказывает производство миллионов таких единиц в будущем.
Создание гуманоидов, по словам Маска, расширяет миссию Tesla и не направлено на прямое достижение устойчивой энергетики.
Ожидается дальнейшее совершенствование Optimus, который через 5-10 лет станет невероятно мощным.

Если слова Маска станут реальностью, на улицах можно будет встретить столько же роботов, сколько сегодня смартфонов!

#ElonMusk #TeslaOptimus #Robotics
Увеличивается скорость с которой ИИ достигает уровня человека и обгоняет его в различных областях

https://contextual.ai/plotting-progress-in-ai/

И самое страшное для человека не только то, что эти графики становятся практически вертикальными - т.е. любая новая тема будет осваиваться ИИ всё быстрее и быстрее, а то, что правая верхняя часть - она не обнуляется, а накапливается.

Получается, что для новых поколений людей будущее уже будет состоять из сверхразумных ИИ, которые уже умеют все лучше, чем ты сможешь выучить за всю жизнь.
🤔2😨1
Руководство по внедрению Microsoft Copilot Studio

Microsoft Copilot Studio приобретает популярность и успешно внедряется в организациях по всему миру.

Руководство помогает согласовывать проекты с дорожной картой продукта и выявлять риски.

Включает в себя контрольные вопросы, рекомендации, лучшие практики и примеры архитектур.

Процесс оценки выполнения основан на принципах фреймворка Success by Design.

Руководство можно использовать независимо заказчиками и партнёрами.

Это живой документ, который обновляется в течение всего жизненного цикла проекта.

Цель - обеспечить успешное преобразование с помощью комплексного инструмента реализации Microsoft Copilot Studio.

Может быть полезно не только для понимания как работает Copilot но и для планирования собственной архитектуры ИИ проектов.

#Microsoft #CopilotStudio #архитектураИИ
Курс по LLM от mlabonne

Детальный качественный курс, даже скорее энциклопедия, для тех, кто хочет научиться работать с LLM.

Делится на Основы LLM, Ученый LLM и Инженер LLM.

Каждый раздел включает в себя блокноты с кодом, статьи и разъяснения.

Основы LLM
- Математика для МЛ: линейная алгебра, исчисления, статистика и вероятности.
- Python для МЛ: основы Python, обработка данных и библиотеки МЛ.
- Нейронные сети: Основы архитектуры, обучение, оптимизация и переобучение.
- Обработка естественного языка (NLP): Вводная информация, методы извлечения признаков, вложения слов и РНС.

Ученый LLM
- Архитектура LLM: Общий обзор архитектуры Transformer, токенизации, механизмов внимания и генерации текста.
- Создание инструкционного набора данных: Техники для создания наборов данных.
- Предварительное обучение моделей: Обзор обучения с акцентом на конвейерах данных и каузальном моделировании языка.
- Fine-Tuning: Техники, такие как fine-tuning, LoRA, QLoRA, Axolotl и DeepSpeed.
- Обучение с подкреплением от человеческого отзыва (RLHF).
- Оценка: Обсуждение метрик, общих и специфических бенчмарков, а также оценки человеком.
- Квантование: Введение в техники квантования для LLM.
- Новые тенденции: позиционные вложения, слияние моделей, группы экспертов и мультимодальные модели.

Инженер LLM
- Запуск LLM: API для LLM, открытые LLM, инженерия запросов и структурирование вывода.
- Создание векторного хранилища: Этапы создания векторного хранилища для увеличения эффективности генерации (RAG).
- Генерация с поиском: Объяснение оркестраторов, поисковиков, память и RAG.
- Продвинутый RAG: построение запросов, агентов и инструментов, а также постобработку.
- Оптимизация вывода: Flash Attention, кэш ключевых-значений и спекулятивное декодирование (использование малых моделей для генерации пред-ответов).
- Развертывание LLM: Локальное, демо, развертывание сервера и на эдж устройствах.
- Безопасность LLM: Обсуждает взлом запросов, закладки и защитные меры.

Курс - огонь! 🤓

#GitHub #LLMCourse #MLabonne
------
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Orion 14B: Новая базовая (и возможно огненная) LLM-модель от производителя подносов.

Это не шутка, это вполне себе интересная новость начала 2024 года.
Давайте по порядку.

Вышла новая базовая LLM-модель Orion 14B, которая обучена на 2.5Т многоязычном корпусе текстов, включая китайский, английский, японский, корейский и демонстрирует отличную производительность на этих языках. Есть файнтюн для чата, отлично работает при длине токена 200 тыс. и может поддерживать максимум 320 тыс.
Полный фарш из модификаций.
Orion-14B-Base
Orion-14B-Chat
Orion-14B-LongChat
Orion-14B-Chat-RAG
Orion-14B-Chat-Plugin
Orion-14B-Base-Int4
Orion-14B-Chat-Int4

Гики могут воспроследовать сюда, поглядеть спеки, скачать веса и даже есть демо (утром работало очень быстро).
https://huggingface.co/OrionStarAI/Orion-14B-Base
Демо:
https://huggingface.co/spaces/OrionStarAI/Orion-14B-App-Demo-EN

Теперь интересное.
Авторы модели (не файнтюна), а базовой кошерной модели - компания OrionStar. Которые производят роботов. В основном роботы-тележки-с-подносами. Которые бегают на выставках или в бизнесс-центрах и даже в аэропортах. См шапку.

Где они собирали датасеты неводомо из пдфки (ведомо что 90% - это китайский и английский). Но подумайте, производитель робототележек выпускает свою LLM!

Не стартап на сто миллионов, не гугль или микрософт. Просто промышленная компания.

Итого, что мы ожидаем в 2024 году? Полчища опен-сорсных моделей от компаний, у которых просто есть ресурсы. И это могут быть ЛЮБЫЕ крупные(пока) компании. А не только универы со стартапами и фаанги.

Не зря CBInsights пишут, что open source потихоньку сокращает разрыв с closed sourse - разрыв никуда не денется, но будет и дальше сокращаться.

Ну и следующий тренд - LLM-ки для инференска на телефонах.

Собираюсь разобрать 112 страниц этого отчета, но дайте время.

Немного смутило одно. В бенчмарках ни одного сравнения с Мистралем.

Хотите больше инфо, гляньте тут:
https://www.reddit.com/r/LocalLLaMA/comments/19ce7kw/a_new_base_model_orion_14b_trained_on_25t_tokens/
🔥1🤔1
Forwarded from Code Learning
This media is not supported in your browser
VIEW IN TELEGRAM
Jan Ai — это бесплатная, локальная альтернатива ChatGPT, еще и без VPN.

Прогу можно установить прямо на ПК и взаимодействовать с множеством моделей. Подключение к сети не нужно. Модели могут писать тексты, кодировать и делать многое другое.

⤷ Ознакомиться на сайте

CodeLearning
🔥3👍1
Стартап для генерации голоса ElevenLabs стал единорогом

В начале этой недели ElevenLabs заявил о привлечении 80 миллионов долларов под руководством венчурного фонда Andreessen Horowitz, при участии Sequoia Capital, Smash Capital и SV Angel. После недавнего раунда стартап оценивается в 1,1 миллиарда долларов.

ElevenLabs применяет ИИ для генерации речи на более чем 20 языках. Недавно стартап рассказал о том, что люди смогут оцифровать свой голос, добавить его в библиотеку и получать вознаграждение когда кто-то его использует.

https://www.bloomberg.com/news/articles/2024-01-22/ai-voice-cloning-startup-elevenlabs-valued-at-1-1-billion?srnd=technology-vp


RoundBook — обзор мировых инвестиций в стартапы
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 ⚡️Подъехало актуальное: нейронка убирает любые вотермарки прямо в браузере. Дизайнеры, а также прочие редакторы, попытайтесь не кричать от счастья — сервис бесплатный, а готовый файл можно скачать в огромном исходном разрешении. Просто закидываете исходник и забираете чистый вариант. Отличный инструмент для работы со стоками и фотками из разных ресурсов.

Авторские права умерли тут.

🧩 #КаталогНейросетей
Please open Telegram to view this post
VIEW IN TELEGRAM
Google Chrome обогатился AI: от помощника по письму до организатора вкладок

AI-помощник в Chrome поможет сочинять отзывы и сообщения.
Функция группировки вкладок упростит навигацию по браузеру.
Система предложит собственные варианты для группировки активных вкладок.
Для табов будут предлагаться удобные названия и яркие эмоджи.
Персонализация браузера: создайте уникальные темы с помощью ИИ.
Новые AI-функции помогут в планировании защиты и аудио/видео подписях.
В обозримом будущем Chrome обещает интеграцию с новой AI моделью Gemini.

Браузерный искусственный интеллект делает шаг в нашу повседневную жизнь.

#GoogleChrome #AI #Gemini
👍1🔥1
Замена сотрудников на ИИ - дороже, чем думали

Исследование MIT показало, что автоматизация рабочих мест с помощью ИИ может стоить дороже, чем удержание сотрудников.
Только 23% заработной платы может быть экономически выгодно заменить на ИИ из-за высоких затрат на внедрение систем.
Автоматизация эффективна, если можно четко разделить автоматизируемые задачи от неавтоматизируемых.
Со временем экономическая ситуация может измениться, улучшая условия для внедрения ИИ.
Рекомендуется развивать политику переподготовки для смягчения удара по занятости.

Роботы подождут.

#MIT #AI #Automation
Microsoft выпустили сервис для проработки английской речи.

Reading Coach даст вам прочитать рассказ (можно использовать свою), а затем послушает, как вы читаете.

На услышанного ИИ покажет оценку, отметит слабые места и предложит отработать их.

Пробуем тут.

GeekNeural | #Useful
https://aicountdown.com/

Счётчик времени оставшегося до появления AGI

Основан на опросах интернет аудитории.

#AGI #final #countdown
Google представила модель Lumiere для создания видеоконтента

Lumiere создаёт реалистичные видео из текста или картинки с помощью архитектуры Space-Time U-Net.

Модель обеспечивает плавность и временнУю согласованность движения и переходов.

Масштабная обработка видео улучшает детализацию и качество и
позволяет анимировать изображения в выделенных областях.

За разработкой Lumiere стоит команда из Google и команды исследователей.

Выглядит симпатичнее чем Runway

Youtube промо

#Google #Lumiere #VideoGeneration
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
StreamDiffusion генерит картинку за 10 миллисекунд

Пайплайн решение на StreamDiffusion для интерактивной генерации в реальном времени.

Открытый код и демо на cumulo-autumn/StreamDiffusion.

Генерация в реальном времени - просто добрый вечер.

Новая единица измерения скорости генерации картинок - к/с - котиков в секунду.
тут вот 100 к/с

#GitHub #StreamDiffusion #RealTime
👍1
Nvidia превращает обычное видео в HDR с помощью ИИ

Nvidia запускает RTX Video HDR, позволяющую перевести видео из SDR в HDR.
Технология доступна для пользователей графических процессоров RTX через обновление драйвера.
Для использования функции необходим HDR-совместимый монитор и активированный HDR в Windows.
YouTube-ролики в 4K теперь могут выглядеть ещё насыщеннее, даже без исходного HDR.
Преобразование достигается благодаря тензорным ядрам графических процессоров RTX.
Nvidia продолжает улучшать визуальный опыт в играх, используя ИИ для повышения качества и оптимизации производительности.

на подходе Youtube в HDR, и ремастер Doom2 в RTX.

#Nvidia #RTXVideoHDR #AI
🔥1
Национальный центр кибербезопасности (NCSC) сообщает об усилении киберугроз вследствие прогресса ИИ

Ожидается рост атак с шифрователями за выкуп.
ИИ позволит киберпреступникам эффективнее осуществлять фишинг, делая письма более достоверными и уникальными.
ГенИИ может создавать убедительные документы и общаться не допуская возникнования признаков фишинга.
Поддельные электронные письма и запросы на сброс пароля становится сложнее из-за продвинутых ИИ и LLM.
Сокращается время на устранение уязвимостей из-за быстрой эксплуатации новых брешей киберпреступниками.
Сервисы ИИ понижают порог входа для хакеров, увеличивая масштабы и эффективность атак.

Великобритания инвестирует £2.6 миллиарда для укрепления защиты от передовых угроз.

С другой стороны ИИ может способствовать улучшению методов обнаружения атак и дизайна систем безопасности.

#NCSC #AI #Cybersecurity
👍1