Технозаметки Малышева
8.28K subscribers
3.72K photos
1.4K videos
40 files
3.91K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Уже успели заценить новую нейронку для генерации музыки и песен?

У SunoAI кажись появился нехилый такой конкурент. Udio генерит музыку и песни по промптам, а также может сама писать текст. Пока продукт в бете, можно бесплатно сгенерить 1200 треков длительностью 32 секунды.

Пробуйте и делитесь своими треками в комментах: https://www.udio.com/

@ppprompt
You.com добавил все последние модные модели!
Opus, Gemini 1.5 Pro, Command R+!

Го пробовать.

#youcom
------
@tsingular
1
AWS и NVIDIA развивают сотрудничество в области генеративного ИИ

AWS и NVIDIA расширяют 13-летнее партнерство в сфере облачных вычислений и ИИ.
AWS первой предложила GPU NVIDIA в публичном облаке и продолжает внедрять новейшие технологии.
Главы компаний обсудили предоставление разработчикам доступа к мощным генеративным ИИ-инструментам.
Анонсированы совместные инициативы:
- Инстансы на базе процессора NVIDIA Grace Blackwell
- Проект Ceiba - масштабируемый кластер для ИИ-исследований
AWS представила свои сервисы генеративного ИИ: Amazon Bedrock, PartyRock, Amazon Q и другие.
NVIDIA стала одним из первых участников новой программы AWS Generative AI Competency.

#AWS #NVIDIA #GenerativeAI
-------
@tsingular
🔥1
Sanctuary AI внедряет человекоподобных роботов на автозаводе Magna

Компания Sanctuary AI проводит пилотное внедрение своих человекоподобных роботов Phoenix на заводе европейского автопроизводителя Magna.
Magna производит автомобили для Mercedes, Jaguar, BMW и других брендов.
Компании Figure и Apptronik также тестируют своих роботов с BMW и Mercedes.
Magna инвестировала в Sanctuary AI в 2021 году, почти одновременно с анонсом человекоподобного робота от Илона Маска для заводов Tesla.
Робот Phoenix имеет рост 170 см, вес 70 кг и способен ходить на ногах.
Sanctuary AI особое внимание уделяет разработке ловких рук для выполнения сложных задач.
Пилот направлен на оценку улучшения стоимости и масштабируемости роботов с использованием возможностей Magna.

Человекоподобные роботы на автозаводах - новый тренд.

#SanctuaryAI #Magna #PhoenixRobot
-------
@tsingular
Ray Kurzweil & Geoff Hinton Debate the Future of AI | EP #95

В свежем эпизоде подкаста, Питер Х. Даймандис модерирует дебаты между Рэем Курцвейлом и Джеффом Хинтоном, посвящённые будущему искусственного интеллекта (ИИ).

Обсуждение касается глубоких проблем и возможностей, которые ИИ может предложить человечеству.

Основным моментом дебатов является вопрос о том, сможет ли ИИ достичь уровня сознательности и как это повлияет на общество. Курцвейл и Хинтон разделились в мнениях по поводу темпов развития ИИ и его влияния на будущее труда и образования.

Они также обсудили важность этических рамок в разработке ИИ, чтобы обеспечить его безопасное внедрение в социальную сферу.

Диалог между этими ведущими экспертами подчёркивает необходимость глубоких исследований и размышлений о будущем, которое формируется нашими технологическими выборами сегодня.

#Kurzweil #FutureOfAI #TechDebates
-------
@tsingular
Эндрю Нг 🧠💻 назначен в Совет директоров Amazon

Доктор Эндрю Нг, ведущий эксперт в области ИИ, машинного обучения и онлайн-образования, назначен в Совет директоров Amazon с 9 апреля 2024 года.
Он является управляющим генеральным партнером AI Fund, поддерживающей предпринимателей в сфере ИИ, лидером образовательной компании DeepLearning.AI, основателем Landing AI (ПО для компьютерного зрения), председателем и соучредителем онлайн-платформы Coursera.
Богатый академический и практический опыт Нга, включая более 200 научных работ по машинному обучению, робототехнике и смежным областям, поможет Amazon в решении перспектив и проблем, связанных с развитием ИИ.

Мощное усиление! Привлечение светил ИИ в топ-менеджмент - 🦾

#AndrewNg #AmazonBoard #MachineLearning
-------
@tsingular
с Днём Космонавтики! :)

#Dalle3
———
@tsingular
👍4
Forwarded from Salute AI
🔺 SAGE v1.1.0: генеративная коррекция текста

Улучшения: качество моделей улучшено на 10%, добавлен функционал коррекции пунктуации и регистра, проведены оптимизации для ускорения и сжатия полученных решений, добавлена разметка пунктуации в датасеты, а также новые метрики в библиотеке.

Новые модели:
▪️ Sage-fredt5-large: Базовая модель.
▪️ Sage-fredt5-95m: Дистиллированная версия FRED-T5-1.7B для эффективности.
▪️ Sage-mt5-large: Мультиязычная модель для работы с русским и английским языками.
▪️ Sage-m2m100-1.2B: Дообученная на естественных ошибках для повышения точности.

Библиотека:
▪️ SAGE
▪️ Документация

Научные публикации и доклады:

📖 Статья принята на конференцию EACL 2024
🌐 Доклад на Giga R&D Day

👉 Подробности в статье на Хабре

#SAGE #AGI_NLP #Собеседник

Подписывайтесь:
💬Salute AI: канал/группа
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Ничего себе.
Это реалтайм и полная задержка от голосовой команды до видео ответа - всего 1.5 секунды! С липсинком!!

Работает на 3060 12 GB
Nvidia на 8 GB, скорее всего, тоже хватит(!!)

Под капотом:
- STT: whisper.cpp large
- LLM: Mistral-7B-v0.2-Q5_0.gguf
- TTS: XTTSv2 wav-streaming
- lipsync: wav2lip-streaming
- Google: langchain google-serp

Код?
А пажалста:
github.com/Mozer/talk-llama-fast

Всем срочно ставить на выходных и тестировать.

Русский вариант: https://www.youtube.com/watch?v=ciyEsZpzbM8
Английский язык: https://www.youtube.com/watch?v=N3Eoc6M3Erg
2
Forwarded from МТС
GPT от МТС заняла 2 место в лидерборде альянса ИИ, обогнав вообще всех, потому что первое место — человеческий бенчмарк.

нейросетка, ты просто космос 🫶
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Тут вот интернетик кипит новостями про Apple AI-Focused M4 Chips Starting in Late 2024

Держите подробностей. 512 гиг объединенной памяти звучит солидно.

По слухам, Apple уже близка к производству процессора M4, и ожидается, что он будет представлен как минимум в трех основных вариантах. Чипы под кодовыми названиями Donan для младшего класса, Brava для среднего и Hidra для высшего. Чип Donan будет использоваться в MacBook Pro начального уровня, MacBook Air и Mac mini низкого уровня, а чипы Brava - в MacBook Pro и Mac mini высшего уровня.

Чип Hidra предназначен для Mac Pro, что позволяет предположить, что это чип уровня "Ultra" или "Extreme". Что касается Mac Studio, то Apple тестирует версии с еще не выпущенным чипом M3 и разновидностью процессора M4 Brava, который, предположительно, будет более высокого уровня, чем чипы M4 Pro и M4 Max "Brava".

Настольные компьютеры Mac версии M4 могут поддерживать до 512 ГБ объединённой памяти, что станет заметным скачком по сравнению с текущим лимитом в 192 ГБ.

Чипы M4 будут построены по тому же 3-нанометровому техпроцессу, что и чипы M3, но поставщик Apple компания TSMC, скорее всего, будет использовать улучшенную версию 3-нм техпроцесса для повышения производительности и энергоэффективности. Apple также планирует добавить значительно улучшенный нейронный движок с увеличенным количеством ядер для задач искусственного интеллекта.
Forwarded from эйай ньюз
🔥 Вышла Алиса нового поколения, которая научилась общаться как мудрый и внимательный собеседник

Про апгрейд из анонса: сейчас Алиса может ответить на 95% вопросов, тогда как раньше она отвечала на 40% и остальное предлагала найти в поиске. Все это потому что подключили новую модель – YandexGPT.

Общение тоже изменилось: Алиса научилась объяснять сложные вещи простыми словами, генерировать идеи и удерживать контекст беседы. Даже если пользователь отвлечется и через время задаст ей дополнительный вопрос.

Ещё выпустили опцию «Про» на мощнейшей на сегодня нейросети Яндекса — YandexGPT 3 Pro. Там есть все скиллы для брейншторма, придумывания концепций и даже виртуальная няня.

На русском языке, YandexGPT 3 Pro обходит GPT-3.5 Turbo в 58% случаях на side-by-side сравнениях.

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Подборка примеров от Google Cloud на Next24 - как ГенИИ применим в бизнесе.

Компании применяют ИИ-решения для улучшения обслуживания клиентов, повышения производительности сотрудников, творческих задач, анализа данных, создания кода и кибербезопасности.
Генеративные ИИ-агенты способны вести диалоги, рассуждать, обучаться и принимать решения совместно с человеком для выполнения конкретных задач.
Мультимодальность позволяет агентам работать с текстом, речью, видео, аудио, кодом и другими форматами.
ИИ-ассистенты помогают в обслуживании клиентов, повышении продуктивности, творчестве, анализе данных, разработке ПО и кибербезопасности.

100 кейсов из реальной жизни с примерами.
Самый частый вопрос - а нафига нам эта вандервуфля.
Тут такая быстрая шпаргалка - каталог.

#GoogleCloud #GenAI #каталог
-------
@tsingular
Китайский фотонный чип Taichi приближает эру искусственного общего интеллекта

Учёные из университета Цинхуа разработали революционный чип ИИ Taichi на основе фотонной интегральной схемы. 🌟
По сравнению с GPU Nvidia H100, Taichi в 1000 раз энергоэффективнее и достигает впечатляющей точности 91.89% на наборе данных Omniglot. 🧠
Модульная архитектура позволяет масштабировать Taichi до уровней производительности, необходимых для искусственного общего интеллекта (AGI). 🚀
Энергоэффективность Taichi - 160.82 ТОПС/Вт, что значительно превосходит предыдущие фотонные чипы.
Taichi открывает путь к масштабным фотонным вычислениям и продвинутым задачам AGI, используя гибкость и потенциал фотоники. 🔍

Похоже, гонка за AGI началась. Правда от теории до финального продукта еще пару лет может пройти.

#Taichi #PhotonicComputing #AGI
-------
@tsingular
🔥1
Google AI представила Patchscopes - новый подход к интерпретации крупных языковых моделей

Patchscopes обучает крупные языковые модели (LLMs) предоставлять объяснения своих скрытых представлений на естественном языке. 🤖💬
Это повышает прозрачность и понимание работы LLMs, помогая решить проблемы надежности. 🔍
Patchscopes объединяет и расширяет существующие методы интерпретируемости, позволяя получить представление о том, как LLMs обрабатывают информацию и делают предсказания. 🧩🔍
Эксперименты показали эффективность Patchscopes в различных задачах, включая предсказание следующего токена, извлечение фактов, объяснение сущностей и исправление ошибок. 📈🎯

Теперь можно будет вытащить из нейронки объяснение почему был сделан тот или иной вывод.

— Вы в пустыне, идёте и вдруг...
— Это тест?
— Да. Вы идёте по пустыне и вдруг...
— Какой?
— Что?
— Какой?
— Не имеет значения. Это абстракция.
— Как я туда попал?


#GoogleAI #Patchscopes #LLMinterpretability
-------
@tsingular
CodecLM от Google AI: генерация качественных синтетических данных для настройки LLM

Google AI представила CodecLM - инновационный фреймворк машинного обучения для генерации высококачественных синтетических данных.
Цель - настройка больших языковых моделей (LLM) под конкретные задачи пользователей. 🎯
CodecLM использует механизм кодирования-декодирования для трансформации инструкций в метаданные, направляющие генерацию синтетических данных. 🔄
Для улучшения качества применяются техники Self-Rubrics (добавление сложности) и Contrastive Filtering (отбор лучших пар инструкция-ответ).
CodecLM показал значительное улучшение способности LLM следовать сложным инструкциям на бенчмарках Vicuna и Self-Instruct. 📈
Это масштабируемая альтернатива трудоемкому ручному обучению LLM, повышающая точность выполнения задач. ⚡️

Когда реальных данных нет или недостаточно, - вполне полезно.

#CodecLM #SyntheticData #LLMAlignment
-------
@tsingular
Forwarded from Сиолошная
Свежий подкаст Dario Amodei (CEO Anthropic, один из главных конкурентов OpenAI) для NYT
(подкаст)(транскрипт)

Название подкаста было многообещающим («What if Dario Amodei Is Right About A.I.?»), но в топик, к сожалению, не так глубоко ушли. Выписал для себя несколько интересных тезисов, плюс, добавил свои мысли:

— На обучение моделей текущего поколения тратится $100M, мб +- 2 раза. Уже сейчас тренируются модели, обучение которых будет стоить $1B. Из этой информации выходит, что 1) скорее всего Claude 3 Opus — не миллиардная моделька 2) в конце 24-го — начале 25-го ждём бенгеров. А ещё это описание полностью бьётся с тем, что он говорил полгода назад. Всё по графику, короче.
— при этом прогноз на будущее он поправил: теперь в 2025-2026м году он предвидит обучение моделей стоимостью $5-10B — и это всё ещё до запуска суперкомпьютера OpenAI x Microsoft за 100 миллиардов!
— пока что на этот и следующий год, по его оценке, вычислительных мощностей его компании хватит, а вот после этого уже не ясно, и главное тут - сможет ли адаптироваться индустрия полупроводников.
— с точки зрения навыков модели, Dario предвидит наибольший рост метрик в тех задачах, где легко и быстро получить обратную связь. Программирование и математика под это определение попадают — в обоих можно быстро удостовериться, что ответ правильный, а заодно покритиковать решение. Взаимодействие с реальным миром - куда сложнее (вероятно, самое сложное).
— на сложении двадцатизначных чисел у Claude 3 качество примерно 99.9% (без внешних инструментов типа калькулятора или кода). Но если проверить данные, на которых обучается модель, то там качество сильно меньше. Это как будто бы играет на руку гипотезе, что модели уже могут производить более качественные данные, чем те, на которых они были обучены. Я к сожалению потерял ссылку, но видел статью с экспериментом, где модель учат на 100% неправильных примерах, и тем не менее её качество на новых примерах отлично от нуля. То есть по полностью неправильному она смогла начать хоть что-то решать
— соответственно, эти два тезиса объединяются в гармоничную картинку мира «давайте модели будут тренировать другие модели», особенно в задачках, где понятно, как оценивать ответ.
— Про то, как модель достигает хорошего качества в сложении чисел: Dario спекулирует, что все «правды» связаны в одну большую паутину мира, и держатся друг за друга. А каждая ложь, ошибка и неправда — она своя, особенная, и выбиается из этого. Согласно исследованиям, мы знаем, что модели знают, когда они врут/пишут неправду (это не означает, что они обманывают нас намеренно). Им пришлось научиться в этом разбираться во время обучения, чтобы понимать, делать ли предсказания с ошибкой или контекст требует чёткости. Это напомнило мне о недавней статье, где показывали, что если модели во время обучения показывать домен сайта, откуда взят текст, то качество работы повысится — потому что она, видимо, разбирается, что хрень а что полезно, и меньше обращает внимания на мусор. Вывод: каждый делает сам для себя 🤷‍♂️

Дальше обсуждается тема рисков AI в контексте дальнейшего развития, ждите следующий пост!
Please open Telegram to view this post
VIEW IN TELEGRAM
2
OpenAI открывает офис в Японии и выпускает GPT-4 на японском

Компания нацелена сотрудничать с японским правительством, компаниями и институтами для разработки безопасных ИИ-инструментов.
Тадао Нагасаки назначен президентом OpenAI Japan для интеграции в местное сообщество.
Выпущена специальная версия GPT-4 для японского языка, работающая в 3 раза быстрее и обеспечивающая улучшенный перевод и обобщение текстов.
Японские компании Daikin, Rakuten и TOYOTA Connected уже используют ChatGPT Enterprise для автоматизации процессов и анализа данных.
Город Йокосука применяет ChatGPT для повышения эффективности госуслуг, 80% сотрудников отмечают рост производительности.
OpenAI стремится помочь решить социальные проблемы региона, такие как депопуляция сельских районов и нехватка рабочей силы.

#OpenAI #Japan #GPT4
-------
@tsingular
👍1
Forwarded from эйай ньюз
Chatbot Arena: Альтман наносит ответный удар

Пару недель назад Claude 3 Opus сместил GPT-4 с вершины пищевой цепочки по общему рейтингу, но тут подоспели результаты новой GPT-4 Turbo 2024-04-09 в чатбот арене. Новая модель OpenAI смогла победить Opus, который продержался на первом месте чуть меньше трёх недель. Claude 3 Opus всё ещё лучше в отдельных задачах: понимании длинного контекста и китайском языке.

А ещё появились результаты DBRX, всё плохо: модель оказалась на 26 месте и отстаёт от Mixtral, у которого в два раза меньше параметров.

Под конец приведу цитату классика: "Сейчас я доверяю только двум бенчмаркам LLM: Chatbot Arena и разделу комментариев r/LocalLlama."

@ai_newz