Neural Networks | Нейронные сети
1.61K subscribers
117 photos
33 videos
19 files
628 links
Нейронные сети в действии! Обучающие материалы и эксперименты. Также подписывайтесь на группу VK: https://vk.com/neurolearn

📨 Сотрудничество: @thelans
Download Telegram
FractalGPT задумывается как первый настоящий прототип AGI (Сильного ИИ).

Наша цель.
Создать ИИ модель лучше, чем ChatGPT. FractalGPT сможет кардинально лучше решать задачи математики, физики, понимания логики суждений и будет делать это надежнее, с прогнозируемой точностью.

Вот краткий перечень принципов и компонентов, на которых FractalGPT будет построен:
1. Целеполагание (строит модель целей свою и собеседника)
2. Умение логически “мыслить”
3. Мотивация (имеет внутреннюю потребность к саморазвитию)
4. Планирование своего поведения
5. Умение выражать и испытывать эмоции
(список не полный, некоторые принципы не раскрываем)

Статус.
В составе небольшой команды ML разработчиков мы уже собрали микро-MVP. Разработана принципиальная архитектура системы, построена модель функционирования. Составлен план разработки.

Подробнее можно прочитать в Гугл доке (а там мы разобрали: Архитектура, Проблема, Решение, Научная новизна, Области применения)

https://docs.google.com/document/d/1Pw6V5-Z6s0aelJQCdK_kQ_mhKj75VTZO/edit?usp=sharing&ouid=109791202896921426720&rtpof=true&sd=true

Где узнать больше информации?

👉Заходите в наш специальный Телеграм чат по FractalGPT: https://tttttt.me/fractal_gpt
👉 VK: https://vk.com/fractalgpt
👉Для early adopters открыта запись на демо, заполните форму: https://forms.yandex.ru/u/63f35bcbeb6146b4d00a2011/

#machinelearning #ai #машинноеобучение #neuralnetworks #нейронныесети #буднипрограммиста
Как пользоваться AI Midjourney Бесплатно, Бесконечно, Без Регистрации, Тет-А-Тет
👉Официальный сервер в AI Midjourney: https://discord.com/invite/midjourney
👉Сайт: https://www.midjourney.com/home/
👉Видео: https://youtu.be/nO8DYb4OxAI
Некоторая подборка про Midjourney.
Сайт: https://midjourney.com/
Регистрация: https://youtu.be/Zd37rCECTFQ
Вы можете сгенерировать только 25 изображений, после чего, нейросеть предложит купить подписку, которую вы не сможете оплатить проживая в РФ. Поэтому нужно просто перезаходить в бота в режиме инкогнито.

Идея использования ИИ MidJourney: https://youtu.be/Jkr-VSAL4Tw

Ссылка на полезные промты: https://midjourney-prompt-helper.netlify.app/
Промты визуально: https://promptomania.com/midjourney-prompt-builder/
Ещё промты: https://github.com/willwulfken/MidJourney-Styles-and-Keywords-Reference
This media is not supported in your browser
VIEW IN TELEGRAM
Думать больше не надо — нейросети думают за вас.

Зацените, какую крутую штуку замутили ребята из Whimsical — в сервис встроили нейронку (возможно, ChatGPT), которая позволяет строить майндмапы для презентаций в один клик по волшебным звездочкам.

Выглядит нереально круто, у Miro аналогичная функция пока в закрытой бете.
Гарвард CS50 Искусственный Интеллект на русском.
Этот курс начинается там, где заканчивается основной курс CS50 и он посвящен концепциям и алгоритмам, находящимся в основе современного ИИ.
Мы затронем такие темы как: поиск оптимальных решений, оптимизация, анализ данных, нейронные сети, обработка естественного языка и многое другое.
https://youtu.be/vKPdq0xDeXk
Forwarded from Alexandra Moiseeva
24 и 25 мая в Технопарке “Сколково” пройдет Всероссийский молодежный телеком и IT-фестиваль #Мы_На_Связи — первое масштабное мероприятие для студентов IT-специальностей и начинающих специалистов!

Фестиваль примет более 2000 студентов из более чем 50 вузов, а представители более 150 российских IT-компаний расскажут молодежи о возможностях развития в отрасли. Студенты и начинающие специалисты погрузятся в мир новых технологий, познакомятся с лидирующими телеком и IT-предприятиями, достижениями индустрии, а также узнают о карьерных возможностях.

На фестивале #Мы_На_Связи вас ждет:
→ больше 250 топовых спикеров с актуальными темами;
→ более 15 треков: Карьера, Микроэлектроника, Телеком технологии, Квантовые технологии, VR&AR, Робототехника, Искусственный интеллект и многие другие;
→ интерактивные зоны: хакатоны, мастер-классы, киберполигон, зоны паяльников и робототехники;
→ спортивные активности;
→ возможности для демонстрации своих проектов;
→ деловой форум, открытые лектории, выставочная экспозиция и круглые столы.

Подробная информация и регистрация мынасвязи.орг
Учите ML вместе с ШАД!
Учебник по машинному обучению здесь: https://academy.yandex.ru/handbook/ml
Онлайн-учебник по машинному обучению от ШАД — для тех, кто не боится математики и хочет разобраться в технологиях ML. Вы изучите классическую теорию и тонкости реализации алгоритмов, пройдя путь от основ машинного обучения до тем, которые поднимаются в свежих научных статьях. В учебник будут добавляться новые главы, поэтому следите за обновлениями, а ещё лучше подписывайтесь на новости.
Forwarded from Каталог Каналов
🚀 залетай на уникальный канал в котором собрана вся самая актуальная и свежая информация. Теперь самая первая информация по целому списку разных интересных тематик доступна в одном месте - FinVeitas - авторский канал № 1 в telegram по целому ряду новостей:


⚙️ финансовые технологии - от и до

👨🏻‍💻 финансовые услуги - все виды

📱 Big Data - "большие данные"

🦾 искусственный интеллект и машинное обучение

🤖 роботизация - все новости

🧩 блокчейн - от а до я

🌩 облачные технологии - свежая инфа

👁 биометрия и другие новости



📰 Самые актуальные новости о блокчейне и нейросетях!

📰 Почему у банков проблемы с биометрией?

📰 Как 6G незаметно вводят в РФ?

📰 Rosa Mobile - убийца Android и iOS?
💥 Стартовал прием заявок на участие в Хакатоне «Uralsib Hack: генеративный интеллект в банках"

📍Команда от 1 до 5 человек
👥 Экспертные консультации
🎓 Акселерационная программа в рамках хакатона "Лидеры инноваций"
💸 Призовой фонд 300 000 рублей
💰 Грант до 5 000 000 рублей

Кому будет интересен данный хакатон:
- ИТ-специалистам, желающим строить карьеру в банковской отрасли;
- специалистам по нейросетевым моделям;
- проджект-менеджерам;
- представителям экономических и гуманитарных специальностей, желающим попробовать силы в совместной работе с ИТ-специалистами.

‼️Не упустите возможность подать заявку и принять участие в хакатоне «Uralsib Hack: генеративный интеллект в банках". Регистрация открыта до 06.06.2023 г. включительно: https://uralsibhack.ru

💥 Присоединяйтесь к нам, чтобы вместе создать инновационные решения, расширить возможности генеративного интеллекта в банковской сфере и внести вклад в будущее финансового сектора!
https://uralsibhack.ru
Друзья, хотим поделиться с вами общей папкой каналов про ИТ. Тут мы собрали все, что может быть интересно: тематические мероприятия, аналитика, QA, нейронные сети, а также авторские каналы про мир больших данных и разработки.

😎 Скорее нажимайте на ссылку, добавляйте себе папку и будьте в курсе всего самого любопытного и необычного в ИТ-индустрии!

📌 Внимание: чтобы все работало, важно установить последнюю версию Telegram
🖥 GPT-3.5 Turbo теперь можно дообучать самостоятельно для конкретных задач

GPT-3.5 Turbo от OpenAI получил обновление, позволяющее самостоятельно дообучать модель для использования в своих приложениях, что позволит разработчикам возможность максимально раскрыть потенциал GPT-3.5.

Теперь разработки могут делать файнтюнинг параметров модели для совершенствования производительности и точности работы модели в своих сферах применения. Первые тесты показывают, что тонко настроенный GPT-3.5 Turbo соответствует или превосходит базовые метрики GPT-4 для конкретных задач.

На тестах выяснилось, что дообучение позволит компаниям сократить длину запросов при сохранении аналогичной эффективности: тестировщики смогли сократить размер запросов на 90%, внедряя инструкции непосредственно в модель, что ускоряет каждый вызов API и сокращает затраты. Дообученные модели обрабатывают контексты из 4 тыс. токенов, вдвое увеличивая предыдущую емкость, что также ускоряет вызовы и снижает затраты на использование API.

📌 Подробнее

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Конференция "Импульс T1".

19 октября в Санкт-Петербурге мы проведем IT-конференцию «Импульс Т1», где можно будет познакомиться с топовыми экспертами из сферы инноваций, запитчить свои проекты руководителям ведущих компаний, послушать полезные лекции и даже выиграть поездку в Москву на главный «Импульс Т1» этого года.

Подробнее о конференции можно почитать здесь: https://impulse.t1.ru/
erid: LdtCKAHX8
18+ Реклама. ООО «Т1»
ОГРН 1197746617419
The Dawn of LMMs: Preliminary Explorations with GPT-4V(ision)
Zhengyuan Yang, Linjie Li, Kevin Lin, Jianfeng Wang, Chung-Ching Lin, Zicheng Liu, Lijuan Wang
Статья: https://arxiv.org/abs/2309.17421

Microsoft разродился 166-страничной статьёй про анализ способностей GPT-4V, идейно похожей на широко известную их же (но других авторов) 155-страничную статью про “Sparks of Artificial General Intelligence: Early experiments with GPT-4” (https://arxiv.org/abs/2303.12712).

Как известно, GPT-4 (https://tttttt.me/gonzo_ML/1383) в оригинале была обучена (ещё в 2022-м) как картиночно-текстовая модель, умеющая на входе принимать картинки в дополнение к тексту, и в оригинальной работе даже было несколько клёвых демонстраций (https://tttttt.me/gonzo_ML/1398). С марта 2023 избранные получили к ней доступ (как Microsoft, сделавший тогда статью про Sparks of AGI, хотя они щупали даже ещё более ранние версии). В API оно правда пока так и не появилось, зато на днях (https://tttttt.me/gonzo_ML/1901) OpenAI анонсировали поддержку изображений и звука в ChatGPT, а также наконец опубликовали (https://tttttt.me/gonzo_ML/1902) карточку модели GPT-4V (GPT-4 with vision).

Можно, наверное, ожидать, что скоро это наконец появится и в API. И вообще, не стрёмно сделать краткосрочный прогноз, что 2024-й год будет годом картиночно-текстовых (а может ещё и +аудио) моделей: GPT-4, Gemini (https://tttttt.me/gonzo_ML/1547) которую по слухам уже тестируют избранные клиенты, опенсорсные реимплементации Flamingo (https://tttttt.me/gonzo_ML/941) которых тоже уже есть по крайней мере пара, Microsoft Kosmos-1 (https://tttttt.me/gonzo_ML/1364) и 2, и стопудово ещё что-то появится. А когда и генерить смогут мультимодально, картинки + текст + …, то вообще бомба будет. До этого тоже, кажется, не очень далеко уже.

Если посмотреть в карточку GPT-4V (https://cdn.openai.com/papers/GPTV_System_Card.pdf), то там фокус на безопасности модели и подготовку её к широкому выкатыванию. Среди ранних тестеров были также Be My Eyes, разрабатывающая тулы для людей с нарушениями зрения. К сентябрю 2023 в бета-тестировании участвовало уже 16к пользователей оттуда, и за время тестирования модель удалось неплохо прокачать на предмет уменьшения галлюцинаций и ошибок.

Модель много анализировали на предмет опасного контента, privacy, кибербезопасности и проходе капчи, изучали мультимодальные джейлбрейки. GPT-4V даёт отказ (refusal) в большем проценте опасных запросов, чем GPT-4 во время релиза, а в сочетании с неописанной Refusal System достигает 100% на некоторых внутренних тестах типа джейлбрейков.

Был большой ред тиминг с фокусом на 6 областей: Scientific proficiency, Medical advice, Stereotyping and ungrounded inferences, Disinformation risks, Hateful Content, Visual vulnerabilities. В работе есть чуть более подробное описание проблем и результатов этих направлений. Видно, что проделали большую работу, и результаты свежей версии GPT-4V стали лучше.

Работа “The Dawn of LMMs: Preliminary Explorations with GPT-4V(ision)” ещё интереснее.

GPT-4V может работать с несколькими картинками и чередовать картинки с текстом. У модели есть несколько режимов промптинга.

Во-первых, она может следовать текстовым инструкциям, включая Constrained prompting (например, запросить выдачу в JSON для фото водительских прав) или Condition on good performance, что настраивает LLM на успешное решение задачи, а не на какое-то (“You are an expert in counting things in the image. Let’s count the number of apples in the image below row by row to be sure we have the right answer.” -- блин, ну реально NLP, то самое, что с Гриндером и Бендлером 😁).

Можно делать Visual Pointing, передавая координаты внутри изображения или указывая на регионы как-то ещё: стрелочками, выделением прямоугольником или кружочком и т.п. Авторы предлагают метод взаимодействия с моделью под названием “visual referring prompting.”

Промптинг может быть совмещённым текстовым + визуальным и довольно гибким за счёт возможности перемежать текст с картинками. Например, можно делать текстово-картиночный few-shot learning, добавляя визуальные примеры.