Data Secrets
77.4K subscribers
6.04K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Мира Мурати в интервью Dartmouth Engineering:

«GPT3 – это интеллект малыша. GPT-4 соответствует знаниям старшеклассника. А GPT-5 будет иметь уровень PhD»


Как думаете, значит ли это, что GPT-5 тоже потребуется 5 лет, чтобы написать документ, который никто никогда не будет читать?
😁274🔥17🌚13👍65👨‍💻3🐳1💋1
История про то, как два 18-летних школьника привлекли $500 000 на разработку своего AI-стартапа

Несколько недель назад Кристофер Фицджеральд и Николас Ван Лэндшут закончили среднюю школу. Но сейчас, вместо того, чтобы наслаждаться каникулами и собирать вещи в колледж, они сидят и работают над своим AI-стартапом APIGen.

Идея создать его пришла к школьникам всего пару месяцев назад, и за это время они успели изучить рынок, сделать питчдеку и почти закончить MVP. Продукт нацелен на авто-генерацию API для бизнес-процессов и IoT устройств.

Со слов инвесторов, которые дали подросткам $500 тысяч:

«Мы пошли на встречу к этим детям, думая, что просто собираемся дать какие-то отеческие советы и поделиться опытом. А после двух часов их презентации мы вышли, думая, что это была лучшая презентация, которую мы слышали за последние пять лет.»


И кстати, 500к – это только под пресид раунд. Бету обещают выкатить в этом месяце. Удачи пожелаем?
👍20624193😁3🤯3🐳1🙈1
⚡️ Тем временем Андрей Карпаты готовит новый курс по LLM

Он уже сделал его анонс и показал учебную программу. В репозитории, где появится курс, самих лекций пока нет, лежит только ридми с темами. Тем не менее, репа уже набрала 5.5к звезд.

Программа действительно выглядит огненно: вся база современных LLM от attention до мультимодальности. Оцените сами ⬆️

А вот, кстати, список других полезных лекций Карпаты, которые стоит посмотреть.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12731👍1851
POV: ты попал в гости к Андрею Карпаты
🔥158😁65👍108👻6🤨3😍2🗿2👌1🌭1
Наткнулись на интересное исследование о способностях GPT-4 рассуждать на тему этики

Этика подразумевает в данном случае ответы на такие вопросы как "что такое добро и зло?", "что важнее, долг или счастье?" или решение таких загадок, как проблема вагона.

Сюрприз: люди оценивают этические рассуждения GPT выше, чем ответы известного эксперта по этике. Респонденты говорили, что они "более морально правильные, заслуживающие доверия, продуманные и точные".

Интересно также, что опрошенные часто догадывались, что им показывают ответы ИИ, но все равно голосовали за них. Более того, исследователи даже предположили, что безжизненность ответов GPT стала одним из факторов "выигрыша". Это в каком-то смысле логично: ведь проще верить в таких вопросах тому, у кого, как тебе кажется, нет эмоций, и кто не подвержен человеческому фактору.

Кстати, оказывается, для этики есть даже специальная модификация теста Тьюринга: Comparative Moral Turing Test. Знали?
55👍14🔥8🤓5😁3
Data Secrets
⚡️ Anthropic опять завозят революцию: бесплатный Claude 3.5 Sonnet уровня GPT-4o Вы только гляньте на бенчмарки: все, кроме 4o далеко позади, но и 4o отстает на большинстве тестов, в том числе в понимании изображений и графиков. По сравнению с прошлой моделью…
Завезли результаты с арены!

Claude 3.5 Sonnet с небольшой разницей вырвался на 1 место и обогнал GPT-4o на Coding лидерборде. В общем зачете на первом месте все еще OpenAI, Sonnet второй.

Организаторы обещают, что скоро обновится еще и вижн лидерборд. Ставим ставки, коллеги.
57👍14
Apple (как всегда по-тихому) выложила в опенсорс фундаментальную модель для изображений. 4М умеет:

➡️генерировать картинки
➡️создавать подписи
➡️сегментировать, обнаруживать объекты и вот это все
➡️строить карты глубины
➡️обрабатывать изображения по промпту

И много чего другого. Все в одном модальном окне, да еще и под лицензией Apache 2.0.

Статья | Код | Демо
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7110👍5👀1
А вы тоже часто видите новости про «в ходе опроса айтишников выяснилось, что каждый третий…», но сами никогда в таких опросах не участвовали? 😑

Если да, этот пост для вас. Наши друзья из Центра научной коммуникации ИТМО проводят анализ профессионального сообщества ML- и DS-специалистов в России.

Наконец-то можно приложить руку к честной статистике и высказать свое мнение о состоянии индустрии, лидерах рынка и в целом ML-карьере в России.

Чтобы поучаствовать, нужно просто пройти опрос (это займет примерно 5 минут). Конфиденциальность гарантируется. Именно ваше участие поможет сформировать полную картину, так что скорее тыкайте сюда и делитесь мнением.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍168🔥8🤪6🎉2🌚2🗿2😁11
А теперь давайте вместе оценим гениальную рекламу ML-фреймворка comet на конференции CVPR 2024
😁9116🔥12👍4😐4
Продолжается тренд на пихание в LLM логических задач. Пока все плохо.

Помните детскую задачку про козла, капусту и волка? Там нужно выяснить, как перевезти всех их через реку, чтобы никто никого не съел. Так вот, в твиттере коллективно выяснили, что LLM не справляются даже с мега-упрощенной версией задачи.

Вместо минимального количества переездов модели предлагают запутанные нелогичные варианты, игнорируя даже очень прозрачные подсказки.

Короче, все эти эксперименты усиливают непрекращающиеся дебаты об AGI и увеличивают количество сторонников мнения Яна Лекуна. Но с другой стороны это напоминает...👆
😁68👍15🔥95
Текущее положение все еще как-то так

Тем не менее, Anthropic простимулировали OpenAI хотя бы выпустить приложение на Mac и начать раскатывать полноценный голосовой режим. Правда, полностью он будет доступен только осенью (а обещали «couple of weeks»)…
👍33😁178🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
У нас для вас большой анонс!

Все вы знаете, что недавно мы запустили сайт datasecrets.ru с новостями и статьями из мира ML. Мы продолжаем его развивать и совершенствовать, и теперь хотим рассказать кое о чем большом, что мы так упорно делали последние месяцы…

И это… платформа для хакатонов. Да-да, теперь на нашем сайте можно будет участвовать в соревнованиях, практиковаться на продуктовых задачах и выигрывать призы!

Первый хакатон от нас стартует уже в ближайшее время. Приглашаем вас протестировать платформу и попробовать свои силы.

Поддержать наш энтузиазм можно по традиции реакцией — 🚀

А если вы или ваша компания давно хотели запустить свое соревнование, чтобы быстро прототипировать решение или получить свежие идеи для развития продукта, то напишите нам: @v2r8n
Please open Telegram to view this post
VIEW IN TELEGRAM
13622🔥144👍4🤪32👾1
Лучшая новость за сегодня: твиттерский спроектировал шаблон мемов в Glif

Claude 3.5 генерирует мем в виде json, с помощью Wojak Lora создается подходящее изображение, а потом все схлопывается вместе.

Получаются истинные шедевры. Пробуйте сами здесь.
🔥46😁1492👍2🤯2
В стиле OpenAI: на LMSYS арене снова появляются какие-то загадочные модели

На этот раз late-June-chatbot и im-also-a-late-June-chatbot. В ответ на вопрос «кто ты?» отвечает, что он Gemma (модель от Google).

Если это правда, Google тролят OpenAI за майские выходки с «im‑a-good‑gpt2-chatbot» и «im‑also‑a-good‑gpt2-chatbot». Если нет, то наоборот 😁

Так или иначе, в прошлый раз загадочный чатбот оказался в итоге GPT-4o. Возможно, в этот раз нам тоже стоит ожидать что-то новенькое.

Как думаете, кто бы это мог быть? 🖥 🖥
Please open Telegram to view this post
VIEW IN TELEGRAM
10125🤔8😁7👻3👍21🎉1🕊1🤝1
- Как вы стали таким успешным математиком?
- Я просто хотел побеждать в монополию
👏101😁87🔥12👍5🙈1
Ученые из Калифорнийского университета показали способ учить LLM без перемножения матриц

Перемножение матриц – основная операция в LLM из-за механизма внимания. Именно она тянет на себя большинство вычислительных затрат, и чем больше контекст и количество параметров – тем больше и больше перемножение матриц ест.

Чтобы это побороть, авторы (вдохновшись BitNet) внесли в архитекуру LLM три основных изменения:

– вместо традиционных чисел с плавающей запятой веса представляют из себя только числа из набора (-1, 0, 1)
– перепроектирован self-attention: теперь на его месте рекуррентный блок, в котором используются только базовые операции
– использован Gated Linear Unit (GLU) из LSTM – его адаптировали под триплетные веса.

В итоге получилось, что такие модели могут достигать перформанса привычных трансформеров, при этом мощно сокращая память и компьют. Кроме того, авторы показывают, что архитектура хорошо скейлится.

Доступен код, так что можно поиграться своими руками. Кроме того, советуем прочитать статью.
👍94🔥34🤔118❤‍🔥2