Data Secrets
77.4K subscribers
6.05K photos
593 videos
20 files
2.43K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Средняя зарплата ИИ-специалиста составляет $174 727

Это самая высокая зарплата среди IT-профессий по данным нового отчета Indeed. Оказалось, что если в вакансии есть слово «ИИ», зарплата сразу взлетает на 47%.

Само количество ИИ-вакансий тоже продолжает расти, за полтора года оно увеличилось на 306%. При этом соискателей таких вакансий стало больше на (внимание) 4000%.
👾34😁9👨‍💻63🤨3
Платформа Yandex Cloud запустила программу сертификации по облачным технологиям с учетом российских и международных стандартов.

Сертификат подтверждает знания в шести областях: базовые облачные технологии, хранение и обработка данных, DevOps и автоматизация, бессерверные вычисления, информационная безопасность и биллинг. Это как TOEFL для английского – один раз написал и надолго получил преимущество при найме.

Экзамен проводится в виде онлайн-тестирования из 65 вопросов. Для успешного прохождения нужно набрать не менее 70% верных ответов. А прокторинг, как и полагается в 2024 году, с ИИ под капотом.

Первый экзамен пройдет 11 апреля (ссылка на запись). Рекомендации по подготовке и участию можно глянуть здесь.
👍11🔥64🤯2🗿1
Haha classic 😕

Глава YouTube Нил Монах пассивно агрессивно предупредил OpenAI о том, что если SORA все-таки обучалась на роликах из YouTube, то это будет явным нарушением правил платформы.

Интересно во всей этой ситуации то, что Google тоже использует видео с YouTube для обучения своих моделей. А еще с сотен других сервисов. Ранее в ответ на иски об авторских правах компания объясняла, что все это честно, ведь их модели «трансформируют данные»…

Любопытно, не жмет ли теперь корпорации новая обувь?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁77👍107🙈6🍌1
Для всех тех, кто выбрал вариант perplexity в опросе выше – наша рекомендация чтива на выходные

Это свежее (совсем свежее, закончено на днях) издание книги Дениса Ротмана «Transformers for Natural Language Processing and Computer Vision».

Текст – шик. Отлично написано про все новейшие модели, включая GPT-4V. Темы включают разбор архитектур, разный тюнинг, работу с HF, RAG и даже AGI. Ну в общем, все самое горячее.

В комплекте еще и репозиторий с кодом и бест практисес туториалами.

Конечно, сама книга платная и в России недоступна. Но она есть в полном объеме на сайте O’Reilly, а там предусмотрен бесплатный пробный период на 7 дней (карту вводить не требуется). В общем, вы знаете, что делать.

Приятного чтения!
2513🔥9👍2
Илон Маск заявил, что Tesla представит Tesla Robotaxi 8 августа.

И у нас есть инсайдерская информация о том, что они уже тестируют технологию 👆
Please open Telegram to view this post
VIEW IN TELEGRAM
😁62👍6🔥42🫡1
Интересный кейс с INNER JOIN с собеседования

Довольно распространенные на собеседованиях SQL-задачки с подвохом обычно каким-то образом связаны с джойнами. Это именно на тема, которые очень многие понимают не совсем верно.

В карточках – один из таких загадочных кейсов на INNER JOIN. Показываем, как ожидания разбиваются о реальность, и рассказываем, почему так происходит.
👍68🔥208🤯2😁1🦄1
«Да у нас сильная команда: 25 ML-инженеров и один data-инженер»
😁128🔥119👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Мем дня: тут в Твиттере вспомнили, что в третьем Терминаторе Skynet захватил мир, располагая мощностью в 60 терафлопс.

Это менее двух современных RTX 3080.

Хьюстон…
😁135🔥85🕊2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
«Это самый мощный GPU в мире, на его R&D мы потратили примерно 10 миллиардов долларов.» – CEO Nvidia про новое поколение чипов.


Сколько-сколько? 😱
Please open Telegram to view this post
VIEW IN TELEGRAM
😨91👍1462🗿2
The New York Times удивили своей новой статьей: они рассказали о том, как техно-гиганты борются с нехваткой данных для обучения своих ИИ-моделей. Из особенно интересного:

– История начинается с того, что, оказывается, Whisper был разработан OpenAI не просто так, а с целью научиться транскрибировать YouTube видео, чтобы получить больше текстов для обучения GPT-4. Удачно убили двух зайцев, да?

– Google аналогично использовали видео с YouTube для обучения LLM. Кроме того, компания изменила пользовательское соглашение Google Docs и других своих инструментов так, чтобы была легальная возможность использовать данные и оттуда. Самое смешное: чтобы отвлечь внимание от нового соглашения, они выпустили его 1 июля, на выходных в честь Дня Независимости.

– В Meta вообще ничего не стесняются: они рассматривали возможность покупки крупного издательства и скупки лицензий на книги, чтобы без лишнего шума обучать на авторских текстах свои модели.

Короче, советуем прочитать текст полностью, в нем можно найти еще массу интригующих деталей. Вот ссылка.
👍54😁18🔥9🦄64🤯4
Спички Банаха

Был такой польский математик - Стефан Банах. Он сделал много всего великого (например, доказал теорему об открытом отображении). В Польше в честь него даже названа премия по математике.

А еще у него была интересная привычка. Про нее – эта классическая задачка по теорверу.

Кто решит первым?
👍35🤯85🔥4🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Супергерои в комиксах: 🦸
Супергерои в жизни:
👏47🌭12😁10🫡6🔥4😐4🤨1💅1
Хм, а что если сделать ансамбль из LLM?

Именно так подумали авторы новой статьи More Agents Is All You Need и доказали, что совместное использование нескольких LLM-агентов может на порядок повысить эффективность модели.

Работает просто: подаем промпт сразу нескольким агентам (без шеринга контекста), которые генерируют ответы. Затем к этим ответам применяем majority voting (то есть мнение большинства).

Работает превосходно, и можно понять почему: если модель выдает смесь галлюцинаций с правильными ответами, правильные ответы будут похожи, а галлюцинации - нет.

Чтобы оценить мощь, обратите внимание на график: когда размер ансамбля увеличивается до 15, Llama2-13B достигает точности Llama2-70B, а Llama2-70B и GPT-3.5-Turbo достигают точности, сравнимой с GPT-4.
👍63🔥237👏1
Внимание!

Мы нашли лучшее объяснение transfer learning.

Спасибо за внимание!
😁9210👍8👌3🔥1