В Google уволили целую команду Python разработчиков 😳
Конспирологи уже утверждают, что ИИ в Google способен полностью заменить разработчиков, и поэтому те больше компании не нужны.
На самом деле все проще. Google просто решили сократить косты и будут набирать новую команду в Мюнхене, где труд программистов в среднем дешевле.
Конспирологи уже утверждают, что ИИ в Google способен полностью заменить разработчиков, и поэтому те больше компании не нужны.
На самом деле все проще. Google просто решили сократить косты и будут набирать новую команду в Мюнхене, где труд программистов в среднем дешевле.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁114😨18👍9🤔7❤3🫡3
Forwarded from XOR
Дальше беспилотники восьми команд гонялись уже между собой, иногда врезаясь в стены и внезапно разворачиваясь. В итоге первым финишировал болид ребят из мюнхенского университета — им вручили приз $2.25 млн.
Самое время собирать команду XOR для участия, принимаем заявки.
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯35👍19🔥9❤2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите, какой модный 💅
Это Сэм Альтман в 2008 на презентации Apple рассказывает про приложение для шэринга локаций. Приложение было создано Loopt – первой компанией Альтмана, которую он основал еще в колледже.
Кстати, в 2012 Loopt чуть не обанкротился, но основатели успели вовремя продать компанию.
Это Сэм Альтман в 2008 на презентации Apple рассказывает про приложение для шэринга локаций. Приложение было создано Loopt – первой компанией Альтмана, которую он основал еще в колледже.
Кстати, в 2012 Loopt чуть не обанкротился, но основатели успели вовремя продать компанию.
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰40🤪24👍9😁5🌚4❤2💅2🔥1👀1
Data Secrets
Где взять данные? Этим вопросом хотя бы однажды задавался каждый из нас. Итак, подборка дата-ресурсов от редакции: 1. Kaggle. Не нуждается в представлении. Тысячи бесплатных датасетов. 2. Awesome Data Github репозиторий. Список открытых наборов данных…
+ 1 ресурс в коллекцию: датасеты для LLM
На многих примерах (в том числе на LLama-3 и Phi-3) мы уже видели, что развитие LLM = создание качественных корпусов данных.
Так вот. Тут разработчик из Лондона взял и описал в этом репозитории все датасеты для предобучения или файнтюнинга LLM в формате таблицы: ссылка, размер, авторы, дата и личные пометки.
Кроме того, там есть указания, как собрать свой собственный качественный датасет, и что вообще значит «качественный».
Одним словом - кайф. Забирайте себе.
На многих примерах (в том числе на LLama-3 и Phi-3) мы уже видели, что развитие LLM = создание качественных корпусов данных.
Так вот. Тут разработчик из Лондона взял и описал в этом репозитории все датасеты для предобучения или файнтюнинга LLM в формате таблицы: ссылка, размер, авторы, дата и личные пометки.
Кроме того, там есть указания, как собрать свой собственный качественный датасет, и что вообще значит «качественный».
Одним словом - кайф. Забирайте себе.
🔥55❤12👍10
Загадка века: на LMSYS арене появилась таинственная модель gpt2-chatbot, которая лучше gpt-4
На самом лидерборде модель пока не отображается, но в разделе Direct Chat с ней можно поболтать. Энтузиасты уже потестили бота, и вот что нам известно:
☯️ С большинством задач модель действительно справляется лучше, чем gpt-4. Например, она без подсказок щелкнула олимпиадную задачу по математике.
☯️ Непонятно, кто выпустил модель, но несколько критериев (в том числе общие рабочие приемчики джейлбрейкинга) указывают на то, что за всем стоит OpenAI.
☯️ Пока что все сходятся в предположении, что это GPT-4.5.
☯️ Альтман сразу после выпуска написал в своем X: «i do have a soft spot for gpt2», то есть «да, у меня есть слабость к gpt2». Совпадение? Не думаем.
А что подсказывает вам ваш внутренний детектив?
❤️ – 100% OpenAI
🗿 – да нет, не они
На самом лидерборде модель пока не отображается, но в разделе Direct Chat с ней можно поболтать. Энтузиасты уже потестили бота, и вот что нам известно:
А что подсказывает вам ваш внутренний детектив?
❤️ – 100% OpenAI
🗿 – да нет, не они
Please open Telegram to view this post
VIEW IN TELEGRAM
❤201🗿20👍6🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь любимый мем админа
😁71❤65🔥8👍5⚡3👏3🤪3🌚2
Apple переманивает десятки инженеров из Google для своего ИИ-проекта
По данным FT, в последнее время Apple массово расширенияет подразделения по ИИ и ML. Больше всего новых сотрудников пришли из Google (речь идет о десятках).
Самым значимым стал переход главы лаборатории ИИ Google Brain Джона Джаннандреа, который пришел на руководящую должность в Apple. Затем его примеру последовали не менее 36 инженеров Google.
Вот такая нынче реальность, борьба БигТеха идет не за их выбор пользователем, а за выбор их компании разработчиками.
По данным FT, в последнее время Apple массово расширенияет подразделения по ИИ и ML. Больше всего новых сотрудников пришли из Google (речь идет о десятках).
Самым значимым стал переход главы лаборатории ИИ Google Brain Джона Джаннандреа, который пришел на руководящую должность в Apple. Затем его примеру последовали не менее 36 инженеров Google.
Вот такая нынче реальность, борьба БигТеха идет не за их выбор пользователем, а за выбор их компании разработчиками.
🤯44🔥17👍6🤩2❤1
Google подружили Gemini с медициной
Вчера вышла новая статья от исследователей из Google, в которой они файнтюнят свою LLM для медицинских задач. Кстати, в ней 71(!) соавтор.
Файнтюнили на датасете, схожем с Med-PaLM2, но с добавлением self-training с поиском. Идея:
1) просим модель сгенерировать поисковой запрос по вопросу, иначе говоря "загуглить" то, что у нее спрашивают
2) на основе результатов запроса генерим с помощью модели цепочки мыслей
3) фильтруем ложные цепочки, а на остальных дообучаем модель
4) с дообученной моделью возвращаемся к пункту №1
Итеративные алгоритмы сбора данных сейчас в моде, это исследование не стало исключением. Еще ученые прикрутили поиск с учетом неопределенности и дополнительную генерацию запросов для решения конфликтов среди ответов модели.
Конечно же, Med-Gemini выбила SOTA. Результат: 91% на MedQA. Обратите внимание: это всего на 1п.п. лучше GPT-4, который специально не файнтюнился под медицину. Кроме того, стоит отметить, что MedQA - классический, но далеко не лучший бенчмарк для оценки такой модели (исследование).
Вчера вышла новая статья от исследователей из Google, в которой они файнтюнят свою LLM для медицинских задач. Кстати, в ней 71(!) соавтор.
Файнтюнили на датасете, схожем с Med-PaLM2, но с добавлением self-training с поиском. Идея:
1) просим модель сгенерировать поисковой запрос по вопросу, иначе говоря "загуглить" то, что у нее спрашивают
2) на основе результатов запроса генерим с помощью модели цепочки мыслей
3) фильтруем ложные цепочки, а на остальных дообучаем модель
4) с дообученной моделью возвращаемся к пункту №1
Итеративные алгоритмы сбора данных сейчас в моде, это исследование не стало исключением. Еще ученые прикрутили поиск с учетом неопределенности и дополнительную генерацию запросов для решения конфликтов среди ответов модели.
Конечно же, Med-Gemini выбила SOTA. Результат: 91% на MedQA. Обратите внимание: это всего на 1п.п. лучше GPT-4, который специально не файнтюнился под медицину. Кроме того, стоит отметить, что MedQA - классический, но далеко не лучший бенчмарк для оценки такой модели (исследование).
👍42🔥10😁6❤2
Data Secrets
Новости о дикой погоне за AI-специалистами на Google не заканчиваются. В последнее время отовсюду так и сыпятся подобные истории. Например Цукерберг, в отличии от Брина, сотрудникам с мольбами остаться еще не звонит, НО хантинговые емейлы уже пишет. Кстати…
Продолжается дикая погоня за ИИ-специалистами. На этот раз новости из Apple.
Как мы уже слышали, за 10 лет Apple скупила около 20 ИИ-стартапов, в первую очередь из-за людей. В том числе корпорацией выкуплены FaceShift, Fashwell, Emotient и другие.
Но это не все. Оказывается, Apple активно хантит сотрудников Google. С 2018 они переманили как минимум 36 топовых специалистов.
И еще одна интересная деталь: Apple рекламирует свои вакансии с работой из двух офисов в Цюрихе. При этом об одном из них неизвестно вообще ничего, на карте его нет и даже люди, живущие по соседству, не знают о его существовании.
Только секретных лабораторий нам не хватало…
Как мы уже слышали, за 10 лет Apple скупила около 20 ИИ-стартапов, в первую очередь из-за людей. В том числе корпорацией выкуплены FaceShift, Fashwell, Emotient и другие.
Но это не все. Оказывается, Apple активно хантит сотрудников Google. С 2018 они переманили как минимум 36 топовых специалистов.
И еще одна интересная деталь: Apple рекламирует свои вакансии с работой из двух офисов в Цюрихе. При этом об одном из них неизвестно вообще ничего, на карте его нет и даже люди, живущие по соседству, не знают о его существовании.
Только секретных лабораторий нам не хватало…
❤33🤯20🌚10😁4👍2
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.
А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.
KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.
Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.
И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.
Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
❤145🔥54👍32🤯4🏆2👨💻1
Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️ В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции…
Но самое прекрасное в новом подходе из поста выше – это установка 😍
P.S. За мем спасибо нашему чату🤍
P.S. За мем спасибо нашему чату
Please open Telegram to view this post
VIEW IN TELEGRAM
😁145🔥19😍10🙈4👍2❤1🕊1🏆1😎1