Наткнулись на интересное исследование о способностях GPT-4 рассуждать на тему этики
Этика подразумевает в данном случае ответы на такие вопросы как "что такое добро и зло?", "что важнее, долг или счастье?" или решение таких загадок, как проблема вагона.
Сюрприз: люди оценивают этические рассуждения GPT выше, чем ответы известного эксперта по этике. Респонденты говорили, что они "более морально правильные, заслуживающие доверия, продуманные и точные".
Интересно также, что опрошенные часто догадывались, что им показывают ответы ИИ, но все равно голосовали за них. Более того, исследователи даже предположили, что безжизненность ответов GPT стала одним из факторов "выигрыша". Это в каком-то смысле логично: ведь проще верить в таких вопросах тому, у кого, как тебе кажется, нет эмоций, и кто не подвержен человеческому фактору.
Кстати, оказывается, для этики есть даже специальная модификация теста Тьюринга: Comparative Moral Turing Test. Знали?
Этика подразумевает в данном случае ответы на такие вопросы как "что такое добро и зло?", "что важнее, долг или счастье?" или решение таких загадок, как проблема вагона.
Сюрприз: люди оценивают этические рассуждения GPT выше, чем ответы известного эксперта по этике. Респонденты говорили, что они "более морально правильные, заслуживающие доверия, продуманные и точные".
Интересно также, что опрошенные часто догадывались, что им показывают ответы ИИ, но все равно голосовали за них. Более того, исследователи даже предположили, что безжизненность ответов GPT стала одним из факторов "выигрыша". Это в каком-то смысле логично: ведь проще верить в таких вопросах тому, у кого, как тебе кажется, нет эмоций, и кто не подвержен человеческому фактору.
Кстати, оказывается, для этики есть даже специальная модификация теста Тьюринга: Comparative Moral Turing Test. Знали?
❤55👍14🔥8🤓5😁3
Data Secrets
Завезли результаты с арены!
Claude 3.5 Sonnet с небольшой разницей вырвался на 1 место и обогнал GPT-4o на Coding лидерборде. В общем зачете на первом месте все еще OpenAI, Sonnet второй.
Организаторы обещают, что скоро обновится еще и вижн лидерборд. Ставим ставки, коллеги.
Claude 3.5 Sonnet с небольшой разницей вырвался на 1 место и обогнал GPT-4o на Coding лидерборде. В общем зачете на первом месте все еще OpenAI, Sonnet второй.
Организаторы обещают, что скоро обновится еще и вижн лидерборд. Ставим ставки, коллеги.
❤57👍14
Apple (как всегда по-тихому) выложила в опенсорс фундаментальную модель для изображений. 4М умеет:
➡️ генерировать картинки
➡️ создавать подписи
➡️ сегментировать, обнаруживать объекты и вот это все
➡️ строить карты глубины
➡️ обрабатывать изображения по промпту
И много чего другого. Все в одном модальном окне, да еще и под лицензией Apache 2.0.
Статья | Код | Демо
И много чего другого. Все в одном модальном окне, да еще и под лицензией Apache 2.0.
Статья | Код | Демо
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥71❤10👍5👀1
А вы тоже часто видите новости про «в ходе опроса айтишников выяснилось, что каждый третий…», но сами никогда в таких опросах не участвовали? 😑
Если да, этот пост для вас. Наши друзья из Центра научной коммуникации ИТМО проводят анализ профессионального сообщества ML- и DS-специалистов в России.
Наконец-то можно приложить руку к честной статистике и высказать свое мнение о состоянии индустрии, лидерах рынка и в целом ML-карьере в России.
Чтобы поучаствовать, нужно просто пройти опрос (это займет примерно 5 минут). Конфиденциальность гарантируется. Именно ваше участие поможет сформировать полную картину, так что скорее тыкайте сюда и делитесь мнением.
Если да, этот пост для вас. Наши друзья из Центра научной коммуникации ИТМО проводят анализ профессионального сообщества ML- и DS-специалистов в России.
Наконец-то можно приложить руку к честной статистике и высказать свое мнение о состоянии индустрии, лидерах рынка и в целом ML-карьере в России.
Чтобы поучаствовать, нужно просто пройти опрос (это займет примерно 5 минут). Конфиденциальность гарантируется. Именно ваше участие поможет сформировать полную картину, так что скорее тыкайте сюда и делитесь мнением.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤8🔥8🤪6🎉2🌚2🗿2😁1 1
Продолжается тренд на пихание в LLM логических задач. Пока все плохо.
Помните детскую задачку про козла, капусту и волка? Там нужно выяснить, как перевезти всех их через реку, чтобы никто никого не съел. Так вот, в твиттере коллективно выяснили, что LLM не справляются даже с мега-упрощенной версией задачи.
Вместо минимального количества переездов модели предлагают запутанные нелогичные варианты, игнорируя даже очень прозрачные подсказки.
Короче, все эти эксперименты усиливают непрекращающиеся дебаты об AGI и увеличивают количество сторонников мнения Яна Лекуна. Но с другой стороны это напоминает...👆
Помните детскую задачку про козла, капусту и волка? Там нужно выяснить, как перевезти всех их через реку, чтобы никто никого не съел. Так вот, в твиттере коллективно выяснили, что LLM не справляются даже с мега-упрощенной версией задачи.
Вместо минимального количества переездов модели предлагают запутанные нелогичные варианты, игнорируя даже очень прозрачные подсказки.
Короче, все эти эксперименты усиливают непрекращающиеся дебаты об AGI и увеличивают количество сторонников мнения Яна Лекуна. Но с другой стороны это напоминает...👆
😁68👍15🔥9❤5
This media is not supported in your browser
VIEW IN TELEGRAM
У нас для вас большой анонс!
Все вы знаете, что недавно мы запустили сайт datasecrets.ru с новостями и статьями из мира ML. Мы продолжаем его развивать и совершенствовать, и теперь хотим рассказать кое о чем большом, что мы так упорно делали последние месяцы…
И это…платформа для хакатонов . Да-да, теперь на нашем сайте можно будет участвовать в соревнованиях, практиковаться на продуктовых задачах и выигрывать призы!
Первый хакатон от нас стартует уже в ближайшее время. Приглашаем вас протестировать платформу и попробовать свои силы.
Поддержать наш энтузиазм можно по традиции реакцией —🚀
А если вы или ваша компания давно хотели запустить свое соревнование, чтобы быстро прототипировать решение или получить свежие идеи для развития продукта, то напишите нам: @v2r8n
Все вы знаете, что недавно мы запустили сайт datasecrets.ru с новостями и статьями из мира ML. Мы продолжаем его развивать и совершенствовать, и теперь хотим рассказать кое о чем большом, что мы так упорно делали последние месяцы…
И это…
Первый хакатон от нас стартует уже в ближайшее время. Приглашаем вас протестировать платформу и попробовать свои силы.
Поддержать наш энтузиазм можно по традиции реакцией —
А если вы или ваша компания давно хотели запустить свое соревнование, чтобы быстро прототипировать решение или получить свежие идеи для развития продукта, то напишите нам: @v2r8n
Please open Telegram to view this post
VIEW IN TELEGRAM
Лучшая новость за сегодня: твиттерский спроектировал шаблон мемов в Glif
Claude 3.5 генерирует мем в виде json, с помощью Wojak Lora создается подходящее изображение, а потом все схлопывается вместе.
Получаются истинные шедевры. Пробуйте сами здесь.
Claude 3.5 генерирует мем в виде json, с помощью Wojak Lora создается подходящее изображение, а потом все схлопывается вместе.
Получаются истинные шедевры. Пробуйте сами здесь.
🔥46😁14❤9⚡2👍2🤯2
В стиле OpenAI: на LMSYS арене снова появляются какие-то загадочные модели
На этот раз late-June-chatbot и im-also-a-late-June-chatbot. В ответ на вопрос «кто ты?» отвечает, что он Gemma (модель от Google).
Если это правда, Google тролят OpenAI за майские выходки с «im‑a-good‑gpt2-chatbot» и «im‑also‑a-good‑gpt2-chatbot». Если нет, то наоборот😁
Так или иначе, в прошлый раз загадочный чатбот оказался в итоге GPT-4o. Возможно, в этот раз нам тоже стоит ожидать что-то новенькое.
Как думаете, кто бы это мог быть?🖥 🖥
На этот раз late-June-chatbot и im-also-a-late-June-chatbot. В ответ на вопрос «кто ты?» отвечает, что он Gemma (модель от Google).
Если это правда, Google тролят OpenAI за майские выходки с «im‑a-good‑gpt2-chatbot» и «im‑also‑a-good‑gpt2-chatbot». Если нет, то наоборот
Так или иначе, в прошлый раз загадочный чатбот оказался в итоге GPT-4o. Возможно, в этот раз нам тоже стоит ожидать что-то новенькое.
Как думаете, кто бы это мог быть?
Please open Telegram to view this post
VIEW IN TELEGRAM
- Как вы стали таким успешным математиком?
- Я просто хотел побеждать в монополию
- Я просто хотел побеждать в монополию
👏101😁87🔥12👍5🙈1
Ученые из Калифорнийского университета показали способ учить LLM без перемножения матриц
Перемножение матриц – основная операция в LLM из-за механизма внимания. Именно она тянет на себя большинство вычислительных затрат, и чем больше контекст и количество параметров – тем больше и больше перемножение матриц ест.
Чтобы это побороть, авторы (вдохновшись BitNet) внесли в архитекуру LLM три основных изменения:
– вместо традиционных чисел с плавающей запятой веса представляют из себя только числа из набора (-1, 0, 1)
– перепроектирован self-attention: теперь на его месте рекуррентный блок, в котором используются только базовые операции
– использован Gated Linear Unit (GLU) из LSTM – его адаптировали под триплетные веса.
В итоге получилось, что такие модели могут достигать перформанса привычных трансформеров, при этом мощно сокращая память и компьют. Кроме того, авторы показывают, что архитектура хорошо скейлится.
Доступен код, так что можно поиграться своими руками. Кроме того, советуем прочитать статью.
Перемножение матриц – основная операция в LLM из-за механизма внимания. Именно она тянет на себя большинство вычислительных затрат, и чем больше контекст и количество параметров – тем больше и больше перемножение матриц ест.
Чтобы это побороть, авторы (вдохновшись BitNet) внесли в архитекуру LLM три основных изменения:
– вместо традиционных чисел с плавающей запятой веса представляют из себя только числа из набора (-1, 0, 1)
– перепроектирован self-attention: теперь на его месте рекуррентный блок, в котором используются только базовые операции
– использован Gated Linear Unit (GLU) из LSTM – его адаптировали под триплетные веса.
В итоге получилось, что такие модели могут достигать перформанса привычных трансформеров, при этом мощно сокращая память и компьют. Кроме того, авторы показывают, что архитектура хорошо скейлится.
Доступен код, так что можно поиграться своими руками. Кроме того, советуем прочитать статью.
👍94🔥34🤔11❤8❤🔥2
Научитесь решать end-to-end задачи в CV
Быть хорошим ML-инжененером != уметь пилить модельки в ноутбуках. Вот что нужно уметь, чтобы быть конкурентноспособным и действительно хорошо решать задачи CV:
➡️ собирать чистые данные
➡️ быстрее обучать модели
➡️ ускорять нейросети
➡️ создавать веб-сервисы
➡️ автоматизировать их деплой
➡️ настраивать мониторинг приложений
➡️ хорошо разбираться в распознавании лиц и текстов, генерации изрбражений и многом другом.
Уже настроились все это освоить? Тогда имейте в виду: изучать все лучше системно и на практике, и чтобы не потерять много времени, лучше сразу перенимать проверенные знания у профессионалов.
Наши друзья из DeepSchool прямо сейчас предлагают такую мега-возможность и зовут учиться на программу CV Rocket. Если хотите закрыть пробелы в CV и освоить весь цикл решения таких задач, это место точно для вас:
⚙️ 12 спикеров из разных отраслей и компаний (подробнее тут)
⚙️ много фидбека и общения со спикерами: на zoom-лекциях, в рамках code review, на семинарах и в чате
⚙️ сложные задачи: 2 больших end-to-end проекта, которые с гордостью можно добавить в резюме
Курс стартует 4 июля и длится 5 месяцев. А еще ребята подарили вам специальный промокод DataSecrets на дополнительную скидку в 10.000 рублей, который действует до 30 июня включительно!
Не упустите шанс стать гуру CV и регистрируйтесь прямо сейчас!
Быть хорошим ML-инжененером != уметь пилить модельки в ноутбуках. Вот что нужно уметь, чтобы быть конкурентноспособным и действительно хорошо решать задачи CV:
Уже настроились все это освоить? Тогда имейте в виду: изучать все лучше системно и на практике, и чтобы не потерять много времени, лучше сразу перенимать проверенные знания у профессионалов.
Наши друзья из DeepSchool прямо сейчас предлагают такую мега-возможность и зовут учиться на программу CV Rocket. Если хотите закрыть пробелы в CV и освоить весь цикл решения таких задач, это место точно для вас:
Курс стартует 4 июля и длится 5 месяцев. А еще ребята подарили вам специальный промокод DataSecrets на дополнительную скидку в 10.000 рублей, который действует до 30 июня включительно!
Не упустите шанс стать гуру CV и регистрируйтесь прямо сейчас!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥9⚡6😁5❤3😐1