Valuable AI / Валентин Малых
1.88K subscribers
448 photos
55 videos
2 files
439 links
личный канал про ИИ
Download Telegram
как известно, Нобелевской премии по математике нет потому, что жена Нобеля изменила ему с каким-то математиком; но вручать премию по физике за разработки в области искусственного интеллекта - это выше моего понимания; математики традиционно получают нобелевские премии по экономике, на мой взгляд обоснование вида "за исключительное влияние ИИ на экономику" было бы хоть как-то уместнее https://lenta.ru/news/2024/10/08/nobelevskuyu-premiyu-po-fizike-vruchat-za-mashinnoe-obuchenie-i-neyronnye-seti/
🤨6😢3👍1
мне периодически задают вопрос о том, где в России занимаются исследованиями в NLP; в целом такие места принято делить на академические (университеты и институты) и индустриальные (коммерческие фирмы)


начнем с академических мест; прежде всего это СколТех, группа профессора Александра Панченко; хорошая группа осталась на Физтехе в Лаборатории нейронных систем и глубокого обучения, сейчас там нет профессора, но можно выделить работу Юрия Куратова; есть продуктивная группа в МГУ под руководством профессора Натальи Валентиновны Лукашевич, хотя коллеги имеют уклон в сторону компьютерной лингвистики больше;
небольшая группа есть в НГУ, которая наоборот несмотря на название больше занимается NLP, там можно выделить Ивана Бондаренко; не так давно появился AIRI, в котором сразу несколько групп занимаются NLP, в частности там также есть группа профессора Панченко, а также там сотрудничает Юрий Куратов; еще стоит упомянуть ИСП РАН, коллеги больше имеют уклон в доверенность ИИ, но также довольно много делают по NLP; есть небольшая группа в ИСИ СО РАН, ее возглавляет Татьяна Батура; отдельно хочу упомянуть профессора Павла Браславского, который сотрудничает с несколькими университетами; во ВШЭ было несколько групп, но от них в последнее время мало что слышно; была группа в КФУ, но к сожалению практически прекратила свое существование; зато рядом в университете Иннополиса возникла группа профессора Владимира Иванова

вторая группа - это индустриальные места; тут необходимо начать со SberDevices, там есть группа RnD NLP, где руководит Алёна Феногенова, кажется, у этой группы нет своей страницы, поэтому даю ссылку на профиль Алёны на Google Scholar; есть небольшая группа в Т-банке, где руководит Даниил Гаврилов; есть исследовательская группа в московском офисе Huawei, там руководит Ирина Пионтковская, отдельной страницы группы нет, поэтому дам ссылку на профиль Ирины; необходимо также сказать про существование еще нескольких подразделений, которые занимаются NLP (и публикуются) в Сбере - Лаборатория ИИ, Sber AI; есть подразделение Yandex Research, но они по неизвестным мне причинам NLP уделяют очень мало внимания; от МТС ИИ тоже есть некоторое количество публикаций, когда-нибудь сделаем отдельную страницу и покажем

вместо заключения скажу, что список мест не претендует на полноту, так что если вы не нашли свою группу, пишите мне, я буду рад познакомиться с коллегами
20🔥12👍9🤝3
маразм, конечно, крепчал; для меня все началось, когда NIPS заставили переименовать в NeurIPS из-за того, что это совпадает с жаргонным наименованием сосков (nipples -> nips); указание лингвистов на то, что слово nips в этом значении появилось позже, чем конференция, не помогло; жду, когда переименуют абсолютно черное тело (да-да, физики, придут и за вами)

P.S. картинку стащил из рабочего чата, источник не знаю
😁21🤡15😭3👾1
как говорил Шелдон Купер в таких случаях «ой, как удобно»; хотя я вполне допускаю, что инфраструктуру порушили случайно, чего только не бывает, но уж слишком удачно совпало по времени https://techcrunch.com/2024/11/20/openai-accidentally-deleted-potential-evidence-in-ny-times-copyright-lawsuit/
😁42
LLM-OS в исполнении Google уже скоро; в свете новостей про Claude и управление десктопными приложениями вполне логично; но еще 5 лет назад про такое, мне кажется, можно было у фантастов прочитать, а тут буквально завтра уже можно будет руками потрогать https://www.androidauthority.com/android-16-gemini-app-functions-3502205/
у GPT4o есть стиль, надо признать
🔥121👎1
калькулятор не решит за тебя задачу по физике, ты должен понять, какие действия совершать, а посчитать за тебя калькулятор сможет; в случае, который привел к судебному разбирательству, - то же самое, генеративная модель не сделает за тебя задание, но облегчить техническую работу по формулированию может

по моему опыту - текст от GPT можно использовать в качестве черновика, который потом надо внимательно вычитать, иначе можно попасть в неприятную ситуацию

например, для написания текстов сюда я GPT не использую, польза от нее начинается на текстах длины от нескольких страниц, короткий текст быстрее и эффективнее написать самому

https://gizmodo.com/judge-rules-in-favor-of-school-that-gave-student-a-bad-grade-for-using-ai-2000528368
👍8
наверняка вы сталкивались с тем, что некоторые научные статьи доступны только за деньги; иногда можно воспользоваться sci-hub для того, чтобы обойти paywall (хотя остается вопрос законности данного мероприятия), но и через него не всегда получается; оказывается, есть альтернативный способ - через Российскую Государственную Библиотеку: они сделали специальное расширение для браузера, которое позволяет пользоваться их подписками на журналы; правда, для этого нужно сделать читательский билет, благо сейчас это можно сделать через госуслуги

вот официальная инструкция: https://www.rsl.ru/_files/sur/myloft/RSL_MyLoft_all.pdf

за наводку спасибо Леониду Синеву
🔥28🫡31👏1😱1🙏1
по интернетам ходят слухи, что Amazon и Meta (запрещена в РФ) близки к тому, чтобы распустить свои команды, занимающиеся машинным переводом: sic transit gloria mundi

машинный перевод всегда был передним краем исследований в области обработки текстов, инновации шли именно оттуда, в частности механизм внимания и трансформер были предложены в первую очередь для перевода; как следствие, каждая крупная технологическая компания стремилась иметь такой отдел у себя, среди западных компаний это были (помимо упомянутых) - Google, Microsoft и IBM, среди российских - это, конечно, Яндекс, но и Сбер тоже делал движения в эту сторону
🥰2
Valuable AI / Валентин Малых
по интернетам ходят слухи, что Amazon и Meta (запрещена в РФ) близки к тому, чтобы распустить свои команды, занимающиеся машинным переводом: sic transit gloria mundi машинный перевод всегда был передним краем исследований в области обработки текстов, инновации…
три года назад взорвалась сверхновая ChatGPT 💥, и взоры и мысли сообщества устремились в сторону больших языковых моделей, машинный перевод стал отходить на второй план; на мой взгляд, это - хороший вспомнить про визионера машинного перевода, человека, который предвосхитил развитие области на несколько десятилетий - Петра Петровича Смирова-Троянского

Петр Петрович в 1933 году предложил механическую машину для пословного перевода текстов; о его изобретении в 1959 году была написана книга "Переводная машина П.П. Троянского", которую я и предлагаю вашему вниманию - она короткая (50 страниц) и безумно интересная, заглавная иллюстрация как раз из нее - http://books.iis.nsk.su/book/troyanskiy
🔥8
коллеги уже успели заметить, что наша модель заняла второе место на MERA; и что она вышла почти сразу после модели от коллег из Т-банка; но самое смешное, что сабмиты и наш, и от коллег сделаны с интервалом меньше минуты, просто наш сабмит открыли несколько позже

как говорят американцы: great minds think alike, если вы понимаете, о чем я
👍282
⚡️нашу статью Iterative Self-Training for Code Generation via Reinforced Re-Ranking приняли на ECIR 2025! ссылку на статью дам позже, когда выложат на сайт / выложим на arXiv
🔥24👍9
я тут узнал, что обучение искусственного интеллекта приравняли к народным промыслам; я ничего не имею против народных промыслов, но в моей голове это все-таки достаточно далеко от программирования

В перечень креативных индустрий входят музыка, исполнительские искусства, кино и сериалы, анимация, видеоигры, разработка программного обеспечения, медиа и СМИ, книжное дело, реклама и pr, арт-индустрия, народные художественные промыслы и ремесла, культурное наследие, дизайн, архитектура и урбанистика, мода, ювелирное дело, гастрономия.

https://issek.hse.ru/mirror/pubs/share/996745056.pdf
🔥11😁3
интересный пост в блоге HuggingFace про улучшение результатов маленьких моделей; если в двух словах, то можно взять маленькую модель, прогнать ее несколько раз, а потом с помощью какой-то стратегии выбрать лучшее решение; на картинке представлены три базовых: выбор самого частого варианта (Majority), выбор лучшего c помощью модели-оценщика (Best-of-N), а также наш любимый лучевой поиск (Beam Search); на самом деле они представляют свою модификацию лучевого поиска (DVTS), которая состоит в том, что соревнуются поддеревья, которые выращиваются независимо друг от друга; по смыслу близко к MCTS (использовался в частности в AlphaGo), только сэмплирование устроено чуть иначе
🤔1
Valuable AI / Валентин Малых
интересный пост в блоге HuggingFace про улучшение результатов маленьких моделей; если в двух словах, то можно взять маленькую модель, прогнать ее несколько раз, а потом с помощью какой-то стратегии выбрать лучшее решение; на картинке представлены три базовых:…
в этой связи стоит вспомнить недавнюю новость про OpenAI o3, которая показала троекратное улучшение качества на лидерборде ARC по сравнению с o1; но важно тут не само улучшение, а то что на лидерборде представлено два результата с малыми вычислительными затратами и с большими (в 172 раза); что-то мне подсказывает, что во втором случае использовался подобный подход, т.к. результат получается существенно лучше (76% -> 88%)
Антропик выпустил огромную статью по поводу того, что модели только притворяются, что следуют алайменту; дают рекомендации, как улучшить следование засчет формулировок промтов

мне, к слову, не нравится слово ни «алаймент» (прямое заимствование, но что называется - не звучит), ни «выравнивание» (калька с английского), т.к. на мой взгляд они не отражают сути процесса; суть процесса состоит в том, чтобы модель правильно отвечала на вопросы, касающиеся каких-то чувствительных тем; я предлагаю использовать вместо этого слово «катехизация», обозначающее ровно тот же процесс, но в рамках приходского обучения

https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf
😁8👍1
это - заря нового дивного мира, в котором код будет писаться и читаться в основном языковыми моделями; эту ситуацию проэкстраполировал в своем романе iPhuck 10 Виктор Пелевин; там у него был понятие "случайного кода", который генерировался по запросу; фактически полезную функцию выполняла небольшая часть кода, а остальное просто занимало место на диске, но тем не менее, этого уже было достаточно, т.к. работа выполнялась, остальным же никто не интересовался; в целом весь роман можно рекомендовать к прочтению, он интересно ложится на текущую ситуацию с большими языковыми моделями https://www.theregister.com/2024/12/10/ai_slop_bug_reports/

P.S. к сожалению, Виктор Олегович перестал выкладывать романы на свой сайт, так что можно поискать, где купить книгу, тут я никаких рекомендаций давать не готов
4🔥3👍2
довольно странно критиковать OpenAI за коммерциализацию, учитывая, что она произошла 4 года назад; я не читал исковое заявление, но мне неясно, что могут потребовать от OpenAI - прекратить свою деятельность? открыть все наработки?

если первое, то неясно в чем смысл, т.к. остаются те же FAANG (на самом деле как минимум плюс IBM и Microsoft), которые будут продолжать разработки коммерческих моделей, не говоря уже про китайских товарищей; если второе, то обратно вышеупомянутые фирмы получат возможность ускорить свои разработки, не более того; в общем, мне представляется, что это - просто часть политической борьбы внутри США и к развитию области имеет опосредованное отношение

исходная новость: https://www.digitalinformationworld.com/2025/01/top-data-scientist-geoffrey-hinton.html
🔥2💯211🕊1🐳1🌚1