DevOps
23.3K subscribers
1.02K photos
111 videos
15 files
932 links
По всем вопросам- @workakkk

@itchannels_telegram - 🔥полезные ит-каналы

https://xn--r1a.website/Golang_google - Golang программирование

@golangl - golang chat

@GolangJobsit - golang channel jobs

@golang_jobsgo - go chat jobs

РКН: clck.ru/3FmvZA
Download Telegram
🚀 Qwen3-Coder — новая мощная open-source модель от Alibaba для кодинга

Модель с архитектурой MoE:
- 480B параметров в общей сложности
- 35B активных параметров
- Контекст 256k, но легко масштабируется до 1M токенов

📈 Производительность:
- На уровне Claude 4 Sonnet
- Лучше или на уровне GPT-4.1 на многих задачах
- Обходит Kimi K2, DeepSeek V3 на ряде бенчмарков

🧩 Модель уже доступна:
- На HuggingFace — можно скачать и запускать
- В OpenRouter — $1/M токенов вход, $5/M выход
(в 3 раза дешевле Claude Sonnet: $3 и $15)

Попробовать бесплатно можно:
🟡Через чат: ttps://chat.qwen.ai/)
🟡GitHub link: https://github.com/QwenLM/qwen-code
🟡 Blog:https://qwenlm.github.io/blog/qwen3-coder/
🟡 Model: https://hf.co/Qwen/Qwen3-Coder-480B-A35B-Instruct

Qwen3-Coder — это просто одна из лучших моделей для программирования, которые мы когда-либо видели.

#qwen #ml #ai #llm #Alibaba

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍122🔥2
🚀 15 AI‑инструментов, которые стоит взять на вооружение

Подборка популярных инструментов, которые уже сегодня помогают создавать, автоматизировать и масштабировать работу быстрее в разы:

🎬 Работа с видео
1. Runway.ml — генерация видео по тексту
2. Veed.io — монтаж, субтитры, озвучка онлайн
3. Invideo.io — создание роликов за минуты

🧠 Помощь в мышлении и генерации
4. ChatGPT.com — ассистент для ресёрча, генерации и правок
5. Grok.comAI-помощник с быстрым доступом к знаниям
6. Deepseek.ai — генерация и анализ текста
7. Claude.ai — диалоговый ассистент от Anthropic
8. Perplexity.ai — умный поисковик с цитируемыми источниками

💻 Код, задачи и коммуникации
9. Cursor.comAI-помощник для программиста
10. Notion.com — организация, заметки, задачи с AI-поддержкой
11. HubSpot.com — маркетинг, автоматизация и CRM
12. Canva.com — графика, презентации, визуал для соцсетей
13. Figma.com — интерфейсы, прототипы, совместная работа

🎨 Творчество
14. Midjourney.com — генерация изображений по промптам
15. RecCloud.com — быстрые AI-клипы и нарезки видео

#AI #FutureOfWork #Productivity #AItools #Automation

@DevOPSitsec
7👍5🔥2👏1
Forwarded from Machinelearning
📊 Stack Overflow Developer Survey 2025 — опрос 49 000 разработчиков из 177 стран

Stack Overflow Developer Survey — это крупнейшее ежегодное исследование среди разработчиков по всему миру, которое проводит платформа Stack Overflow.

В 15‑й год в опросе приняли участие более 49 000 разработчиков из 177 стран. Опрос охватил 62 вопроса по 314 технологиям

76 % респондентов — профессиональные разработчики, большинство из них (66 %) — в возрасте 25–44 лет

🔥 Главное:

🧠 AI используют почти все:
- 80 % пишут код с помощью AI.
- Но лишь 29 % доверяют результатам ИИ (в 2024 было 40 %).
- 66 % тратят больше времени на отладку AI-кода, чем на его написание.

🏆 Claude Sonnet от Anthropic стала самой уважаемой LLM-моделью года — её отметили 67.5 % опрошенных.

💡 Но по желанию использовать на первом месте всё ещё OpenAI GPT51.2 % хотят с ней работать чаще всего.

👣 Rust и Cargo — фавориты:
- Cargo признан самым уважаемым DevOps‑инструментом (обогнал даже Terraform).
- Rust стабильно в топе любимых языков.

💡 Учёба и рост:
- 69 % изучают новые технологии, 44 % — с помощью AI.
- 36 % учат код ради AI-задач.

👨‍💻 VS Code лидирует, но Neovim — кумир:
- VS Code — самый используемый редактор.
- Neovim — самый «перспективный».

🧑‍🤝‍🧑 Сообщества & платформы
- 84 % разработчиков активно использовали Stack Overflow ( верится с трудом) в течение года (GitHub 67 %, YouTube 61 %)

- В опросе выяснилось: 35 % посещают SO из‑за проблем, связанных с AI‑кодом — ищут проверенную людьми информацию

📉 Меньше участников:
- В 2025 — 49k респондентов (в 2023 было 90k).
- Разработчики всё чаще критикуют перекос в сторону AI.

😕 Удовлетворённость работой & зарплаты
- Предыдущий опрос показал, что 80 % разработчиков были либо неудовлетворены, либо в состоянии «разочарованности» на работе. Интересно, как изменились показатели в 2025 году.

- В 2024 году выяснилось, что гибкость и зарплата перестали вносить равный вклад в удовлетворённость, теперь зарплата выше оказывает сильный эффект для топ‑25 % зарплатной шкалы

.- К примеру, мобильные и back‑end разработчики в UK и Нидерландах стали более удоволетворены работой за счёт более высоких зарплат

📎 Отчёт целиком: https://survey.stackoverflow.co/2025

@ai_machinelearning_big_data


#ai #stackoverflow
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍32
Forwarded from Machinelearning
📌Новый прорыв в алгоритмах: найден способ считать кратчайшие пути быстрее Дейкстры

Метод преодоления "барьера сортировки" для задач кратчайшего пути в ориентированных графах.

Группа исследователей из университетов Синьхуа, Стенфорда и Института Макса Планика представили детерминированный алгоритм для решения задачи SSSP в ориентированных графах с неотрицательными вещественными весами, который работает за время, пропорциональное числу ребер, умноженному на логарифмический множитель, который растет медленнее, чем обычный логарифм.

Проблема поиска кратчайшего пути от одной вершины до всех остальных (SSSP) — одна из фундаментальных в теории графов, и её история тянется с 50-х годов прошлого века. Классический алгоритм Дейкстры, в связке с продвинутыми структурами данных, решает эту задачу за время, которое примерно пропорционально сумме числа рёбер и произведения числа вершин на логарифм от их же числа.

Именно этот множитель - число вершин, умноженное на логарифм, долгое время считался теоретическим минимумом, так как в своей основе алгоритм Дейкстры побочно сортирует вершины по расстоянию от источника. Этот предел известен как «барьер сортировки» и казался непреодолимым.


🟡Основная идея работы - гибрид из алгоритма Дейкстры и алгоритма Беллмана-Форда.

Алгоритм Дейкстры на каждом шаге выбирает из "границы" - множества еще не обработанных вершин ту, что находится ближе всего к источнику. Это и создает узкое место, так как размер границы может достигать величины, сопоставимой с общим числом вершин в графе, и на каждом шаге требуется находить минимум.

Алгоритм Беллмана-Форда, в свою очередь, не требует сортировки, но его сложность пропорциональна числу ребер, умноженному на количество шагов, что слишком долго.

🟡Новый подход использует рекурсию.

Вместо того чтобы поддерживать полную отсортированную границу, алгоритм фокусируется на ее сокращении. А если граница слишком велика, то запускается несколько шагов алгоритма Беллмана-Форда из ее вершин.

Это позволяет найти точное расстояние до некоторой части вершин, чьи кратчайшие пути коротки. Длинные же пути должны проходить через одну из "опорных" вершин, которых оказывается значительно меньше, чем вершин в исходной границе. Таким образом, сложная работа концентрируется только на этом небольшом наборе опорных точек.

🟡Принцип "разделяй и властвуй".

Он рекурсивно разбивает задачу на несколько уровней. На каждом уровне применяется вышеописанная техника сокращения границы, что позволяет значительно уменьшить объем работы на каждую вершину, поскольку логарифмический множитель эффективно делится на другой, более медленно растущий логарифмический член.

В итоге, путем подбора внутренних параметров алгоритма, которые являются специфическими функциями от логарифма числа вершин, и достигается итоговая временная сложность, пропорциональная числу ребер, умноженному на этот новый, более медленно растущий логарифмический множитель.

✔️ Зачем это нужно
— Быстрее решаются задачи в навигации, графах дорог, сетях и планировании.
— Доказано, что Дейкстра — не предел, и можно ещё ускорять поиск кратчайших путей.


🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #Sorting #Graphs #Algorithm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥52😐2
Forwarded from Machinelearning
📌 Andreessen Horowitz выпустили пятый рейтинг TOP 100 ИИ-приложений.

Главный вывод из пятого ежегодного списка Top 100 AI Apps — экосистема ИИ начинает приходить в равновесие.

В веб-рейтинге появилось всего 11 новых имен, что заметно меньше, чем было мартовском отчете. В мобильном сегменте, напротив, новичков больше — целых 14, но это связано с тем, что App Store активно вычищают "клонов ChatGPT", освобождая место для оригинальных приложений.

🟡Главным событием стало укрепление позиций Google.

Их флагманский ассистент Gemini занял 2 место после ChatGPT и в вебе, и на мобильных устройствах. Правда, разрыв пока существенный: в вебе Gemini набирает примерно 12% от трафика ChatGPT. А вот на мобильных платформах ситуация иная - у Gemini уже почти половина ежемесячно активных пользователей ChatGPT.

Интересная деталь: почти 90% мобильной аудитории Gemini сидит на Android, тогда как у ChatGPT доля Android-пользователей составляет 60%.


Помимо Gemini, в топ-10 ворвался Google AI Studio. Следом идeт NotebookLM на 13-м месте, а экспериментальная площадка Google Labs заняла 39-ю строчку, получив в мае 2025 года прирост трафика более чем на 13% после запуска видеомодели Veo 3.

🟡В общей битве ChatGPT все еще лидирует.

Grok занял четвeртое место в вебе и 23-е на мобильных. Его мобильный рост особенно впечатляет: с нуля в конце 2024 года до более чем 20 миллионов MAU сейчас. В июле 2025 года, после релиза модели Grok 4, использование приложения подскочило почти на 40%.

У Марка Цукербкрга успехи скромнее: 46-е место в вебе и полное отсутствие в мобильном топе.

Perplexity продолжает уверенно расти, а вот Claude и DeepSeek показывают смешанные результаты. DeepSeek особенно сильно просел в вебе, потеряв более 40% трафика со своего пика в феврале 2025 года.

🟡Отдельного внимания заслуживает Китай.

Сразу 3 компании, ориентированные на внутренний рынок, вошли в топ-20 веб-рейтинга: Quark от Alibaba (№9), Doubao от Bytedance (№12) и Kimi от Moonshot AI (№17). Более 75% их трафика приходится на Китай, где доступ к ChatGPT или Claude ограничен.

Ещё более поразительна картина на мобильных устройствах. По оценкам, 22 из 50 приложений в топе были разработаны в Китае, но используются преимущественно за его пределами. Особенно сильна их концентрация в категории "фото и видео": одна только компания Meitu представлена 5-ю продуктами, включая BeautyPlus и Wink. Bytedance также не отстаёт с ассистентами Doubao и Cici.

🟡Ветераны рейтинга — 14 компаний, которые попадали в каждый из 5 списков Top 100 AI Apps.

Это ChatGPT, Civitai, Poe, Perplexity, LeonardoAI, VEED, Gamma, QuiliBot, CutOut, Character AI, Midjourney, Photoroom, Eleven Labs и HuggingFace.

Из этой "звёздной" команды только 5 компаний разрабатывают собственные модели, 7 используют сторонние API или опенсорс-решения, а 2 являются агрегаторами моделей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥32
Forwarded from Machinelearning
💰 OpenAI заключила гигантский контракт с Oracle на $300 млрд на облачные вычисления сроком примерно на 5 лет - сообщает Wall Street Journal.

Это один из крупнейших договоров на облачные вычисления в истории.

Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.

Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.

Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.

🟢 Подробнее: wsj .com/business/openai-oracle-sign-300-billion-computing-deal-among-biggest-in-history-ff27c8fe

@ai_machinelearning_big_data

#AI #Cloud #OpenAI #Oracle #DataCenters
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍4🔥2
Media is too big
VIEW IN TELEGRAM
Timeweb Cloud запустил агентов, совместимых с OpenAI

Провайдер сделал то, что может всерьез упростить жизнь разработчикам и девопсам — персональных агентов с OpenAI‑совместимым API. Это значит, что к агентам можно легко подключить готовые программы. Например, Cursor — умный редактор кода. А благодаря RAG получится собственный код-ассистент, обученный на внутренней документации, мануалах и кодовой базе компании.

Как это работает

1. Создаете агента в панели управления
2. Загружаете в базу знаний свои данные – документацию, стандарты кодирования, конфиги, мануалы по деплою. А дальше просто подключаете базу к агенту
3. Получаете API-эндпоинт совместимый с OpenAI
4. Подключаете агента к любому инструменту из экосистемы готовых решений Все, теперь AI-эксперта можно встроить прямо в вашу IDE и рабочий процесс.

Что под капотом

● Технология RAG: агент не просто болтает, а ищет ответы в предоставленных вами материалах, что гарантирует релевантность и точность
● Выбор моделей: от экономной GPT-4.1 nano до мощной GPT-5. Можно также подключить DeepSeek, Claude, Grok или Gemini
● Предсказуемый биллинг: оплата только за токены, пакеты обновляются каждый месяц

Как итог — не нужно самим поднимать, обучать и поддерживать инфраструктуру для корпоративного AI. Можно получить своего код-помощника за несколько кликов, не покидая привычную среду разработки.

Настроить своего агента

#devops #ai #openai #api #timewebcloud
3🙈3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Релиз Agent S3 - продвинутый агент для работы с компьютером, который приближается к человеческому уровню.

Вместо того, чтобы усложнять одну модель, авторы запускают несколько агентов параллельно и затем выбирают лучший результат.
Метод назвили **Behavior Best-of-N (bBoN).

Как работает:
- Каждый агент пробует решить задачу.
- Его действия переводятся в поведенческий нарратив - короткое описание, что реально изменилось на экране.
- Специальный судья сравнивает эти нарративы и выбирает лучший.

Результаты:
- GPT-5 с 10 параллельными агентами → 69.9% успеха
- Для примера у GPT-5 Mini → 60.2%
- Agent S3* набирает на +10% выше предыдущей SOTA

📄 Paper: http://arxiv.org/abs/2510.02250
💻 Code: http://github.com/simular-ai/Agent-S
📝 Blog: http://simular.ai/articles/agent-s3

@ai_machinelearning_big_data


#AI #Agents #AgentS3 #OSWorld #SimularAI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
6👎2🔥2
🐦 X открыл исходники алгоритма "For You"

Как работает лента рекомендаций в 7 шагах:

1️⃣ Сырые данные (вход):
- соцграф (кто кого фолловит),
- вовлечённость (лайки, ретвиты, ответы, закладки),
- данные о пользователе (клики, профиль, поведение).

2️⃣ Feature Engineering:
- GraphJet — граф твитов в реальном времени
- SimClusters — объединение в коммьюнити ("AI Twitter", "NBA Twitter")
- TwHIN — карта связей пользовательтвит
- RealGraph — сила связей
- TweepCred — скоринг доверия
- Trust & Safety сигналы

3️⃣ Candidate Sourcing (Home Mixer):
Разные миксеры (CR Mixer, UTEG, FRS) вытягивают твиты из разных пулов → больше разнообразия.

4️⃣ Heavy Ranker (ML-модель):
Нейросеть предсказывает, что вам зайдёт: лайки, ретвиты, ответы, время чтения.

5️⃣ Фильтры и эвристики:
- социальное доказательство
- разнообразие авторов
- блок спама/NSFW/мутов
- баланс контента
- защита от «замыливания»

6️⃣ Микс:
Рекламные твиты + рекомендации «кого фолловить» → в ленту.

7️⃣ Что это значит для вас:
- выбери нишу
- пиши ценные посты
- отвечай по делу в своей теме
→ вырастишь аудиторию и найдёшь людей/идеи для бизнеса.


https://github.com/twitter/the-algorithm

#Twitter #ForYou #AI #RecommenderSystems
👍4🔥21🥰1
Модель Llama-Embed-Nemotron-8B от NVIDIA вышла на 1-е место в рейтинге MMTEB — став лучшей открытой и переносимой моделью эмбеддингов в мире.

Она установила новый стандарт в задачах поиска, реранжирования и семантического сходства более чем на 1000 языках, превзойдя решения Google GeminiEmbedding и Alibaba Qwen3-8B.

Построенная на базе Llama-3.1-8B, модель обучалась на 16 млн пар “запрос-документ”, прошла инструкционно-ориентированный fine-tuning и использует модельное слияние (model merging) для объединения многоязычного поиска в единую систему.

Это - большой шаг вперёд для open-source ИИ и многоязычных исследований.

https://huggingface.co/nvidia/omni-embed-nemotron-3b

#AI #NVIDIA #Llama #Embeddings #Multilingual #Retrieval #OpenSource #LLM #SemanticSearch #Nemotron #MMTEB #DeepLearning #AIResearch
5👍3🔥3
Forwarded from Machinelearning
⚡️ Команда Google Research представила технологию живого перевода речи в речь, которая позволяет говорить на одном языке и почти мгновенно слышать перевод на другом.

Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.

Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.

Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.

https://research.google/blog/real-time-speech-to-speech-translation

@ai_machinelearning_big_data

#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥95👍1🥰1