Это один из крупнейших договоров на облачные вычисления в истории.
Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.
⚡ Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.
Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.
@ai_machinelearning_big_data
#AI #Cloud #OpenAI #Oracle #DataCenters
Please open Telegram to view this post
VIEW IN TELEGRAM
❤107🔥38👍18🤔4🌭4😢3🤨3😁1
С появлением ChatGPT активность на Stack Overflow снизилась, но характер вопросов сильно изменился.
Учёные проанализировали данные за 2 года и сравнили активность до и после запуска ChatGPT.
Они измеряли длину постов, объём кода, просмотры и оценки, а также оценивали уровень сложности вопросов (лёгкие, средние, сложные).
- В цлеом, общее число вопросов продолжает снижаться.
- Лёгких вопросов становится меньше.
- Вопросов среднего уровня стало больше .
- Сложные остаются примерно на том же уровне.
- Простые вопросы люди теперь задают ChatGPT.
- На Stack Overflow приносят сложные и запутанные случаи, где нужен контекст и человеческий опыт.
Так что Stack Overflow не умирает - он превращается в площадку для глубоких технических обсуждений, а «быстрые фиксы» постепенно уезжают к ИИ.
📖 Подробности в исследовании: https://arxiv.org/abs/2509.05879
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤166👍69🔥10👏4😨4
📌 Бесплатный курс для учащихся школ и колледжей от Яндекс Лицея по машинному обучению.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
❤35🔥6🥰5👏4😁2🥱2🦄1
🗣️ «Мысль о том, что ИИ создаст новые рабочие места, - это *полная .. чушь*. Под угрозой замещения находятся даже генеральные директора»
— Мо Гавдат, бывший топ-менеджер Google X.
@ai_machinelearning_big_data
#AI #Jobs #Automation #FutureOfWork
— Мо Гавдат, бывший топ-менеджер Google X.
@ai_machinelearning_big_data
#AI #Jobs #Automation #FutureOfWork
1👍74🤣60🔥14😐11❤9💯8🌭6👏4👀3
RenderFormer — это нейросеть, которая способна полностью заменить традиционный рендеринг (ray tracing, rasterization), используя только машинное обучение.
- Она работает с любыми 3D-сценами, поддерживает глобальное освещение и отображение материалов.
- Сцена представляется через * tokens* — треугольники с информацией о позиции, нормалях и свойствах материалов.
- Источники света также моделируются треугольниками.
- Используются два трансформера:
1. View-independent — для теней, рассеянного освещения и эффектов, не зависящих от угла обзора.
2. View-dependent — для отражений, бликов и других эффектов, связанных с перспективой.
- Результат работы модели — токены, которые преобразуются в финальное изображение.
📌 Обучение и результаты
- Датасет: Objaverse (сотни тысяч 3D-объектов).
- Обучение проходило в два этапа: сначала низкое разрешение и меньше треугольников, затем — более высокое качество и больше деталей.
- RenderFormer воспроизводит реалистичные тени, отражения и освещённость.
📌 Ограничения и перспективы
- Масштабирование на очень сложные сцены пока вызывает трудности.
- Для работы требуются большие вычислительные мощности.
- Но подход открывает путь к новому поколению технологий: от визуального синтеза и генерации видео до робототехники.
https://www.microsoft.com/en-us/research/blog/renderformer-how-neural-networks-are-reshaping-3d-rendering/
@ai_machinelearning_big_data
#RenderFormer #NeuralRendering #3DGraphics #MicrosoftResearch #Transformers #ComputerVision #GlobalIllumination
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64❤12🔥11
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
Игра не просто работает, а поддерживает многопользовательский режим, отрисовывая всё с помощью ASCII-графики.
Каждый компонент — от рендера до синхронизации игроков — написан исключительно на SQL-запросах.
🎮 GitHub для настоящих ценителей извращённого кода: https://github.com/cedardb/DOOMQL
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁127👍37❤16🔥13😨6🙊6😐3🌚1🍓1
This media is not supported in your browser
VIEW IN TELEGRAM
Это движок с открытым исходным кодом, цель которого — уменьшить галлюцинации и логические сбои в системах типа RAG / LLM, особенно когда:
- источники OCR-текста плохо распознаются,
- происходит «semantic drift» (когда ответ уходит от вопроса),
- «ghost matches», когда извлечённый фрагмент кажется релевантным, но на самом деле нет.
Обычно ошибки ловят уже в готовом сгенерированном тексте, из-за чего они часто повторяются.
В Semantic Reasoning Engine всё наоборот: если система видит, что рассуждения «кривые» или сбились с курса, она останавливается, сбрасывается или ищет другой путь и отвечает только когда состояние стабильно.
Проверки встроены прямо в процесс мышления модели, а не поверх ответа с фильтрами или регексами. Это помогает избегать ошибок до того, как они попадут в вывод.
- неверный поиск данных,
- сбившаяся логика,
- «провалы памяти»,
- путаница ролей агентов и другие.
Для каждой есть простое текстовое исправление. Никаких SDK — достаточно вставить инструкции прямо в промпт.
- ΔS (drift) - не уходит ли смысл слишком далеко от шага к шагу
- λ (convergence) - сходится ли рассуждение к решению или крутится в цикле
- Coverage — достаточно ли фактов и аргументов учтено
Если все три условия выполнены, ответ считается «качественным».
▪ Github: https://github.com/onestardao/WFGY
@ai_machinelearning_big_data
#ai #llm #opensource #reasoning #hallucinations #promptengineering
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48🔥19❤14🌭2⚡1👏1
🚀 Релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!
🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.
🟢 Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72👍33🔥21🌭2👏1