Media is too big
VIEW IN TELEGRAM
- Tesla завершает разработку Optimus Gen 3. Маск называет его «выдающимся роботом» (кто бы сомневался).
- Робот получит человеческую ловкость рук и ИИ-разум, способный ориентироваться в реальности.
- Цепочек поставок нет - всё создаётся с нуля: от электродвигателей до электроники. На одну руку приходится 26 актуаторов (исполнительных механизмов, которые преобразуют энергию в движение).
- При выпуске 1 млн штук в год цена может снизиться до $20,000, хотя один AI-чип стоит $5–6K и выше.
- Маск: *«Если Optimus будет успешен - это станет крупнейшим продуктом в истории»* (и снова маркетинг).
- Встроенный LLM без подписки.
- AI5 - собственный суперчип Tesla для ИИ. Он обещает огромный скачок вперёд:
- до 40× быстрее AI4 по отдельным метрикам,
- 8× больше вычислений,
- 10× больше памяти,
- 5× выше пропускная способность памяти.
- Команды «железа» и софта впервые разрабатывают чип совместно.
- Даже AI4 позволит достичь серьёзной автономности.
- Маск утверждает: к концу года продукты на новых чипах будут казаться «почти разумными».
📡 Starlink
- Новый диапазон частот позволит передавать интернет напрямую со спутника в смартфон.
- Понадобятся новые чипсеты - такие телефоны появятся через ~2 года.
- Интернет будет работать везде, включая здания и даже подземные пространства.
- Можно будет оформить аккаунт Starlink вместо Verizon/AT&T, хотя операторы полностью с рынка не уйдут.
- Маск не исключает, что SpaceX может купить телеком-компании ради доступа к спектру.
- С 2026 года SpaceX планирует демонстрировать полную многоразовость — с возвратом корабля и бустера.
- Starship V3 — радикально переработанный, способен выводить более 100 тонн на орбиту.
- Маск считает, что самодостаточная жизнь на Марсе возможна примерно через 25 лет.
- Уже в следующем году ИИ станет умнее любого человека.
- К 2030 году он превзойдёт интеллект всего человечества вместе взятого.
- Человеческий интеллект, по мнению Маска, будет снижаться.
💬 Самая яркая цитата прозвучала в адрес правительства США:
*«Если ИИ и роботы не решат проблему госдолга — нам крышка».*
В итоге Маск делает ставку на Optimus как на будущий «самый крупный продукт», улучшает AI-чипы, выводит Starlink в новый формат глобальной связи и готовит Starship к Марсу.
@ai_machinelearning_big_data
#ElonMusk #Interview #AI #Robotics #Optimus #Tesla #FSD #Starlink #Starship #SpaceX
Please open Telegram to view this post
VIEW IN TELEGRAM
👍72❤43🔥26😁14🌭5👏2👀1
Это один из крупнейших договоров на облачные вычисления в истории.
Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.
⚡ Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.
Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.
@ai_machinelearning_big_data
#AI #Cloud #OpenAI #Oracle #DataCenters
Please open Telegram to view this post
VIEW IN TELEGRAM
❤107🔥38👍18🤔4🌭4😢3🤨3😁1
С появлением ChatGPT активность на Stack Overflow снизилась, но характер вопросов сильно изменился.
Учёные проанализировали данные за 2 года и сравнили активность до и после запуска ChatGPT.
Они измеряли длину постов, объём кода, просмотры и оценки, а также оценивали уровень сложности вопросов (лёгкие, средние, сложные).
- В цлеом, общее число вопросов продолжает снижаться.
- Лёгких вопросов становится меньше.
- Вопросов среднего уровня стало больше .
- Сложные остаются примерно на том же уровне.
- Простые вопросы люди теперь задают ChatGPT.
- На Stack Overflow приносят сложные и запутанные случаи, где нужен контекст и человеческий опыт.
Так что Stack Overflow не умирает - он превращается в площадку для глубоких технических обсуждений, а «быстрые фиксы» постепенно уезжают к ИИ.
📖 Подробности в исследовании: https://arxiv.org/abs/2509.05879
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤166👍69🔥10👏4😨4
📌 Бесплатный курс для учащихся школ и колледжей от Яндекс Лицея по машинному обучению.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
❤35🔥6🥰5👏4😁2🥱2🦄1
🗣️ «Мысль о том, что ИИ создаст новые рабочие места, - это *полная .. чушь*. Под угрозой замещения находятся даже генеральные директора»
— Мо Гавдат, бывший топ-менеджер Google X.
@ai_machinelearning_big_data
#AI #Jobs #Automation #FutureOfWork
— Мо Гавдат, бывший топ-менеджер Google X.
@ai_machinelearning_big_data
#AI #Jobs #Automation #FutureOfWork
1👍74🤣60🔥14😐11❤9💯8🌭6👏4👀3
RenderFormer — это нейросеть, которая способна полностью заменить традиционный рендеринг (ray tracing, rasterization), используя только машинное обучение.
- Она работает с любыми 3D-сценами, поддерживает глобальное освещение и отображение материалов.
- Сцена представляется через * tokens* — треугольники с информацией о позиции, нормалях и свойствах материалов.
- Источники света также моделируются треугольниками.
- Используются два трансформера:
1. View-independent — для теней, рассеянного освещения и эффектов, не зависящих от угла обзора.
2. View-dependent — для отражений, бликов и других эффектов, связанных с перспективой.
- Результат работы модели — токены, которые преобразуются в финальное изображение.
📌 Обучение и результаты
- Датасет: Objaverse (сотни тысяч 3D-объектов).
- Обучение проходило в два этапа: сначала низкое разрешение и меньше треугольников, затем — более высокое качество и больше деталей.
- RenderFormer воспроизводит реалистичные тени, отражения и освещённость.
📌 Ограничения и перспективы
- Масштабирование на очень сложные сцены пока вызывает трудности.
- Для работы требуются большие вычислительные мощности.
- Но подход открывает путь к новому поколению технологий: от визуального синтеза и генерации видео до робототехники.
https://www.microsoft.com/en-us/research/blog/renderformer-how-neural-networks-are-reshaping-3d-rendering/
@ai_machinelearning_big_data
#RenderFormer #NeuralRendering #3DGraphics #MicrosoftResearch #Transformers #ComputerVision #GlobalIllumination
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64❤12🔥11
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
Игра не просто работает, а поддерживает многопользовательский режим, отрисовывая всё с помощью ASCII-графики.
Каждый компонент — от рендера до синхронизации игроков — написан исключительно на SQL-запросах.
🎮 GitHub для настоящих ценителей извращённого кода: https://github.com/cedardb/DOOMQL
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁127👍37❤16🔥13😨6🙊6😐3🌚1🍓1
This media is not supported in your browser
VIEW IN TELEGRAM
Это движок с открытым исходным кодом, цель которого — уменьшить галлюцинации и логические сбои в системах типа RAG / LLM, особенно когда:
- источники OCR-текста плохо распознаются,
- происходит «semantic drift» (когда ответ уходит от вопроса),
- «ghost matches», когда извлечённый фрагмент кажется релевантным, но на самом деле нет.
Обычно ошибки ловят уже в готовом сгенерированном тексте, из-за чего они часто повторяются.
В Semantic Reasoning Engine всё наоборот: если система видит, что рассуждения «кривые» или сбились с курса, она останавливается, сбрасывается или ищет другой путь и отвечает только когда состояние стабильно.
Проверки встроены прямо в процесс мышления модели, а не поверх ответа с фильтрами или регексами. Это помогает избегать ошибок до того, как они попадут в вывод.
- неверный поиск данных,
- сбившаяся логика,
- «провалы памяти»,
- путаница ролей агентов и другие.
Для каждой есть простое текстовое исправление. Никаких SDK — достаточно вставить инструкции прямо в промпт.
- ΔS (drift) - не уходит ли смысл слишком далеко от шага к шагу
- λ (convergence) - сходится ли рассуждение к решению или крутится в цикле
- Coverage — достаточно ли фактов и аргументов учтено
Если все три условия выполнены, ответ считается «качественным».
▪ Github: https://github.com/onestardao/WFGY
@ai_machinelearning_big_data
#ai #llm #opensource #reasoning #hallucinations #promptengineering
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48🔥19❤14🌭2⚡1👏1
🚀 Релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!
🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.
🟢 Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72👍33🔥21🌭2👏1