инженер устал
473 subscribers
18 photos
Истории про электронику и вокруг неё.
Как вещи придумывались, ломались, приживались и становились стандартами.

Просветительский канал компании 3pcb.ru

Реклама не публикуется
Download Telegram
До появления Cannon plug с электрическими соединениями всё было довольно уныло.

В начале 1920-х питание и сигналы подключали через винтовые клеммы, открытые контакты и кустарные разъёмы. Медленно, небезопасно, ненадёжно: контакты разбалтывались от вибраций, переподключение требовало инструмента, а ошибки были обычным делом. Для переносного оборудования это был системный тупик.

В 1923 году инженер James Cannon разработал многоконтактный разъём Type M для очень приземлённой задачи — подключения переносных электрических мясорубок. В первую очередь — питания и заземления электромоторов, которые нужно было часто и безопасно отсоединять.

Решение оказалось неожиданно сильным: прочный корпус, механическая фиксация, несколько контактов в одном разъёме, подключение без инструмента и без шансов перепутать провода.

Разъём быстро вышел за пределы своего исходного применения. Его начали использовать в промышленном оборудовании, измерительных системах, радиотехнике — везде, где требовались надёжные и повторяемые электрические соединения. Со временем название Cannon plug стало нарицательным для целого класса многоконтактных разъёмов.
🔥5👍4👎1🤮1💩1
Самые первые телефонные линии в конце 1870-х годов были однопроводными с использованием земли в качестве обратного провода. Один провод нёс сигнал, а цепь замыкалась буквально через землю. Это было дёшево и позволило запустить систему, но превратилось в кошмар из-за помех. Любое электрическое колебание в земле становилось частью разговора, а перекрёстные наводки между линиями были ужасны.

Решение нашли в металлической цепи, внедрённой в 1880-х. Использование двух проводов — для сигнала и для его возврата — наконец-то разорвало зависимость от нестабильной земляной массы. Это стал фундаментальный скачок в качестве. Система подавляла большую часть наведённых шумов и перекрёстных помех и легла в основу всего последующего развития. Сигнал стал чистым, но возникла новая проблема: ёмкость. Проложить отдельную пару для каждого разговора между городами было совершенно нереально.

Это привело к следующей крупной инновации на магистральных линиях — системам несущей частоты. С 1910-х годов начали применять частотное мультиплексирование (FDM), чтобы передавать множество голосовых каналов по одной физической паре. Это была игра в управление спектром. Но для ещё большей пропускной способности потребовалась среда с гораздо лучшими характеристиками на высоких частотах. Так появился коаксиальный кабель, запатентованный Эспеншидом и Аффелом из Bell Labs в 1929 году. Благодаря ограничению поля внутри экрана, он работал на частотах, недоступных витым парам. К 1941 году первая коммерческая система L-1 передавала 480 каналов по одной коаксиальной линии. Прогресс был стремительным: к середине 1970-х система L-5 уже несла свыше 10 000 каналов на одну линию, сделав коаксиальный кабель основой дальней связи на десятилетия.

Но для абонентской линии — «последней мили» до пользователя — победило другое решение: витая пара. Её гениальность в простоте и экономичности. Равномерная скрутка создаёт предсказуемую симметричную линию с отличным подавлением синфазных помех. Она дёшева в производстве, проста в монтаже и для одного голосового канала более чем достаточна. Пока коаксиал господствовал на магистралях, витая пара стала мировым стандартом для местных подключений, проведённым в сотни миллионов домов.

Финальная революция пришла благодаря совершенно другому физическому принципу: свету. Оптоволоконный кабель, появившийся в 1980-х, сделал коаксиал устаревшим для дальней связи. Но это уже совсем другая история.
👍21🔥41👎1
Все ряды номиналов — E6, E12, E24 и другие — построены на основе строгой геометрической прогрессии. Она описывается формулой V(n) = 10^(n/N), где N — это номер ряда (например, 24 для E24), а n — порядковый номер значения в нём (от 0 до N-1).

На практике это означает, что каждое следующее значение в ряду больше предыдущего в одно и то же число раз. Для E24 этот множитель равен корню 24-й степени из 10, что примерно составляет 1.1007. Так, умножая начальное значение (например, 1.0) на этот коэффициент, получают всю серию: 1.0 → 1.1 → 1.21 → 1.33... и так далее до 10. После этого декада повторяется: 10, 11, 12, 13.3 и т.д.

Таким образом, "идеальными" номиналами для E24 были бы, к примеру, 2.90, 3.48, 4.17 и 8.32. Однако в 1952 году, когда принимали международный стандарт IEC 63, инженеры решили сохранить уже устоявшиеся в промышленности значения из старых, менее точных рядов. Поэтому в современном, математически стройном ряду E24 навсегда закрепились "аномалии" вроде 2.7, 3.3, 3.9 и 8.2. Эти числа — результат исторического компромисса, где привычки победили математику.
👍13🔥2👎1
В 1962 году американская межпланетная станция «Маринер-1», предназначенная для изучения Венеры, была уничтожена через несколько минут после старта из-за ухода с траектории. В инженерной среде до сих пор гуляет байка, что одной из причин стала «пурпурная чума» (purple plague), но это именно байка: официально авария была вызвана программной ошибкой в системе наведения, а не отказом электроники.

При этом сама «purple plague» — не миф, а реальная и хорошо задокументированная проблема микроэлектроники 60–70-х годов. Физика процесса проста, а последствия жёсткие. На алюминиевых контактных площадках кристалла и золотых выводах корпуса при длительном нагреве (разварка, термостресс в эксплуатации) начинается активная взаимная диффузия. Образуются интерметаллические соединения системы Au–Al, самый проблемный из которых — AuAl₂. Он имеет характерный фиолетовый оттенок и крайне низкую механическую прочность: контакт деградирует, растрескивается и может разрушиться от вибраций или термоциклирования.

Термин «purple plague» закрепился в профессиональной среде после публикаций инженера Говарда Блэра в 1967 году. С этим эффектом сталкивались в проектах NASA, а также в коммерческой электронике — например, в Texas Instruments и при производстве ранней бортовой электроники для первых Boeing 747. Ключевая сложность была даже не в самом факте образования интерметаллидов, а в его непредсказуемости: скорость диффузии и состав фаз сильно зависели от температуры, времени и даже от микроскопических примесей в металлах, что делало отказы коварными и плохо воспроизводимыми в тестах.

«Чума» быстро стала болезненным, но полезным уроком для отрасли. В ответ индустрия пересмотрела технологии: переход на алюминиевую разварку, внедрение диффузионных барьеров (Ni, Pt) между золотом и алюминием, либо полный отказ от пары Au–Al в пользу более стабильных сочетаний материалов. По сути, это один из кейсов, где отказ пары микрон металла сформировал современные правила упаковки и bonding-процессов.
👍203👎1
x86 и наследие, от которого нельзя отписаться

Запуск современного x86 до сих пор выглядит как реконструкция истории. После reset процессор стартует в 16-битном real mode, унаследованном от начала 80-х. Затем следует переход в protected mode эпохи 32-битных систем — и только после этого возможен вход в полноценный 64-битный long mode. Это не вопрос удобства или инерции. Такой путь — цена экосистемы, в которой загрузчики, прошивки, платформенные интерфейсы и ожидания «железа» десятилетиями формировались вокруг этой последовательности.

Та же логика размазана по всему ISA и платформе. Legacy-прерывания, I/O через порты, избыточные режимы и уровни привилегий, которыми почти никто не пользуется, но которые нельзя игнорировать, — всё это продолжает существовать, потому что когда-то стало частью контракта совместимости. Эти механизмы не «мешают» напрямую, но они формируют сложность, от которой невозможно абстрагироваться.

Этот же контракт проявляется и на уровне прошивок. Классический BIOS был прямым отражением раннего x86: 16-битный код, жёсткая привязка к real mode, минимальный сервис для загрузки ОС. UEFI появился как попытка навести порядок — дать нормальную модель инициализации, драйверы, сервисы, графический интерфейс, сетевой стек. Но принципиального разрыва не случилось. UEFI не отменяет наследие x86, а инкапсулирует его: под капотом по-прежнему учитываются reset-семантика CPU, ранние режимы, совместимость с историческими ожиданиями платформы.

В результате UEFI стал не заменой прошлого, а переходным слоем. Legacy не исчезло — оно просто «перетекло» ниже, стало менее заметным, но осталось обязательным. Значительная часть сложности x86 сегодня рождается не из требований современных задач, а из необходимости корректно пройти стартовый путь, придуманный десятилетия назад.
👍7🔥3👎1
Часть 2. Почему x86 нельзя просто «почистить»

На этом фоне и появилась идея x86S. Концепция была простой и радикальной: оставить x86 только в 64-битном варианте — старт сразу в long mode, без real mode, без protected mode и без части исторических механизмов. Цель выглядела здраво: сократить архитектурный хвост, упростить платформу и сделать загрузку и инициализацию логичными по меркам XXI века.

При этом сценарий был прагматичным. Речь не шла о сломе экосистемы или отказе от современных ОС. Предполагалось, что 64-битные Windows и Linux продолжат работать, пусть и с переработанной загрузочной цепочкой. Это была попытка почистить фундамент архитектуры, а не создать ещё одну специализированную ветку «для серверов» или «для облаков».

Но к концу 2024 года инициативу x86S свернули в её исходном виде. И причина была не инженерной — техническая логика в проекте была — а экосистемной. x86 давно перестал быть делом одного вендора. Есть несколько производителей CPU, есть облачные провайдеры, OEM, разработчики ОС, гипервизоров, прошивок и инструментов. Любая односторонняя реформа ISA в такой среде превращается в системный риск с огромной ценой входа.

После этого фокус сместился в коллективный формат. Обсуждение будущей эволюции x86 ушло в совместные отраслевые структуры. Это означает простую вещь: проблему легаси признают, но решать её будут не рывком, а консенсусом — маленькими шагами, через спецификации, совместимость и длинные жизненные циклы. Не «переписать x86», а методично срезать углы так, чтобы экосистема продолжала ехать, даже если дорога давно ведёт из прошлого.
👍102👎2
Часть 3. ARM и RISC-V: легаси как выбор, а не приговор

На фоне x86 ARM и RISC-V часто выглядят «чистыми» архитектурами. Это не совсем так — легаси есть и там. Разница в том, где оно живёт и насколько обязательно.

ARM изначально рос как архитектура для встраиваемых систем. Старт CPU там проще: нет обязательного real mode и исторической цепочки переходов. Процессор выходит из reset в предсказуемом состоянии, а дальнейшее поведение определяется прошивкой и дизайном SoC. Да, у ARM накопилось своё прошлое — Thumb, ARMv7, big.LITTLE, аппаратные quirks, — но это легаси платформ и реализаций, а не жёсткий архитектурный контракт.

RISC-V изначально пошёл ещё дальше. Базовая ISA минимальна, всё остальное вынесено в расширения. Нет обязательных режимов ради совместимости с прошлым, нет скрытых предпосылок загрузки. Если что-то устарело, его можно просто не реализовывать в новых ядрах.

Собственное легаси у RISC-V уже появляется — ранние расширения, несовместимые профили, различия между вендорами. Но принципиально это эволюционное легаси, которое можно пересобрать и стандартизировать, а не фундамент, от которого нельзя отказаться.

В итоге разница проста. В x86 совместимость встроена в сам процессор. В ARM и RISC-V она вынесена на уровень платформы и софта. Это даёт больше свободы для изменений — ценой фрагментации, но без архитектурных кандалов прошлого.
👍8🔥1
Всё началось с патента 1896 года, выданного Ричарду А. Л. Снайдеру и Августу Тиннерхольму на «аппарат электрического нагревания». Этот ранний электрический паяльник продавался под маркой American Beauty и был больше чем просто инструментом — он отражал технологический оптимизм Америки на рубеже веков. Его название стало удачным маркетинговым ходом: «American Beauty» (дословно «Американская красавица») ассоциировалось с чем-то образцовым, лучшим и по-настоящему американским. На фоне развития телеграфа и электрификации это было подходящее имя для нового продукта. Однако сам инструмент, напоминавший утюг с открытой спиралью и массивным медным жалом, был несовершенен: он долго нагревался и сильно терял тепло. Поэтому им пользовались в основном телеграфисты и энтузиасты, а не массовый потребитель.

Массовым паяльник сделал немецкий инженер Эрнст Сакс, запатентовавший в 1921 году промышленную модель H-1. Его компания ERSA (названная по инициалам Ernst Sachs) выпускала этот паяльник для тяжёлых работ: лужения котлов, жести и проводов на заводах автомобильной и радиоэлектронной промышленности Европы. В отличие от своего американского предшественника, это был более выносливый инструмент с улучшенной изоляцией и эргономикой, рассчитанный на многочасовую работу. Именно промышленный спрос, а не отдельные изобретения, создал устойчивый рынок электрической пайки, постепенно вытесняя газовые и бензиновые горелки, которые ещё использовались там, где не было электричества.

Следующим этапом стала новая форма инструмента — паяльный пистолет Карла Веллера, появившийся в 1946 году. Его главным новшеством был импульсный принцип работы: он не был постоянно горячим, а нагревался за несколько секунд при нажатии на курок благодаря мощному трансформатору. Это решение идеально подошло для послевоенного бума бытовой электроники и радиолюбительства. Пистолет Веллера был удобен для разовых работ — быстро нагревался, потреблял меньше энергии и был безопаснее громоздких моделей. Он стал узнаваемым предметом дизайна, но остался, скорее, успешной специализированной ветвью развития, а не основным направлением для профессионалов.

Основной путь эволюции профессионального инструмента пошёл в сторону точного контроля температуры. Современные паяльные станции заменили нихромовые спирали на керамические, а затем и на индукционные нагреватели, где жало разогревается электромагнитным полем. Это обеспечивает быстрый нагрев и экономит энергию. Стабильность температуры контролируется цифровыми PID-регуляторами, способными удерживать её с точностью до одного градуса. Материалы жал также усложнились: вместо простой меди теперь используются многослойные конструкции. Медная сердцевина эффективно проводит тепло, слой железа защищает от растворения в припое, хром снижает окисление, а рабочая поверхность часто имеет специальное покрытие для лучшего смачивания. В итоге сегодня это не просто паяльник, а целая система с программируемыми режимами, множеством сменных жал и интеллектуальным управлением под конкретные задачи.
🔥8👍2
На графиках — стоимость 10 000 резисторов 1 кΩ в пересчёте в доллары 2025 года. Показаны обычная и логарифмическая шкалы — для масштаба и деталей.

В 1940-х такая партия стоила порядка 20 000 $. Сегодня — около 5 $.

Падение — примерно в 4000 раз в реальных деньгах.
Ключевое: основной обвал цены произошёл задолго до SMD. Массовое производство, стандартизация и автоматизация дали несравнимо больший эффект, чем переход к SMD или уменьшение корпуса с 0805 до 0402.

После ~2010 года цена практически упёрлась в физический и логистический предел. Дальше её определяют уже не технологии, а упаковка, логистика и маржа.
👍104
Ранние электрические схемы не были формальным языком. Это были рабочие записи конкретных инженеров. Компоненты рисовали так, как было удобно мыслить: катушки — как реально намотанные, батареи — как набор пластин, контакты — как физические элементы. Универсальной нотации не существовало. Схема была понятна тем, кто работал в той же области и в том же контексте.

До начала XX века узнаваемость схем держалась не на стандартах, а на профессиональной среде. Телеграфисты, радиоинженеры, энергетики использовали разные условности. Один и тот же элемент мог выглядеть по-разному в разных публикациях, и это не считалось ошибкой.

Проблемы начались, когда схемы стали массово публиковаться и распространяться. В 1910–1920-х годах схемы регулярно печатались в журналах, пересылались между компаниями, использовались для обучения и ремонта. Выяснилось, что чужую схему трудно читать даже при корректной электрической логике — из-за различий в обозначениях и стиле.

Первые шаги к унификации появились не в виде стандартов, а в виде редакционных рекомендаций. В радиожурналах того времени часто публиковались статьи с таблицами условных обозначений и пояснением: какие символы используются в данной серии материалов. Это были практические договорённости, а не обязательные нормы.

Со временем начали закрепляться наиболее удобные и устойчивые обозначения — те, которые лучше читались при печати, копировании и масштабировании. Они постепенно вытесняли более «рисунковые» и индивидуальные варианты. Формальная стандартизация пришла позже и в основном зафиксировала уже сложившуюся практику.
9👍6🔥1
Неправильное (слева) и правильное (справа) использование телефона.
Реклама 1897 года.
🔥7😁4
Во многих обсуждениях маркировки «Честный знак» до сих пор говорят «QR-код». Это неверно. В системе используется DataMatrix, и это принципиальный выбор.

QR хорошо подходит для экранов, рекламы и документов — там, где код читают люди с телефона. Он тоже использует коррекцию ошибок и умеет убирать искажения. Но при проектировании QR приоритетом было быстрое и удобное наведение камеры, а не минимальный размер и стабильная работа в производственной среде.

DataMatrix появился раньше и изначально проектировался под производство и логистику: маленький физический размер, нестабильная печать, лазерная гравировка, грязные и бликующие поверхности, потоковое сканирование.

DataMatrix, как и QR, допускает частичную потерю изображения. В коде заложена избыточность (ECC 200), а данные распределены по всей матрице. Локальные дефекты — потёртости, загрязнение, перекрытие — не разрушают данные целиком, а превращаются в корректируемые ошибки.

Ориентация задаётся рамкой, а не отдельными ориентирами. Две сплошные стороны образуют L-образный контур, две другие — тайминговую сетку. Такая схема занимает меньше площади и устойчиво работает на малых размерах, где QR уже упирается в габариты своих «глаз».

Данные внутри не читаются линейно — это общее свойство обоих форматов. Биты укладываются по фиксированному шаблону и распределяются по всему полю, чтобы локальные дефекты не выбивали подряд идущие данные.

У DataMatrix выше плотность данных. При одинаковом объёме информации он физически меньше, чем QR, за счёт более компактной служебной структуры. Для плат, компонентов и мелкой упаковки это критично: код можно сделать меньше, не жертвуя читаемостью.

В отличие от QR, в DataMatrix нет масок и вариантов оформления. Его структура жёстко задана стандартом. Это осознанный выбор в пользу предсказуемого чтения, а не визуальной гибкости.

Служебная информация встроена в саму структуру символа. Размер матрицы и параметры коррекции ошибок определяются при восстановлении геометрии, после чего декодируются полезные данные.

Всё поле кода рабочее. Внутренних «безопасных зон» не предусмотрено. Логотипы и вырезы здесь не закладываются как допустимый сценарий — повреждение рамки или превышение допустимой потери данных делает код нечитаемым.

В «Честном знаке» используется именно DataMatrix, потому что он изначально оптимизирован под промышленную маркировку, где важны размер, плотность и предсказуемость, а не удобство наведения камеры человеком.
👍132
Сегодня смотрим динамику цен на солнечные батареи.

На первом графике показана реальная цена солнечных модулей — стоимость за ватт мощности в долларах с учётом инфляции. На втором — кумулятивная установленная мощность солнечной генерации в мире (логарифмическая шкала).

Обычно связь между ними простая: по мере роста установленной мощности цена снижается плавно. Это классическая кривая обучения — рост объёмов, улучшение процессов, снижение себестоимости. Так ведёт себя цена модулей с 1975 года и почти до середины 2000-х.

Но в районе 2008–2012 на графике цены появляется аномалия. Цена падает резко и ступенчато. При этом график установленной мощности не показывает такого же излома — кумулятивная мощность и раньше росла близко к экспоненциальной кривой.

Дело в том, что в этот период производственные мощности выросли быстрее спроса, модули стали стандартизированным товаром, началась ценовая конкуренция и перепроизводство. Цена ушла ниже привычной траектории “обучения”.

Рост КПД продолжался, но он объясняет лишь часть снижения цены. Основной эффект дала массивная китайская господдержка этой отрасли и, как следствие — избыток предложения.

Выход на рынок крупных китайских производителей привел к стремительному разрушению олигополии "старых" лидеров. Этот этап закончился их массовым разорением и переделом мирового рынка в пользу азиатских компаний.
👍2🔥1