Пресс-центр
Последние события и самая актуальная информация о деятельности Фонда инфраструктурных и образовательных программ.
12 ноября 2019

Краткая история электроники: от лампочки к квантовому компьютеру

Когда появились первые компьютеры? Какое преимущество у квантовых компьютеров и как Вторая мировая война повлияла на развитие вычислительной техники? Что ждет электронику в будущем? В проекте «Мир вещей. Из чего сделано будущее» совместно с Фондом инфраструктурных и образовательных программ (группа РОСНАНО) рассказываем о последних открытиях и перспективных достижениях науки о материалах.

Современный мир сложно представить без устройств, с помощью которых мы храним, обрабатываем и передаем информацию. Их изобретение стало возможным в результате изучения свойств электричества и способов его практического использования — именно этим занимается электроника, одна из наиболее широких и динамично развивающихся областей научного знания. Электронные разработки определяют будущее самых разных направлений современной науки — от экспериментальной физики до вычислительных технологий.

Теоретическая и технологическая база электронных исследований формировалась поступательно: человечество проделало долгий путь от случайных наблюдений эффектов статического электричества до использования квантовых эффектов в компьютерах. Попробуем его реконструировать.

Начало изучения электричества

Научное изучение электричества стало возможным после изобретения стабильных источников питания. Почву для этого подготовили опыты итальянского врача и физика Луиджи Гальвани. Он предполагал, что мышечные сокращения, которые наблюдаются при разрезании лягушек, связаны с «животным электричеством» — внутренней силой живых организмов. 

Тем временем физик Алессандро Вольта обратил внимание на то, что в таких опытах используются инструменты из металла, которые контактируют между собой. Как мы сейчас знаем, металлы противоположной полярности создают внешний ток из-за разности своих потенциалов, то есть степеней электризации. Открыв этот эффект, уже в 1800 году Вольта сделал из металлических элементов первую батарею химический источник электрического тока. Далее ученые начали изучать применение электричества еще активнее, экспериментировать с количеством разнородных металлов в батарее.

Эти опыты позволили не просто наблюдать электрические эффекты, а постепенно продвигаться к более полному пониманию природы электричества на инженерном уровне и накапливать базу для создания устройств.

Первые устройства: реле и диод

Следующим шагом стало открытие электромагнетизма. Эффект электромагнетизма открыл английский физик Майкл Фарадей. Он обнаружил, что если пропустить электрический ток через провода, намотанные на металлический стержень, то стержень намагничивается и совершает механическую работу. Опыты Фарадея служили практическим воплощением теории электромагнитного поля Джеймса Максвелла: согласно его гипотезам, магнитное поле образовывалось под влиянием электрического. Опираясь на эту теоретическую и эмпирическую базу, британский физик Джозеф создал реле — устройство, которое использует одну электрическую цепь для переключения другой электрической цепи. 

С этого момента электроника перестает быть лишь экспериментальной наукой. Ученые и изобретатели увидели в электричестве потенциал для широкого практического применения. Как только люди поняли, что можно передавать сигналы, прерывая и восстанавливая электрический ток, это быстро стали применять для проводной передачи информации — так был создан телеграф. В конце XIX века, когда инженерная мысль дошла до того, что переменный электрический ток может передаваться и без проводов, началась эпоха радио. Поначалу оно было довольно примитивным, но по мере наращивания технологической базы люди научились использовать возможности радиоволн в самых разных областях. 

В XIX веке эксперименты с электричеством и первые шаги электронных устройств делались на фоне оформившейся технологии механических автоматов. Венцом творения механических автоматов являются вычислительные машины английского математика Чарльза Бэббиджа. Процесс их создания был очень трудоемким: для достижения наибольшей точности вычислений нужно спроектировать механизм из огромного количества взаимосвязанных колесиков. При сцеплении они выполняют механическую работу, за счет которой и производятся вычисления, причем для разных вычислений необходимо было создавать отдельное устройство. Бэббидж конструировал устройства для расчета сравнительно небольших логарифмических таблиц. Функцией таких таблиц было упрощение умножения больших чисел: складывая логарифмы интересующих нас чисел, мы получаем результат их умножения. Но более общие вычисления оказалось невозможно реализовывать с помощью технологии Бэббиджа: они требовали слишком сложных и детализированных механизмов. 

Уже в XX веке вычислительные машины стали конструировать из электромагнитных реле. Ведь принцип переключения цепей позволяет создать вентиль — устройство, реализующее вычисления в рамках булевой алгебры. Еще в XVIII веке английский математик Джон Буль сформулировал принципы работы с логикой, использующей только два значения. Этим двум значениям для вентилей соответствует наличие или отсутствие тока в цепи. Используемое в реле преобразование электрической энергии в механическую работу нельзя масштабировать на большое количество элементов, поскольку сильно растет вероятность сбоев в такой системе.

Ключевым этапом развития электронных технологий стало исключение механического движения. В этих целях ученые рассматривали движение, которое организовывалось пространственным взаимодействием электронов с электрическими полями. Катод с отрицательным потенциалом нагревается, и электроны высвобождаются под влиянием термической энергии. Освобожденные электроны устремляются к аноду — положительно заряженному электроду. Возникает электрический ток. Этот принцип использовался в диодах — электронных элементах, обладающих направленной проводимостью. 

В XIX веке болгарский физик Фредерик Гутри создал термический диод, состоящий из лампы накаливания. Опыты с термическими диодами легли в основу практического использования радиоволн. Позже были созданы более сложные триоды, в которых движение электронов можно контролировать управляющей сеткой, расположенной между катодом и анодом, заряжая ее положительным или отрицательным потенциалом. Таким образом получается тот же вентиль, в котором одна цепь управляет другой.

В то же время немецкий физик Карл Браун изобрел твердотельный диод, который состоял из полупроводника и заостренного конца медной проволоки. В начале XX века на основе такого устройства сконструировали радио, но практичным стало применение твердотельных диодов с изобретением допирования кремния, где функцию диода выполняют электроны внутри полупроводника. Военные финансировали работы над полупроводниковыми устройствами, превосходящие по своим свойствам электронные лампы. Управление электронами в полупроводнике и вентилем, который можно использовать для создания вычислительных устройств, стало возможным благодаря появлению транзистора в 1947 году — в 1956-м за его изобретение ученые Уолтер Браттейн, Джон Бардин и Уильям Шокли получили Нобелевскую премию.

Эпоха электронной обработки информации

Число как репрезентация факта и алгоритмы манипуляций с числами исследовались на математическом уровне в течение всей истории человечества. Идея автоматической обработки вычислений всегда этому сопутствовала. Тем не менее наиболее активно она начала развиваться в связи с появлением технологий обработки сигнала с помощью электричества, потому что для этого возникла технологическая база.

Хотя в теоретических работах Бэббиджа уже присутствовали принципы, лежащие в основе современных компьютеров, мы отсчитываем эпоху электронной обработки информации с 1940-х годов, а именно с математических теорий Алана Тьюринга и Джона фон Неймана. В своих теоретических работах Тьюринг заложил основы электроники, программирования и всего, что связано с шифрованием. Фон Нейман предложил саму идею встроенной программы — алгоритм, базовый принцип организации операций, существующий отдельно от устройства, которое его осуществляет. С помощью принципа фон Неймана мы не закладываем нацеленность на результат в архитектуру устройства, а задаем ему программу извне. До сих пор все практические реализации электронных вычислительных машин от суперкомпьютеров до умных вещей — используют этот принцип организации вычислений.

Базовым элементом в цифровой системе обработки информации является вентиль. Его условно можно считать диодом, действие которого строится не на множественном измерении значения тока, как в аналоговых устройствах, а только на наличии или отсутствии напряжения. Речь идет об основанной на булевой алгебре двоичной логике: она состоит из двух значений переменной, которые соответствуют нулю или единице, наличию или отсутствию тока в цепи. В начале обработки мы кодируем цифровые данные в двоичной системе, то есть превращаем все цифры в последовательность нулей и единиц. Устройство производит расчет, и на выходе мы вновь получаем нули и единицы. После того как мы их раскодируем, появятся результаты расчетов в привычном нам десятичном исчислении. В электронной системе обработки информации такой подход обеспечивает наиболее высокое соотношение «сигнал — шум» и позволяет создавать сложные системы из миллионов простых вентилей по единому правилу. 

Война как двигатель электронных исследований

Развитие электронной обработки информации было продиктовано нуждами военной промышленности европейских стран во время Второй мировой войны, прежде всего необходимостью рассчитывать полет снарядов при бомбардировках. Снаряд летит по параболической траектории. Дальность и точность выстрела зависят от точного расчета угла, с которого он будет совершен. Чтобы делать такие вычисления на поле боя, необходимо применять логарифмические таблицы — как раз те, над которыми работал Бэббидж. Острая необходимость автоматизировать их расчет, продиктованная военным положением, спровоцировала целую волну технологических разработок в области электронных вычислительных машин.

В Германии в 1940-х годах первые компьютеры на основе электромеханических реле создавал немецкий инженер Конрад Цузе. Его устройства — Z2, Z3 — успешно справлялись с артиллерийскими расчетами. Электромеханические реле быстро заменили ламповыми вентилями, обладавшими гораздо большей надежностью и быстродействием. Именно на них работала американская вычислительная машина ENIAC, выпущенная в 1946 году. Ее уже можно было программировать для решения более широкого спектра задач. В СССР такие машины конструировались Сергеем Лебедевым в 1950–1960-х годах. Компьютеры того времени были большими устройствами, по размеру сопоставимые с несколькими шкафами. При этом их производительность все еще была низкой: скорость их вычислений не превышала скорость современных настольных калькуляторов. 

В послевоенные годы интенсивное наращивание технологической базы для развития электронной промышленности продолжилось. Оно все еще было продиктовано напряженной международной ситуацией: холодной войной, гонкой вооружений и ядерным противостоянием. Перед учеными и инженерами стояла конкретная задача — создать ядерное оружие. Поэтому конструировали вычислительные машины, которые могли производить расчеты, необходимые для создания ядерных бомб. Со временем электронные вычисления стали использоваться и в других, тоже стратегически важных областях: астрофизике, атомной энергетике.

Переход к твердотельной электронике

Прорывом в построении электронных вычислительных машин стало изобретение транзистора в 1947 году. После этого электронная промышленность перешла от ламповых вентилей к более надежным и выделяющим меньше тепла при переключении твердотельным элементам. С этого момента развитие электронно-вычислительных машин идет именно по линии улучшения технологии твердотельной электроники. 

Первые компьютеры на полупроводниках строились из индивидуальных транзисторов, но уже в начале 1960-х годов ученые научились создавать интегральные микросхемы, объединяющие множество транзисторных вентилей в одном кристалле. Вентили размещаются на микросхемах, в чипах, а из них строятся макромодули, объединяющие большое количество таких чипов. Количество вентилей в чипах и частота их переключения напрямую определяют производительность компьютера, то есть количество операций, которое он выполняет в секунду. Сегодня вся электронная промышленность совместно работает над тем, чтобы оптимизировать эти параметры и достигать все более высоких скоростей вычисления в новых устройствах. 

Повышая производительность вычислительных машин, мы получаем возможность строить все более и более сложные модели реального мира и решать уравнения, сопоставимые с его событиями. Например, современные прогнозы погоды делают именно на основе расчетов систем уравнений, в которые заключаются собранные метеорологические данные. Разумеется, не все события можно предсказать таким образом. Некоторые выражаются слишком сложной системой отношений, которые невозможно рассчитать алгоритмически за конечное число шагов, а какие-то могут иметь хаотическую природу. Уравнения не до конца описывают все возможности, которые могут возникнуть в реальной жизни. Однако, повышая точность и скорость наших расчетов, мы можем расширить наши представления об этом. Вот почему вся электронная индустрия объединена единой идеей максимизации производительности, обеспечения ее экспоненциального роста.

Долгое время этот процесс определялся законами Мура и Деннарда, с помощью которых в каждом новом поколении чипов нам удавалось делать вентили все более миниатюрными, увеличивая их количество и повышая быстродействие без увеличения расхода электроэнергии. Сейчас становится понятно, что миниатюризация подходит к своему естественному пределу, поэтому мы ищем новые возможности в этой области. 

Параллельное программирование: возможности и ограничения

В качестве одной из стратегий наращивания производительности сегодня активно исследуются возможности параллельного программирования, но в них действуют существенные ограничения, связанные с базовой архитектурой компьютерных сетей. Строгая последовательность алгоритма встроенной программы — принцип, заданный фон Нейманом, — ограничивает скорость выполнения операций. 

Сейчас все больше исследуются возможности параллельных вычислений, позволяющих отойти от этого принципа. Ориентиром для таких разработок служит деятельность человеческого мозга, которому параллельная обработка информации вполне удается. В этом нет никакого новшества: идея имитации работы человеческого мозга в электронных устройствах двигала вперед вычислительные исследования с самых их истоков. Нам хотелось бы приблизить процесс обработки информации к тому, как устроена мыслительная деятельность человека: это помогло бы не только усовершенствовать возможности программирования, но и лучше понять, что собой представляет сознание человека. Компьютеры уже давно способны производить операции, попросту недоступные для человеческого мозга: скорость вычисления электронно-вычислительной машины на много порядков превышает вычислительные возможности человеческого мозга. Но машина не умеет мыслить.

Отличительная характеристика мозга как устройства — это сознание. Имитировать сознание в компьютере пока никому не удавалось: сколько бы ученые ни пытались аргументировать то, что добавление вычислительной мощности позволит компьютеру имитировать сознание, это никак не демонстрируется на практике. Вспомним тест Тьюринга — идею, относящуюся к середине XX века. Тьюринг предположил, что если человек задает вопросы компьютеру и, видя только его ответы, принимает компьютер за человека, то в этом случае машина будет обладать интеллектом. Современные компьютеры программируются так, что многие из них проходят этот тест достаточно легко — идея Тьюринга не работает.

Сейчас понятно только то, что на пути к имитации сознания и параллельному программированию перед нами встает препятствие в виде принципа фон Неймана. Строгая последовательность операций, которую он задает, не может быть пересмотрена: она составляет саму основу программирования электронно-вычислительных машин. Несмотря на это, реализуются сложные устройства, объединяющие в кластеры множество независимых друг от друга миниатюризированных электронно-вычислительных машин. Эти устройства позволяют максимально использовать параллельные вычисления с сохранением принципа программирования фон Неймана. 

Перспективы квантовых вычислений

Другим направлением исследований в области методов увеличения производительности вычислений стали квантовые методы физики. Ученые рассматривают использование квантово-механического эффекта запутанных частиц для решения математических уравнений. Это связано с комбинаторикой. Множество задач реального мира упирается в то, что количество комбинаций, которые нужно рассмотреть для нахождения решения, становится очень большим. Если оно увеличивается по экспоненциальному закону, то в определенный момент возможностей обычных компьютеров не хватает для рассмотрения всех комбинаций. 

Тот факт, что количество операций в секунду всегда было конечной величиной, не дает нам обойти это ограничение. Но в квантовом мире есть такое взаимодействие, которое определяется как квантовая запутанность — состояние, растущее экспоненциально с количеством частиц, которое в него вовлечено. Фундаментальное свойство квантовой запутанности заключается в том, что все возможные состояния запутанных частиц существуют одновременно. Это принцип суперпозиции состояний. Только при внешнем воздействии система принимает одну из возможных реализаций.

Если мы можем описать квантовый объект системой уравнений, которые мы хотим решить, то для их решения достаточно произвести измерение над объектом, то есть проверить, какое состояние он занял. Таким образом, мы избегаем бесконечно сложной комбинаторики, нам не нужно разбираться с каждым состоянием в отдельности, потому что внутри квантового объекта все состояния существуют одновременно. Это некая магия, мы видим в ней большой потенциал для ускорения вычислений. Поэтому мы пытаемся понять, при каких условиях квантовая запутанность, которая подтверждена в физических экспериментах, может быть использована для построения вычислительных машин.

Элементы микромира до сих пор были только частью физических экспериментов. Вовлечь их в технологические цепочки нам помогает возможность получить квантовые эффекты в макроскопических, больших состояниях. Рассмотрим сверхпроводимость — известное явление, которое заключается в том, что при понижении температуры у определенных металлов или квазиметаллов пропадает сопротивление электрического тока. Если мы загоним ток в катушку из сверхпроводящей проволоки, соединим два ее конца друг с другом, ток будет вечно вращаться в ней и создавать магнитное поле. На самом деле пропадание электрического сопротивления в проводнике — это квантово-механический эффект, который материализуется для нас как сверхпроводимость. Отсюда мы делаем вывод: квантово-механические эффекты могут играть существенную роль также и для макромира, в котором мы живем.

В большинстве проектов квантового компьютера используются сверхпроводящие элементы для создания кубитов. Кубит — это аналог электронного вентиля в квантовых компьютерах. Он должен быть достаточно маленьких размеров для возникновения квантовых эффектов суперпозиции и запутанности. Движение тока в одном или другом направлении как суперпозиция может приводить к связанности многих кубитов и формировать квантовую запутанность, то есть создавать предпосылки для решения уравнений, в которых мы можем быть заинтересованы. 

До сих пор не удалось создать квантовый компьютер, который можно было бы продемонстрировать как пример эффективной реализации этих принципов, хотя в мире уже есть несколько экспериментальных устройств такого рода. Все же мы находимся пока на стадии экспериментирования на уровне основных физических законов. Для выявления состояния кубитов нужно провести измерения, которые затрудняются шумами и мешают нам проводить чистые вычисления. Но, как и в прошлые времена, определенные военным противостоянием, необходимость шифрования, передачи информации и быстрого счета заставляет всех направлять колоссальные усилия и финансовые потоки на исследования в этой области.

Источник: Постнаука
Опубликовано: 11 ноября 2019
Автор: Игорь Захаров, PhD in Physics, ведущий научный сотрудник Центра Сколтеха по научным и инженерным вычислительным технологиям для задач с большими массивами данных