Четверть века назад суперкомпьютеры обладали вычислительной мощностью современного смартфона. Объясняем, почему суперкомпьютер — это не просто большая и сверхбыстрая ЭВМ, и каково может быть их будущее развитие
- Какой компьютер является мощнейшим на сегодняшний день?
В конце июня 2020 года был опубликован ежегодный рейтинг из 500 самых мощных суперкомпьютеров в мире. Первую строчку в нем занял японский Fugaku. Он в 2,8 раз мощнее, чем прошлогодний лидер — Summit от IBM (он теперь на втором месте). Впервые рейтинг возглавил компьютер на базе процессоров ARM.
Fugaku разработала компания Fujitsu — та самая, что выпускала популярную фото- и видеотехнику Fuji. Разработки велись на базе Института Кобе в составе Института физико-химических исследований (RIKEN). Концепцию придумали еще в 2010 году, а на создание и сборку ушло более шести лет.
Пишут, что Fugaku сможет помочь в борьбе с коронавирусом. Но на самом деле суперкомпьютеры способны решать самые амбициозные задачи, которые приходят нам в голову. - Чем суперкомпьютер отличается от обычного?
Суперкомпьютеры называют «числодробилками» или «числогрызами»: они нужны для супербыстрых вычислений. Главное отличие в том, что обычный компьютер выполняет задачи последовательно, хотя и на высокой скорости — вплоть до доли секунды, поэтому мы этого не замечаем. Суперкомпьютер делает это одновременно и обрабатывает огромный массив данных.
Для этого им нужны тысячи супермощных процессоров. В результате вычисления, на которые у мощного игрового компьютера уйдет неделя, суперкомпьютер выполняет за день. Однако важно, чтобы программы работали корректно, с учетом технических особенностей машины. Иначе то, что корректно работает на 100 процессорах, сильно замедлится на 200.
Современные смартфоны работают так же быстро, как самый мощный суперкомпьютер 1994 года.
Суперкомпьютеры работают на специальном ПО. Например, у Fugaku операционная система Red Hat Enterprise Linux 8 c гибридным ядром, состоящим из одновременно работающих ядер Linux и McKernel. В качестве программных средств используют API — то есть интерфейсы или платформы для программирования — и открытое ПО, которое позволяет создавать виртуальные суперкомпьютеры на базе обычных. Часто суперкомпьютер — это несколько высокомощных компьютеров, которые объединены высокоскоростной локальной сетью.
Обычно производительность компьютеров оценивается во флопсах (FLOPS — FLoating-point Operations Per Second) — то есть количестве операций над числами с плавающей точкой в секунду. Для суперкомпьютеров сначала использовали мегафлопсы — MIPS, количество миллионов операций в секунду, а с 2008 года петафлопсы — то есть количество миллионов миллиардов вычислений в секунду. К примеру, у суперкомпьютера Fugaku производительность составляет 415 петафлопс, а у Summit — 148. - Кто придумал суперкомпьютер?
Сам термин появился в конце 1960-х годов в Ливерморской национальной лаборатории США и компании-производителе компьютеров CDC. Но впервые о «супервычислениях» заговорили еще в 1920-х годах, когда IBM собрала для Колумбийского университета свой табулятор — первую ЭВМ, работавшую на перфокартах.
Первой супер-ЭВМ считают Cray-1, созданную в 1974 году. Ее разработал Сеймур Крей — американский инженер в области вычислительной техники и основатель компании Cray Research. Cray-1 выполняла до 180 млн операций в секунду.
За основу Крэй уже имеющиеся разработки — компьютеры CDC 8600 и CDC STAR-100. Он построил процессор, который быстро выполнял и скалярные и векторные вычисления: предшественники хорошо справлялись либо с первыми, либо со вторыми.
Скалярные вычисления — те, где используется одна характеристика, величина и знак. В векторных используют вектора, то есть величину и направление (угол).
Для этого инженер использовал небольшие модули памяти, расположенные близко к процессору, чтобы увеличить скорость. Так был создан новый принцип работы с памятью — «регистр-регистр». Центральный процессор берет и записывает данные в регистры, а не в память, как у предыдущих моделей — это тоже увеличило скорость обработки. Сам процессор состоял из 144 тыс. микросхем, которые охлаждались фреоном.
Cray-1 впервые презентовали в 1975-м, и за нее тут же начали биться ведущие лаборатории США, занимающиеся сложными вычислениями. В 1977-м компьютер достался Национальному центру атмосферных исследований, где проработал 12 лет. Cray-1 можно было арендовать для работы за $7 500 в час или $210 тыс. в месяц.
В 1980-х годах Крэй выпустил еще две модели суперкомпьютеров нового поколения, включая многопроцессорный Cray X-MP. Начиная с 1990-х лидерство перехватили NEC, Hewlett-Packard и IBM, причем компьютеры последней регулярно занимают верхние строчки того самого ТОП-500. - Где и для чего их используют?
Главная задача суперкомпьютеров — выполнять максимум вычислений за минимум времени. Это полезно для многих областей: начиная от создания лекарств и заканчивая разработками новых продуктов и технологий,
Суперкомпьютер Fugaku изучает пути распространения вируса и его диагностику. Для этого он обрабатывает данные статистики, коэффициент заражения вируса, его состав и модель поведения. А еще ему поручат прогнозирование и симуляцию природных катастроф, разработку и совершенствование «зеленых» технологий.
Есть суперкомпьютеры, которые работают с одним-единственным приложением, которое задействует всю память. Например, для прогнозирования изменений погоды и климата или моделей ядерных испытаний. В будущем это позволит отказаться от реальных испытаний опасного оружия и исключить риски взрывов или утечек при долгом хранении.
Великобритания выделит $1,6 млрд на создание мощнейшего в мире суперкомпьютера для прогнозирования погоды и климатических изменений.
Министерство энергетики США и Аргоннская национальная лаборатория, совместно с Intel и Cray, обещают в 2021 году представить суперкомпьютер Aurora для исследований в области ядерного оружия. Он будет выполнять 1 квинтиллион операций в секунду и обойдется в $500 млн.
Но суперкомпьютеры не просто вычисляют, а моделируют реальность. То есть просчитывают все возможные варианты развития событий и строят прогнозы. Поэтому с их помощью астрономы и астрофизики воспроизводят самые разные события и процессы во Вселенной.
В марте этого года астрономы из Технологического университета Суинберна (Австралия) и Калифорнийского технологического университета (США) смоделировали на суперкомпьютере эволюцию Млечного Пути. Для этого они использовали все данные о звездных скоплениях в нашей галактике. - Нанокомпьютер, квантовый компьютер и суперкомпьютер: в чем разница?
Все это — вычислительные устройства с выдающимися характеристиками.
Нанокомпьютер — это компьютер микроскопических размеров. Он запрограммирован на определенные химические свойства и поведение. Он может быть очень мощным и высокопроизводительным, но пока что не таким, как суперкомпьютер. В будущем они смогут заменить обычные устройства, так как потребляют намного меньше энергии.
Группа инженеров и ученых из Гарвардского университета и компании Mitre создала простейший нанокомпьютер, который состоит из множества крошечных проводников диаметром 15 нанометров (нанометр = 1 миллиардная метра). Их ядро из германия, а внешняя оболочка — из кремния.
Свой нанокомпьютер есть и у IBM, но уже покрупнее: 1х1 мм. Это полноценный ПК с процессором, памятью и блоком питания. По производительности его можно сравнить с x86-совместимыми процессорами из 1990-х годов. Его можно будет применять для работы с ИИ, сортировки данных, логистики, обнаружения краж.
Квантовый компьютер — это устройство, которое работает по принципам квантовой механики. Он обрабатывает данные не в битах, а в кубитах, которые одновременно равны 0 и 1. В теории, такой компьютер может обрабатывать все возможные состояния одновременно.
Пока что квантовые компьютеры существуют в виде концепций и моделей. Одна из таких принадлежит «Росатому»: проект рассчитан на срок до 2024 года и предполагает финансирование ₽24 млрд. - Какое будущее ждет суперкомпьютеры?
Очевидно, что производительность суперкомпьютеров будет разгоняться до космических цифр, их размеры — уменьшаться, а потребление энергии — сокращаться. Но самое интересное кроется в задачах, которые они смогут решать.
Эксперты считают, что через 15 лет симуляции отойдут на второй план, а машинное обучение позволит суперкомпьютерам выполнять глубокую аналитику данных. В итоге их будут применять везде: от разработки бесконечных аккумуляторов до лекарства от рака.