Курсовая работа: Характеристика и виды суперкомпьютеров

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

Введение

Целью создания курсовой работы является изучение суперкомпьютеров и анализ технологий в области суперкомпьютерных систем и способов связи с существующими областями науки, нуждающимися в высокопроизводительных вычислениях и моделировании. В данной курсовой работе нужно рассмотреть, что такое суперкомпьютер, развитие и применение суперкомпьютеров, а также в ней показан рейтинг суперкомпьютеров и перспективы их развития.

Когда появились первые компьютеры, перед разработчиками вычислительной техники стала проблема - производительность вычислительной системы. С годами производительность компьютеров стремительно возрастала, с каждым годом росло и число пользователей. Это привело к расширению сферы вычислительных систем - что стало одной из причины появления суперкомпьютеров. Суперкомпьютер - это вычислительная система, которая позволяет производить сложные расчеты за более короткие промежутки времени.

Важным показателем компьютера является быстродействие, которое измеряется флопсами. Флопс - внесистемная единица, используемая для измерения производительности компьютеров, показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система. Расширение границ человеческого знания всегда опиралось на теорию и опыт. Но теперь ученые сталкиваются с тем, что многие испытания стали невозможными - в некоторых случаях из-за своих масштабов, в других - дороговизны или опасности для здоровья и жизни людей. Суперкомпьютеры стали опорой современной науки и производства. Иногда суперкомпьютеры используются для работы с одним единственным приложением; в других случаях они обеспечивают выполнение большого числа разнообразных приложений. [4]

1. Что такое суперкомпьютер

1.1 Определение понятия суперкомпьютер

Считается, что суперкомпьютер - это компьютер с максимальной производительностью. Однако быстрое развитие компьютерной индустрии делает это понятие весьма и весьма относительным. Что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не подпадает. Производительность первых суперкомпьютеров начала 70-х годов была сравнима с производительностью современных домашних компьютеров. По сегодняшним меркам ни те, ни другие к суперкомпьютерам не относятся.

В любом компьютере все основные параметры взаимосвязаны. Трудно представить универсальный компьютер, имеющий высокое быстродействие и маленькую оперативную память, либо огромную оперативную память и небольшой объем дисков. Отсюда простой вывод, что суперкомпьютер - это компьютер, имеющий не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти в совокупности со специализированным программным обеспечением, с помощью которого этим инструментом можно эффективно пользоваться. [2]

Суперкомпьютер (с англ. Supercomputer) -- специализированная вычислительная машина, значительно превосходящая по своим техническим параметрам и скорости вычислений большинство существующих в мире компьютеров.

Современные суперкомпьютеры представляют собой большое число высокопроизводительных серверных компьютеров, соединённых друг с другом локальной высокоскоростной сетью для достижения максимальной производительности в рамках подхода достижения вычислительной задачи.

Определение понятия «суперкомпьютер» не раз было предметом многочисленных споров и обсуждений.

Чаще всего авторство термина приписывается Джорджу Майклу и Сиднею Фернбачу. В конце 60-х годов XX века работавшим в Ливерморской национальной лаборатории, и компании CDC. Тем не менее, известен тот факт, что ещё в 1920 году газета New York World рассказывала о «супер вычислениях», выполнявшихся при помощи табулятора IBM, собранного по заказу Колумбийского университета.

В общеупотребительный лексикон термин «суперкомпьютер» вошёл благодаря распространённости компьютерных систем Сеймура Крэя, таких как, CDC 6600, CDC 7600, Cray-1, Cray-2, Cray-3 и Cray-4. Сеймур Крэй разрабатывал вычислительные машины, которые становились основными вычислительными средствами правительственных, промышленных и академических научно-технических проектов США с середины 60-х годов до 1996 года. В то время одним из популярных определений суперкомпьютера было следующее: -- «любой компьютер, который создал Сеймур Крэй». Сам Крэй никогда не называл свои детища суперкомпьютерами, предпочитая использовать вместо этого обычное название «компьютер».

Компьютерные системы Крэя удерживались на вершине рынка в течение 5 лет с 1985 по 1990 годы. 80-е годы XX века охарактеризовались появлением множества небольших конкурирующих компаний, занимающихся созданием высокопроизводительных компьютеров, однако к середине 90-х большинство из них оставили эту сферу деятельности, что даже заставило обозревателей заговорить о «крахе рынка суперкомпьютеров». На сегодняшний день суперкомпьютеры являются уникальными системами, создаваемыми профессионалами компьютерного рынка, такими как IBM, Hewlett-Packard, NEC, которые приобрели множество ранних компаний, вместе с их опытом и технологиями. Компания Cray по-прежнему занимает достойное место в ряду производителей суперкомпьютерной техники.

Из-за большой гибкости самого термина до сих пор распространены довольно нечёткие представления о понятии «суперкомпьютер». Шутливая классификация Гордона Белла и Дона Нельсона, разработанная приблизительно в 1989 году, предлагала считать суперкомпьютером любой компьютер, весящий более тонны. Современные суперкомпьютеры действительно весят более 1 тонны, однако далеко не каждый тяжёлый компьютер достоин чести считаться суперкомпьютером. В общем случае, суперкомпьютер -- это компьютер значительно более мощный, чем доступные для большинства пользователей машины. При этом скорость технического прогресса сегодня такова, что нынешний лидер легко может стать завтрашним аутсайдером.

Архитектура также не может считаться признаком принадлежности к классу суперкомпьютеров. Ранние компьютеры CDC были обычными машинами, всего лишь оснащёнными быстрыми для своего времени скалярными процессорами, скорость работы которых была в несколько десятков раз выше, чем у компьютеров, предлагаемых другими компаниями.

Большинство суперкомпьютеров 70-х оснащались векторными процессорами, а к началу и середине 80-х небольшое число (от 4 до 16) параллельно работающих векторных процессоров практически стало стандартным суперкомпьютерным решением. Конец 80-х и начало 90-х годов охарактеризовались сменой магистрального направления развития суперкомпьютеров от векторно-конвейерной обработки к большому и сверхбольшому числу параллельно соединённых скалярных процессоров.

Массово-параллельные системы стали объединять в себе сотни и даже тысячи отдельных процессорных элементов, причём ими могли служить не только специально разработанные, но и общеизвестные и доступные в свободной продаже процессоры. Большинство массивно-параллельных компьютеров создавалось на основе мощных процессоров с архитектурой RISC, наподобие PowerPC или PA-RISC.

В конце 90-х годов высокая стоимость специализированных суперкомпьютерных решений и нарастающая потребность разных слоёв общества в доступных вычислительных ресурсах привели к широкому распространению компьютерных кластеров. Эти системы характеризует использование отдельных узлов на основе дешёвых и широко доступных компьютерных комплектующих для серверов и персональных компьютеров и объединённых при помощи мощных коммуникационных систем и специализированных программно-аппаратных решений. Несмотря на кажущуюся простоту, кластеры довольно быстро заняли достаточно большой сегмент суперкомпьютерного рынка, обеспечивая высочайшую производительность при минимальной стоимости решений.

В настоящее время суперкомпьютерами принято называть компьютеры с огромной вычислительной мощностью. Такие машины используются для работы с приложениями, требующими наиболее интенсивных вычислений (например, прогнозирование погодно-климатических условий, моделирование ядерных испытаний), что в том числе отличает их от серверов и мэйнфреймов -- компьютеров с высокой общей производительностью, призванных решать типовые задачи (например, обслуживание больших баз данных или одновременная работа с множеством пользователей). [1]

1.2 Развитие суперкомпьютеров

суперкомпьютер флопс серверный

Первым отечественным суперкомпьютером является БЭСМ-6, выпущенный в 1967 году под руководством, инженера Сергея Алексеевича Лебедева. Данная машина реально намного превосходила своего иностранного конкурента. В данном компьютере было заложено так много инновационных решений, что её производство продолжалось на протяжении двадцати лет. Попытка американских инженеров создать что-либо совершеннее БЭСМ-6, носившая имя ILLIAC-IV, окончилась неудачей: данный суперкомпьютер оказалась дороже, сложнее и медленнее русского налога. БЭСМ-6 не был единственным советским суперкомпьютером. Лебедев руководил работами по созданию многопроцессорного комплекса "Эльбрус", однако в 1974 году смерть помешала ему увидеть результаты своих трудов. Работы над первым компьютером серии "Эльбрус" завершились в 1979 году, и, хотя по производительности он, равно как и другие компьютеры серии, отставали от зарубежных аналогов, в его процессоре впервые была применена технология суперскалярности. Супер скалярная архитектура, то есть технология параллельного выполнения нескольких команд, независимых друг от друга, вскоре была реализована в большинстве процессоров для персональных компьютеров; таким образом, в процессорах Intel и AMD есть частичка нашего, русского, инженерного знания. Но, перестройка, раскол Советского Союза и последовавшие за ним события крайне негативно отразились на отечественной суперкомпьютерной промышленности. Последним компьютером отечественных инженеров-электронщиков можно считать появившийся в 1990-х процессор Elbrus 2000, который так и не смог выйти на рынок: сначала помешал кризис, а затем, команду "Эльбруса" купила корпорация Intel. На данный момент все существующие в России суперкомпьютеры либо зарубежного производства, либо основаны на зарубежных комплектующих и технологиях. После кризиса, индустрия производства суперкомпьютеров принялась за штурм новых высот. В 1997 году был создан суперкомпьютер ASCI RED, обладавший неслыханной тогда производительностью в 1,34 ТФЛОПС. Однако самое интересное, что данный компьютер был построен на базе почти что десяти тысяч процессоров Pentium II, тех самых, которых можно было спокойно найти в любом персональном компьютере тех лет. Подобная система объединения вычислительных мощностей относительно недорогих процессоров получила название Massively Parallel Processing, или просто MPP. Преимущество MPP-систем - в их гибкости: незагруженные процессорные блоки можно легко отключить, а по возможности - включить заново, а вдобавок подключить дополнительные. На данный момент большинство суперкомпьютеров было построено именно на базе данной технологии.

Через некоторое время производители выпускали всё более и более новые суперкомпьютеры, которые задавали новые стандарты производительности. Символический барьер в один ПФЛОПС (читается "пентафлопс"; 1 ПФЛОПС = 1000 ТФЛОПС) был преодолён в 2008 году компьютером Roadrunner от IBM. Характеристики данной машины, мягко говоря, шокируют: почти 100 Тб оперативной памяти, около 20 000 процессоров. Всё это работает под управлением Linux-систем RedHat и Fedora, причём тех же самых версий, что устанавливаются на домашние компьютеры.

Однако Roadrunner не является самым быстрым суперкомпьютером на сегодняшний день. [4]

1.3 Применение суперкомпьютеров

Сегодня в суперкомпьютерной отрасли мы наблюдаем феномен, чем-то похожий на приход персонального компьютера 25 лет назад на смену компьютерам, располагавшимся в научно-исследовательских лабораториях и недоступным простым людям. Ключевым словом в этом процессе является «персональный», т.е. предназначенный для индивидуального использований. Подобные персональные супер вычислители стали доступны для широкой аудитории, открыв огромные возможности для профессионального и даже бытового использования. Архитектура современных суперкомпьютеров достигла такого уровня эффективности, что из одних и тех же материалов можно построить компьютер национального метеоцентра или использовать базовый элемент для реализации идей электронного искусства. [3]

Оказывается, существует целый ряд жизненно важных проблем, которые просто невозможно решать без использования суперкомпьютерных технологий.

К примеру, по территории в США, два раза в год проходят разрушительные торнадо. Они сметают на своем пути города, опустащают гигантские пространства. Борьба с торнадо - существенная часть американского бюджета. Правительство не жалеет денег на внедрение технологий, которые позволили бы предсказывать появление торнадо и определять, куда он направится.

Как рассчитать торнадо? Очевидно, что для этого надо решить задачу о локальном изменении погоды, то есть задачу о движении масс воздуха и распределении тепла в неком регионе. На практике возникают две проблемы. Проблема первая: чтобы заметить появление смерча, надо проводить расчет на характерных для его образования размерах, то есть на расстояниях порядка двух километров. Вторая трудность связана с правильным заданием начальных и граничных условий. Дело в том, что температура на границах интересующего вас региона зависит от того, что делается в соседних регионах. Рассуждая дальше, мы не можем решить задачу о смерче, не имея данных о климате на всей Земле. Климат на планете рассчитать можно, что и делается каждый день во всех странах для составления среднесрочных прогнозов погоды. Однако имеющиеся ресурсы позволяют вести расчеты лишь с очень большим шагом - десятки и сотни километров. Ясно, что к предсказанию смерчей такой прогноз не имеет никакого отношения.