Материал: Сумісність материнської плати і відеокарти. Технологія підвищення продуктивності SLI і CrossFire

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

Сумісність материнської плати і відеокарти. Технологія підвищення продуктивності SLI і CrossFire

Зміст

 

Вступ

Постановка задачі

1. Ідея створення одночасного режиму роботи декількох відеокарт

2. Історія розвитку інтерфейсу взаємодії відеокарти та материнської плати

3. Технологія збільшення продуктивності відео AMD CrossFireX

4. Технологія збільшення продуктивності відео NVIDIA SLI

5. Використання спеціалізованих рішень для промислових додатків

Висновки

Перелік посилань

Вступ

Теоретична продуктивність сучасних відеокарт досягає одного трильйона операцій з плаваючою комою в секунду. Це в десятки разів більше, ніж у найшвидших процесорів. Оскільки потужності сучасних відеокарт недостатньо для високоякісної динамічної графіки, то часто використовують технології Scan Line Interleaving (SLI) і CrossFire, що дозволяють застосовувати відразу дві і більше відеокарт в одній системі для спільної роботи над одним зображенням.

Постановка задачі


Тема курсової роботи: "Сумісність материнської плати і відеокарти (Технологія збільшення продуктивності SLI та AMD Crossfire)"

Мета курсової роботи: Дослідження сумісності материнської плати і відеокарти при використання технологій збільшення продуктивності SLI NVIDIA та AMD Crossfire. Порівняльний аналіз технологій SLI та AMD Crossfire.

Згідно з метою курсової роботи необхідно розглянути такі питання:

-       Інтерфейс взаємодії материнської плати та відеокарти

-       Технологія AMD (ATI) Crossfire;

-       Дослідження побудови і організації CrossFire системи;

-       Технологія NVIDIA SLI;

-       Побудова і організація SLI системи;

-       Дослідження технічних характеристик спеціалізованих відеокарт;

На технічному аналізі обох технологій збільшення продуктивності отримаємо результат сумісності материнської плати і відео карт, за даними якого ми зможемо надати рекомендації по використанню оптимальних відео карт та технологій.

відеокарта материнська плата продуктивність

1. Ідея створення одночасного режиму роботи декількох відеокарт


В процесі створення комп’ютерної техніки перед дослідниками-розробниками поставали питання взаємодії людини та персональної електронної обчислювальної машини (ПЕОМ). Загалом вони ділилися на два напрямки: введення інформації в ПЕОМ та виведення інформації. Людиною, близько 90% інформації сприймається очима. Тому постало питання представлення інформації у вигляді зображення.

Одним з перших графічних адаптерів для ПЕОМ IBM PC став MDA (Monochrome Display Adapter) e 1981 році. Він працював тільки в текстовому режимі з роздільною здатністю 80 × 25 символів (фізично 720 × 350 точок) і підтримував п`ять атрибутів тексту: звичайний, яскравий, інверсний, підкреслений і миготливий. Ніякої колірної або графічної інформації він передавати не міг, і те, якого кольору будуть літери, визначалося моделлю використовувався монітора. Зазвичай вони були білими, бурштиновими або смарагдовими на чорному тлі. Фірма Hercules в 1982 році випустила подальший розвиток адаптера MDA, відеоадаптер HGC (Hercules Graphics Controller - графічний адаптер Геркулес), який мав графічне дозвіл 720 × 348 точок і підтримує дві графічні сторінки. Але він все ще не дозволяв працювати з кольором. [1,2]

Першою кольоровий відкритий стала CGA (Color Graphics Adapter), випущена IBM і яка стала основою для подальших стандартів відеокарт. Вона могла працювати або в текстовому режимі з дозволами 40 × 25 знакомест і 80 × 25 знакомест (матриця символу - 8 × 8), або в графічному з дозволами 320 × 200 точок або 640 × 200 точок. У текстових режимах доступно 256 атрибутів символу - 16 кольорів символу і 16 кольорів фону (або 8 кольорів фону і атрибут миготіння), в графічному режимі 320 × 200 було доступно чотири палітри по чотири кольори кожна, режим високого дозволу 640 × 200 був монохромним. У розвиток цієї карти з'явився EGA (Enhanced Graphics Adapter) - поліпшений графічний адаптер, з розширеною до 64 кольорів палітрою, і проміжним буфером. Було покращено здатність до 640 × 350, в результаті додався текстовий режим 80 × 43 при матриці символу 8 × 8. Для режиму 80 × 25 використовувалася велика матриця - 8 × 14, одночасно можна було використовувати 16 кольорів, кольорова палітра була розширена до 64 кольорів. Графічний режим також дозволяв використовувати при дозволі 640 × 350 16 кольорів з палітри в 64 кольори. Був сумісний з CGA і MDA. [1]

Далі відеокарти почали стрімко розвиватися, напрямки розвитку: збільшення роздільної здатності, кількості кольорів, швидкість оброблення інформації, кількість інформаціє, яка зберігається в пам’яті відеокарт, кількість технологій які оброблюються відео процесором автоматично і інш.

Для приклада, сучасна офісна відеокарта (Intel HD Graphics 5000), яка вбудована в центральний процесор, маєть можливість працювати з трьома моніторами з роздільною здатністю до 3840x2160 крапок та глибиною кольору Truecolor (24-бітний Truecolor-колір використовує по 8 біт для представлення червоною, синьою і зеленою складових) який надає 16700000 різних кольорів. [1]

Повертаючись до теми дослідження, відмітимо, що основною силою, яка штовхає виробників на збільшення продуктивності роботи відеокарт це програмне забезпечення. Постійний розвиток програмного забезпечення, завдяки якому наприклад з’являються нові методи обробки відеоданих, створення все більш реалістичних відео ефектів для кінематографа, розробка технологічних об’єктів та об’єктів будівництва у віртуальному просторі, відображення фільмів з високою роздільною здатністю, відтворення сучасних відеоігор і інш. Виходячи з цього, при визначенні продуктивності відеокарт в більшості випадків використовують цифрове значення кількості кадрів при фіксованій роздільній здатності, та однакових параметрах згладжування.

Підвищення продуктивності роботи відеокарт можливо за допомогою багатьох елементів. Виділимо основні напрямки:

         збільшення тактової частоти роботи відео процесора (англ. Graphics Proccesing Unit, GPU);

-        зміна архітектури графічного процесора (додавання графічних блоків, розробка нових інтелектуальних блоків, виборок паралельних розрахунків і інш.);

         збільшення пропускної здатності шини "пам’ять-графічний" процесор;

         збільшення кількості та тактової частоти роботи графічної пам’яті;

         використання технології NVIDIA SLI, AMD CrossFireX (декілька відеокарт об’єднані спеціальним кабелем оброблюють дані паралельно);

         використання спеціальних відео процесорів для оптимізованого програмного забезпечення (графічні процесори PNY Quadro).

Термін SLI почала використовувати компанія 3DFX, яка вивела на ринок технологію SLI (тоді розшифровувалося як Scan-Line Interleave - англ. чергування рядків). У режимі SLI дві плати Voodoo2 з'єднувалися спеціальним кабелем, при цьому кожна з них обробляла половину рядків на екрані. За вартість другої плати Voodoo2 користувачі отримували істотне поліпшення продуктивності. Також при використанні SLI збільшувалося максимальний робочий дозвіл до 1024 × 768. Однак через високу вартість і громіздкість конструкції з трьох плат (дві відеокарти Voodoo2 і звичайна двомірна відеокарта) технологія SLI, революційна в той час, надала мінімальний ефект на ринкове становище 3dfx і, на відміну від власне Voodoo2, чи не була визнала комерційно успішною.

"Пляшковим горлом", що обмежив потенційні можливості Voodoo2 SLI стала недостатня потужність ЦП комп'ютерів того часу. Стійкі в часі переваги цієї технології стають очевидними завдяки успішному застосуванню Voodoo2 SLI в комп'ютерних іграх аж до кінця 2004 року, через 6 років після виходу на ринок.

Однак, технологія SLI була недоступною в конфігурації деяких плат сторонніх виробників, заснованих на чіпсетах 3dfx. Також SLI використовувалася для з'єднання мікросхем VSA-100 у відеокарті Voodoo5.

Після покупки більшості активів 3dfx, в 2004 році Nvidia здійснила перезапуск бренду SLI (тепер: Scalable Link Interface - англ. Масштабований інтерфейс) при виведенні на ринок відеокарт серії GeForce 6. Своє бачення технології з'єднання декількох відеокарт під назвою Crossfire вивели на ринок і ATI Technologies. Хоча Nvidia SLI і ATI Crossfire засновані на одній ідеї спільної обробки зображення декількома відеокартами, реалізація на практиці проведена по-різному. [3]

Рисунок 1. Відеокарта Voodoo 1 SLi (дата виходу 1 жовтня 1996 року) [3]

Рисунок 2. Відеокарта Voodoo 2 SLi (дата виходу 1 березня 1998 року) [3]

Рисунок 3. Дві відеокарти Voodoo 2 об’єднані спеціальним кабелем для роботи в режимі SLi [4]

Відеокарти використовували надсучасну на той час шину - PCI.

2. Історія розвитку інтерфейсу взаємодії відеокарти та материнської плати


Розгляд інтерфейсу почнемо з моделі VESA.local bus - VL-Bus або VLB - тип локальної шини, розроблений асоціацією VESA для ПК. Шина VLB, по суті, є розширенням внутрішньої шини процесора Intel 80486. Вона зазвичай об'єднує процесор, пам'ять, схеми буферизації для системної шини та її контролер, а також деякі інші допоміжні схеми. Перша специфікація на стандарт локальної шини з'явилася в 1992 році.

Головною метою її розробки була дешева альтернатива шинам MicroChannel і EISA, придатна для впровадження в масові настільні комп'ютери. З цією роллю шина VLB успішно впоралася. Було випущено велику кількість плат контролерів, які використовували цю шину, на основі випущених раніше мікросхем, які працювали до цього з шиною ISA. Навіть за 16-бітної архітектури міг бути отриманий виграш по тактовій частоті від 4 раз і більше.не розрахована на використання з процесорами, що прийшли на заміну 486-у або з тими, що існували паралельно з ними: Alpha, PowerPC тощо. Тому в середині 1993 року з асоціації VESA вийшли ряд виробників на чолі з Intel. Ці фірми створили спеціальну групу для розробки нового альтернативного стандарту, названого Peripheral Component Interconnect (PCI). [5]

Рисунок 4. З'єднувачі шин VLB (ліворуч) та ISA (праворуч) [5]

Навесні 1991 р. компанія Intel завершує розробку першої макетної версії шини PCI. Перед інженерами було поставлене завдання розробити недороге й продуктивне рішення, що дозволило б реалізувати можливості процесорів 486, Pentium і Pentium Pro. Окрім того, треба було врахувати помилки допущені VESA при проектуванні шини VLB (електричне навантаження не дозволяло підключати більше 3 плат розширення), а також реалізувати автоконфігурування пристроїв за прикладом протоколу Autoconfig для комп'ютерів Amiga.

року з'являється перша версія шини PCI, Intel повідомляє, що стандарт шини буде відкритим і створює PCI Special Interest Group. Завдяки цьому, будь-який зацікавлений розробник отримує можливість створювати пристрої для шини PCI без необхідності придбання ліцензії. Перша версія шини мала тактову частоту 33 МГц, могла бути 32 або 64 бітною, а пристрої могли працювати з сигналами в 5 V або 3,3 V. Теоретично, пропускна здатність шини 133 Мбайт/сек, однак у реальності пропускна здатність становила біля 80 Мбайт/сек.

В середині 1993 року, компанія Intel виходить із асоціації VESA і починає вживати активних заходів по просуванню шини PCI на ринку. Відповіддю на критику з боку фахівців з конференцій Usenet і компаній конкурентів стала PCI 2.0.

В 1995 р., з'являється версія PCI 2.1 ("паралельна шина PCI"), яка забезпечила передачу даних по шині з частотою 66 МГЦ і максимальну швидкість передачі в 533 МБ/сек (для 64 бітного варіанта з частотою 66 МГц). Крім того, ця шина вже була підтримана на рівні ОС Windows 95 (технологія Plug and Play). Згодом завдяки популярності, версія шини PCI 2.1 була перенесена на платформи з процесорами Alpha, MIPS, PowerPC, SPARC та ін.

В 1997 р., у зв'язку з розвитком комп'ютерної графіки й розробкою шини AGP, шина PCI перестала задовольняти підвищені вимоги до відеокарт і стала витіснятися продуктивнішою AGP. [6](від англ. Accelerated Graphics Port, прискорений графічний роз'єм) - розроблена в 1997 році компанією Intel, спеціалізована 32-бітова системна шина для відеокарти. З'явилася одночасно з чипсетами для процесора Intel Pentium MMX чипсет MVP3, MVP5 з Super Socket 7. Основним завданням розробників було збільшення продуктивності та зменшення вартості відеокарти, за рахунок зменшення кількості вбудованої відеопам'яті. За задумом "Intel", великі обсяги відео пам'яті для AGP-карт були б не потрібні, оскільки технологія передбачала високошвидкісний доступ до загальної пам'яті.

Її відмінності від попередниці, шини PCI:

         робота на тактовій частоті 66 МГц;

-        збільшена пропускна здатність;

         режим роботи з пам'яттю DMA і DME;

         поділ запитів на операцію і передачу даних;

         можливість використання відеокарт з енергоспоживанням більшим, ніж PCI.

У наш час материнські плати із слотами AGP практично не випускаються, стандарт AGP був повсюдно витіснено на ринку більш швидким і універсальним PCI Express.

Розвитком стандарту PCI Express займається організація PCI Special Interest Group (PCI-SIG).

На відміну від шини PCI, що використала для передачі даних загальну шину, PCI Express, в загальному випадку, є пакетною мережею з топологією типу зірка, пристрої PCI Express взаємодіють між собою через середовище, утворене комутаторами, при цьому кожен пристрій безпосередньо зв'язаний з'єднанням типу точка-точка з комутатором.

Крім того, шиною PCI Express підтримується:

гаряча заміна карт;

гарантована смуга пропускання (QoS);

управління енергоспоживанням;

Розробка стандарту PCI Express була почата фірмою Intel після відмови від шини InfiniBand. Офіційно перша базова специфікація PCI Express з'явилася в липні 2002 року.

Шина PCI Express націлена на використання тільки як локальна шина. Оскільки програмна модель PCI Express багато в чому успадкована від PCI, то існуючі системи і контролери можуть бути допрацьовані для використання шини PCI Express заміною тільки фізичного рівня, без доопрацювання програмного забезпечення. Висока пікова продуктивність шини PCI Express дозволяє використовувати її замість шин AGP і тим більше PCI і PCI-X, очікується, що PCI Express замінить ці шини в персональних комп'ютерах. [7]

Рисунок 5. Зовнішній вигляд комп’ютерних шин. [8]

На сучасному етапі використовуються шини PCI-Express x 16, PCI Express x4 та PCI-Express x 1. [9]

3. Технологія збільшення продуктивності відео AMD CrossFireX



AMD CrossFireX (рос. Перехресний вогонь) - технологія, що дозволяє одночасно використовувати потужності двох і більше (до чотирьох графічних процесорів одночасно) відеокарт Radeon для побудови тривимірного зображення.

Рисунок 6. Зовнішній вигляд трьох відеокарт об’єднаних за технологією CrossFireX. [10]

Рисунок 7. Зовнішній вигляд конектора для об’єднання відеокарт за технологією CrossFireX. [11]

Для побудови на комп'ютері CrossFireX-системи необхідно мати:

материнську плату з двома або більше роз'ємами PCI Express x16 (до версій R9-285, R9-290 або R9-290X ще й з чіпсетом AMD або Intel певної моделі, що підтримує CrossFireX);

потужний блок живлення, як правило, потужністю від 700Вт;

відеокарти з підтримкою CrossFireX;

Спеціальний гнучкий місток CrossFireX для з'єднання відеокарт.

Відкрите повинні бути однієї серії (за деякими винятками), але не обов'язково однієї моделі. При цьому швидкодію і частота CrossFire-системи визначаються характеристиками чіпа найменш продуктивної відеокарти.систему 2015 року можна організувати наступними способами:

відеокарти AMD Radeon R9 380 2 ГБ, з'єднані за технологією AMD CrossFireX. Внутрішнє з'єднання - відеокарти об'єднуються за допомогою спеціального гнучкого містка CrossFireX, при цьому для з'єднання більш, ніж двох відеокарт не потрібно використовувати спеціалізовані багаторознімних містки (типу NVIDIA 3-way SLI або 4-way SLI), відеокарти з'єднуються послідовно простими CrossFireX містками. З'єднання ведеться приблизно так: від першої до другої - від другої до третьої - від третього до четвертої (для з'єднання 4 відеокарт); від першої до другої - від другої до третьої (для 3 карт); від першої до другої (для 2 карт). Слід зауважити, що на однопроцесорних відкритих по 2 роз'єми CrossFireX, тому у випадку з системою з двох відеокарт об'єднувати їх можна як одним, так і двома містками (від першої до другої - від першої до другої), різниці в продуктивності не буде.