Гибридные процессоры

Автор: Пользователь скрыл имя, 02 Апреля 2013 в 15:01, реферат

Описание работы

В настоящее время практически нет людей не пользовавшихся компьютером, главная часть аппаратного обеспечения которого является микропроцессор – это центральное устройство компьютера, которое выполняет операции по обработке данных и управляет периферийными устройствами компьютера. У компьютеров четвёртого поколения и старше функции центрального процессора выполняет микропроцессор на основе СБИС, содержащей несколько миллионов элементов, конструктивно созданный на полупроводниковом кристалле путём применения сложной микроэлектронной технологии.

Работа содержит 1 файл

Гибридные процессоры.docx

— 36.94 Кб (Скачать)

       Некоторые современные процессоры имеют более 30 ступеней в конвейере, что повышает производительность процессора, но, однако, приводит к увеличению длительности простоя (например, в случае ошибки в предсказании условного перехода). Не существует единого мнения по поводу оптимальной длины конвейера: различные программы могут иметь существенно различные требования.

 

Суперскалярная архитектура

       Способность выполнения нескольких машинных инструкций за один такт процессора путем увеличения числа исполнительных устройств. Появление этой технологии привело к существенному увеличению производительности, в то же время существует определенный предел роста числа исполнительных устройств, при превышении которого производительность практически перестает расти, а исполнительные устройства простаивают. Частичным решением этой проблемы являются, например, технология Hyper-threading.

 

CISC-процессоры

       Complex instruction set computer — вычисления со сложным набором команд. Процессорная архитектура, основанная на усложнённом наборе команд. Типичными представителями CISC являются микропроцессоры семейства x86 (хотя уже много лет эти процессоры являются CISC только по внешней системе команд: в начале процесса исполнения сложные команды разбиваются на более простые микрооперации (МОП), исполняемые RISC-ядром).

 

RISC-процессоры

       Reduced instruction set computer — вычисления с упрощённым набором команд (в литературе слово reduced нередко ошибочно переводят как «сокращённый»). Архитектура процессоров, построенная на основе упрощённого набора команд, характеризуется наличием команд фиксированной длины, большого количества регистров, операций типа регистр-регистр, а также отсутствием косвенной адресации. Концепция RISC разработана Джоном Коком из IBM Research, название придумано Дэвидом Паттерсоном (David Patterson).

       Упрощение набора команд призвано сократить конвейер, что позволяет избежать задержек на операциях условных и безусловных переходов. Однородный набор регистров упрощает работу компилятора при оптимизации исполняемого программного кода. Кроме того, RISC-процессоры отличаются меньшим энергопотреблением и тепловыделением.

       Среди первых реализаций этой архитектуры были процессоры MIPS, PowerPC, SPARC, Alpha, PA-RISC. В мобильных устройствах широко используются ARM-процессоры.

 

Технология Hyper-threading

       Эта технология увеличивает производительность процессора при определённых рабочих нагрузках путём предоставления «полезной работы» исполнительным устройствам, которые иначе будут бездействовать; к примеру, в случаях кэш-промаха. Процессоры Pentium 4 (с одним физическим ядром) с включённым Hyper-threading операционная система определяет как два разных процессора вместо одного.

 

 

Принцип работы

       В процессорах с использованием этой технологии каждый физический процессор может хранить состояние сразу двух потоков, что для операционной системы выглядит как наличие двух логических процессоров (англ. Logical processor). Физически у каждого из логических процессоров есть свой набор регистров и контроллер прерываний (APIC), а остальные элементы процессора являются общими. Когда при исполнении потока одним из логических процессоров возникает пауза (в результате кэш-промаха, ошибки предсказания ветвлений, ожидания результата предыдущей инструкции), то управление передаётся потоку в другом логическом процессоре. Таким образом, пока один процесс ждёт, например, данные из памяти, вычислительные ресурсы физического процессора используются для обработки другого процесса.

 

1.4 Многоядерные процессоры

       Многоя́дерный проце́ссор — центральный процессор, содержащий два и более вычислительных ядра на одном процессорном кристалле или в одном корпусе.

 

Архитектура многоядерных систем

       Многоядерные процессоры можно классифицировать по наличию поддержки когерентности кеш-памяти между ядрами. Бывают процессоры с такой поддержкой и без нее.

Способ связи между ядрами:

  1. разделяемая шина
  2. сеть (Mesh) на каналах точка-точка
  3. сеть с коммутатором
  4. общая кеш-память

       Кеш-память: Во всех существующих на сегодня многоядерных процессорах кеш-памятью 1-го уровня обладает каждое ядро в отдельности, а кеш-память 2-го уровня существует в нескольких вариантах:

  1. разделяемая — расположена на одном кристалле с ядрами и доступна каждому из них в полном объёме. Используется в процессорах семейств Intel Core.
  2. индивидуальная — отдельные кеши равного объёма, интегрированные в каждое из ядер. Обмен данными из кешей 2-го уровня между ядрами осуществляется через контроллер памяти — интегрированный (Athlon 64 X2, Turion X2, Phenom) или внешний (использовался в Pentium D, в дальнейшем Intel отказалась от такого подхода).

 

 

 

  1. Графический процессор

       Современные графические платы – это мощнейшие программно-аппаратные комплексы, по производительности оставляющие далеко позади остальные компоненты ПК.

       Первые персональные компьютеры не содержали в своей архитектуре отдельного графического процессора в том виде, в котором он существует сегодня. Для вывода текста на экран монохромного монитора не требовалось каких-то сложных решений, поэтому возможностей простейшего видеоконтроллера вполне хватало.

       С появлением компьютерных игр и программ для обработки графики остро встал вопрос о специализированном устройстве для вывода изображения на цветной монитор с большим, чем 640х480 точек, разрешением. Сначала были разработаны системы для вывода пиксельной графики, а позже, по мере роста интереса к трехмерным играм, и графические ускорители, обеспечивающие 3D-функции. В настоящее время видеоконтроллер и ускоритель объединены в единое целое – устройство под названием видеокарта (видеоадаптер).

 

2.1 Аппаратная часть

       Основой любой видеокарты является графический процессор (GPU – Graphic Processor Unit). Подобно ЦП, он производит обработку команд, но, в отличие от центрального процессора ПК, GPU работает со специальными графическими инструкциями, которые используются только в программировании 2D и 3D-изображений.

       Кроме графического процессора, видеокарта содержит вспомогательные элементы.

  1. Интерфейс (например, PCI Express) обеспечивает взаимодействие материнской платы с установленным в нее видеоадаптером.
  2. Видеопамять хранит данные для работы видеокарты.
  3. Блок разъемов служит для подключения к видеокарте устройства вывода изображения: монитора, проектора или телевизора. Аналоговый сигнал обычно выводится через разъем VGA , а цифровой – через разъем DVI. В некоторых видеокартах используется разъем DVI-D.
  4. Современные видеокарты потребляют до 200 Вт электроэнергии, которая большей частью преобразуется в тепло – его необходимо эффективно отводить. Поэтому важным элементом конструкции видеоадаптера является система охлаждения.

 

Сверхспециализация 

       Благодаря архитектуре, оптимизированной для работы с изображениями, графический процессор имеет намного более высокую вычислительную скорость, чем ЦП компьютера, поскольку в нем реализован эффективный алгоритм распараллеливания задач. Видеопроцессор состоит из большого количества (в топовых моделях – больше 1,5 тыс.) небольших блоков, способных работать отдельно друг от друга и с огромной скоростью. Такая архитектура связана с особенностью расчетов в 3D-графике, значительная часть которых представляет собой перемножение больших матриц чисел. Такие расчеты отлично распараллеливаются.

 

Экономия на графике 

       Видеокарты выпускаются в виде отдельной платы, однако в бюджетных компьютерах ради экономии графическое ядро встраивают в микросхему чипсета материнской платы. Такие видеокарты называются интегрированными или встроенными, в то время как выполненные в виде отдельной платы именуют дискретными. Интегрированные видеоадаптеры выпускают компании Intel, VIA, SIS, ATI (принадлежит компании AMD) и NVIDIA, а дискретные – ATI и NVIDIA.

       Встраиваемые системы практически всегда работают медленнее дискретных видеокарт. Зато они дешевы и потребляют мало энергии. Поэтому интегрированная графика используется в основном в ноутбуках и офисных компьютерах, то есть там, где не предъявляются высокие требования к производительности в 3D. Только некоторые из встраиваемых решений ATI и NVIDIA позволяют в приемлемом качестве играть в трехмерные игры.

 

2.2 ИСПОЛЬЗОВАНИЕ ВИДЕОКАРТ

       Мало кто из пользователей производительных ПК знает, что большую часть времени мощнейший GPU простаивает. Это тем более обидно, что по производительности графический чип существенно опережает ЦП. Например, самый быстрый Intel Core i7 с простыми математическими вычислениями справляется в 12 раз медленнее, чем «середнячок» Radeon HD 4850. Поэтому энтузиасты цифровых технологий заинтересовались дешевой «рабочей силой» современных GPU.

 

Непрофильная работа

       В 2003 году официально стартовала инициатива GPGPU (General-purpose Graphics Processing Units – процессоры общего назначения), суть которой – использование вычислительных ресурсов видеокарт в прикладных, не графических задачах. Первопроходцам пришлось очень нелегко. Они были вынуждены обращаться к графическому процессору при помощи средств OpenGL и Direct3D, то есть представлять, например, модель финансовых процессов как совокупность текстур, наносимых на трехмерный объект.

       Первым инструментом, позволившим программистам общаться с GPU на привычном для них языке, стал C with streams – расширение языка Си, позволяющее сравнительно легко работать с потоковыми данными. Это расширение представляло GPU как простой процессор для параллельных вычислений.

       Следующим получившим известность проектом в области GPGPU стала технология CUDA, представленная компанией NVIDIA в 2007 году. Разумеется, ATI не осталась в стороне и предложила свой вариант технологии GPGPU под названием Stream. В чем-то он уступает CUDA, в чем-то превосходит ее, но недостаток у обеих технологий одинаков: они работают только на своей платформе.

       Первый открытый стандарт GPGPU был принят в 2008 году. Называется он OpenCL (Open Computing Language – открытый язык для вычислений) и разработан компанией Apple.

3. Гибридный процессор

       И в Intel, и в AMD отлично понимают, что будущее персональных компьютеров – за интеграцией ЦП и GPU в одном кристалле. С одной стороны, такое решение ускоряет взаимодействие процессоров, с другой – интегрированный графический процессор неизбежно будет слабее дискретного. Но подобная интеграция неизбежна, поскольку нынешний виток развития процессоров представляет собой постепенное увеличение числа независимых ядер на одном чипе.

       Графикой в ЦП дело не ограничивается. Компания AMD ввела новый термин – APU (англ. Accelerated Processing Unit (ускоренное обрабатывающее устройство, по аналогии с CPU (Central Processing Unit, центральное обрабатывающее устройство; Гибридный ЦП) — термин для обозначения микропроцессорной архитектуры, подразумевающей объединение центрального многозадачного универсального процессора с графическим параллельным многоядерным процессором в одном кристалле.

       Целью данного хода является занять золотую середину между всеми крайностями в компьютере — по скорости (и вычислительной, и графической), по экономии, энергопотреблению и по цене. И хотя такой гибридный ЦП не поставит рекорды ни в одной категории, он впервые позволит сделать систему одновременно компактную (даже северный мост не нужен), пригодную для большинства игр и доступную почти всем игрокам и рядовым потребителям. Например, всё более популярный форм-фактор «всё-в-одном» (монитор и системный блок в одном корпусе) теперь получит достойную 3D-графику.

       Впервые идея об APU была озвучена представителями компании AMD в 2006 году, после приобретения ею компании ATI, выпускающей графические процессоры. По данным AMD, к 2014 году 75 % настольных ПК и 85 % ноутбуков будут построены на базе процессоров со встроенным графическим ядром — GEM (Graphics-Enabled Microprocessors, в терминологии компании).

 

AMD

От компании AMD — AMD Fusion (от англ. fusion — слияние).

       Разработка технологии «Fusion» стала возможной после покупки канадской компании ATI компанией AMD, которая состоялась 25 октября 2006 года. И впервые идея об APU была озвучена представителями AMD тогда же, почти одновременно с покупкой ATI. Через год уже строились грандиозные планы: сначала готовилась интеграция двух кристаллов в корпусе (как сделала Intel), затем — на одном кристалле, но со слабым взаимодействием (видимо, с отдельным контроллером памяти для видеопамяти), потом — с разделяемыми ресурсами, и, наконец, с полным «сплавом» вычислительных блоков общего и графического назначений. Причём первый шаг должен был произойти уже в 2008 или 2009, а технология будет дебютировать во второй половине 2009 года как преемник последней процессорной архитектуры.

В 2010 году был представлен  чип, имеющий полное право называться первым массовым APU — XCGPU, процессор  для приставок Xbox последнего поколения  — модели S, в котором интегрированы Xenon CPU и Xenos GPU. Производится компанией GlobalFoundries (подразделение AMD) по 45-нм техпроцессу. На двух крислаллах чипа находятся 372 миллиона транзисторов. В сравнении с оригинальным чипсетом Xbox 360, потребление питания уменьшено на 60 %, а физический размер чипа — на 50 %.

 

Intel core

       В начале 2011 компания Intel представила общественности свои разработки архитектуры гибридного процессора - Sandy Bridge, которая сдвинула продукты AMD на второе место, за счет более производительных ядер и возможности использования некоторых новых инструкций.

 

Плюсы и минусы гибридного процессора

       Так в итоге в чем же выиграет пользователь при использовании гибридного процессора? Ответ однозначен практически во всем. Гибридные процессоры по сравнению со своими более ранними «братьями» имеют большую производительность, меньшее энергопотребление и возможность экономить на дискретной графике, при этом имея хорошую графическую производительность. А если рассматривать их как решение для ноутбуков и планшетных ПК, то мы имеем уменьшение габаритов за счет отсутствия видеокарты или северного моста (для бюджетных вариантов), а так же значительное увеличение  работы компьютера от батареи.

Информация о работе Гибридные процессоры