Видеосистема

Автор: Пользователь скрыл имя, 21 Ноября 2011 в 13:33, реферат

Описание работы

Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) — устройство, преобразующее изображение, находящееся в памяти компьютера в видеосигнал для монитора. Обычно видеокарта является платой расширения и вставляется в разъём расширения, универсальный (PCI-Express, PCI, ISA, VLB, EISA, MCA) или специализированный (AGP), но бывает и встроенной (интегрированной) в системную плату (как в виде отдельного чипа, так и в качестве составляющей части северного моста чипсета или ЦПУ).

Содержание

Введение 3
1.Видеосистемы 4
2.Видеокарты семейства GeForce 8
Заключение 13
Список литературы

Работа содержит 1 файл

видеосистема.docx

— 617.54 Кб (Скачать)

Федеральное агентство по образованию

Филиал  ГОУ ОмГПУ в г. Таре

Математический  факультет

Кафедра ИКТО 
 
 

Реферат

Тема  реферат

«Видеосистемы» 
 

                  Выполнила:

                  Студентка1 курса

                  Заочного  отделения

                  Профиля «Информатика»

                  Гладцкова Т. С. 
                   

                  Проверила:

                  Федосеева А.П. 
                   
                   

2011

Содержание

Введение 3
1.Видеосистемы 4
2.Видеокарты семейства GeForce 8
Заключение 13
Список  литературы 14
 

 

     

       Введение 

     Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер) (англ. videocard) — устройство, преобразующее изображение, находящееся в памяти компьютера в видеосигнал для монитора. Обычно видеокарта является платой расширения и вставляется в разъём расширения, универсальный (PCI-Express, PCI, ISA, VLB, EISA, MCA) или специализированный (AGP), но бывает и встроенной (интегрированной) в системную плату (как в виде отдельного чипа, так и в качестве составляющей части северного моста чипсета или ЦПУ). Современные видеокарты не ограничиваются простым выводом изображения, они имеют встроенный графический микропроцессор, который может производить дополнительную обработку, разгружая от этих задач центральный процессор компьютера.

 

     

       1. Видеосистемы 

     Видеосистема  компьютера состоит из трех компонентов:

-монитор (называемый также дисплеем);

-видеоадаптер;

-программное обеспечение (драйверы видеосистемы).

Видеоадаптер  посылает в монитор сигналы управления яркостью лучей и синхросигналы  строчной и кадровой развёрток. Монитор  преобразует эти сигналы в  зрительные образы. А программные  средства обрабатывают видеоизображения -  выполняют кодирование и  декодирование сигналов, координатные преобразования, сжатие изображений  и др.

     Монитор - устройство визуального отображения  информации (в виде текста, таблиц, рисунков, чертежей и др.) Подавляющее большинство мониторов сконструированы на базе электронно-лучевой трубки (ЭЛТ), и принцип их работы аналогичен принципу работы телевизора. Мониторы бывают алфавитно-цифровые и графические, монохромные и цветного изображения. Передняя, обращенная, к зрителю часть ЭЛТ с внутренней стороны покрыта люминофором - специальным веществом, способным излучать свет при попадании на него быстрых электронов. Люминофор наносится в виде наборов точек трёх основных цветов — красного, зелёного и синего. Эти цвета называют основными, потому что их сочетаниями (в различных пропорциях) можно представить любой цвет спектра. Наряду с традиционными ЭЛТ-мониторами все шире используются плоские жидкокристаллические (ЖК) мониторы.

     Жидкие  кристаллы - это особое состояние  некоторых органических веществ, в  котором они обладают текучестью и свойством образовывать пространственные структуры, подобные кристаллическим. Жидкие кристаллы могут изменять свою структуру и светооптические  свойства под действием электрического напряжения. Меняя с помощью электрического поля ориентацию групп кристаллов и используя введённые в жидкокристаллический раствор вещества, способные излучать свет под воздействием электрического поля, можно создать высококачественные изображения, передающие более 15 миллионов цветовых оттенков. [1]

     Разновидность монитора — сенсорный экран. Здесь  общение с компьютером осуществляется путём прикосновения пальцем  к определённому месту чувствительного экрана. Этим выбирается необходимый режим из меню, показанного на экране монитора.

     Специальная область памяти зарезервирована  для хранения символа, который предстоит  изобразить на экране. И программы  пишут текст на экран, заполняя символами  эту область памяти. Экран чаще всего 
представляется матрицей 80 на25 символов. Образ каждого символа, который появляется на экране, хранится в специальной микросхеме ПЗУ. Эта память относится к видео цепям компьютера.

     Количеством точек, используемых при формировании символов. 
IBM четыре раза меняла назначение ОЗУ под видеосистему. Во-первых, это касается PC и XT. Еще один вариант используется в PC и последний предназначается для всех последних улучшенных видеосистем. 
Первые две видеосистемы PC использовали различные области памяти и поэтому могли работать одновременно. Обычно одна область памяти предназначается для монохромного дисплея, а другая для цветного. Используются одни и те же области памяти для любого режима в независимости от используемого адаптера дисплея. Память монохромного экрана располагается по адресу В0000 , цветного - В8000. Для обеспечения совместимости все новые видеосистемы могут работать через эти же адреса, даже если они хранят дополнительную информацию еще где-либо.

     Программы, заносящие информацию на экран, должны знать, какую память они должны использовать для этого. Нужную информацию можно  получить, прочтя информацию из специального байта памяти - флага видео режима. Он предназначается для указания, какого вида адаптер дисплея установлен внутри компьютера и используется в настоящее время. Он позволяет компьютеру знать, с каким дисплеем - монохромным или цветным он имеет дело.

     Этот  байт позволяет так же указать - с  цветным или монохромным дисплеем работает компьютер даже в том  случае, если установлен адаптер, способный  работать с двумя видами дисплеев. Байт флага видеорежима размещается  в начале оперативной памяти, по адресу 0463h. Для кодировки текущего дисплея используется байт 0В4h для  указания монохромного режима и 0D4h - для цветного. По стандарту IBM символы, видимые на экране, не хранятся в непрерывной последовательности. Символы, которые мы видим на экране, располагаются в байтах памяти с промежутком в один байт. Эти промежуточные байты отведены для хранения параметров изображаемых символов. Четный байт памяти содержит символ, а нечетный - хранит его атрибуты.

     Излишки выделенной памяти могут использоваться для хранения нескольких изображений  экранов. Каждый такой образ называется видеостраницей. Все базовые видеосистемы разработаны таким образом, чтобы  реализовать быстрое переключение с одной страницы на другую. Это  позволяет изменять изображения  экрана почти без всяких задержек. С помощью переключателей можно  управлять скоростью замены экранных страниц. Базовая цветная система IBM имеет возможность работать в режиме с изображением текста в 40 столбцах экрана. Этот режим позволяет работать пользователю с компьютером через телевизионный приемник вместо дисплея. Телевизор не обладает такой точностью, как монитор компьютера. 80 столбцов текста на экране телевизора сливаются. При уменьшении числа столбцов текста в два раза, требуется в два раз меньше памяти для хранения.

     Это в свою очередь позволяет в  два раза увеличить число видеостраниц. По прошествии времени IBM улучшила качество своих видеосистем и соответственно увеличила объем памяти, используемой для нее. Для символьных дисплеев эта память используется для реализации новых видеорежимов, которые позволяют разместить на экране больше строк (до 43) и увеличить число видеостраниц. Некоторые видеосистемы могут реализовывать свои собственные режимы при работе с текстом. Они могут размещать текст в 60 строках и 132 столбцах. [3]

 

     

      1. Видеокарты  семейства GeForce

          GeForce — бренд семейства графических процессоров компании NVIDIA, ориентированного на потребительский рынок. Графические процессоры GeForce используются преимущественно в видеоадаптерах для персональных и переносных компьютеров. 

     В начале III квартала 1999 года появился первый продукт с именем GeForce. К середине 1999 года производители программного обеспечения выпускали игры, предъявлявшие  весьма высокие требования не только к видеосистеме, но и к системе  в целом. Главным недостатком  видеокарт того времени было отсутствие встроенного геометрического процессора. На центральный процессор перекладывалась  работа по расчету координат и  освещения. Эти вычисления, в зависимости  от сложности сцены, могут быть очень  емкими. Предположим, мы играем в некую  абстрактную игру, которая представляет собой стратегию реального времени. При условии, что движок игры (engine) функционирует тем лучше, чем  лучше задействован центральный  процессор, отнимать ресурсы процессора для расчета графики становится, с одной стороны, невыгодно, так  как ухудшается работа компьютерного  интеллекта, а с другой — неразумно, поскольку с такой задачей лучше справится специально предназначенный для этого графический процессор. Конечно, сказанное справедливо не только для стратегических игр, но и для любых приложений, которые работают с динамичной трехмерной графикой и поэтому требуют больших объемов вычислений [2]

     Именно  по этой причине появление GeForce 256 — первого массового ускорителя со встроенным графическим процессором — было принято пользователями на ура. Заметим, что формальное лидерство принадлежит компании S3 c ее чипом Savage 2000 интегрированным GPU (Savage 2000 был анонсирован на один день раньше GeForce 256, но поступил в продажу гораздо позже). Процессор GeForce 256 имеет встроенный блок трансформации и освещения, осуществляющий аппаратную реализацию преобразования трехмерных координат в двухмерные, последующее отсечение невидимых поверхностей и дальнейшее наложение освещенности на объекты. Разрядность графического ядра, работающего на частоте 120 МГц, составляет 256 бит, о чем говорится в названии модели, а разрядность шины памяти — 128 бит. Если сравнивать с предыдущими моделями nVIDIA, то эта модель выполнена по более прогрессивной технологии выращивания кристаллов — 0,22 микрон вместо 0,25 у Riva TNT2A. И хотя теоретические пределы скорости ядра выше 120 МГц, повысить тактовую частоту не удалось вследствие усложнения архитектуры процессора. Достаточно сказать, что к моменту выхода в свет GeForce 256 далеко не каждый центральный процессор имел в своем распоряжении 23 млн. транзисторов!

     Свое  развитие архитектура GeForce нашла в  процессорах семейств GeForce 2 и GeForce 2 MX. Первое семейство включает модели GeForce 2 Ti, GeForce 2 Pro, GeForce 2 GTS и GeForce 2 Ultra. Эти  графические процессоры производятся по технологии 0,18 микрон и имеют  незначительные различия, обусловленные  в основном частотами, на которых  функционируют графическое ядро и установленная видеопамять. Все  они имеют по четыре пиксельных конвейера  с двумя текстурными блоками  на конвейер. Наивысшую производительность среди этих моделей демонстрируют  карты на основе процессора GeForce 2 Ultra, скорость которого (в мегагерцах) выше, чем у GeForce 3. Процессоры серии GeForce 2 оснащены улучшенным блоком трансформации и освещения, а также имеют блок NSR (nVIDIA Shading Rasterizer) для эффективного аппаратного мультитекстурирования и поддерживают декодирование в форматах HDTV. Одновременно с линейкой карт на основе GeForce 2 нашла свое развитие и MX-серия. Три модели этой серии также различаются, главным образом тактовыми частотами, а младшая в линейке модель — GeForce 2MX 200 — обладает всего лишь 64-разрядной шиной видеопамяти. И хотя производительность видеокарт, основанных на процессорах семейства GeForce 2 MX, существенно ниже, чем у остальных на основе GeForce, такие акселераторы обладают прекрасным соотношением производительности на единицу вложенных денег, а кроме того, они поддерживают технологию Twin View, обеспечивая работу пользователя с мультимониторными конфигурациями.

     Существенным  шагом в развитии модельного ряда графических процессоров стал выпуск компанией nVIDIA в 2001 году процессора GeForce 3. Технологический процесс 0,15 мкм  позволил поднять тактовые частоты  на приемлемо высокий уровень  в 200 МГц для графического ядра и 460 МГц для памяти соответственно. В конце прошлого года появились  модели GeForce 3 Ti 200 и Ti 500, которые, не внося  отличий в архитектуру GeForce 3, представляли собой соответственно слегка замедленный  и разогнанный варианты флагманского процессора nVIDIA того времени. Как и GeForce 2, процессор GeForce 3 обладает четырьмя конвейерами и при тактовой частоте 200 МГц способен выдать «гора» в режиме мультитекстурирования 800 млн. пикселов в секунду. Но главной особенностью этого процессора стала осуществляемая им полноценная поддержка пиксельных и вершинных шейдеров, позволяющих  существенно поднять качество визуализации трехмерных сцен. Помимо этого GeForce 3 на аппаратном уровне поддерживает технологию наложения теней в реальном времени, способен работать с объемными текстурами и имеет продвинутую схему  работы с памятью nfinite FX. И хотя видеокарты на базе GeForce 3 выпускаются уже около года, прекрасные возможности и производительность, заложенные в этот процессор, позволяют комфортно использовать его до сих пор в самых ресурсоемких и требовательных приложениях. В 2002 году компания nVIDIA выпустила обновленный ряд процессоров для настольных систем. Старшие модели — GeForce 4400 и GeForce 4600 — имеют архитектуру, во многом схожую с процессором GeForce 3, улучшенную поддержку пиксельных и вершинных шейдеров, а также более высокие рабочие тактовые частоты. Кроме того, эти акселераторы поддерживают фирменную технологию полноэкранного сглаживания Accuview Antialiasing и обновленную технологию мультимониторности. Процессоры линейки MX представлены тремя моделями: GeForce 4 MX 420, GeForce 4 MX 440 и GeForce 4 MX 460. Видеокарты на базе GeForce 4 MX 420 оснащаются SDRAM-памятью, а две старшие модели работают с памятью DDR-SDRAM и различаются лишь рабочей тактовой частотой ядра и памяти. Заметим, что процессоры, представляющие линейку GeForce 4 MX, не являются слегка урезанными версиями моделей GeForce 4 Ti, а имеют собственную архитектуру. В частности, модели GeForce 4 MX имеют встроенный аппаратный декодер видео (Video Processing Engine), отсутствующий у более мощных GeForce 4 Ti 4400 и GeForce 4 Ti 4600, и интегрированный DVI-интерфейс. По своему устройству эти процессоры больше напоминают GeForce 2 MX, нежели GeForce 4, что подтверждается наличием всего лишь двух пиксельных конвейеров, а также отсутствием полноценной поддержки пиксельных и вершинных. [2]

Информация о работе Видеосистема