Описание видеокарт

Производство плат видеоадаптеров. Современные видеокарты на графических процессорах NVIDIA и AMD (ATI), технологии их объединения. Краткие характеристики NVIDIA GeForce 7 и 8, ATI Radeon X1800 и X1600. Новые режимы сглаживания и анизотропной фильтрации.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 30.12.2010
Размер файла 40,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Министерство общего и профессионального образования Свердловской области

Профессионально-педагогический колледж

Кафедра дизайна сервиса и информационных технологий

Реферат

по архитектуре ЭВМ

На тему

"Описание видеокарт"

Специальность 230103 - Автоматизированные системы обработки информации и управления

Екатеринбург 2009

Содержание

  • Введение
  • 1. Современные видеокарты на графических процессорах NVIDIA
  • 2. Краткие характеристики видеокарт NVIDIA GeForce 7
  • 3. Краткие характеристики видеокарт NVIDIA GeForce 8
  • 4. Современные видеокарты на графических процессорах AMD (ATI)
  • 5. Краткие характеристики видеокарт ATI Radeon X1800
  • 6. Краткие характеристики видеокарт ATI Radeon X1600
  • 7. Технологии объединения видеокарт

Введение

Изначально персональные компьютеры IBM PC комплектовались видеоадаптером MDA с монохромным дисплеем. Этот адаптер имел небольшую разрешающую способность, не мог отражать графическую информацию и был монохромным. Через некоторое время небольшая фирма Hercules Computer Technology выпустила монохромный видеоадаптер Hercules, который имел возможность вывода графики и большую разрешающую способность. CGA стал первым цветным видеоадаптером фирмы IBM. Он уже обеспечивал возможность отображать цветную графическую и текстовую информацию, но имел слишком маленькую разрешающую способность. Затем IBM выпустила два, наиболее распространенных в настоящее время видеоадаптера EGA и VGA. Они созданы на другой элементной базе и имеют лучшую, чем у CGA, разрешающую способность при большем числе отображаемых цветов.

В последнее время различные фирмы-производители видеоадаптеров выпустили большое количество плат, превосходящих по своим возможностям VGA. Эти платы, которые можно объединить под общим названием Super VGA, не имеют пока единого стандарта.

Фирма IBM начала выпуск нового видеоадаптера XGA, который, как предполагается, станет новым стандартом для компьютеров на базе процессоров Intel 386/486... Видеоадаптер содержит встроенный графический процессор, значительно увеличивающий его возможности и скорость работы. XGA аппаратно поддерживает перерисовку изображений в окнах экрана. При обмене данными между видеопамятью и основной памятью сам XGA вместо центрального процессора реализует управление шиной данных, что позволяет быстро передавать изображение на экран.

Следует также отметить, что предусмотрена совместимость видеоадаптеров VGA и XGA на уровне регистров. Базовая конфигурация XGA содержит 512 Кбайт видеопамяти, что обеспечивает разрешение 1024*768 пикселей при 16 цветах. Увеличение объема видеопамяти до 1Мбайта при той же разрешающей способности позволяет получить 256 цветов.

1. Современные видеокарты на графических процессорах NVIDIA

Несмотря на достаточно большое количество компаний, присутствующих на рынке дискретных видео-ускорителей, их продукция практически ничем не отличается друг от друга по своей производительности и функциональности. Видеокарты построены на одних и тех же графических процессорах. Более того, если речь заходит о старших (наиболее производительных) моделях, то все они как две капли воды похожи друг на друга и в точности повторяют так называемый референсный дизайн. Единственное, что может отличаться (и то не всегда), -- это логотип компании и, возможно, система охлаждения. Поэтому для того, чтобы получить представление о присутствующей на рынке продукции, нет смысла рассматривать видеокарты различных производителей. Вполне достаточно рассмотреть особенности графических процессоров и референсных видеокарт на этих процессорах. Чтобы избежать путаницы в названии референсных видеокарт, в дальнейшем мы будем именовать их по названию используемого графического процессора.

В обзоре будут рассмотрены видеокарты, выходящие под брендом GeForce. Они предназначены для видеоигр и домашних медиацентров. Для профессиональной работы с графикой NVIDIA выпускает другую линейку видеокарт под брендом Quadro. Как правило, они построены на тех же чипах, что и игровые варианты.

2. Краткие характеристики видеокарт NVIDIA GeForce 7

Седьмое поколение видеокарт ведет свою историю с 2005 года, когда были представлены две на тот момент топовые модели -- 7800 GT и 7800 GTX. Начиная с этой серии, NVIDIA ввела новые кодовые имена чипов: если предыдущее семейство было известно под именем NV4x, то новое получило индекс G7x. Индекс G означает GeForce, а первая цифра -- поколение, к которому относится данный чип. Это не свидетельствовало о революционном усовершенствование графических карт. Более правильно говорить об эволюционном развитии уже знакомой по шестому поколению архитектуры. Значимые изменения коснулись лишь архитектуры пиксельных конвейеров (рис. 4.1). Позже на смену G70 пришло поколение G71. Все видеокарты относятся к топовому сегменту и, конечно же, поддерживают технологию SLI.

NVIDIA GeForce 7800 GTX

Видеокарты, построенные на чипе NVIDIA GeForce 7800 (табл. 4.1), относятся к категории Hi-End. В момент своего появления они являлись наиболее производительными моделями семейства. В графическом процессоре GeForce 7800 GTX используется 24 пиксельных конвейера и 8 вершинных блоков, работающих на частоте ядра 430 МГц. Увеличение по сравнению с 16 пиксельными конвейерами и 6 вершинными блоками NV45 составило 8 и 2 соответственно. В отличие от заметного расширения функциональной части ядра, тактовая частота повысилась всего на 30 МГц по сравнению с предыдущим поколением (с 400 до 430 МГц). Между тем такое количество конвейеров привело к увеличению числа транзисторов в чипе G70 -- их 302 млн. По сравнению с существовавшими в тот момент продуктами Л II данная цифра казалась просто астрономической. Однако это усложняло техпроцесс, а также на тот момент не позволяло выпускать изделия с более высокой тактовой частотой.

Структура обработки данных в процессоре G70 аналогична обработке данных в NV45. Сначала данные поступают в вершинные конвейеры (блоки). Затем обработанные данные проходят через пиксельные конвейеры. Они объединены в шесть групп, по четыре шейдера в каждой -- эти блоки способны выполнять одновременно до четырех программных шейдеров PS 3.0 или работать над одним шейдером. В последнем случае может быть достигнута 128-битная точность представления чисел с плавающей запятой, в то время как каждый шейдер в отдельности имеет 32-битную точность. Архитектура пиксельных шейдеров G70 практически такая же, как у NV45. Единственное отличие -- появление двух арифметических блоков для выполнения операций сложения-умножения: теперь шейдер может выполнять до четырех таких операций за такт.

Наконец, данные поступают на конвейер растровых операций (Raster Operations, ROP) и выводятся на экран. Во время этого процесса пиксельные блоки затенения группируются по четыре. Пиксельные конвейеры оснащены пиксельными блоками затенения FP32 (с 32-битной точностью вычислений с плавающей запятой), и при совместной работе они обеспечивают более эффективную фильтрацию. Кроме того, при этом имеется возможность использовать 128-битную точность на оставшейся части графических конвейеров.

Кроме 24 пиксельных конвейеров, обеспечивающих тексельную скорость заполнения с билинейной фильтрацией 10,32 Гтексела/с, HDR, HDTV и множества других технологий, в процессоре GeForce 7800 GTX используется 256-битный интерфейс памяти GDDR3 на частоте 600 МГц (эффективная 1200 МГц). Теоретическая пропускная способность шины памяти при этом составляет 38 Гбайт/с. При разработке G70 существенно переработан блок, отвечающий за поддержку формата OpenEXR, позволяющего выводить на экран изображение с расширенным динамическим диапазоном (HDR).

NVIDIA GeForce 7800 GT

NVIDIA GeForce 7800 GT является вариантом процессора NVIDIA G70 с той же поддержкой DirectX 9.0c, OpenGL 2.0 и Pixel Shader 3.0, но с 20 пиксельными конвейерами и семью блоками вершинных программ. То есть на 4 пиксельных конвейера и на 1 вершинный блок меньше (7 против 8), чем у флагманской модели. Версия GT оснащена 256 Мбайт СООИЗ-видеопамяти с 256-битным интерфейсом. Частота графического процессора составляет 400 МГц, а эффективная частота работы памяти -- 1000 МГц.

NVIDIA GeForce 7800 GS

Это решение предназначено для тех, у кого нет слота PCI Express, а присутствует лишь AGP. Это единственная карта с поддержкой старой шины в седьмой серии.

Несмотря на самую низкую в 7800-й серии тактовую частоту процессора -- 380 МГц, эффективная частота памяти GDDR3 с 256-битной шиной составляет 1,2 ГГц. Тактовая частота RAMDAC равна 400 МГц.

Чип поддерживает программные интерфейсы Microsoft DirectX 9.0 (в том числе пиксельные и вершинные шейдеры версии 3.0) и OpenGL 2.0, а также технологии Pure Video, Intellisample 4.0, DVC 3.0 и UltraShadow II. Максимальное разрешение выводимого на дисплей изображения составляет 2048 х 1536 пикселов.

NVIDIA GeForce 7900 GTX

Новый чип, на котором построены видеокарты с индексом 79хх, носит кодовое имя G71. Это усовершенствованный вариант версии G70. Он производится по 90-нанометровому техпроцессу и, как ни странно, имеет меньшее количество транзисторов -- 279 млн против ранее присутствовавших 302 млн. Очевидно, что в предыдущем поколении был заложен некоторый резерв, от которого в усовершенствованной версии решили избавиться. Переход на более тонкий техпроцесс позволил производителю увеличить рабочую частоту чипов. В GTX-версии она достигает значения 650 МГц. Именно это усовершенствование и лежит в основе прироста производительности по сравнению с 7800 GTX. Ведь новое решение по структуре и количеству исполнительных блоков в точности повторяет ранний вариант (G70).

Так как количество блоков растеризации, пиксельных и вершинных шейдеров осталось прежним: 16/24/8, увеличение производительности произошло за счет поднятия тактовой частоты ядра. Если у G70 теоретическая скорость текстурирования трехмерных поверхностей составляла 10,32 Гтексела/с, то у G71 она увеличилась более чем на 51 %, до 15,6 Гтексела/с. Аналогичная динамика и по скорости закраски: 6,88 Гпиксела/с (7800 GTX) против 10,4 Гпиксела/с (7900 GTX).

Скорость работы с памятью возросла с 40 до 51,2 Гбайт/с.

Остальные функции не претерпели изменений: аппаратная поддержка DirectX 9.0, OpenGL 2.0, те же возможности полноэкранного сглаживания (FSAA) и анизотропной фильтрации.

NVIDIA GeForce 7900 GX2

Видеокарты этого семейства отличаются тем, что на них установлено два графических процессора G71, объединенных по технологии SLI. При этом не обязательно, чтобы чипсет материнской платы поддерживал данную возможность.

Если материнская плата все-таки дружит со SLI, появляется возможность запуска Quad-конфигурации. Однако для ее реализации потребуется очень мощный блок питания.

В силу технологических особенностей NVIDIA пришлось отказаться от привычного близкого расположения модулей памяти и процессора. Кроме того, для минимизации тепловыделения пришлось понизить тактовую частоту ядра до 500 МГц.

Эффективная частота работы с видеопамятью стандарта GDDR3 составляет 1,2 ГГц.

В подобной конфигурации расчетные значения текстурирования и скорости закраски равны 24 Гтексела/с и 16 Гпикселов/с соответственно.

NVIDIA GeForce 7900 GT

Как в случае с G70, GT-версия является упрощенным вариантом топовой карты. При том, что поддерживаются те же самые фирменные технологии, сокращены лишь технические характеристики: тактовая частота понижена до 450 МГц, эффективная скорость работы с памятью составляет 1,32 ГГц/с. Несмотря на это, теоретическая скорость выборки текстур составила 10,8 Гтексела/с, а скорость закраски -- 7,2 Гпиксела/с, что превосходит показатели GeForce 7800 GTX. Неудивительно, ведь количество исполнительных блоков осталось тем же, а скорость их работы увеличилась.

NVIDIA GeForce 7900 GS

Выпуск этой карты был продиктован исключительно маркетинговыми соображениями. На тот момент необходимо было представить конкурентоспособный продукт в сегменте $149-199. Поэтому руководство компании NVIDIA решило эту проблему банальным урезанием возможностей G71. Даже тактовая частота осталась прежней, отключены были лишь отдельные блоки конвейера: с 8 до 7 сократилось количество вершинных шейдеров, количество текстурных модулей и пиксельных шейдеров сократилось на четыре и стало равно 20. К блокам растеризации никаких ограничений применено не было.

Все остальные характеристики и возможности реализованы в том же объеме, что и у NVIDIA GeForce 7900 GT.

NVIDIA GeForce 7600 GT

Чип под кодовым именем G73 предназначен для установки в карты среднего уровня. Он так же, как и G71, производится по 90-нанометровому техпроцессу, однако имеет меньшее количество транзисторов. Интерфейс памяти 128-битный, максимально поддерживаемый объем -- 512 Мбайт. Поддерживается как GDDR2, так и GDDR3.

NVIDIA GeForce 7600

Представляется "половинной" версией NVIDIA GeForce 7900. Это касается не только памяти, но и количества исполнительных блоков. Пиксельных шейдеров и текстурных модулей стало 12, блоков растеризации -- 8, лишь количество вершинных шейдеров уменьшилось не в два, а в 1,6 раза и стало равно пяти.

Все эти технологические решения призваны обеспечить теоретическую скорость закраски 4,48 Гпиксела/с и текстурирования 6,72 Гтексела/с.

NVIDIA GeForce 7600 GS

По традиции индекс GS свидетельствует об урезанных возможностях видеокарты. В данном случае ограничения незначительные, так как количество исполнительных блоков осталось прежним, были понижены лишь рабочие частоты процессора и памяти до 400 МГц и 1,08 ГГц соответственно.

NVIDIA GeForce 7300

Видеокарты NVIDIA GeForce 73xx относятся к нижнему рыночному сегменту. Это бюджетное решение в рамках новых технологий. Особенность данной серии заключается в том, что большинство моделей построены на ядре G72, в то время как самый производительный вариант -- NVIDIA GeForce 7600 GT -- использует G73. Это немного странно в свете того, что во всех предыдущих случаях такой эклектики не наблюдалось. Гораздо предсказуемой с точки зрения потребителя было увидеть имя вроде NVIDIA GeForce 7600 LE, однако маркетологи решили по-другому, и мы принимаем это как данность.

NVIDIA GeForce 7300 GT

Построенная на ядре G73, NVIDIA GeForce 7300 GT по всем характеристикам ближе к 7600-й серии. Она поддерживает 128-битную шину памяти, а также модули GDDR2/GDDR3. При покупке необходимо обращать внимание, какой из типов памяти установлен, от этого кардинальным образом зависит производительность видеокарты. Учитывая то, что в основе лежит более развитая архитектура G73, многие сторонние производители с легкостью отступают от спецификаций рефе-ренсной платы и выпускают более скоростные версии, вплоть до 500 МГц, в то время как рекомендованная тактовая частота составляет 350 МГц, а эффективная частота памяти -- 600 МГц. Разгонный потенциал очевиден.

Чтобы получить из NVIDIA GeForce 7600 GT рассматриваемый нами вариант, производители сохранили все 8 блоков растеризации, урезали количество текстурных модулей и пиксельных шейдеров с 12 до 8 и оставили четыре вершинных шейдера вместо пяти.

По сравнению с ядром G72 превосходство существенное, особенно по количеству блоков растеризации (их больше в четыре раза). Учитывая минимальную на сегодняшний день разбежку в цене между решениями на G72 и G73, последнее выглядит более привлекательно.

Важно отметить, что NVIDIA GeForce 7300 GT поддерживает SLI, в то время как у видеокарт, построенных на чипах G72, такой возможности нет.

NVIDIA GeForce 7300 GS

Самое производительное из всех решений на ядре G72, однако разогнаться как следует в требовательных к ресурсам приложениях оно не позволит, даже несмотря на высокую тактовую частоту процессора (550 МГц). Более чем скромное количество блоков растеризации (два), текстурных модулей и пиксельных шейдеров (четыре), а также вершинных шейдеров (три) -- это все, чем может похвастаться самая продвинутая из видеокарт на базе G72.

Эффективная частота работы памяти также говорит о скромных возможностях этого продукта. Сильной стороной остаются возможности модуля, отвечающего за 2О-графику, так как блоки 20-операций, включая декодирование потокового видео, остались прежними. Поэтому такое решение подойдет системам, в которых внимание смещено от 3D-nrp в сторону просмотра фильмов и повседневной работы.

В ряде случаев разработчики видеокарт прибегают к разгону, что может немного увеличить производительность графического ускорителя, построенного на чипе G72.

NVIDIA GeForce 7300 LE/SE

Обе карты отличаются пониженной по сравнению с NVIDIA GeForce 7300 GS тактовой частотой процессора. Если в LE-версии количество исполнительных блоков соответствует старшей версии, то у SE на два пиксельных и на один вершинный шейдер меньше.

NVIDIA GeForce 7200 GS/7100 GS

Эти видеокарты относятся к самому нижнему сегменту и по своим возможностям сопоставимы со встроенной в материнские платы логикой: NVIDIA GeForce 7200 GS базируется на более новой архитектуре G72, в то время как NVIDIA GeForce 7100 GS является продолжением NVIDIA GeForce 6200 ТС.

3. Краткие характеристики видеокарт NVIDIA GeForce 8

Революционные изменения в восьмом поколении видеокарт от NVIDIA обусловлены выходом новой операционной системы Windows Vista от Microsoft с принципиально новым интерфейсом WGF 2.0 (Windows Graphics Foundation), известным также как DirectX 10 API.

В связи с этим архитектура нового графического процессора претерпела существенные изменения. Чтобы понять, насколько мощной спроектировали новую систему, достаточно взглянуть на одну цифру -- количество транзисторов. В G80 их 681 млн. Это больше, чем в самых современных процессорах Intel. К примеру, Intel Core 2 Е6850 состоит всего из 291 млн. компонентов, а самый производительный Intel Core 2 Extreme QX6850 - из 582 млн.

Такая сложная структура G80 в совокупности с 90-нанометровым техпроцессом ведет к увеличению энергопотребления. В зависимости от модификации, топовые видеокарты восьмого поколения потребляют от 108 до 175 Вт энергии, что катастрофически много в свете борьбы AMD и Intel за повышение энергоэффективности своей продукции.

Новое поколение графических процессоров имеет принципиально новую архитектуру, основанную на унифицированных потоковых процессорах (шейдерные процессоры). Если в графических процессорах предыдущего поколения отдельно выделяли пиксельные и вершинные процессоры, которые называли также конвейерами, то в новой архитектуре речь идет именно об унифицированных шейдерных процессорах. Такие процессоры способны выполнять не только вершинные и пиксельные шейдеры, но также геометрические и физические, что не было реализовано в графических чипах предыдущих поколений. Архитектура унифицированных блоков позволяет достичь сбалансированной нагрузки при выполнении различных шейдеров, чего в принципе нельзя было достичь при использовании классической архитектуры графического процессора.

Унифицированные потоковые процессоры (Unified Streaming Processors, USP) представляют собой скалярные процессоры общего назначения для обработки данных с плавающей запятой (рис. 4.2). При этом необходимо акцентировать внимание на том, что ранее как NVIDIA, так и ATI применяли в своих изделиях векторную архитектуру исполнительных блоков. Переход к скалярным процессорам вызван тем, что традиционная векторная архитектура менее эффективно использует вычислительные ресурсы, чем скалярный дизайн процессорных модулей, особенно в случае обработки сложных смешанных шейдеров, сочетающих векторные и скалярные инструкции. Кроме того, довольно сложно добиться эффективной обработки скалярных вычислений с помощью векторных исполнительных модулей.

Потоковые процессоры обрабатывают сырые данные и передают их блокам текстурирования. На каждые четыре потоковых процессора приходится один модуль адресации текстур и два модуля фильтрации текстур. То есть на каждый функциональный блок в ядре. Приходится 16 потоковых процессоров, 4 модуля адресации текстур и 8 модулей фильтрации текстур. Примечательно, что каждому такому блоку выделен кэш первого уровня.

При выполнении скалярным унифицированным потоковым процессором векторного программного кода преобразование в скалярные операции производится графическим процессором GeForce 8800.

NVIDIA GeForce 8800 GTX

Логически графический процессор содержит несколько вычислительных блоков (рис. 4.3): 8 блоков GeForce 8800 GTX. В каждом таком блоке сгруппированы 4 блока TMU (блок наложения текстур) и 16 блоков ALU. Таким образом, мы получаем 128 блоков ALU и 32 блока TMU.

Сама NVIDIA предпочитает говорить, что GeForce 8800 GTX имеет 128 унифицированных потоковых процессоров. По сути, это утверждение не совсем верно и носит в большей степени маркетинговый характер. Более правильно говорить о восьми унифицированных шейдерных процессорах (вычислительных блоках), поскольку именно вычислительный блок, а не отдельный блок ALU, может обрабатывать часть пиксельного, вершинного или геометрического шейдера, а все ветвления, переходы, условия и т. д. обрабатываются именно на уровне всего вычислительного блока. Впрочем, не будем вдаваться в полемику о терминах.

Референтная видеокарта на базе процессора GeForce 8800 GTX имеет 768 Мбайт видеопамяти GDDR3. При этом ширина шины памяти составляет 384 бит, а частота работы памяти -- 1800 МГц. Соответственно пиковая пропускная способность шины памяти равна 86,4 Гбайт/с.

Каждый вычислительный логический блок имеет собственный кэш первого уровня (L1) для хранения текстур и других данных. Отметим, что частота унифицированных процессоров (блоков ALU) отличается от частоты работы текстурных блоков, частоты работы кэша и всех остальных блоков процессора. Например, для процессора NVIDIA GeForce 8800 GTX частота унифицированных процессоров составляет 1,35 ГГц, в то время как частота всех остальных блоков процессора равна 575 МГц.

Каждый вычислительный логический блок связан также с кэшем второго уровня (L2). Всего в процессоре NVIDIA GeForce 8800 GTX имеется шесть Ь2-кэшей, при этом каждый вычислительный блок имеет доступ к любому из них и к любому из шести массивов регистров общего назначения. Таким образом, обработанные одним шейдерным процессором данные могут быть использованы другим шейдерным процессором.

Графический процессор NVIDIA GeForce 8800 GTX обладает шестью разделами растровых операций (ROP). Каждый раздел ROP способен обрабатывать четыре пиксела за такт с общей производительностью 24 пиксела за такт с обработкой цвета и Z-обработкой.

Блоки растровых операций поддерживает мультисемплированное, суперсемплированное и прозрачное адаптивное сглаживание. Отметим, что добавлены новые режимы сглаживания: 8х, 8xQ, 16x и 16xQ. Новый графический процессор поддерживает сглаживание в формате как FP16, так и FP32, так что свойственная архитектурам NVIDIA GeForce 6x и NVIDIA GeForce 7x проблема, заключающаяся в невозможности одновременного использования полноэкранного сглаживания и режима HDR, в NVIDIA GeForce 8800 полностью решена.

При проектировании ALU были соблюдены спецификации стандарта IEEE 754, важного для научных, статистических, экономических и других вычислений.

Еще одной важной особенностью архитектуры графического процессора NVIDIA GeForce 8800 является потоковая циклическая обработка данных, позволяющая устранить недостаток классической конвейерной схемы графического процессора -- неоптимального использования ресурсов в случае повторной обработки данных.

В архитектуре NVIDIA GeForce 8800 входящие данные (input stream) поступают на вход одного унифицированного процессора, обрабатываются им, по выходе (output stream) записываются в регистры, а затем вновь подаются на вход другого процессора для исполнения следующей операции обработки.

Применение циклической потоковой обработки данных одновременно с унифицированными процессорами позволяет решить проблему их повторной обработки, довольно часто встречающуюся в современных играх.

Потоковая обработка данных, реализованная в GPU NVIDIA GeForce 8800, является составной частью API DirectX 10. Такая архитектура позволяет отправлять данные, обработанные вершинным или геометрическим шейдером, в буфер памяти, а затем вновь использовать их либо для последующей, либо для повторной обработки.

Как уже отмечалось, новый графический процессор поддерживает множество новых функций и технологий, в том числе следующие.

? Новые режимы сглаживания и анизотропной фильтрации.

? Геометрические шейдеры, реализованные в DirectX 10.

? Режим HDR. Графические процессоры серии GeForce 8800 поддерживают процесс HDR-рендеринга (High Dynamic Range) с 128-битной точностью не только в режиме FP16 (64-битный цвет), но и FP32 (128-битный цвет), которые могут обрабатываться одновременно с процессом сглаживания. Это позволяет добиться реалистичных эффектов освещения и наложения теней, а также обеспечивает высокую динамику и детализацию самых затемненных и самых светлых объектов. Правда, нужно отметить, что существующие сегодня мониторы не способны выводить изображение в широком динамическом диапазоне. Поэтому даже в случае применения режима HDR при рендеринге для вывода изображения на экран монитора все равно будет использоваться стандартная модель RGB. По данной причине сегодня режим HDR можно рассматривать только как эффективное средство для создания различных визуальных эффектов.

? Технологию расчета физических эффектов NVIDIA Quantum Effects.

? Режим Extreme High Definition Gaming. Новые графические процессоры семейства GeForce 8800 и, соответственно, все видеокарты на их базе поддерживают игровые установки Extreme High Definition (XHD), при которых игры могут запускаться в широкоформатном режиме вплоть до 2560 х 1600, что в семь раз превышает качество картинки HD-телевизора формата 1080i и в два раза -- формата 1080р.

? 2 х DVI Dual Link.

? Технологии PureVideo и Pure Video HD.

NVIDIA GeForce 8800 GTS

Разница между процессорами NVIDIA GeForce 8800 GTX и NVIDIA GeForce 8800 GTS заключается в количестве унифицированных потоковых процессоров (SP), тактовой частоте работы SP и графического ядра, а также в разрядности шины памяти, частоте работы и объеме поддерживаемой памяти. Графический процессор GeForce 8800 GTS имеет 96 унифицированных потоковых процессоров, работающих на частоте 1200 МГц. Тактовая частота остальных блоков (кэш, модули текстурирования и т. д.) составляет 500 МГц (513 для 320-мегабайтной версии).

Референсная видеокарта на базе процессора GeForce 8800 GTS имеет, в зависимости от версии, 320 либо 640 Мбайт видеопамяти GDDR3. При этом ширина шины памяти составляет 320 бит, а частота работы памяти -- 1600 МГц. Соответственно пиковая пропускная способность шины памяти равна 64 Гбайт/с.

Все остальные технические характеристики и функциональные возможности видеокарт на процессорах GeForce 8800 GTX и GeForce 8800 GTS одинаковые.

NVIDIA GeForce 8800 Ultra

Разработчик позиционирует эту карту как решение для премиум сегмента. Она является не чем иным, как разогнанной версией NVIDIA GeForce 8800 GTX. Расчетная скорость текстурирования составляет 39,2 Гтексела/с, а закраски -- 14,7 Гпиксела/с. Это более чем в 1,6 раза превосходит по скорости текстурирования самую производительную двухпроцессорную модель предыдущего поколения NVIDIA GeForce 7950 GX2.

NVIDIA уже неоднократно практиковала такую политику, когда производительность наращивалась не за счет переработки архитектуры ядра (G80 и так отличается сложностью), а за счет увеличения частоты работы. С точки зрения маркетинга это оправданно.

NVIDIA GeForce 8800 Ultra

Как и предшественница (NVIDIA GeForce 8800 GTX), использует память GDDR3 общим объемом 768 Мбайт, тактовая частота процессора составляет всего 612 М Гц для основной подсистемы и 1,5 ГГц для подсистемы шейдерных процессоров, что больше на 6 и 11 % соответственно по сравнению с не-разогнанной картой. Частота памяти возросла с номинальных 1800 до 2160 МГц. По этому параметру прирост быстродействия составил целых 20 %.

В любом случае эта видеокарта является одним из самых мощных ускорителей. Хотя некоторые партнеры NVIDIA в своих продуктах самостоятельно разгоняли NVIDIA GeForce 8800 GTX, приблизив их тем самым к возможностям NVIDIA GeForce 8800 Ultra, однако той же производительности им достигнуть не удалось.

NVIDIA GeForce 8600 GTS

Ввиду того что архитектура G80 довольно гибкая, она позволяет малыми силами урезать производительность видеоадаптеров. Поэтому в данном случае без особых мудрствований NVIDIA и пошла по этому пути. Количество ALU в шейдерном блоке осталось прежним, однако они работают на более чем удвоенной частоте 1450 МГц, а их точность составляет FP32, с поддержкой целочисленных форматов.

Учитывая то, что универсальных шейдерных блоков всего два, легко подсчитать количество универсальных потоковых процессоров: 2 х 16 = 32 (рис. 4.4). Странно, что в решениях среднего уровня всего два универсальных шейдера. Разрыв с топовыми продуктами довольно существенный. По аналогии с G80 можно было бы предположить, что количество TMU при этом должно быть равно восьми, однако это не так. Несмотря на общую схожесть, в новые процессоры все-таки были внесены некоторые изменения. В частности, количество модулей адресации текстур увеличилось в два раза по сравнению с G80. Поэтому получается, что в NVIDIA GeForce 8600 GTS на каждый блок адресации приходится один блок билинейной фильтрации, что теоретически должно обеспечить прирост скорости при данной операции. Однако в то же время это означает падение производительности при трилинейной и анизотропной фильтрации, которые в топовых продуктах будут выполняться быстрее за счет двукратного превосходства модулей фильтрации над модулями адресации.

Количество блоков растеризации (ROP) уменьшилось относительно G80 в три раза и равно восьми.

Тактовая частота процессоров, построенных на ядре G84, превосходит показатели старших моделей (табл. 4.6). Это стало возможным благодаря переходу на более тонкий техпроцесс (80 нм).

Карта поддерживает видеопамять стандарта GDDR3 объемом до 512 Мбайт, эффективная частота работы которой составляет 2 ГГц. По этому параметру NVIDIA GeForce 8600 GTS уступает только NVIDIA GeForce 8800 Ultra с ее 2,16 ГГц. Однако скорость обмена данными у последней выше за счет более широкой шины. В процессорах семейства G84 она урезана относительно топовых моделей в три раза -- до 128 бит.

NVIDIA GeForce 8600 GT

Построенная на том же ядре, что и NVIDIA GeForce 8600 GTS, эта видеокарта отличается уменьшенной до 540 МГц тактовой частотой процессора, при том что частота блока потоковых процессоров превосходит ее более чем в два раза -- 1190 МГц. Остальные режимы и технологии в обеих видеокартах идентичны.

4. Современные видеокарты на графических процессорах AMD (ATI)

После перехода ATI под крыло AMD темп выхода новой продукции немного нарушился. Новому владельцу потребовался тайм-аут для осмысления нынешнего положения и определения стратегических целей в будущем. Не обошлось и без потерь. В частности, Дэйв Ортон, бывший глава ATI, при котором компания добилась наиболее значимых успехов, покинул пост исполнительного вице-президента AMD.

Новинки стали появляться весной 2007 года, хотя даже продукты предыдущего поколения не потеряли своей актуальности. Это обусловлено тем, что рынок программного обеспечения еще не насытился решениями с использованием DirectX 10, одного из главных новшеств нового поколения видеокарт.

5. Краткие характеристики видеокарт ATI Radeon X1800

Семейство графических процессоров ATI Radeon XI800 ориентировано на высокопроизводительные игровые ПК и включает в себя три модели.

Они построены на чипе R520. Первые две имеют 16 пиксельных процессоров, то есть 4 пиксельных блока Quad Pixel Shader Cores, 8 вершинных процессоров и 16 текстурных модулей. Процессор распределения потоков поддерживает деление на 512 потоков.

ATI Radeon X1800 XL

Модель ATI Radeon X1800 XL поддерживает частоту ядра 500 МГц и частоту памяти 1000 МГц. Объем памяти на видеокартах с процессором ATI Radeon X1800 XL может составлять 256 Мбайт.

ATI Radeon X1800 XT

Модель ATI Radeon XI800 XT поддерживает частоту ядра 625 МГц и частоту памяти 1500 МГц. Объем памяти на видеокартах с процессором ATI Radeon X1800 XT составляет 256 или 512 Мбайт.

ATI Radeon X1800 GTO

Модель ATI Radeon XI800 GTO отличается уменьшенным количеством пиксельных процессоров (12) и блоков текстурирования (12), хотя общее количество транзисторов то же. Это дает основания предположить, что в изделиях этой серии четыре конвейера искусственно отключены (возможно, в результате отбраковки). Остальные характеристики схожи с ATI Radeon XI800 XL.

6. Краткие характеристики видеокарт ATI Radeon X1600

плата видеокарта графический анизотропный фильтрация

Семейство графических процессоров ATI Radeon XI600 ориентировано на массовые решения и включает в себя четыре модели.

ATI Radeon X1600 ХТи ATI Radeon X1650 усовершенствованная версия этого чипа, которая стала выпускаться п именем RV535 (при неизменном количестве транзисторов -- 157 млн -- производство было переведено на 80-нанометровый техпроцесс).

В нем реализовано 12 пиксельных процессоров, то есть три пиксельных блока Quad Pixel Shader Cores (3 x 4), пять вершинных процессоров и четыре текстурных модуля. Процессор распределения потоков поддерживает деление на 128 потоков.

ATI Radeon X1600 Pro

Модель ATI Radeon XI600 Pro поддерживает частоту ядра 500 МГц и частоту памяти 780 МГц. Объем памяти на видеокартах с процессором ATI Radeon XI600 Pro может составлять 128 или 256 Мбайт.

ATI Radeon X1600 XT

Модель ATI Radeon X1600 XT поддерживает частоту ядра 590 МГц и частоту памяти 1380 МГц. Объем памяти на видеокартах с процессором ATI Radeon X1600 Pro составляет 128 или 256 Мбайт.

ATI Radeon X1650 Pro

Видеокарта ATI Radeon X1650 Pro практически не отличается от ATI Radeon X1600 XT. Логическая структура у них полностью совпадает, минимальные различия лишь в тактовой частоте процессора (600 против 590 МГц) и эффективной частоте работы памяти (1390 против 1380 МГц). Это дает право говорить еще об одной "косметической" ревизии выпускавшихся ранее продуктов.

ATI Radeon X1650 XT

Построенные на процессоре RV560 видеокарты ATI Radeon X1650 XT сильно отличаются от трех описанных выше моделей 1600-й серии.

Производимый по 90-нанометровому техпроцессу процессор RV560 состоит из 330 млн. транзисторов, что почти в два раза больше, чем у RV530/RV535.

Количество пиксельных процессоров и текстурных модулей также удвоилось по сравнению с остальными моделями серии. Вершинных процессоров восемь.

По возможностям этот процессор вплотную приблизился к 1800-й серии, которая относится к топовому сегменту видеокарт. Учитывая, что разница в цене между ними доходит до четырех крат, покупка ATI Radeon X1650 XT в ряде случае будет выглядеть более рационально, нежели дорогих моделей.

7. Технологии объединения видеокарт

Технология NVIDIA SLI

SLI (Scalable Link Interface) -- это технология объединения двух видеокарт с целью увеличения графической производительности.

Назвать саму идею объединения видеокарт новой нельзя. Как известно, все новое -- это хорошо забытое старое. Попытки объединения видеокарт (то есть создания многопроцессорной графической системы) предпринимались и раньше. И если говорить о решениях, которые имели коммерческий успех и завоевали популярность в среде заядлых геймеров, то уместно вспомнить технологию Scan Line Interleave (SLI), позволившую объединять в единое решение две графические карты на базе процессоров 3Dfx Voodoo 2.

Суть технологии Scan Line Interleave (чередование строк кадра) была отражена в ее названии: один графический процессор отвечал за обработку четных строк кадра, а другой -- за обработку нечетных. Таким образом, нагрузка на графические процессоры делилась пополам, а общая производительность увеличивалась.

Предпринимались и другие попытки создания многопроцессорных графических решений, однако коммерческого успеха они не имели.

С выпуском графического интерфейса PCI Express совместное использование двух графических карт вновь стало возможным. Компания NVIDIA уже давно поняла потенциал новой шины и внедрила некоторое подобие функции 3Dfx SLI в новейший графический процессор NV40, также известный как GeForce 6800.

Итак, что же представляет собой новая технология NVIDIA SLI? Для реализации возможности объединения двух видеокарт информацию рендеринга следует разделить между двумя картами. Кроме того, нужен метод передачи информации об изображении второй карты на первую карту, к которой подключен монитор. Наконец, две части изображения должны быть объединены на экране монитора.

Поэтому одна из видеокарт, работающих в режиме NVIDIA SLI, является ведущей, а вторая -- ведомой, при этом ведущая карта отвечает за сборку финального кадра и вывод его на экран.

Для объединения видеокарт в технологии NVIDIA SLI использует простое U-образное мостовое соединение двух карт, которое обеспечивает синхронизацию и передачу изображения. В результате этого соединения отпадает потребность в использовании внешнего кабеля.

Если вернуться в дни карт Voodoo 2, то технология SLI была довольно сложной, поскольку помимо двух карт Voodoo 2 требовалась "нормальная" 2D-карта для 2О-приложений. Сигнал VGA этой 2О-карты передавался на карты Voodoo 2 с помощью внешнего кабеля, в то время как синхронизация двух карт Voodoo 2 и обмен информацией между ними осуществлялись по ленточному шлейфу. Графическая информация разделялась таким образом, что одна карта выводила только четные строки кадра, а другая -- нечетные. Затем результаты складывались или чередовались -- отсюда и название Scan Line Interleave.

Технология NVIDIA SLI (Scalable Link Interface) имеет ряд принципиальных отличий от 3Dfx SLI. Главное из них заключается в самом принципе обработки кадров. Технология NVIDIA SLI предлагает два режима работы для увеличения производительности: Split Frame Rendering (SFR) и Alternate Frame Rendering (AFR). Режим AFR -- это поочередный рендеринг кадров, то есть одна видеокарта отвечает за рендеринг одного кадра, а вторая -- за рендеринг другого.

В режиме SFR одна видеокарта отвечает за обработку верхней половины сцены кадра, а вторая -- за обработку нижней половины. Кроме того, разделение кадра на верхнюю и нижнюю половины не ограничено соотношением 50/50, а является гибким. Используя технику динамической балансировки нагрузки, нагрузка между видеокартами делится пополам, позволяя каждой из них работать в полную силу. Вполне очевидно, что технология балансировки нагрузки необходима и эффективна, поскольку в большинстве игр нижняя часть сцены обычно имеет высокую сложность с множеством деталей, а верхняя половина чаще всего отображает только статическое небо.

Для реализации технологии NVIDIA SLI на практике потребуются две видеокарты с интерфейсом PCI Express, поддерживающие данную технологию (например, на базе графического процессора GeForce 6800), мостовой соединитель и материнская плата, имеющая два слота PCI Express xl6.

Обе графические карты должны принадлежать к одному классу производительности, то есть можно объединять только две карты GeForce 6800 Ultra, две GeForce 6800 GT или две GeForce 6800 (стандарт). Смесь различных видеокарт работать не будет, хотя в теории должна бы -- ведь здесь используется балансировка нагрузки.

Кроме того, до недавнего времени требовалось (сейчас такого жесткого условия нет), чтобы объединяемые по технологии SLI видеокарты имели одну и ту же версию BIOS.

Технология ATI CrossFire

Альтернативная технология, позволяющая объединять две видеокарты для увеличения производительности, получила название ATI CrossFire. По сравнению с технологией NVIDIA SLI у ATI CrossFire имеется ряд принципиальных отличий и преимуществ. Напомним, что технология NVIDIA SLI имеет несколько ограничений: обе карты должны быть абсолютно идентичны или, другими словами, обладать одним и тем же BIOS (правда, требование идентичных BIOS было только в первых реализациях технологии NVIDIA SLI). Кроме того, режим SLI работает далеко не со всеми играми, а если и работает, то в ряде случаев не дает желаемого прироста производительности. К тому же эффективность технологии NVIDIA SLI и список поддерживаемых ею игр в значительной мере зависят от используемого видеодрайвера.

Технология ATI CrossFire работает со всеми играми под DirectX и OpenGL. Объединяемые видеокарты не обязательно должны быть одинаковыми и могут быть произведены разными компаниями. Технология ATI CrossFire подразумевает больше режимов рендеринга, чем NVIDIA SLI, и поддерживает режим улучшения качества изображения.

На первый взгляд, CrossFire имеет немало общего с NVIDIA SLI: для работы CrossFire требуется материнская плата с двумя слотами PCI Express xl6 под графику. Хотя CrossFire теоретически не зависит от чипсета, ATI утверждает, что система будет работать только на материнских платах с чипсетом Radeon Xpress 200 CrossFire.

CrossFire-версия несколько отличается от обычных карт ATI. Для сборки системы CrossFire, кроме стандартной графической карты Radeon X800 или Х850 (ведомая/slave), потребуется специальная версия видеокарты Radeon X800 или Х850 CrossFire (ведущая/master). При этом видеокарты не соединяются между собой мостиком -- только специальным внешним кабелем.

Специальный чип на ведущей CrossFire-карте смешивает картинки, сгенерированные обычной и CrossFire-картой, после чего выводит изображение на дисплей. Смешивание происходит попиксельно.

Разделение на простую и CrossFire-версию карт, на первый взгляд, можно расценить как недостаток по сравнению со SLI, так как в случае с решением NVIDIA вам не нужно думать, какую карту брать, -- обе одинаковые. Но если вдуматься, концепция ATI дает определенные преимущества.

Владельцы Radeon X800 или Х850 могут без проблем докупить к своей системе любую модель CrossFire. Здесь не играют роли ни различия в тактовых частотах, ни в версиях BIOS, ни в конфигурации конвейера, ни в производителях. Единственное ограничение -- модель CrossFire должна соответствовать другой графической карте. Другими словами, быть картой Х800 или Х850.

CrossFire-версия карты координирует тактовые частоты и адаптируется к обычной карте на основе пиксельных конвейеров. Скажем, если обычная карта использует 12 активных пиксельных конвейеров, то CrossFire-карта тоже перейдет на 12 конвейеров. Но за гибкость приходится платить. Владельцы младшей Х800 или Х850 заплатят достаточно приличную сумму за CrossFire-версию карты, по сравнению со своей, и не факт, что они получат большой выигрыш, ведь темп гонки будет задавать обычная карта.

Технология ATI CrossFire обеспечивает четыре режима работы: О SuperTiling;

? Scissor;

? Alternate Frame Rendering (AFR);

? Super AA.

Режим Super Tiling -- это стандартный режим для технологии CrossFire. Он работает для всех игр и приложений Direct3D. Следует отметить, что современные графические процессоры не обрабатывают одновременно все изображение --они разделяют его на небольшие квадраты (quads), которые раскладываются процесс сором по разным конвейерам. В режиме Super Tiling экран разбивается на отдельные квадраты размером 32 х 32 пиксела (рис. 4.12) так, что каждая видеокарта получает изображение с выделенными в шахматном порядке фрагментами для обработки. Таким образом, нагрузка делится строго поровну между кадрами, независимо от конкретной сцены, а вот геометрическую нагрузку приходится дублировать -- обе карты рассчитывают одни и те же геометрические данные.

К преимуществам данного режима относится возможность работы со всеми играми и приложениями, а также оптимальное распределение нагрузки (с точки зрения пикселов). В то же время в некоторых приложениях в режиме SuperTiling производительность возрастает незначительно. Обе карты должны просчитывать всю геометрию сцены, даже если затем они будут вычислять половину пикселов. В играх, которые усиленно используют пиксельные программы, можно ожидать более высокого прироста производительности. Кроме того, режим SuperTiling не работает с играми OpenGL.

Режим рендеринга Scissor разделяет экран на две части по горизонтали (рис. 4.13). Одна карта вычисляет верхнюю часть экрана, а вторая -- нижнюю. Динамическая балансировка нагрузки позволяет разделить экран на части таким образом, чтобы на карты ложилась равная вычислительная нагрузка. Такой режим является стандартным для приложений OpenGL. Кроме того, данный режим позволяет получить прирост производительности в большинстве игр. В то же время, как и в случае SuperTiling, в режиме Scissor обе видеокарты должны полностью просчитывать геометрию сцены.

Режим Alternate Frame Rendering (AFR) подразумевает поочередный рендеринг кадров каждым графическим процессором (рис. 4.14). Одна карта просчитывает все нечетные кадры, а вторая -- все четные. Принцип легко понять, если учесть, что меняющаяся сцена всегда состоит из последовательности отдельных кадров, которые быстро сменяют друг друга, создавая впечатление непрерывного движения.

Преимущество такого решения состоит в том, что обе карты оптимально распределяют вычислительную нагрузку. Однако в ряде случаев использование режима AFR невозможно, например, когда обработка следующего кадра напрямую зависит от результатов обработки предыдущего.

Четвертый режим CrossFire называется Super AA (Anti-Aliasing). Точнее, речь идет даже не об одном, а о четырех режимах Super AA: 8х АА, 10х АА, 12х АА и 14х АА. В данных режимах карта не обеспечивает более высокой частоты кадров (производительности), но существенно улучшает качество картинки. Эти режимы позволят повысить качество изображения в играх, которые не получают выигрыша в производительности от использования двух видеокарт. Наличие данных альтернативных режимов рендеринга является ключевым отличием технологии ATI CrossFire от NVIDIA SLI.

Режимы Super AA можно использовать во всех приложениях, без каких бы то ни было ограничений, поскольку они не предполагают распределения рабочей нагрузки между двумя видеокартами -- каждая карта выполняет рендеринг кадра на основе уникального набора точек - семплов, после чего результаты рендеринга объединяются и формируется единое изображение.

В режиме 8х АА обе карты генерируют одно и то же изображение, причем каждая из них работает в режиме сглаживания изображения 4х, но использует разные точки-семплы (шаблоны сглаживания). Затем чип смешивает обе картинки в одну. В результате пользователь получает сглаживание 8х по цене 4х FSAA.

Аналогично в режиме 12х АА каждая карта работает в режиме сглаживания изображения 6х, но использует разные шаблоны. В результате смешивания картинок получается режим сглаживания 12х АА при производительности, соответствующей режиму 6х FSAA.

В режимах 10х А А и 14х А А используется принципиально новая концепция режима SSAA (SuperSampling АА). Фактически данные режимы сглаживания представляют собой комбинацию режимов 8х А А и 12х АА с новой технологией сглаживания 2х SuperSampling АА, при котором каждая карта осуществляет обработку всей сцены с необходимым разрешением и сдвигом на полпиксела по диагонали. В итоге рендеринг сцены фактически выполняется в режиме Юх АА (8х АА + 2х SSAA) или 14х АА (12х АА + 2х SSAA).

Размещено на Allbest.ru


Подобные документы

  • История видеокарт, их назначение и устройство. Принципы обеспечения работы графического адаптера. Характеристики и интерфейс видеокарт. Сравнительный анализ аналогов производства компаний NVIDIA GeForce и AMD Radeon. Направления их совершенствования.

    контрольная работа [295,6 K], добавлен 04.12.2014

  • История развития графических адаптеров и их характеристики. Конкуренция изготовителей ATI и NVIDIA как "двигатель прогресса" графических адаптеров. Обзор основных моделей: ATI Radeon, Nvidia GeForce FX. Критерии выбора графических адаптеров при покупке.

    реферат [134,7 K], добавлен 14.11.2013

  • Состав видеокарты AMD Radeon HD 6990, принципы и режимы ее работы, основные компоненты и интерфейсы подключения. Сравнительный обзор с видеокартой NVIDIA GeForce. Тестирование устройства, техническое обслуживание, последовательность настройки и включения.

    дипломная работа [891,1 K], добавлен 26.08.2012

  • Порівняльне тестування відеоадаптерів фірм Nvidia GeForce та AMD Radeon. Призначення та основні типи відеоадаптерів. Використання логічних пробників. Вимірювання номінальної напруги, струму, температури. Основні вимоги безпеки під час експлуатації ЕОМ.

    курсовая работа [1,6 M], добавлен 02.11.2014

  • История PC-совместимых персональных компьютеров с адаптером Monochrome Display Adapter. Устройство и основные характеристики видеокарты. Разъёмы для подключения устройств вывода. Описание видеокарт 3DMark, Metro 2033 Benchmark, Unigine Tropics Demo.

    курсовая работа [7,9 M], добавлен 11.12.2014

  • Общие сведения о предприятии, его организационная структура управления. Краткая характеристика рабочего места, технические средства информатизации. Сравнение видеоадаптеров Gigabyte Radeon HD и Palit GeForce. Обоснование выбора программного обеспечения.

    отчет по практике [81,6 K], добавлен 21.05.2013

  • Анализ истории и перспектив развития видеокарт; видеосистема как часть компьютера: последние технологические разработки. Тесты сравнения видеокарт, экономический расчет их стоимости. Выбор наиболее оптимальной видеокарты для дизайнерского моделирования.

    дипломная работа [718,1 K], добавлен 16.07.2010

  • Вопросы усовершенствования видеокарт, их недостатки, виды охлаждения ПК. Выбор вентилятора и его установка на видеокарту. Сравнительные характеристики видеокарт до усовершенствования и после. Расчеты вентиляции, природного и искусственного освещения.

    дипломная работа [4,4 M], добавлен 18.07.2010

  • Сравнение центрального и графического процессора компьютера в параллельных расчётах. Пример применения технологии CUDA для неграфических вычислений. Вычисление интеграла и сложение векторов. Технические характеристики ПК, применяемого для вычислений.

    курсовая работа [735,9 K], добавлен 12.07.2015

  • Видеосистема — важнейшая составляющая СНМ: формат, главная функция. Текстовый и графический режимы. Типы дисплеев, видеоадаптеров, их архитектура, доступ к периферии, принцип действия. Специализированные видеокарты: фрейм-грабберы, MPEG-декодеры.

    реферат [34,9 K], добавлен 10.02.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.