Обзоры видеокарт

Тема в разделе "Видеокарты и звуковые карты", создана пользователем king73, 7/4/12.

  1. king73
    Offline

    king73 Che Za king ?

    Обзоры видеокарт

    sparkle_geforce_9600_gt_calibre_resize.jpg
     
  2. king73
    Offline

    king73 Che Za king ?

    NVIDIA GeForce GTX 680​



    В конце марта компания NVIDIA представила графическую архитектуру Kepler и первую видеокарту, основанную на GPU нового поколения – GeForce GTX 680. Данное решение является непосредственным конкурентом для топового Radeon HD 7970 от AMD, который увидел свет на три месяца раньше и все это время заслуженно обладал титулом самой быстрой одночиповой видеокарты в мире.​


    NVIDIA-GEFORCE-GTX-680_Pic-02.jpg

    Графический ускоритель серии GeForce GTX 680

    Кодовое имя чипа GK104;
    Технология производства 28 нм;
    3.54 миллиардов транзисторов (чуть больше, чем у GF100 и GF110);
    Площадь ядра 294 мм2 (гораздо меньше, чем GF110 и даже меньше GF114!);
    Унифицированная архитектура с массивом процессоров для потоковой обработки различных видов данных: вершин, пикселей и др.;
    Аппаратная поддержка DirectX 11 API, в том числе шейдерной модели Shader Model 5.0, геометрических и вычислительных шейдеров, а также тесселяции;
    256-битная шина памяти, четыре независимых контроллера шириной по 64 бита каждый, с поддержкой GDDR5 памяти;
    Базовая частота ядра 1006 МГц;
    Средняя турбо-частота ядра 1058 МГц (читайте об этом ниже);
    8 потоковых мультипроцессоров, включающих 1536 скалярных ALU для расчётов с плавающей запятой (поддержка вычислений в целочисленном формате, с плавающей запятой, с FP32 и FP64 точностью в рамках стандарта IEEE 754-2008);
    128 блоков текстурной адресации и фильтрации с поддержкой FP16 и FP32 компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов;
    4 широких блока ROP (32 пикселя) с поддержкой режимов антиалиасинга до 32 выборок на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг;
    Интегрированная поддержка RAMDAC, двух портов Dual Link DVI, а также HDMI и DisplayPort.
    Интегрированная поддержка четырёх мониторов, включая два порта Dual Link DVI, а также HDMI 1.4a и DisplayPort 1.2
    Поддержка шины PCI Express 3.0


    Спецификации референсной видеокарты GeForce GTX 680

    Базовая частота ядра 1006 МГц;
    Средняя турбо-частота 1058 МГц;
    Количество универсальных процессоров 1536;
    Количество текстурных блоков — 128, блоков блендинга — 32;
    Эффективная частота памяти 6008 (1502*4) МГц;
    Тип памяти GDDR5, 256-бит шина памяти;
    Объем памяти 2 ГБ;
    Пропускная способность памяти 192.3 ГБ/с;
    Теоретическая максимальная скорость закраски 32.2 гигапикселей в секунду;
    Теоретическая скорость выборки текстур 128.8 гигатекселей в секунду;
    Два Dual Link DVI-I разъема, один HDMI, один DisplayPort;
    Двойной SLI разъем;
    Энергопотребление до 195 Вт (два 6-контактных разъёма);
    Двухслотовое исполнение;



    Одним из революционных изменений, которое позволяет GeForce GTX 680 ставить высокие цели, является чрезвычайно умная самонастраивающаяся логика, настраивающая тактовые частоты и напряжения, на лету, с нулевым вмешательством пользователя, чтобы получить наилучшее сочетание производительности и эффективности при заданной нагрузке/сценарии. GTX 680, следовательно, перекраивает определение фиксированной частоты в нагрузке динамическими тактовыми частотами. Можно представить это подобно технологии Intel Turbo Boost , которая работает в сочетании с SpeedStep для получения наилучшей производительности на ватт для процессоров.


    В основе GeForce GTX 680, лежит архитектура GeForce “Kepler”. Цель его дизайна в повышении производительности и энергоэффективности по сравнению с предыдущим поколением архитектуры “Fermi”. Архитектура GeForce Кеплер более или менее сохраняет основные компоненты иерархии GeForce Fermi, которая делает упор на быструю, очень параллельную отгрузку компонентов. Представим иерархию как контейнер Bento. На самом верхнем уровне PCI-Express Gen. 3.0 хост-интерфейс, 256-битный интерфейс памяти GDDR5, а также сильно улучшенный движок NVIDIA GigaThread Engine, который осуществляет операции с обработанными и необработанными данными между хостом и интерфейсом памяти.


    На выходе из GigaThread Engine, четыре графических вычислительных кластера (GPCs). Каждый GPC является автономным подразделением GPU, так как он имеет почти все компоненты независимых GPU. GPC имеет один общий ресурс, и два выделенных ресурса, общий ресурс это растровый движок, который обрабатывает высокоуровневые растровые операции, выделенные ресурсы это потоковые мульти процессоры нового поколения: Streaming Multiprocessor-X (SMX). Значительная часть архитектурных улучшений пошла именно на совершенствование этого компонента. SMX сильно распараллеливает вычислительную нагрузку, что соответствует 3D-требованиям будущего.


    В Кеплер использовано новое поколение полиморфных движков 2.0, которые обрабатывает низкоуровневые растровые операции. NVIDIA также ввели инновацию, которую они называют Bindless текстуры.


    В классической модели GPU, для ссылки на текстуру, ГПУ должен передать её слот в фиксированном размере обязательной таблицы, которая ограничивает количество текстур шейдеров, которые могут получить доступ в данный момент времени, которое ограничивалось числом 128 в предыдущем поколении архитектуры Ферми. Архитектура Кеплер упразднила этот обязательный шаг, теперь шейдеры могут ссылаться на текстуры непосредственно в памяти, без использования, обычно обязательных, таблиц. Таким образом, количество шейдерных текстур, на которые можно ссылаться, практически не ограничено, или равно 1 млн, если вы хотите в цифрах. Кеплер обрабатывает сцены рендеринга, которые так же сложны, как на фото ниже, на одном дыхании, потому что это можно сделать теперь, с меньшим количеством проходов.


    Подводя итоги, GeForce 104 GPU Кеплер имеет 192 CUDA ядра SMX, 384 GPC, и 1536 в общем. Он имеет 128 Texture Memory Units (TMU), в общем (16 процентов от SMX, 32 от GPC) и 32 процессора растровых операций (ROP). На нескольких уровнях, операции между различными компонентами кэшируются, чтобы предотвратить потери тактов, что в свою очередь, трансформируется в энергоэффективность.


    NVIDIA также представила новый алгоритм сглаживания (AA) , названный теперь TXAA. Уже было несколько новых алгоритмов АА, введённых в недавнем прошлом, такие как FXAA, SMAA и SRAA, которые подняли планку качества, с низкой затратой производительности. TXAA стремится поднять его еще выше, качество изображения сравнимо с высоким уровнем 8x MSAA, по затрате производительности на уровне 4x MSAA. С низкими уровнями MSAA обработка будет проходить практически без затрат производительности, но здесь, всё таки, есть одна проблема: приложения должны быть настроены, чтобы воспользоваться преимуществами TXAA. Мы ожидаем, что TXAA получит довольно приличное распространение в будущих играх.


    NVIDIA также добавила опцию FXAA в панели управления драйвером.

    Последней из трех главных особенностей, является адаптивный V-Sync. Эта функция улучшает традиционный V-Sync, при динамической регулировке ограничения кадров, для обеспечения более плавного игрового процесса. Традиционная V-Sync просто отправляет информацию кадра на экран после каждого полного обновления экрана. Это означает, что если кадр прибывает медленно, потому что обработка ГПУ заняла больше времени, придется ждать полного обновления экрана до того, как он будет отображаться, эффективно уменьшая частоту кадров до 30 кадров в секунду. Если рендеринг кадра занимает больше времени, чем два полных обновления, частота кадров может упасть до 20 кадров в секунду. Эти падения частоты кадров очень заметны во время игры. Адаптивный V-Sync делает переход между падениями частоты кадров и синхронизированными частотами кадров гладкими, уменьшая отставание. Это достигается за счет динамической регулировки включения V-Sync, зависимости от падений частоты кадров. Я сделал некоторые испытания этой функции и нашел, что она работает, как и заявлено. Конечно, она полностью не устраняет разницы частоты кадров, но делает их менее заметными.


    GeForce GTX 680 сегодня является самой быстрой видеокартой с одним GPU и с этим не поспоришь. Что ещё хуже для AMD, так это цена GTX 680, которая находится между Radeon HD 7970 и Radeon HD 7950. С учётом того, что это первоначальная цена nVidia, для конкуренции AMD следует существенно понизить стоимость видеокарт серии Radeon HD 7900. Мы думаем, что цена HD 7970 может упасть на $100, а Radeon HD 7950 на $50, чтобы оставить пространство между Radeon HD 7870 и HD 7970.

    Всё указывает на то, что GeForce GTX 680 с новым графическим процессором GK104 займёт достойное место среди наших любимчиков. Однако, как и в случае с GeForce GTX 460, nVidia пожертвовала вычислительной мощностью в пользу игровой производительности. Но про это быстро забываешь, когда карта доказывает свою конкурентоспособность против флагманов AMD в играх. GK104 не пойдёт по стопам GF104. Вместо этого, новый GPU займёт место GF110, который ранее обеспечивал лидерство видеокарте GeForce GTX 580.