PrestaShop Theme

Блог о компьютерах, сетях, касперском, программном обеспечении

Блог системного администратора о сетях, компьютерах, передовых технологиях и многом ином
Обзор NVIDIA GeForce 8800 GTX/Ultra

Обзор NVIDIA GeForce 8800 GTX/Ultra

 

Анонс восьмой серии видеокарт NVIDIA прошел без излишней помпезности. Конкуренты из ATI задумчиво пожимали плечами, да и сами калифорнийцы не делали из происшедшего нового культа. С момента выхода топового адаптера NVIDIA GeForce 6800 Ultra, американский производитель чджифорсов» воссел на Олимпе как ведущий изготовитель графических адаптеров. Упомянутый акселератор оказался настолько удачным, что о провальной линейке NVIDIA GeForce 5 просто забыли. По проторенной тропе вышла видеокарта NVIDIA GeForce 7900 GTX, а за ней в 2006 году и героиня этого обзора, а именно NVIDIA GeForce 8800 GTX.

Краткая справка NVIDIA GeForce 8800 GTX/Ultra

Новый GPU изготовили с учетом 90-на-нометрового технологического процесса, проверенного как раз на видеокартах седьмой серии. А потому на кристалле площадью 484 квадратных миллиметра удалось разместить 681 миллион транзисторов. Сейчас уже никого не удивишь даже миллиардами электронных затворов, а в 2005 году NVIDIA GeForce 8800 GTX стала рекордсменом по количеству кремниевых элементов, большая часть которых ушла на 128 потоковых процессоров и 32 ROP-буфера. Шейдерные блоки обзавелись собственным тактовым генератором с частотой 1350 МГц. В свою очередь, ядро G80 и память GDDR-3 в номинальных режимах функционировали на частоте 575 и 900 МГц. Кстати, референсная NVIDIA GeForce 8800 GTX обладала 768 Мбгра-фической памяти с шиной пропускания 384 бит. За счет чего производительность «звездочки» оказалась на уровне 86.4 Гб в секунду, а скорость наложения текстур -36.8 млрд/сек.

Охлаждать чип доверили двухслотовой модели производства Cooler Master с мощной оборотистой турбиной. Сегодняшние видеокарты NVIDIA двухсотой серии обладают схожим дизайном системы термозащиты, только вот выполняют свои обязанности гораздо хуже, в сравнении с кулером для G80. Наверное, поэтому не нужно больших усилий, чтобы разогнать процессор, повысив и без того высокую производительность графического адаптера. Так, известнейшему оверклокеру Ырго5 удалось разогнать ядро до 918 МГц, а па-мятьдо 1215 МГц, заработав в бенчмарке 3DMark 2003 ровно 62792 очков. Для примера, видеокарта NVIDIA GeForce GTX 285 получает в среднем 60000 баллов. А это значит, что G80 спустя 4 года до сих пор обладает отличной производительностью.

Тем более что памяти формата GDDR-3 объемом 768 Мб даже сегодня хватит для большинства современных игр.

Производительность NVIDIA GeForce 8800 GTX/Ultra

Отличные характеристики, высокая производительность заставили выпустить NVIDIA еще одну новинку — NVIDIA GeForce 8800 Ultra, отличительной особенностью которой является присутствие альтернативного кулера и высокий уровень рабочей частоты процессора. Так, ядро заставили работать на частоте 612 МГц, память разогнали до 1080 МГц, а шейдерный блок — до 1500 МГц. Естественно, овер-клокеры полностью акцентировали свое внимание на топовой видеокарте NVIDIA. В результате греку hipro5 удалось достичь целого ряда мировых достижений, связанных с использованием «ультры». В первом 3DMark'e разогнанная до 1024 МГц по ядру и 1238 МГц по памяти плата наловила 107758 «попугаев», в то время как той же системе в 3DMark 2003 покорилось 68829 баллов.

Более скромные итоги получил немецкий профессионал dernettemann в тесте 3DMark 2005 с результатом 33610 очков. Для этого оверклокеру пришлось разогнать G80 и память до частот 880 и 1220 МГц

соответственно. В тесте 3DMark Vantage NVIDIA видеокарта GeForce 8800 Ultra продемонстрировала 11920 марок. И это результат, не уступающий референсным платам NVIDIA GeForce GTX 275 в аналогичном зачете.

Инновации в NVIDIA GeForce 8800 GTX/Ultra

Казалось бы, чего еще ждать от «зеленых»? Мощную видеокарту выпустили, конкурентов оставили с носом, а своим поклонникам предоставили ряд альтернативных адаптеров — производных от NVIDIA 8800 GTX/Ultra, заполнивших практически все ценовые ниши. Но с выходом G80 калифорнийцы запустили в массы огромный проект, призванный приобщить пользователей к продукции NVIDIA. Первые серьезные шаги были сделаны с момента внедрения архитектуры CUDA (Compute Unified Device Architecture). Вместе с тем стали возможны и параллельные вычисления с помощью видеокарты — General Purpose Computation on GPU (GPGPU). Вкратце говоря, шейдерное ядро G80 состоит из восьми ТРС {Texture Processor . Cluster) — кластеров текстурных процессоров (так, у GeForce GTX 280 — 15 ядер, у 8800 GTS их шесть, у 8600 — четыре и так далее). Те, в свою очередь, состоят из двух потоковых мультипроцессоров (SM, Streaming Multiprocessor). Один SM (всего 16) состоит из конвейеров Front End и Back End, отвечающих за решение задач чтения и декодирования инструкций, а также восьми Scalar SP (Shader Processor) и двух SFU (суперфункциональные блоки). За каждый такт Front End выбирает варп (минимальную единицу информации) и обрабатывает его. Чтобы все потоки 32 варпов обработались, требуется 32/8 = 4 такта в конце конвейера. Каждый мультипроцессор обладает так называемой общей памятью (Shared Memory). Ее размер составляет несколько килобайт и предоставляет программисту полную свободу действий. Общая память обеспечивает связь потоков в одном блоке и не предназначена для работы с пиксельными шей-дерами. Также потоковые мультипроцессоры могут обращаться к GDDR. Для этого им «пришили» по 8 килобайт кэш-памяти, хранящих все самое главное для работы. Отметим также, что мультипроцессор имеет 8192 регистра. Число активных блоков не может быть больше восьми, а число варпов — не больше 768/32 = 24. Из этого видно, что G80 может обработать максимум 32*16*24 = 12288 потоков за единицу времени. Колоссальный результат! Учитывая все тонкости строения GPU видеокарты плюс неплохие навыки в программировании, с NVIDIA GeForce 8800 GTX можно было создать весьма производительное средство для параллельных вычислений. А круче данного механизма в середине первого десятилетия нашего века могла быть только пара таких видеокарт. Но «зеленые» пошли дальше и разработали технологию 3-Way SLI. Да, именно с появлением звездного G80 и набора логики NVIDIA nForce 690 богачи и оверклокеры всего мира смогли восхититься великолепнейшей графикой любых без исключения игр. Например, триада GeForce 8800 Ultra под строгим присмотром немецкого мастера No_Name покорила в третьем «марке» головокружительный порог в 116253 баллов. Наконец последним нововведением совместно с выходом NVIDIA GeForce 8800 GTX стала технология PhysX. И если первоначально физические эффекты не пользовались особой популярностью, то сегодня калифорнийские инновации применяет абсолютное большинство игровых девелоперов.

Успех восьмой серии акселераторов NVIDIA подтверждается и тем фактом, что новые линейки «жирафов» унаследовали от GeForce 8800 GTX не только название, но и целый ряд технических особенностей.

Выводы о NVIDIA GeForce 8800 GTX/Ultra

Получилось так, что с выходом NVIDIA GeForce 8800 GTX/Ultra и последующей парой лет мы получили безоговорочное превосходство калифорнийцев над канадцами. А потому и разница в цене продуктов различных брендов оказалась на совершенно разном уровне. И недовольные пользователи, а также недоброжелатели постоянно журили «зеленых» насчет их денежной политики. Но было ясно, что NVIDIA ничего не надо менять, пока ATI бездействует. Лишь после появления четвертой серии «радеонов» калифорнийцы сделали ответный ход.

Но со временем все вышло иначе. Сегодня бал правят канадцы с новой линейкой видеокарт Radeon, в очередной раз подначивая конкурентов. И пока на свет не появилась архитектура Fermi, видеокарта GeForce 8800 GTX/Ultra останется королевой NVIDIA. Королевой, которую сверг не безжалостный противник, но время, стирающее все на своем пути. •


 

Оставить комментарий