Обзор новой видеокарты GeForce GTX Titan

21.02.2013, 01:31

Шрифт: A- A+

Редактировать статью

 

Итак, в конце концов GeForce GTX Titan увидел свет, ну почти.

 

Сегодня, во вторник 19-го февраля 2013 года, мы начинаем с просмотра первой части обзора этой видеокарты, без каких-либо тестов. Она покажет вам обзор технологий GPU, особенностей и некоторые хорошие фотографии карты, которая, безусловно, очень красива.

 

GeForce GTX Titan является на сегодняшний день самым быстрым GPU от NVIDIA из всех каких-либо созданных ей карт. Она основана на GPU GK110 и как таковая почти так же быстра, как GeForce GTX 690 с двумя GTX 680 GPU. Для тех, кто не узнает код чипа GK110, это был GPU, запущенный несколько месяцев назад и закончился с серией продуктов компании NVIDIA Tesla K20X.

 

Итак, первоначально примерно год назад мы ожидали, что чип GK110 будет запущен в GeForce GTX 680, но GK104, используемый в настоящее время в GeForce GTX 680, был, попросту говоря, слишком хорош. Понимаете, чип GK110 огромен, что делает сложным его производство. Так что желание NVIDIA выпустить этот чип после модернизации технологического процесса вполне очевидно.

 

В настоящее время конец февраля 2013 года, и мы только что увидели первые двухчиповые Radeon HD 7970, поэтому давайте будем реалистами, огромный прирост производительности для серии продуктов Radeon 7970  на уровне драйверов, что подтолкнуло остальные компании работать в этом направлении. Теперь, работая в обе стороны, NVIDIA нашла много дополнительной производительности в драйверах также. Но с выходом с Crysis 3 и Playstation 4, NVIDIA поняла, что стоит вывести GK110 SKU на рынок.

 

Таким образом, целью ученых и инженеров была сборка невероятно настраиваемого продукта, который является тихим и может предложить лучшую производительность одного GPU на планете. Ох, и они также хотели, чтобы выглядела новая видеокарта соответствующе.

 

Ну, команда взялась работу и бум - миссия выполнена! Они подсадили 45 мм × 45 мм, 2397-контактный S-FCBGA чип с 2688 ядрами CUDA на отличный дизайн PCB, заправили его 6 GB (24 части 64M × 16 GDDR5 SDRAM) оперативной памяти (384-бит) и начали проектирование кучи новых трюков для BIOS и драйверов.

 

Я говорю об этом, поскольку Geforce GTX Titan был разработан в значительной степени для разгона. В сочетании с GPU Boost 2.0, вы сможете повысить частоту до 1100 ~ 1150 МГц после правильной настройки. Опорная частота, однако, составляет 836 МГц с повышением до 876 МГц. Тем не менее, после разгона, видеокарта смогла уверенно работать на 1176 МГц.

 

Глядя на спецификации вы думаете, что данный продукт должен потреблять кучу энергии, а это не здорово, но определенно тут все не так плохо. Максимальное энергопотребление карты составляет примерно 250 Вт, что достаточно немного для подобного продукта.

 

После этого предварительного обзора, мы будем тестировать продукт на одном и трех мониторах с такими горячими играми, как Battlefield 3, Sleeping Dogs, Far Cry 3, Medal of Honor Warfighter, Hitman Absolution и многих других. Наряду с этим, с тремя образцами мы под рукой, мы также будем смотреть на масштабирование производительности.

 

Смотрите ниже, взгляните на этот великолепный образец технологии, а затем начните читать эту статью. Познакомьтесь с этим милым чудом техники со стальными мускулами.

Это Спарта!...Титан!

 

Технология и характеристики

Итак, пришло время перейти к делу. GeForce GTX Titan основана на базе архитектуры Kepler GK110 GPU. Чип имеет огромные размеры, что достаточно интересно, он по-прежнему основан на 28nm технологии.

 

10,5 дюймовая двухслотовая видеокарта GeForce GTX Titan может похвастаться впечатляющим количеством ядер CUDA и имеет 7100 миллионов транзисторов. Продукт, очевидно, PCI-Express 3.0-Ready и потребляет около 250 Вт с типичным энергопотреблением в простое в 15 Вт. Это максимальное энергопотребление, в целом оно будет значительно ниже. Но сначала позвольте мне показать вам, что умеет GK110 GPU:

 

GK110 основан на архитектуре Kepler, из чего следует, что вы получите довольно стандартные предварительно смоделированные SMX кластеры из 192 шейдерных процессоров в кластере. Из 15 имеющихся, есть 14 активных SMX кластеров с 192 шейдерными процессорами, таким образом, вы получаете 2688 шейдерных процессоров. Если бы были включены все 15 кластеров, мы бы получили 2880 шейдерных процессоров. Существует четкая разница с дополнительной двойной точностью, но мы поговорим об этом на следующей странице.

 

Если сделать смелое сравнение, могучая GeForce GTX 680 имеет 1536 таких шейдерных процессоров. Мы немного больше углубимся в архитектуру чуть ниже. Что касается спецификации памяти, GPU GK110, будет представлять 384-битную шину с 6 ГБ GDDR5 памяти видеобуфера, иначе видеопамяти.

 

Так же как и GTX 680, ядро ​GPU по сравнению с шейдерными процессорами работает на частоте 1:1, то есть и ядро, и шейдерный процессор функционируют на одной частоте. Проще говоря, "одна частота для всех".

 

С выпуском этой видеокарты, NVIDIA приближается к финальной серии карт 600. Мы ожидаем, что в первой волне запуска будут доступны от 10 до 20K карт, так что вам лучше поторопиться, если вы хотите одну. Очевидно, что в дальнейшем будет больше партий в зависимости от спроса. Это не будет «ограниченной» или чрезвычайно трудной в получении серией продуктов. Мы также уверены, что через месяц или около того, цены упадут значительно.

 

Новые графические адаптеры, конечно, поддерживают DirectX 11.1 с  Windows 8, 7 и Vista, что позволяет им воспользоваться DirectCompute, многопоточностью, тесселяцией и последними шейдерами 5.0. Для справки вот краткий обзор некоторых видеокарт высокого класса прошлого поколения GeForce.

 

Для Кеплера в целом, NVIDIA сохранили свои контроллеры памяти GDDR5 совместимыми. Мудрая в подходе к памяти NVIDIA всегда предоставляет большие объемы памяти, доступной в связи с их архитектурой, 2 Гб в стандартной комплектации в наши дни для большинства серий NVIDIA является нормой. 6GB на GTX Titan, однако, чрезмерно, но с 6-контроллерами памяти, ее может быть как 3, так и 6 ГБ. Аппаратные инженеры NVIDIA переработали подсистему памяти совсем немного, позволяя значительно увеличить тактовую частота памяти по сравнению с предыдущим поколением графических процессоров GeForce. В результате ее скорость возросла до 6-ти Gbps. Каждый раздел памяти использует один контроллер памяти на соответствующих GPU, Titan имеет в общей сумме 6 ГБ, а это 24 штуки из 64M × 16 GDDR5 SDRAM.

GTX 580 имеет шесть контроллеров памяти (6x256MB) = 1536 Мб памяти GDDR5

GTX 680 имеет четыре контроллера памяти (4x512MB) = 2048 Мб памяти GDDR5

GTX Titan имеет шесть контроллеров памяти (6x1024MB) = 6144 Мб памяти GDDR5

 

Графическая архитектура Kepler GK110.

 

Как вы понимаете, массивные разделы памяти, ширина шины и комбинации памяти GDDR5 (Quad Data Rate) позволяет GPU работать с очень высокой пропускной способностью фреймбуфера. Давайте снова представим большую часть данных в виде диаграммы, чтобы понять и лучше увидеть изменения:

 

Таким образом, мы говорим об основной частоте, технических характеристиках и разделах памяти. Очевидно, что есть о чем поговорить и кроме этого. Мы считаем, что для того, чтобы понять преимущества графического процессора, вам просто необходимо разбить его на мелкие кусочки, чтобы лучше понять его. Давайте сначала посмотрим на необработанные данные, что большинство из вас может понять и осознать. Эта часть будет об архитектуре Kepler GK110, если вы не заинтересованы в устройстве этой архитектуры изнутри - можете прокрутить дальше.

 

Итак, внимательно посмотрим на внутренности GK110. Вы заметите пять зеленых кластеров. Это полиморфные GPC движки, каждый из которых содержит 3 SMX кластеров, 5x3 = 15 SMX кластеров в целом. Вы сможете обнаружить шесть 64-битных интерфейсов памяти, в результате чего в сумме мы имеем 384-битную шину. Эта дополнительная пропускная способность памяти, в сочетании с ее частотой, может достигать 288 ГБ / сек.

 

Итак, выше мы видим, блок-схему GK110, что представляет собой Кеплер архитектуру. Давайте разобьем ее на кусочки. GK110 будет иметь:

 

2880 или 2688 дополнительных CUDA процессоров (шейдерных ядер)

192 CUDA ядер в кластере (SMX)

 

Более важно будет сосредоточиться на SM (блок шейдерных процессоров) кластерах (или SMX, как NVIDIA любит называть их для GTX 600 серии), которые имеют 192 шейдерных процессоров.

 

Если увеличить все больше и больше один SMX кластер (192 шейдерных процессоров), мы увидим разницу от GK104 (GTX 680), поскольку тут находится 64 математических юнита с двойной точностью.

 

Видите ли, GeForce GTX 680 SMX имела 192 ядер CUDA с одинарной точностью (SP) с плавающей точкой и 8 с двойной точностью. В результате, DP операций за такт представляла собой лишь 1/24 SP эффективной скорости. GTX TITAN она включает в себя полный комплект 64 DP ядер CUDA в SMX (по сравнению с 192 SP ядрами CUDA), или 1/3 количества ядер DP к СП для существенно более мощных вычислений с двойной точностью.

Таким образом, на основе полного комплекта 15 SMX 2880 шейдерных ядер чип GK110 имеет 960 единиц DP, что связано с его общей суммой в 2880 ядра CUDA.

 

Двойная точность в этой видеокарте реализована достаточно мудро, чтобы разблокировать полную производительность необходимо открыть Панель управления NVIDIA, перейти в раздел "Управление 3D настройками". В окне Глобальные настройки вы найдете опцию под названием "CUDA - Double Precision", однако стоит заметить, что GeForce GTX Titan работает на пониженной тактовой частоте, когда включена полная двойная точность.

 

SMX имеет немного больше возможностей в плане обработки шейдеров, текстур и геометрии. 192 ядер CUDA, это в шесть раз больше количества ядер на SM отличие от Fermi. В итоге новая GK110 имеет 48 юнитов для специальных функций, таких как смешивание пикселей и AA.

 

GK110 имеет 64 Кб кэша L1 для каждого SMX плюс специальный блок памяти на 48 КБ, которые могут быть использованы только для чтения кэш-памяти. L2-кэш остаются по сравнению с GK104 и их объем составляет 1.5MB. Текстурные юниты GPU являются ценным ресурсом для вычислительных программ с необходимостью сохранения образцов или фильтрации данных изображения. Пропускная способность текстур в Kepler, значительно увеличилось по сравнению с Fermi - каждая единица содержит 16 текстурных юнитов SMX .

 

GeForce GTX 580 имеет 16 SMX х 4 текстурных блока = 64

GeForce GTX 680 имеет 8 SMX х 16 текстурных блоков = 128

GeForce GTX Titan имеет 14 SMX х 16 текстурных блоков = 224

Так что в общей сложности 15 SMX х 16 = 240 текстурных блоков, доступных для GK110 (если все SMXes были включены).

 

Переход к 28-нм чипу означает, что вы можете сделать больше с меньшими затратами, так как продукт становится меньше, GK110 GPU поставляется с примерно 7100 миллионами транзисторов, встроенными в него. Таким образом, мы действительно ожидаем, что энергопотребление / TDP будет достаточно высоким, однако на существующие 250 Вт вряд ли можно жаловаться. GeForce GTX Titan поставляется с двумя разъемами питания, чтобы получить достаточно питания и немного запаса для разгона. В нем наличествуют: 1x 8-контактный PEG и 1 х 6-контактный PEG = 225 Вт + PCIe слот = 75W 300W (в теории).

 

GPU Boost

 

С недавного времени графические процессоры Kepler основного и высокого класса оснащены технологией динамической регулировки частоты, и мы можем объяснить это легко. Обычно, когда видеокарта работает вхолостую. тактовая частота карты падает. Ну, очевидно, архитектура Kepler будут делать это так же, но она теперь может работать и наоборот. Если в игре у GPU остается еще немного неиспользуемой мощности, это приведет к увеличению тактовой частоты и небольшому приросту производительности.

 

Все это управляется выделенной схемой оборудования, которая контролирует различные аспекты графической карты. от потребляемой мощности GPU и температуры до фактического GPU и памяти. Вся эта информация обрабатывается с помощью программного алгоритма усиления, чтобы определить, какие изменения, если таковые имеются, должны быть направлены на GPU и память, тактовую частоту и напряжение.

 

GPU Boost 2.0

 

Итак, что нового? Новинки начинаются с контроля температуры. Titan в основном контролирует температуру (что можно определить) и старается удовлетворить пользователя. Номинальная температура базовой работы составляет 80 градусов по Цельсию. То есть есть баланс в период между приемлемой температурой и низким уровнем шума. Если настроить заданную температуру на 90 градусов и оставить немного мощности, то Titan позволит немного увеличить напряжение GPU. После этого частота видеокарты будет увеличиваться, пока не достигнет целевой температуры и мощности.

 

Разгон будет работать так же, как и повышение мощности GPU при ее авто-разгоне. Инструменты для разгона, такие как MSI Afterburner и EVGA Precision будет обновляться в течение недели после выпуска GeForce GTX Titan, позволяя настраивать и разгонять ее в зависимости от выбранных целей.

 

GeForce GTX Titan предназначен для разгона. NVIDIA получила много негативных отзывов, когда они начали внедрять предельные напряжения. Очевидно, что они сделали это для того, чтобы предотвратить высокие темпы RMA. Для GeForce GTX Titan это изменится. По умолчанию ваша карта будет заблокирована при максимальном напряжении ядра 1,162 мВ.

 

Теперь прочтите это очень внимательно, партнеры видеокарты, такие как MSI, EVGA и другие, смогут решить, действительно ли вы можете разблокировать управление напряжением. Внутри драйвера NVIDIA вы можете выбрать пункт разблокирования управления напряжением, согласившись на EULA. Это лицензионное соглашение гласит о том, что вы поняли, что применение высоких напряжений приведет к снижению срока службы продукта. Таким образом, если GeForce GTX Titan был создан для теоретических 5 лет работы на 1,162 мВ, то настройки напряжения на 1,250 мВ может (в теории), вдвое сократить продолжительность его жизни. Теперь хорошая новость - разблокировка напряжения не приведет к потере гарантии.

 

Некоторые партнеры карты таким образом могут вообще удалить эту опцию и отключить блокировку напряжения полностью (хотя мы сомневаемся в этом). Тем не менее, если вы планируете Voltage Tweak с Титаном, то не забудьте проверить конкретный SKU и его способности, чтобы это произошло.

 

Разгон монитора

 

Практически все мониторы имеют не более 60 Гц и, следовательно, могут показать только 60 кадров в секунду. Знаете ли вы, что много мониторов на самом деле могут принимать более высокие частоты обновления, как 70, 80, может быть, даже 100 Гц?

 

Чем выше частота обновления монитора - тем лучше ваш игровой опыт, так как вы можете выводить больше невероятных красот на экран. И да, это действительно имеет значение. Обычно многие просто взламывают EDID информацию о своем мониторе и, таким образом пытаются "разогнать" свой монитор. EDID (Extended Display Identification Data) представляет собой набор данных, что монитор отправляет на дисплей, видеокарты считывают эту информацию и затем возвращают видео сигнал, обратно совместимый с разрешением экрана, частоту обновления и глубину цвета.

 

NVIDIA теперь позволяет разогнать экран, делая пользовательские профили, так что вы можете проверить, если монитор может принимать как 70 или 80 Гц (или любую другую частоту). Если вы нашли совместимую Частоту обновления - вы можете применить ее и хранить ее в профиле. Таким образом, вы оторветесь от ограничений 60Гц.

 

Лично я понятия не имею, какой эффект это будет иметь на сроке службы монитора. Как и любой вид настройки или разгона, используйте его с осторожностью и только тогда, когда вы сочтете это абсолютно необходимым, взвесив риски и выгоды.

 

Ладно, время крутых фотографий! Ниже вы сможете увидеть множество фотографий этого нового чуда техники.

 

Итак, как вы можете видеть, что GeForce GTX Titan выглядит очень похоже на GeForce GTX 690, использует такие же модные кулера, который, на удивление, работают очень тихо. Длина же карты составляет 27 см.

 

Карта сама по себе является хорошим двухслотовым решением и благодаря охлаждению Vapor Chamber, на самом деле карта остается довольно тихой, что является приятным сюрпризом. В стильных кулерах видеокарты используется оргстекло и аллюминий. Вентилятор оснащен специальной конструкцией, что позволяет оптимизировать эффективность охлаждения при минимизации шума.

 

GeForce GTX Titan получит четыре разъема дисплея, полноразмерный Display Port разъем, один полный размер HDMI и два разъемами DVI (Dual-Link). Вы можете комбинировать эти разъемы для создания объемного обзора (несколько мониторов). Одной карты будет вам более чем достаточно, чтобы играть в ваши игры на трех мониторах.

 

На сегодняшний день это все еще под вопросом, но Dual-Link DVI не означает, что вы можете подключить до двух мониторов к одному разъему. Двойная связь означает двойную полосу пропускания сигнала, таким образом может поддерживаться разрешение монитора 1920x1200 или 120-Гц частота.

 

GeForce GTX Titan будет иметь свою цену, в базе похожую на GTX 690, увеличение цены до 899 ~ 999 USD вызвано ее уникальным охлаждением. Радиатор корпуса выполнен из литого алюминия и литья под давлением из магниевого сплава. Это хороший проводник тепла плюс он помогает в изоляции шума. И предотвращение шума для данного продукта является ключом к NVIDIA.

 

Каждый Titan будет иметь максимальную проектную мощность в 250 Ватт, но они сделаны для разгона. Таким образом, NVIDIA использует один 150W 8-контактный PEG, и один 75W 6-контактный PEG (PCI Express Graphics) разъем. Остальные от 75 до 150 Вт поставляются с помощью слота PCIe.

 

Если мы повращаем карту и посмотрим на ее обратную сорону мы можем увидеть два разъема SLI, да - это означает, что видеокартой поддерживается режим GPU Quad-SLI. Quad SLI, однако, испытывает определенные проблемы с драйверами, NVIDIA действительно никогда не рекомендовала и активно не поддерживает Quad-SLI. Но теоретически этот режим должен работать отлично.

 

Если немного присмотреться, мы можем увидеть один RAM IC от Samsung. Это GDDR5 высокой плотности, что используется в 6 ГБ графической памяти на этой карте (24 кусков 64M × 16 GDDR5 SDRAM). Так что вряд ли вы услышите жалобы на недостаток видеопамяти у счастливых владельцев этого чуда.

 

Одним из ключевых ингредиентов для Titan является его высокопроизводительная система охлаждения. Созданная из меди, эта камера отводит тепло от GPU GK110 TITAN, используя процесс испарения, который похож на процесс на тепловых трубах, но более мощный. Для дальнейшего повышения эффективности, в карте использован новый материал теплового интерфейса от компании Shin-Etsu, что может похвастаться увеличение производительности более чем 2 раза по сравнению GTX 680.

 

С помощью новой термопасты и мощного радиатора Титана, карта в состоянии удалить больше тепла от чипа GK110, в конечном счете, позволяя GPU эффективнее работать на более высоких тактовых частотах. Это тепло затем рассеивается большим, двухслотовым алюминиевым радиатором.

 

GeForce GTX Titan также имеет расширенный стек, ребра радиатора на самом деле выходят за пределы базы испарительной камеры, увеличивая площадь охлаждения. GeForce GTX TITAN также имеет алюминиевые плиты, которые обеспечивают дополнительное охлаждение печатной платы. И, наконец, стильный кулер охлаждает горячий воздух из задней части корпуса системы. Для обеспечения тихого игрового опыта, в вентиляторе используется увлажняющий материал, чтобы свести к минимуму нежелательные шумы.

 

6-фазный источник питания с возможностью перегрузки отвечает за питание Титана GK110 GPU. Дополнительное 2-фазное питание предназначается для памяти GDDR5. Вся эта система обеспечивает TITAN всей нужной ему энергией.

 

Итак, вот несколько фотографий Титана, предоставленных NV. Логотип GeForce GTX находится на краю Titan со светодиодной подсветкой. Этот индикатор выступает в качестве индикатора питания, освещения, когда система находится в использовании. Интенсивность этого светодиода можно вручную регулировать с помощью инструментов, предоставляемых NVIDIA, вы даже можете регулировать интенсивность на основе использования GPU, так что светодиод будет светить ярче при увеличении использования видеокарты.

 

Ладно, это все красивые картинки. Давайте перейдем дальше.

 

Установка любой карты NVIDIA GeForce очень проста. Как только карта вставлена ​​в компьютер, убедитесь, что вы подключите монитор и, конечно, любые внешние разъемы питания. После этого, загрузите Windows, установите последнюю версию драйверов и после перезагрузки все должно работать.

 

Никаких дополнительных настроек не требуется или требуется, если вы хотите настроить параметры, по которым вы можете открыть панель управления NVIDIA.

 

Потребляемая мощность

 

Давайте посмотрим, как много энергии потребляет установленная видеокарта.

 

Методология: У нас есть устройство постоянного мониторинга потребляемой мощности от ПК. Мы просто подчеркиваем GPU, а не процессор. Замер мощности до и после покажет нам, примерно, сколько мощности видеокарта потребляют под нагрузкой.

 

Наша тестовая система основана на прожорливом процессоре Core i7 - X58. Эта система разогнана до 3,80 ГГц на всех ядрах. Рядом с этим у нас есть энергосберегающие функции, отключенные для этой материнской платы и процессора (для обеспечения устойчивых результатов теста). В среднем мы используем примерно от 50 до 100 Вт больше, чем стандартный ПК из-за высоких значений тактовой частоты процессора, водяного охлаждения и так далее.

 

Мы будем расчитывать потребляемую мощность GPU здесь, а не общее потребление энергии компьютером.

 

Измеренная потребляемая мощность одной GeForce GTX Titan

 

Система в режиме ожидания = 136W

Мощность системы с GPU в с полной нагрузкой = 372W

Разница (GPU нагрузки) = 236 Вт

Добавленная IDLE мощность ~ 15Вт

Субъективное энергопотребление = ~ 251 ватт

 

Выше находится график относительного потребления энергии. Опять же, мощность показана для чистой GPU, показывая только пиковую мощность видеокарты не потребляемой мощности всего ПК, и не среднего энергопотребления игр.

 

Вот рекомендации по питанию Титана от Guru3D:

 

GeForce GTX Titan - вашей системе необходимо иметь 550 Вт блок питания.

GeForce GTX Titan 2-Way SLI - потребует от вас 800 Вт блок питания, как минимум.

GeForce GTX Titan 3-Way SLI - потребует от вас 1200 Вт блок питания, как минимум.

 

Если вы собираетесь разгонять GPU или процессор, то мы рекомендуем вам приобрести что-то еще про запас.

 

Выбор хорошего блока питания очень важен для столь мощной видеокарты. Что произойдет, если ваш блок питания не справляется с нагрузкой:

 

плохая производительность в 3D

сбой игры

спонтанные перезагрузки или неизбежное завершение работы ПК

замораживания во время игры

Перегрузка может привести к поломке

 

Ниже вы сможете посмотреть на уровни тепла и уровень шума этой видеокарты.

 

Температура видеокарты

 

Итак, посмотрим на температуру новинки. Прежде всего, IDLE температура.

 

IDLE температуру всегда чуть-чуть сложнее читать, так как Windows Aero может оказать влияние на это. В целом, все, что ниже 50 градусов считается нормой, все, что ниже 40 градусов по Цельсию очень хорошо. Мы бросили в приведенную таблицу несколько карт, которые вышли относительно недавно.

 

Но что происходит в играх? Мы запустили ресурсоемкие игры и измерили температуру GPU во время игры.

 

Итак, продолжая держать карту под максимальной нагрузкой, мы продолжали мониторинг температуры и записали температуру графического процессора.

 

Температура при высоких нагрузках игры для карт стабилизировалась на уровне около 65 ° С. Отметим, что это высокая температура GPU, а не средняя.Эти тесты были проведены при 21 градусах комнатной температуры. Теперь запомните, вы можете определить свою целевой температуру для GeForce GTX Titan, так что если вы установите ее на 70 градусов - он будет следить за эти условием.

 

Уровни шума видеокарты

 

Когда видеокарты производят много тепла, как правило, тепло должно быть отведено из горячего ядра как можно быстрее. Часто вы увидите массивные активные вентиляторы, которые действительно помогают избавиться от жара, но большинство из них очень шумные. Помните, что приведенный тест очень субъективен. Мы купили сертифицированный счетчик дБА и начали измерения дБА, получаемых от компьютера. Почему это субъективно, спросите вы? Ну, всегда есть шум на заднем плане, с улицы, с HDD, блока питания, так что погрешность всегда присутствует. Вы можете достичь объективного измерения шума только в испытательной камере.

 

Человеческий слуховой аппарат имеет разную чувствительность на разных частотах. Это означает, что восприятие шума вовсе не равно на каждой частоте. Шум при высоких или низких частотах не будет так раздражать, как это будет, когда его энергия сосредоточена в средних частотах. Иными словами, измерения уровня шума в децибелах не будет отражать реального человеческого восприятия громкости шума. Вот почему мы измеряем дБА уровни. Конкретные схемы добавляется в шумомер, чтобы исправить его показания в связи с этой концепцией. Частоты ниже 1 кГц и выше 6 кГц ослабляются, в то время как частоты от 1 кГц и 6 кГц усиливаются.

 

Примеры звуковых уровней

 

Взлет самолета (200 футов) 120 дБ

Строительная площадка 110 дБА

Крик (5 футов) 100 дБ

Тяжелый грузовик (50 футов) 90 дБ

Городские улицы 80 дБА

Автомобильный интерьер 70 дБА

Обычный разговор (3 фута) 60 дБА

Офис, класс 50 дБА

Гостиная 40 дБА

Спальня ночью 30 дБА

Трансляция матча 20 дБА

Шелест листвы 10 дБА

 

Существует очень много различий в измерениях среди веб-сайтов. Некоторые даже разместили дБА в 10 см от карты. Учитывая, что это не там, где находится ухо, мы делаем это по-своему.

 

Для каждого дБА теста мы перемещаем датчик на специальную высоту. Примерно на такой же близости вы будете иметь дело с ПК в реальном мире. На графике приведены результаты Idle-теста.

 

Idle результаты действительно хороши.

 

Шум видеокарты при игровой нагрузке достигает примерно 40 дБ, без нагрузки же вы ее практически не услышите. В общем, очень хороший низкий уровень шума.

 

Иии, стоп.

 

И вот, наша статья заканчивается! В конце приведем рекомендованные производителем розничные цены.

 

800 евро без НДС

GBP 827 с НДС

999 USD включая НДС

Изображения к материалу:

Чтобы написать здесь комментарий необходимо

КОММЕНТАРИИ: 0 СВЕРНУТЬ


    Нет комментариев. Ваш будет первым!




Система Orphus