На что влияет directx в играх
ПРОГРАММА DIRECTX ДЛЯ ЧЕГО НУЖНА
Индустрия компьютерных игр начала своё развитие ещё в 80-е годы прошлого века. Сначала создавались текстовые игры, потом добавились графика и звук. Появились первые шедевры игровой индустрии, такие игры как: «Doom», «Diablo» и «Rad Alert». Технологии разработки постоянно развивались и усовершенствовались. Увеличивались и требования к аппаратным средствам компьютера. Сегодня индустрия компьютерных игр достигла огромных масштабов. В «Crazies 3» или «Witcher 3» уже невозможно играть без специального программного софта. Каждый геймер знает, что для работы современных игр нужно скачать программу DirectX.
Что такое DirectX?
API (Application Programming Interface) в переводе с английского языка: «Интерфейс программирования приложений». Интерфейс, который позволяет программистам использовать готовые блоки для построения приложения, API – это ряд готовых функций, классов, процедур и структур, предоставляемых ОС или приложением для использования во внешнем программном обеспечении.
«DirectX» – это высокоуровневый API. Он разработан для решения определённых задач, которые связанны с нормализацией работы игровых приложений и, как следствие, для увеличения производительности видеокарт и процессоров. Комплекс программ DirectX делает процесс разработки игр проще и удобнее. Он включает в себя большое количество модулей, упрощающих обработку и вычисление данных. Программисты используют определённую версию DirectX при разработке игр.
Для геймеров DirectX – это связующее звено между аппаратными средствами и играми. Благодаря ему игроки могут увидеть всю прелесть картинки на экране.
Как возник директ икс?
В начале 2000-х годов Intel сделал упор на выпуск графических процессоров. При этом вычислительным способностям «железа» не уделялось особого внимания. Возникла настоящая пропасть между графическими и вычислительными процессорами. Технологически устаревшие машины не успевали обрабатывать графику, и дальнейшее развитие компьютерных игр было невозможно.
Поэтому, для облегчения вычислительных процессов, корпорация Microsoft выпустила специальный API DirectX. Сначала это был минимальный набор функций, предназначенных для обработки 2D графики. Со временем в комплекс программ добавили средства обработки звука. Так появилась возможность применения в играх стереозвука. 3D текстуры DirectX начал обрабатывать со сборки 6.0, с помощью программы «DX3D».
Чем отличаются версии API DirectX?
Каждая последующая версия API DirectX привносит в графику новые эффекты и оптимизирует старые. В целом, чем выше версия DirectX, тем более приятную и качественную картинку выдаёт процессор и видеокарта.
Но возможность перейти на новые версии DirectX есть далеко не у всех игроков. В чём проблема? Проблема в операционной системе (ОС).
Старые ОС не поддерживают новые версии API DirectX. К примеру, никогда не получится установить DirectX 11. 1 на Windows ХР. Так же и с видеокартами. Если у модели видеокарты нет поддержки версии API, указанной в системных требованиях игры, то насладиться хорошими шейдерами и текстурами не получится. Последняя версия Directx, поддерживаемая вашей видеокартой, указана в её технических характеристиках.
Какие проблемы поможет решить директ икс?
У некоторых игроков возникают проблемы с особо требовательными играми нового поколения. Графический процессор не справляется с обработкой данных. Он перегревается и выходит из строя.
Снизить нагрузку на «железо» поможет API DirectX:
Директ икс для виндовс 7
Заявленные преимущества:
Как узнать, какая версия программы установлена на ПК?
Установка и обновление директ икс для виндовс 7
После этого установщик проверит, есть ли обновления для DirectX, и установит последнюю актуальную для операционной системы версию. Если же обновлений нет, появиться соответствующее уведомление. Те же действия нужно проделать, если вы впервые устанавливаете DirectX. Все обновления установятся автоматически.
Directx последняя версия
На Game Developer Conference 2014 Microsoft впервые представила API DirectX 12. Изначально выход API планировался только на платформы Windows 10 и Windows 8. Многие игроки даже специально переустанавливали свою операционную систему, чтобы скачать последнюю версию directx. Но «сырая», на тот момент, «десятка» полностью нивелировала преимущества новой версии.
Основные отличия новой версии – это распределение нагрузки между всеми процессорами компьютера и синхронизация работы видеокарт от разных производителей. То есть, чтобы основные преимущества новой версии заработали – на компьютере должны быть одновременно установлены, как минимум два процессора и видеокарты от AMD и NVidia.
К тому же особой оптимизации в старых играх вы не увидите. Потому, что они разрабатывались под более ранние версии программы и новые возможности не поддерживают. Последняя версия DirectX – это, по сути, расширенный 11-й API. Новые его возможности используются только в новых играх, которые разрабатываются специально под DX 12.
Так, что если на вашем компьютере нет двух процессоров или видеокарт, а таких компьютеров большинство, то у вас нет причин отказываться от привычной «Семёрки» и DX 11.
Корпорацией Microsoft было принято решение выпустить DirectX 12 и для Windows 7. Но перенести на «Семёрку» новую версию API до сих пор не получилось. Поэтому игроки вынуждены либо переустанавливать ОС на Windows 10, либо довольствоваться DX 11.
4,002 просмотров всего, 2 просмотров сегодня
Анализ процессорозависимости видеокарт AMD и Nvidia в DirectX 12 играх
реклама
В прошлом, когда основным API являлся DirectX 11, была очевидной для всех ситуация, когда зависимость видеокарт AMD от производительности процессора была выше, это обсуждали, на это делался акцент, это было у всех на слуху, а потому нередки были советы отдавать свое предпочтения видеокартам от Nvidia в случае, если процессор был недостаточно мощным. Однако с тех пор про это как-то все позабыли, а может и просто смирились, и приняли это за правило. Да что уж там, до этого момента я и сам продолжал думать, что видеокарты Nvidia являются менее процессорозависимыми. Вот только API-то уже сменилось, брать за правило то, что было в прошлом уже нельзя. Тем более, что DirectX 12 отличается от прошлого уже на фундаментальном уровне, потому как является низкоуровневым API, так что его участие в конвейере «драйвер-железо» не могло не измениться.
Вопрос: что показали тесты издания Hardware Unboxed и вообще, что нам дает эта информация? Давайте смотреть и разбираться.
Первое, о чем говорит нам автор тестов – данное тестирование получилось по сути случайным, автор делал тесты различных связок видеокарт и процессоров и заметил такую особенность, как более высокие показатели частоты кадров с видеокартами от AMD, после чего решил рассмотреть данную ситуацию более подробно, что и вылилось в итоговое тестирование процессорозависимости.
реклама
На первом же примере в игре Watch Dogs: Legion в разрешении 1080p на средних настройках мы можем наблюдать такую ситуацию, когда производительность в связке процессора Ryzen 5 1600X с видеокартой Radeon RX 5600 XT оказывается даже выше, чем результаты этого же процессора с видеокартой RTX 3090!
Здесь стоит сделать отдельно акцент на том, что мы не говорим о том, чтобы «раскрыть» видеокарту. Нет, речь идет о том, что видеокарта от AMD позволяет с того же самого процессора получить более высокие значения частоты кадров. Да, мы уперлись в возможности данного процессора, но потолок данного упора в связке с видеокартой от AMD оказывается выше, чем с видеокартой от Nvidia. Причем результат с видеокартой AMD получается в среднем почти на 18% выше, а это вполне существенное преимущество.
реклама
С процессором Ryzen 5 2600X ситуация сохраняется, правда потолок находится уже выше. В связке с RX 5700 XT мы получаем 109 кадров, в связке с RTX 3090 мы получаем 93 кадра. Результат с видеокартой от AMD выше на 17%.
Следующий пример демонстрирует нам ту же игру, но уже в разрешении 1440p. Здесь мы уже видим, что видеокарта RX 5600 XT является потолком для всех процессоров, однако на видеокарте RX 5700 XT в связке с процессором Ryzen 5 1600X мы по-прежнему видим более высокую частоту кадров, чем с видеокартами от Nvidia. С процессором Ryzen 5 2600X результаты RX 5700 XT, RTX 3070 и RTX 3090 сравнялись.
реклама
В следующем примере автор теста убрал видеокарту RX 5600 XT, но добавил RX 6900 XT, так что теперь мы можем наблюдать противостояние решений из среднего и флагманского сегмента. В итоге мы видим, что процессоры Ryzen 5 1600X и Ryzen 5 2600X в связке с RX 5700 XT и RX 6900 XT выдают примерно на 18-20% большую производительность, чем в связке с RTX 3070 и RTX 3090. При этом RX 5700 XT демонстрирует более высокую производительность чем любая видеокарта от Nvidia с любым из представленных процессоров.
В следующем примере автор добавил в тесты процессор Ryzen 5 5600X из последней актуальной на данной момент линейки процессоров AMD на последней архитектуре ZEN 3. Данный процессор значительно поднял планку предела возможностей, но ситуация в целом не изменилась. Производительность RTX 3090 практически не отличается от производительности RTX 3070 в связке с этим процессором. При этом RX 6900 XT обходит старшую видеокарту от Nvidia на 19%. В то же время RTX 3090 обходит RX 5700 XT лишь на 9%. Налицо более высокая процессорная производительность в связке с видеокартами от AMD.
По ходу тестирования автор задался закономерным вопросом: а не является ли данное поведение особенностью платформы от AMD? Для этого он добавил в тесты платформу от Intel с процессором Core i3-10100. Однако результаты не изменились, так что ответ на вопрос отрицательный: дело не в платформе. Дело исключительно в работе драйверов Nvidia вкупе с архитектурными особенностями видеокарт, что приводит к более высокому требованию и, как следствие, более низкому результату процессоров. Процессор i3-10100 встал в один ряд с Ryzen 5 2600X, показывая более высокую производительность на видеокартах от AMD, чем на видеокартах от Nvidia. В данном случае мы наблюдаем превосходство видеокарты RX 5700 XT над видеокартами RTX 3070 и RTX 3090, которые показывают одинаковую производительность. Частота кадров в связке процессора i3-10100 с видеокартой RX 5700 XT на 17% выше, чем с видеокартой RTX 3090.
В следующем примере автор вновь вернулся к результатам видеокарты RX 5600 XT, которые в связке со всеми тремя процессорами, включая процессор от Intel, оказываются даже выше, чем на видеокарте RTX 3090.
Автор также обратил внимание и на утилизацию процессоров в нагрузке с разными видеокартами. На данном примере мы можем наблюдать разницу в нагрузке на процессор при равной производительности. В результаты с видеокартой от Nvidia мы наблюдаем заметно более высокую загрузку процессора, чем с видеокартой от AMD: 70% против 49%.
В заключение автор сделал пару показательных графиков на примере двух актуальных игр, наглядно показывающих нам ситуацию, как она есть.
В Horizon Zero Dawn в связке с процессором Ryzen 5 2600X переход от видеокарты RX 5600 XT к видеокарте RTX 3070 прибавляет нам всего 3% к производительности. Переход же на видеокарту RX 6800 добавляет нам уже ощутимые 39%.
В игре Watch Dogs: Legion переход от видеокарты RX 5600 XT к видеокарте RTX 3070 в связке с процессором Ryzen 5 2600X и вовсе отнимает у нас 12% производительности! Подумать только!
Честно говоря, результаты в каком-то смысле даже обескураживают. В среднем, по подсчетам автора, видеокарты от AMD при использовании DirectX 12 API могут обеспечить на 20-30% более высокую процессорную производительность, чем видеокарты от Nvidia. Проблема, предположительно, кроется в использовании софтверного планировщика в драйвере Nvidia, что давало преимущество в случае с DirectX 11 API, но обернулось бутылочным горлышком при переходе на низкоуровневый DirectX 12 API.
Ради любопытства я начал смотреть другие тесты, графики и прочие ресурсы, предлагающие возможность как-то сравнить результаты разных связок. И, в целом, ситуация как минимум подтвердилась. Вот вам некоторые примеры, что получились у меня:
В Assassin’s Creed Valhalla в связке с процессором Ryzen 5 1400 видеокарта RTX 3090 показывает тот же уровень производительности, что и младшая RTX 3060 Ti. Для сравнения, RX 6900 XT с этим же процессором обходит RX Vega 64 LC. Мы не говорим сейчас о производительности видеокарт как таковых, факт лишь в том, что с видеокартами от AMD данный процессор сумел продемонстрировать более высокую производительность и показать разницу между двумя видеокартами разного сегмента. При этом как мы уже выяснили из результатов Hardware Unboxed, смена процессора на Intel ситуацию не меняет.
В Forza Horizon 4 в связке с младшими процессорами производительность видеокарты RTX 3090 и вовсе оказалась на том же уровне, что и у RTX 2060. При этом RX 5600 XT и RX 5700 XT демонстрируют явную между собой разницу с этими же процессорами. Причем в данном случае даже результаты младшей RX 5600 XT чуточку выше, чем у RTX 2060 и RTX 3090.
Я бы очень хотел проверить все это лично, да вот обзавестись парой современных флагманских видеокарт при всем желании сегодня крайне сложно и невероятно затратно. Однако в сети уже есть результаты любительских сравнений на данную тематику. И одним из таких сравнений я поделюсь с вами. Кратко, описав конфигурацию, условия и предоставив вам лишь выжимку из полученных результатов. Просто для наглядности.
В качестве процессора выступал Ryzen 5 3600X. ОЗУ набрана стандартными модулями, двумя планками по 8 ГБ. В качестве видеокарт выступали RTX 3090 и Vega 64 LC. К сожалению, последняя не позволяет без упора в собственную же производительность проводить подобные тесты в современных играх даже при невысоких разрешениях. Для решения данной проблемы было решено прибегнуть к некоторым хитростям. Чтобы снизить «потолок» процессорной производительности (следовательно, зависимость от видеокарты), частоты процессора были зафиксированы на значении 3000 МГц, частоты ОЗУ были выставлены по профилю XMP в значение 3000 МГц при CL16 таймингах. Напоминаю, что это не тест процессора, видеокарты или ОЗУ. Это тест процессорной производительности в связке с видеокартами от AMD и Nvidia. Настройки в играх подбирались в индивидуальном порядке. Всего игр в тесте было пять штук.
В результате я получил одинаковые по своей сути и даже цифрам результаты с использованием трех разных источников. Так что, несмотря на то, что не удалось поучаствовать в подобном тестировании самому, результаты можно считать как минимум достоверными, актуальными и достойными того, чтобы всерьез обратить на них внимание и задуматься о ситуации игровых конфигураций на текущий день.
Что это может означать в реальном бытовом сценарии? Например, что в игре, где требуется (или просто есть такое желание) получить наибольшие значения частоты кадров (в том числе путем снижения настроек или разрешения), с видеокартой от AMD, при условии, что игра работает под DirectX 12 API, сделать это будет проще, либо частота кадров будет выше, чем с видеокартой от Nvidia. То есть верхний потолок частоты кадров с видеокартой от AMD будет выше. И тут нужно понимать, что речь идет не только о флагманах, а о видеокартах в целом, любого сегмента. То есть получить более высокие значения с видеокартой уровня RX 5600 XT может быть даже легче, чем с видеокартой уровня, скажем, RTX 3070 или выше. Это особенно может быть актуально в киберспортивных или же просто сетевых играх, где люди стараются получить наиболее высокую частоту кадров.
Это также может быть интересно стримерам, потому что загрузка процессора при использовании видеокарты от AMD заметно ниже.
На самом деле даже странно, что эту тему, которую довольно активно и повсеместно обсуждали во времена, когда процессорозависимость видеокарт AMD была выше, теперь, когда ситуация изменилась, не обсуждают нигде, и никто не поднимает этот вопрос, по крайней мере в публичном русле. И кто знает, не случись данного «случайного» тестирования от Hardware Unboxed, вспомнил бы кто-то об этом вообще.
DX11 и DX12: а есть ли между ними разница?
Сменяются видеокарты, игры, процессоры, а смена DX11 на DX12 тянется еще с 2015 года, поэтому многие и забыли, чем эти версии отличаются друг от друга, и что же принесет новая API. В большей части на этом лежит вина и самого Microsoft, так как они сделали DX12 достоянием исключительно Win10, заявив что на более старых системах DX12 невозможно реализовать, но не так давно появилась информация, что поддержка DX12 все же появится на win7, и первой игрой будет World of Warcraft. В результате долгое время компьютеров с поддержкой DX12 было крайне мало, чтобы разработчикам игр вообще стоило обращать на этот сегмент свое внимание. Пожалуй, только сама Microsoft и ее дочерние игровые компании перешли на полноценный выпуск игр на DX12, но среди них не было значимых шедевров, и, пожалуй, самая узнаваемая серия — это Forza Horizon.
Однако, на начало 2019 года ситуация стала меняться, и, прежде всего, мы уже видим в статистике STEAM, что большинство компьютеров (64.53%) уже имеют как видеокарту так и операционную систему, совместимую с DX12, и стоит напомнить, что последнее поколение приставок Microsoft и Sony тоже поддерживают DX12, что в итоге дает нам абсолютное большинство игровых устройств DX12 ready.
В итоге мы видим, что на конец 18 и начало 19 года все больше и больше игр отказываются от DX11 как основного API в пользу как DX12, так и Vulkan. Вот их список:
Готовятся к выходу и, скорее всего, будут иметь поддержку Vulkan или DX12
Поскольку мы выяснили, что для полномасштабного ввода DX12 есть как готовность со стороны пользователей, так и достаточное кол-во крупных проектов, то стоит освежить знания о этом API. Вероятнее всего, вы считаете, что самым главным отличием DX12 от своего предшественника является возможность трассировки лучей, и на этом все отличия заканчиваются, но это вовсе не так. Давайте взглянем на отличия этих двух версий, чтобы нам лучше понимать, чего эти версии могут и не могут, и что реально принесет DX12.
Таким образом выглядит пример работы игры с DX11: один поток отвечает за обработку видео, на остальных работают другие части движка, например звуковой движок, сетевая часть, расчет NPC и так далее, главное, что за самую емкую и сложную часть отвечает только 1 ядро процессора. Теоретически DX11 может работать максимум с двумя потоками, но, к сожалению, как показывает практика, это остается только теорией. DX12 уже способен работать с восемью потоками, и выглядит это так:
DX12 распределяет по потокам/ядрам самую объемную задачу по подготовке данных и последующей обработке их на GPU, что влияет положительно на производительность. Производительность, разумеется, не вырастает в 8 раз, так как этот процесс не идеально масштабируемый, и есть и другие узкие места. Забавно отметить, что результаты работы в случае всего одного потока или восьми отправляются на GPU о обрабатываются тысячами ядер CUDA или CU в зависимости от вендора GPU.
Что же происходит с данными попавшими в GPU?
Вверху видна последовательность обработки данных DX11, которая происходит в строго установленном порядке, и без выполнения предыдущих задач следующие не могут быть реализованы, тогда как DX12 имеет возможность разделения и исполнения этих задач на разных ядрах нашего GPU, что обеспечивает большую загрузку самого GPU и приводит к уменьшению задержек и росту FPS. Важно отметить, что скорость исполнения самих элементов, из которых состоит вся задача, не увеличивается. Весь выигрыш в производительности достигается только за счет оптимизации очереди — это и называется асинхронные вычисления.
Давайте теперь взглянем на то, что же конкретно подготавливает CPU для последующей обработки на GPU, если конечную картинку мы видим в таком виде:
То процессор передает каркас изображения в виде сетки полигонов для последующей закраски — аналогия с деткой книжкой-раскраской более чем уместна.
Каждый из полигонов обрабатываются на CPU и называется вызовом отрисовки или draw call. Соответственно, чем больше полигонов в кадре мы видим, тем больше нагрузка на CPU, такие ситуации наиболее характерны для игр с открытым миром и появления большого количества объектов в кадре, особенно если это очень детализированные объекты как NPC. В других случаях — когда мы смотрим в небо или видим незначительное кол-во полигонов в каком-нибудь ограниченном пространстве, например, коридоре, где вызовов отрисовки не так много, преимущества DX12 тают. Давайте перейдем к выводам из теоретической части знакомства с DX12.
Программирование под DX12 сложнее, и все преимущества нового API раскрываются полностью, только когда движок изначально разрабатывается, а не адаптируется под него.
Для несложных сцен, где в кадре мало объектов/предметов и полигонов, DX12 может показывать меньшую производительность по сравнению с DX11, так как все вызовы отрисовки прекрасно успевают обрабатываться на 1 ядре процессора, а в случае с DX12 результаты работы восьми потоков надо еще синхронизировать. Это может быть верно для целых игр, а не просто сцен, если они в своей основе имеют несложную графику.
DX12 не снижает нагрузку на процессор, а, наоборот, увеличивает, только при этом нагрузка распределяется до 8ми ядер/потоков процессора а не ложится на 1 ядро.
Выигрыш от перехода на DX12 будет у процессоров с небольшой производительностью на ядро, но большим их количеством, например, как серия FX от AMD.
Синтетический тест 3D mark Api Overhead Test https://3dnews.ru/911658
Наблюдаем в кадре то самое большое количество объектов, и результат — отличие на порядок,- это действительно огромная разница, даже если сделать скидку на то, что это синтетический тест.
Игровые тесты
Lara Croft Shadow of the Tomb Raider
Для рассмотрения возьмем последнюю сцену из 3х тестовых отрезков — она наиболее характерна большим количеством вызовов отрисовок.
Обратите внимание на загрузку процессора: слева DX11 74%, справа DX12 100%.
Первые 3 значения относятся к последней сцене теста, четвертое же значение — это результат по всем трем сценам. Примечательно что максимальный кадр, который был отмечен, был в момент показа именно куска неба, и разницы между API нету, в то время как наибольшая разница отмечена именно в минимальных кадрах, и достигает она внушительных 43%. То есть, в самых графически нагруженных сложных сценах мы видим наибольшую пользу от перехода на DX12.
Resident Evil 2 remake
В этом тесте мы видим куда менее тривиальные результаты: падение максимального и среднего кадра, но и подъем минимальных значений аж на целых 33%. То есть, в моментах, где производительности 1 потока вполне хватает, DX11 даже быстрее, но как только сцена усложняется и производительности 1 потока недостаточно, DX12 раскрывается, что переносит весь игровой процесс до 60+ кадров, а DX11 опускается до условно неиграбельных 45. Боюсь именно с такими результатами и связана такая нелюбовь тестеров к DX12, так как в нем может быть меньше максимальных кадров, и даже, что может показаться совсем неприемлемым, и средние кадры, однако, как ни парадоксально, DX12 при этом более комфортен для игры.
Давайте перейдем к связкам с другим видеокартами и процессорами и понаблюдаем за результатами. Для этого выберем 4 игры:
Все эти игры работают как в режиме DX11, так и DX12. Давайте сравним, каковы будут изменения от смены API. Во всех тестах в качестве CPU применялся 9900K в разгоне до 5.0. Другими словами, мы увидим ситуацию, когда процессор не ограничивал нашу производительность.
Данные в таблице — это изменения в % между API. Интересно, что видеокарты семейства Pascal по-разному реагируют на DX12, несмотря на одинаковую архитектуру в их основе, прироста на младших моделях нет, связано ли это с работой драйвера или аппаратной части, находится за рамками этого блога. Нужно констатировать только одно: на видеокартах, формально имеющих поддержку DX12_1, прироста от перехода на новый API может не быть. С другой стороны, видеокарта RX 580, формально имеющая поддержку только DX12_0, дает прирост в 9% как топовая GTX 2080, прирост у видеокарт Vega доходит до 17%, что является просто потрясающим результатом. В любом случае мы замечаем прирост на последних сериях видеокарт от 5% до почти 20% производительности, и это очень значительное изменение. Что можно сказать — даже в связке с мощным процессором на современных видеокартах переход на DX12 оправдан и увеличивает производительность, если провести подобные тесты с менее производительным процессором, то отличия будут еще более существенны.
Справедливо будет заметить, что у компании Nvidia традиционно была хорошая производительность под DX11, и можно было бы предположить, что DX12 просто мог не давать таких преимуществ как у конкурентов. Давайте немного отвлечемся от темы сравнения API и взглянем более пристально на сами видеокарты.
Что ж, в DX11 видим тотальное доминирование продуктов Nvidia, и только Vega 56 немного опережает своего визави в виде GTX1070.
Однако при переходе на DX12 ситуация кардинально меняется, и Vega 56 опережает GTX 1070 уже на 13% и отстает на 7,6% от GTX1080, Vega 64 же опережает GTX 1080 5.4% и не дотягивает до RTX 2070 всего 2%! Да, похоже, AMD не зря в своих презентациях много внимание уделяла DX12 — действительно, их продукция намного лучше чувствует себя под новым API.
В качестве вывода можно сказать, что для владельцев старых процессоров, которые приобрели одни из последних серий видеокарт, переход на DX12 в любимой игре даст ощутимую прибавку производительности вплоть до 50%, при использовании DX12 на топовых видеокартах и процессорах выигрыш DX12 может составлять 10-20%, что тоже крайне не мало, поэтому все больше и больше разработчиков обращают внимание на новый API, и если в 19 году как минимум 50% из крупных, так называемых AAA, игр вышло с поддержкой DX12, то с выходом консолей нового поколения как от Microsoft, так и от Sony игровая индустрия окончательно перейдет на новый стандарт, поэтому при покупке видеокарты уже сейчас стоит обращать внимание преимущественно на тесты именно в этом API. Поэтому, скажем, новые серии Turing в виде 1660 1660ti 1650 1650ti могут быть намного привлекательнее, чем это могло бы казаться на первый взгляд т.к. по сравнению с 1050ti,1060, 1070 они действительно быстрее работают под новым API.
Результаты последних тестов взяты со страниц сайта gamegpu.com
Больше моих тестов и обзоров вы найдете на моем youtube канале.