Чутка отписался по Анриалу на счет новой видяхи. А то тут часто спрашивают че взять под Анриал и сколько ему памяти нужно. Может кому поможет как то...
UPD - ASUS RTX 3090 Strix OC с наскоку взял Андервольт в 1800Mhz на 0.8V при ~310W (на 0.75V крашит). По памяти бахнул +1200 через 10 минут теста начинают идти полосы. Если дать остыть минуты 3-4 то снова через 10 минут полосы. Бахнул +1100 то же самое но уже через 20 минут. +1000 гонялось больше полу часу. В общем то судя по тому что я нагуглил и по GPU и по памяти - у меня средненький вариант по качеству нарандомило. Более чем устраивает. Память гнать не буду а GPU андервольтну. Получается -80-85вт с потерей производительности менее чем на 1% по совокупности разных бенчмарков.
Привет! С интересом читаю свои посты, решил поделиться своей статистикой. У меня стоит купленная с рук осенью 3090 MSI Gaming X Trio. Кастомного обдува нет, стоит только Afterburner с настроенными кривыми и слегка оверклокнутый собственными средствами. Вот такие данные после получаса прогрева в VRay GPU в дефолтном режиме с Light Cache, в режиме Brute force с остальными нагрузочными параметрами по максимуму, и в Furmark.
Заметно что Brute force sec. GI сильнее греет память, но с Light cache почему-то потребление мощности у карты заметно меньше, хоть и показывает загрузку GPU на полную и мощность не обрезается. Возможно это связано с алгоритмами рендерера?
darknia, разумеется многое зависит от движка/теста.
Как там у меня в V-Ray RT/FSTORM/Octane/RedShift - без понятия. Не мой профиль.
Если взять бесплатный бенч Superposition
- то у меня на прошлой 3080 Eagle и на этой 3090 Strix к 15/17 этапу память уже до 90с доходит. А если циклично гонять тест не давая остыть видяхе то на 3-4 прогон уже и 100-105c будет.
Надо понимать что GDDR6X - очень горячая. И у RTX 3090 в отличии от 3090Ti/4090 - чипы памяти вдвое меньшего объема. Следовательно их вдове больше. Т.е половина памяти у видяхи распаяны с обратной стороны видяхи (под бэкплейтом). И разные модели, по разному с этим справляются. Где то бэкплейт пластиковый и плохие термопрокладки. Где то наоборот все сделано грамотно с точки зрения охлада чипов памяти. Плюс если над видяхой в корпусе висит какой то здоровенный кулер типа NH-D15/Asssassin III это тоже может подогревать видяху.
Так же и потребление выходит разным в разных тестах. А в длительных тестах видяха еще начинает со временем больше жрать. Условно в начале цикличного теста может быть 290-300вт а через пол часа на тех же позициях уже будет 330вт,
Если конкретнее то у меня при 1800Mhz + 0.8V + Память в стоке 9750Mhz как то так :
Superposition - 4К + 4K Optimized + High - дает 320-330вт и память греет до ~85с к концу.
Еще вот сделал себе такой облет камерой на быструю руку в Анриале - https://youtu.be/T9H_vMcUEEI (чисто видяху поставить на цикличную анимацию а потом и на бесконечный рендер по этому маршруту). Так вот, гонял я ее... А она что в рендере что в вьюпорте нагружает и память и чип прям значительно меньше чем все эти бенчмарки. Короче по крайней мере в Анриале при таком андервольте и стоковой памяти она вообще супер тихая и супер холодная. И в самом редакторе даже при 80-90FPS не жрет больше 250вт. Но это Lumen, легкие настройки и 1440p. А если бахнуть туда 4К и PathTracer, думаю картина может резко измениться. Так что опять же - все зависит от рендера/разрешения/настроек и прочего.
По поводу же самой памяти :
Судя по тому что я знаю, при 100с GDDR6X даже НЕ начинает троттлить. Т.е это как бы и не хорошо что там 100c, но как бы пока там 120с нету - можно не париться. У меня Гига 3080 Eagle OC при покупке грела память примерно так же высоко как и спустя 30 месяцев работы/игр. И вроде с ней все ОК )).
Пока за пивом бегал, погонял видяху с андервольтом в Анриале :
Ну это курам на смех. Это 100%, Epic Пресет и большое окно вьюпорта. В реальной работе там апскейл с 1500х600 до 2000х900 и High пресет. Видяха тихая и холодная выходит и с недогрузом в работе. Толку от 4090 было бы просто - ноль, в моем случае по крайней мере.
Хотел пополнять по мере свободного времени, но некоторые товарищи считают, не специализированный бенчмарк со стопроцентной повторяемостью и точным замером фпс, а вращение кубиков и рандомных сцен в максе более репрезентативным.
Насколько я понимаю это зависит от того что в вьюпорте находиться и в каком виде/режиме. У меня например в вьюпорте все в WiredBox и с скриптом который у объектов выпиливает Текстуры. В итоге сцена на 10005000 кв-киллометров
и триллиарды объектов на миллиарды полигонов
крутиться на 1050Ti в условные 80FPS и на 3090 в те же 80FPS, потому что видяхе нечего рисовать попросту С моим подходом к работе с сценой и вьюпортом, у меня замена проца дала больше прирост к вьюпорту
чем смена видеокарты ))) (В табличке это пункт - Animation, где FPS-ы).
Но если бахнуть в вьюпорте какое то условное дерево в 100500 миллионов полигонов и вертеть крутить рассматривать его в HighQuality режиме с тенями, еще и анимацию у листиков включить, думаю в таком случае и 4090 может добавить FPS-ов ))) А если от этого дерева в вьюпорте тупо WiredBox висит, то и пофиг ))
Для вечно твердящих, что в 3ds max нет разницы в видеокартах, специально провел тесты на что было время и было под рукой.
Насколько я понимаю это зависит от того что в вьюпорте находиться и в каком виде/режиме. У меня например в вьюпорте все в WiredBox и с скриптом который у объектов выпиливает Текстуры. В итоге сцена на 10005000 кв-киллометров
и триллиарды объектов на миллиарды полигонов
крутиться на 1050Ti в 100FPS и на 3090 в те же 100FPS, потому что видяхе нечего рисовать попросту
Но если бахнуть в вьюпорте какое то условное дерево в 100500 миллионов полигонов и вертеть крутить рассматривать его в HighQuality режиме с тенями, еще и анимацию у листиков включить, думаю в таком случае и 4090 может добавить FPS-ов )))
Так и есть, если поставить чайник и крутить его на разных видеокартах не будет разницы, в таблице тесты на все случаи для этого и приведены, в том числе и количество памяти влияет на сцены с текстурами, а вот частота на встройку как оказалось не влияет совсем.
Для вечно твердящих, что в 3ds max нет разницы в видеокартах, специально провел тесты на что было время и было под рукой.
Ой, господи... не хочу в полемику вступать. Я уже в сторонке пар спустил, чтобы простыню не написать сгоряча )).
Честно попытался, понять что за сцены
, картинки сцен вроде есть, описание прочитал, что это смешанный тест видов отображения, но сцены как понятно там никто не даст. Что там за рыба
, у которой на 1050Ti
- 10 фпс, а на 3090Ti - 327 фпс. Это же бред )). Это не рыба, а тест Гонконга
что ли.
Большинство простых
сцен висять на цп, до полной загрузки видюхи не доходят. Всё зависит от задач. Но если у вас одна комната интерьера, блин, да аля GTX 580 вам хватит в большин-стве случаев. Не режим "окей, макс, покажи мне интерьер во вьюпорте как в игре", а обычные рабочие режимы.
Товарищ, Borka82, вы можете провести тесты "на что было время и было под рукой" из 18 карт в обычном приложении макса, вращая вьюпорт мышкой, из нескольких ваших разнополиго-нажных рабочих сцен. Где вы напишите версию макса, режим шейд/сетка, модель видеокарты и цп и всё.
Ну идеально, когда 2 одинаковых порта, если 2 одинаковых монитора. Сам сталкивался. Оттенок почему-то различается на разных, а на одинаковых максимально похоже.
Ну идеально, когда 2 одинаковых порта, если 2 одинаковых монитора. Сам сталкивался. Оттенок почему-то различается на разных, а на одинаковых максимально похоже.
и мониторы одной серии в рамках одной модели, иначе тоже оттенки ловить упаритесь
и мониторы одной серии в рамках одной модели, иначе тоже оттенки ловить упаритесь
Согласен! Тоже полезно это понимать! Еще лучше чтоб прям 2 соседних по конвейеру экземпляра - это прям для педантов)) Сделал выводы для себя по видеокарте, а пока обсуждали карту - понял позицию по мониторам. Всем спасибо, уверен многим это пригодится
и мониторы одной серии в рамках одной модели, иначе тоже оттенки ловить упаритесь
Согласен! Тоже полезно это понимать! Еще лучше чтоб прям 2 соседних по конвейеру экземпляра - это прям для педантов)) Сделал выводы для себя по видеокарте, а пока обсуждали карту - понял позицию по мониторам. Всем спасибо, уверен многим это пригодится
о да. У меня 2 одинаковых Делла, но с разницей в 2 года выпуска. И всё, превед, они сменили за это время сменили поставщика матриц и одна синит, другая зеленит, пришлось потратить время на приведение их в примерному общему знаменателю между собой и принтером.