На сайте c 24.06.2014
Сообщений: 3842
Украина, Одесса
Цитата kingstones:
из всего текста так и не понял какую ты купил )
ASUS 3090 Strix, не самая прям лучшая модель но годная модель. Вышла в ~2.7 раза дешевле чем самая обосранная 4090 которая у нас в Украине продается. Так что как в интернетах говорят 'Озон терпел и нам велел' так и я похоже буду до 5090 терпеть. Ну и вообще... Мою сцену погоняли в Анриале на 4090 24GB/A6000 48GB, разница сомнительная вышла. В рендере - да, 4090 чуть больше чем в два раза быстрее. Монитор у меня 1440p. Так что я подумал... Зачем переплачивать в 2.7 раза за 4090 что бы... Что бы что. Ради DLSS3 для Анриала ? Для +10% в кривой сцене собранной из г*в*а и палок. Для 300FPS в Гарри Поттере ?
Короч я как то не понял зачем мне 4090. Хотя я недели 2-3 топил за нее.
Банальное животное тупорылое желание - 'хочу лучше и быстрее'. А зачем - хз.
Типа если я на 3080 10гб собрал огромный экстерьер с 900 тысяч пучков травы, 250 тысяч пучков кустов, 10 тысяч растений. Тонны домов. Неоптимизированных МАФ-ов. Кучи неоптимизированных текстур. И оно все норм работает. И проблемы только с нехваткой памяти в рендере (НЕ в самом редакторе). То... Я могу и подождать чутка )) Всяко выходит раза в ~3 быстрее чем 5950Х+13900K в Короне (в плане рендера на PathTracer-е).
Ну конечно пришлось брать видяху с помойки. Воняющую сцаньем котов. Ободранную и покоцанную и помятую. Но покупатель на мою старую уже нашелся. И по сути тут вопрос стоит в 270$ за +14гб памяти и +7% FPS. В общем то все... Че тут сказать. Повелся на ценник я ))
Добавил на нее малёха обдува. Норм вышло. И с бэкплейта и фронтально.
Это у 3090Ti/4090 - чипы памяти двойной плотности с одной стороны платы. У 3090 чипов памяти вдвое больше и часть с бэкплейта распаянная. Решил помочь видеокарте прожить чуть подольше Конечно с 450вт в идеале ее бы до 360-375вт андервольтнуть, хотя бы кустарным образом
...
Без обдува бекплейта выходило 102-105 градусов на VRAM (что норм Для GDDR6X, запас в 20 градусов до троттлинга). Как и на прошлой 3080 у меня. С обдувом хоть вышло 90-94 на памяти, уже неплохо )) Но это не идеальная видяха в этом плане. У 4090 есть видяхи которые до 90 и без обдува не греют память.
На сайте c 24.06.2014
Сообщений: 3842
Украина, Одесса
Чутка отписался по Анриалу на счет новой видяхи. А то тут часто спрашивают че взять под Анриал и сколько ему памяти нужно. Может кому поможет как то...
UPD - ASUS RTX 3090 Strix OC с наскоку взял Андервольт в 1800Mhz на 0.8V при ~310W (на 0.75V крашит). По памяти бахнул +1200 через 10 минут теста начинают идти полосы. Если дать остыть минуты 3-4 то снова через 10 минут полосы. Бахнул +1100 то же самое но уже через 20 минут. +1000 гонялось больше полу часу. В общем то судя по тому что я нагуглил и по GPU и по памяти - у меня средненький вариант по качеству нарандомило. Более чем устраивает. Память гнать не буду а GPU андервольтну. Получается -80-85вт с потерей производительности менее чем на 1% по совокупности разных бенчмарков.
Привет! С интересом читаю свои посты, решил поделиться своей статистикой. У меня стоит купленная с рук осенью 3090 MSI Gaming X Trio. Кастомного обдува нет, стоит только Afterburner с настроенными кривыми и слегка оверклокнутый собственными средствами. Вот такие данные после получаса прогрева в VRay GPU в дефолтном режиме с Light Cache, в режиме Brute force с остальными нагрузочными параметрами по максимуму, и в Furmark.
Заметно что Brute force sec. GI сильнее греет память, но с Light cache почему-то потребление мощности у карты заметно меньше, хоть и показывает загрузку GPU на полную и мощность не обрезается. Возможно это связано с алгоритмами рендерера?
На сайте c 24.06.2014
Сообщений: 3842
Украина, Одесса
darknia, разумеется многое зависит от движка/теста.
Как там у меня в V-Ray RT/FSTORM/Octane/RedShift - без понятия. Не мой профиль.
Если взять бесплатный бенч Superposition
- то у меня на прошлой 3080 Eagle и на этой 3090 Strix к 15/17 этапу память уже до 90с доходит. А если циклично гонять тест не давая остыть видяхе то на 3-4 прогон уже и 100-105c будет.
Надо понимать что GDDR6X - очень горячая. И у RTX 3090 в отличии от 3090Ti/4090 - чипы памяти вдвое меньшего объема. Следовательно их вдове больше. Т.е половина памяти у видяхи распаяны с обратной стороны видяхи (под бэкплейтом). И разные модели, по разному с этим справляются. Где то бэкплейт пластиковый и плохие термопрокладки. Где то наоборот все сделано грамотно с точки зрения охлада чипов памяти. Плюс если над видяхой в корпусе висит какой то здоровенный кулер типа NH-D15/Asssassin III это тоже может подогревать видяху.
Так же и потребление выходит разным в разных тестах. А в длительных тестах видяха еще начинает со временем больше жрать. Условно в начале цикличного теста может быть 290-300вт а через пол часа на тех же позициях уже будет 330вт,
Если конкретнее то у меня при 1800Mhz + 0.8V + Память в стоке 9750Mhz как то так :
Superposition - 4К + 4K Optimized + High - дает 320-330вт и память греет до ~85с к концу.
Еще вот сделал себе такой облет камерой на быструю руку в Анриале - https://youtu.be/T9H_vMcUEEI (чисто видяху поставить на цикличную анимацию а потом и на бесконечный рендер по этому маршруту). Так вот, гонял я ее... А она что в рендере что в вьюпорте нагружает и память и чип прям значительно меньше чем все эти бенчмарки. Короче по крайней мере в Анриале при таком андервольте и стоковой памяти она вообще супер тихая и супер холодная. И в самом редакторе даже при 80-90FPS не жрет больше 250вт. Но это Lumen, легкие настройки и 1440p. А если бахнуть туда 4К и PathTracer, думаю картина может резко измениться. Так что опять же - все зависит от рендера/разрешения/настроек и прочего.
По поводу же самой памяти :
Судя по тому что я знаю, при 100с GDDR6X даже НЕ начинает троттлить. Т.е это как бы и не хорошо что там 100c, но как бы пока там 120с нету - можно не париться. У меня Гига 3080 Eagle OC при покупке грела память примерно так же высоко как и спустя 30 месяцев работы/игр. И вроде с ней все ОК )).
Пока за пивом бегал, погонял видяху с андервольтом в Анриале :
Ну это курам на смех. Это 100%, Epic Пресет и большое окно вьюпорта. В реальной работе там апскейл с 1500х600 до 2000х900 и High пресет. Видяха тихая и холодная выходит и с недогрузом в работе. Толку от 4090 было бы просто - ноль, в моем случае по крайней мере.
Хотел пополнять по мере свободного времени, но некоторые товарищи считают, не специализированный бенчмарк со стопроцентной повторяемостью и точным замером фпс, а вращение кубиков и рандомных сцен в максе более репрезентативным.
На сайте c 24.06.2014
Сообщений: 3842
Украина, Одесса
Цитата Borka82:
нет разницы в видеокартах
Насколько я понимаю это зависит от того что в вьюпорте находиться и в каком виде/режиме. У меня например в вьюпорте все в WiredBox и с скриптом который у объектов выпиливает Текстуры. В итоге сцена на 10005000 кв-киллометров
и триллиарды объектов на миллиарды полигонов
крутиться на 1050Ti в условные 80FPS и на 3090 в те же 80FPS, потому что видяхе нечего рисовать попросту С моим подходом к работе с сценой и вьюпортом, у меня замена проца дала больше прирост к вьюпорту
чем смена видеокарты ))) (В табличке это пункт - Animation, где FPS-ы).
Но если бахнуть в вьюпорте какое то условное дерево в 100500 миллионов полигонов и вертеть крутить рассматривать его в HighQuality режиме с тенями, еще и анимацию у листиков включить, думаю в таком случае и 4090 может добавить FPS-ов ))) А если от этого дерева в вьюпорте тупо WiredBox висит, то и пофиг ))
Для вечно твердящих, что в 3ds max нет разницы в видеокартах, специально провел тесты на что было время и было под рукой.
Насколько я понимаю это зависит от того что в вьюпорте находиться и в каком виде/режиме. У меня например в вьюпорте все в WiredBox и с скриптом который у объектов выпиливает Текстуры. В итоге сцена на 10005000 кв-киллометров
и триллиарды объектов на миллиарды полигонов
крутиться на 1050Ti в 100FPS и на 3090 в те же 100FPS, потому что видяхе нечего рисовать попросту
Но если бахнуть в вьюпорте какое то условное дерево в 100500 миллионов полигонов и вертеть крутить рассматривать его в HighQuality режиме с тенями, еще и анимацию у листиков включить, думаю в таком случае и 4090 может добавить FPS-ов )))
Так и есть, если поставить чайник и крутить его на разных видеокартах не будет разницы, в таблице тесты на все случаи для этого и приведены, в том числе и количество памяти влияет на сцены с текстурами, а вот частота на встройку как оказалось не влияет совсем.
Для вечно твердящих, что в 3ds max нет разницы в видеокартах, специально провел тесты на что было время и было под рукой.
Ой, господи... не хочу в полемику вступать. Я уже в сторонке пар спустил, чтобы простыню не написать сгоряча )).
Честно попытался, понять что за сцены
, картинки сцен вроде есть, описание прочитал, что это смешанный тест видов отображения, но сцены как понятно там никто не даст. Что там за рыба
, у которой на 1050Ti
- 10 фпс, а на 3090Ti - 327 фпс. Это же бред )). Это не рыба, а тест Гонконга
что ли.
Большинство простых
сцен висять на цп, до полной загрузки видюхи не доходят. Всё зависит от задач. Но если у вас одна комната интерьера, блин, да аля GTX 580 вам хватит в большин-стве случаев. Не режим "окей, макс, покажи мне интерьер во вьюпорте как в игре", а обычные рабочие режимы.
Товарищ, Borka82, вы можете провести тесты "на что было время и было под рукой" из 18 карт в обычном приложении макса, вращая вьюпорт мышкой, из нескольких ваших разнополиго-нажных рабочих сцен. Где вы напишите версию макса, режим шейд/сетка, модель видеокарты и цп и всё.
Ну идеально, когда 2 одинаковых порта, если 2 одинаковых монитора. Сам сталкивался. Оттенок почему-то различается на разных, а на одинаковых максимально похоже.
Ну идеально, когда 2 одинаковых порта, если 2 одинаковых монитора. Сам сталкивался. Оттенок почему-то различается на разных, а на одинаковых максимально похоже.
и мониторы одной серии в рамках одной модели, иначе тоже оттенки ловить упаритесь