Тут, кстати, недавно новости прошли, что в серии 4070 будут модели со "старым" 8-pin разъемом питания от Гиги
, МСИ
и скорее и остальные подтянутся )).
Т.е. нет никакого гласного или негласного указания Нвидеа о запрете распайки старых разъемов. Единственное, что удивило то, что он один 8-pin, ровно в месте и размерах 12-пинового. Странно, ведь распайка платы прероготива брендов, как и куда хотят могут двигать, что хочешь. Значит распайка компонентов идентична, просто место под питание локально заменено.
Удивительно, для TDP 4070 пишут 200 Вт, хотя даже в некоторые модели 1070
с заявленными 150 Вт, ставили "6-pin + 8-pin".
Через месяц после покупки нашли время поставить карту :). По итогу после попытки установить драйвер .....уходит в перезагрузку. (поедет в сервис теперь), Теперь, думаю, останусь на 3090 до 5090.
Я вот как перешел с 3080 10GB на 3090 24GB думал - ну кайф, ща заживу в Анриале... Ага... https://i.imgur.com/MV2Vhho.jpg Теперь посматриваю на А6000 48GB Конечно я понимаю что я где то накосячил с куллингом, стримингом текстур, где то что-то не туда крутанул. И все же )) Впрочем, даже с двукратной нехваткой памяти рендер в 3-4к разрешении занимает секунд 25...
(если что за кадром, огромный жилой комплекс с пачкой дворов, сотней уник мафов и растений и тонной всякого, типа 11 тысяч параллакс боксов).
Всем привет, подскажите сейчас стоит видеокарта Radeon RX 7900 XTX на 24Гб. Планирую изучать Houdini, UE, blender стоит ли её заменить на "зелёную" карту и на какую? Потому что рендер детализированного интерьера в blender на 23 минуты меня напрягает
Через месяц после покупки нашли время поставить карту :). По итогу после попытки установить драйвер .....уходит в перезагрузку. (поедет в сервис теперь), Теперь, думаю, останусь на 3090 до 5090.
Через месяц после покупки нашли время поставить карту :). По итогу после попытки установить драйвер .....уходит в перезагрузку. (поедет в сервис теперь), Теперь, думаю, останусь на 3090 до 5090.
VolNoReZ228, превед, ща слегка грузану, но это важно: в первую очередь надо сменить блендер на майку. не потому что прихоть, а потому что с нею анрил и гудини имеют на порядок больше "родства", чем с блендером. он может быть в чём-то полезен, но фрагментарно, эпизодически, а в случае связки движка и гудини с майкой – "всё включено" от моделинга с mash и анимаций с лайвлинком до модификации hda, которые в свою очередь создаёт гудини – создал процедурку > облагородил в майке > заюзал в движке.
так что по карте – м.б. и не нужно пока менять, подождать, как верно заметили выше, хотя в движке
у неё дела не намного лучше, чем в блендере, и именно этой модели что-то не видно в рекомендациях
у гудини + говорят, у неё opencl
медленный, что в симуляшках гудини может иметь высокий приоритет, но главный косяк не в этом...
...и даже не в кулинге, а в организации сцен: от раскадровок до соответствия им декораций – спрайтов с мэтпеинтом (фанерных фасадов) для дальних планов и смены лодов на ближних по ходу пролёта камер.
если это продумать заблаговременно, процентов 80 геометрии можно спокойно дропнуть и вывезти сцену даже на 10гиг, а если под разные шоты готовить разные по насыщенности саб.локации – вообще идеальный "солипсизм" выйдет в парадоксально-хорошем смысле.
и даже для "птички" – уже на дистанции в пару десятков метров можно спокойно срезать до четверти детализации автолодом, а если спецом подготавливать лоды для незаметного перехода с хайполи к мид, лоу, спрайтам – и для лайвлинка с майкой и сабстансом хватит для оперативных правок.
причём это верно не только для синематиков, а и в рантайме – практически незаметная и бесшовная смена
уровней "от подъезда к подъезду" высвобождает прорву ресурсов и упрощает задачу по насыщению этих саб.уровней необходимой для видоискателя геометрией – камере, летящей по коридору, абсолютли
™ неинтересно, что находится за его стенами, побоку, что осталось у неё за спиной и рендер мог стать бы вообще мгновенным.
* с простым же и, прямо скажем, кондовым "клонированием" полной датасмит-сцены из када/макса такое, увы, не провернуть.
выше – простой превиз с примерно таким подходом. если бы в нём для каждого шота присутствовала вся геометрия одновременно, а не частично лишь та, которая попадала в тот или иной объектив, я никогда бы даже этот объём, переведённый в прокси с примитивными материалами, на одной 1080ti не вывез за 5-7 дней, (+ сцену с ноля за ~ месяц), поэтому и учиться всё-таки предпочтительнее на относительно скромном железе с поддержкой основных фич – дисциплинирует и прививает привычку ценить ресурсы )
header, насчет майки подумаю) меня больше беспокоит, что рендер будет значительнее медленнее или вообще не будет поддерживаться. Так как не особо еще знаком с unreal, а houdini вообще только интерфейс видел, то не могу проанализировать сможет ли моя карточка отрендерить сцены также быстро как и карты аналогичные по цене от nvidia. Потому что в AMD идёт OpenCL и он вроде как медленнее раза 2-3 да и часть движков не поддерживает.
комп будет использоваться в основном для создания интерьера, экстерьера, ландшафта как одиночных домов, так и целых кварталов. Проц - AMD Ryzen 9 7950X BOX, видео - AMD Radeon RX 7900 XTX. и вопрос к знатокам, поддерживают ли Houdini и UE5 рендер на моей видеокарте, в Maya вообще чем рендерить, если первое время только в ней моделить? SP в планах тоже изучить
у пользователя Earanak (смс чуть выше моего) сцена отрендерилась за 25сек, у меня карточка чуть мощнее, и по логике должна рендерить эту же сцену как минимум за 25сек, не будет такого что она отрендерит её за 5 минут вообще? XD
может имеет смысл заменить карту на GeForce RTX 4080? да в ней памяти поменьше, но м.б. это окупится при рендере?
VolNoReZ228, мантра в гудини использует cpu, так что должна быть относительно шустрой с таким процессором. карма – xpu (микс проца и видеокарты) и должна быть гораздо быстрее мантры, но с учётом того, что о карте в рекомендациях гудини ни слова – как повезёт.
радеоны вообще с gpu рендерами не дружат, поэтому и в гудини, и в той же майке можно в первую очередь рассчитывать на арнольд – один из стандартов киноиндустрии, скорость которого опять же должна быть норм (как для cpu-рендера), или на рендерман (есть бесплатная версия под cpu)
в движке, если верить "моей" заметке с графиками, производительность этой карты сильно плавает, но в среднем где-то на уровне 3080 и с таким показателем в принципе работать можно (особенно с учётом того, о чём я грузил выше насчёт оптимизации), лишь бы она в чём-то ещё очень важном (вроде симуляций в гудини) не капризничала, поэтому окажись я в такой ситуации – повременил бы с заменой до след. поколения нвидии, тем более что в видеоредакторах она себя показывает отлично (да и в играх, думаю, тоже не подведёт)
+ к вопросу ниже – да, память не панацея
nota bene: к слову об оптимизации – вспомнил классику
)
По подключением да. Но её жестко заблочили до 200 Вт, если бренды модели ОС представят, тогда ещё разпинуют.
Вообще, 4070 очень понравилась из всех карт, компактная – размер карты нормального человека, легкая. Производительность почти уровня 3080. 12 Гб. Один "старый" 8-pin, всего один, можно на "старых "блоках оставить даже предыдущую карту на родных кабелях. Опять же к БП – потребление всего 200 Вт против до 350 Вт у 3080.
Вообще, 4070 очень понравилась из всех карт, компактная – размер карты нормального человека, легкая. Производительность почти уровня 3080. 12 Гб. Один "старый" 8-pin, всего один, можно на "старых "блоках оставить даже предыдущую карту
Кстати, я открыл для себя андервольт. На 4070Ti без потери в производительности снизил потребление до 225Вт.
По поводу размеров, да я видел новые варианты охлаждения, но та же ASUS TUF имеет такое же охлаждение что и на 4070Ti. То есть на более слабом охлаждение без камер, там точно будет 70+.
До нас доехала тонна 4070 от разных вендеров. Если сравнивать самые дешевые и базовые модели у 4070 и 3080 разница выходит в 190$. Конечно через 3-4 месяца разница сократиться. Но пока что, считайте вы платите +190$ за -100вт, поддержку DLSS3, некоторых эксклюзивных для 4000 серии фичь. Вообще видяха конечно балдёжно выглядит, для тех кому не надо тонна памяти.
Если сравнивать самые дешевые и базовые модели у 4070 и 3080 разница выходит в 190$.
Такая большая разница. У вас то ли 3080 дороже, то ли 4070 дешевле. У нас вот
дешевая от МСИ 67к. На рынке мало 3080 карт вообще, у нас же завоз такой, как будет новая модель, старую много не закупают, потому что не продадут потом за ту цену. Пока есть 3070, как появится 4060, скорее всего 3070 пропадёт и т.д. Остатки 3080-ых даже дороже 4070.
Не зря недавно АМД тролила
Нвидеа, что памяти мало они дают. Посмотрел пару обзоров 4070, игроделы офигели. RE 4
требует больше 12 Гб. Last
жрет тоже 12 Гб.
Это не совсем так. Не требуют а заполняют, это ключевое уточнение. То что игра заполняет много памяти - не значит что требует
. RE2/RE3/RE7/REVillage/RE4/Call of Duty последние частей 5-6 - используют ОЧЕНЬ жестко кэширование в видеопамяти. При определенных настройках графики и в определенном раскладе они могут и 16гб видеопамяти занимать, но выдавать при этом идентичный (схожий) FPS на 10гб видяхах (если допустим сравнивать 3090 и 3080). Ну и игры с мегатекстурой кармака (или аналогом) типа на Void/IDTech движке, тоже по разному реагируют на VRAM объем. Например в 2017 году все афигивали что Колда WWII жрала в 1080p больше 8гб видеопамяти. Но на 4гб видяхах норм работала при этом в 150 FPS
Увы. Узнать сколько именно нужно игре - сложно, без тестов. Ну а в Last of Us многое зависит от локации. Ведь игра достаточно камерная. Есть локации прям закрытые-закрытые и мелкие-мелкие. Типа в комнате Сары в начале игры будет 5гб, а где то на открытой местности будет занято и 15гб. И еще компрессия текстур, буфферизация у nVidia и AMD отличаются в некоторых проектах. Порой вплоть до разницы в 2гб. Т.е условно когда в одной и той же области nVidia жрет например 10гб а AMD 12гб (или наоборот). Кстати и ОЗУ в некоторых играх в зависимости от видяхи по разному игры жрут. Думаю это связано с стримингом текстур.
mendygaliev, фурмарк греет GPU и Контроллер памяти. Но вот саму память заполняет слабенько. Я бы к проверке Фурмарком - добавил бы бесплатный Superposition на 2-3 цикла в нативном разрешении монитора на котором будете юзать видяху и с Extreme пресетом графики. Если что 4K и 8K Optimized пресеты легче чем просто Extreme.
Фоном во время тестов я бы запускал GPU-Z и после 2-3 прогонов Суперпозишена я бы смотрел на (Max/Avg) значения - HotSpot, Памяти, Нагрев GPU, % оборотов вертушек, PerfCap Reason (что бы ничего не троттлило).
HotSpot дельта от температуры GPU не выше 17-20с. (т.е если GPU 60c то HotSpot должен быть меньше 80c). Чем меньше дельта тем лучше. Меньше 10с - идеально. 15с - нормально. 20с - плохо. Значит паста высохла или криво охлад лёг или случился Памп-Аут эффект (чип выдавил пасту наружу).
Сам нагрев GPU в зависимости от модели, но по хорошему не выше 80с.
Процент оборотов вертушек не выше 80%
PerCap Reason допускается только если срабатывает Power/Voltage Limit, если там на полоске будут проскакивать красные полосы с причиной - Троттлинг, значит что то в видяхе греется настолько что она замедляет себя что бы не подгореть.
Если прям паритесь на эту тему можете глянуть это видео :