Сообщения | Дата |
---|
В ComfyUI есть нода "Ultimate SD Upscale", там есть настройки тайлов и их обработки. Хоть 12к картинку суй в него и обрабатывай всю, апскейли или не апскейли. Че хош делай с ней. Оно так же по сути на тайлы разбивает картинку, но умеет еще и обрабатывать эти стыки, если нужно. Главное настройки подобрать под разрешение модели подходящее. Ну там 512-768-1024 XL/XXL модели, я так понимаю под них надо свои размеры тайлов подбирать.
https://i.imgur.com/wR2wdsn.png
| 16.12.2024 |
Цитата progsla:
Привет, ребята! Кто уже сталкивался с новой версией Corona 12 Hotfix 1. У меня проблема: когда изменяю интенсивность освещения в light mix, программа начинает тормозить и долго думает. То же самое происходит, когда меняю цвет в select color — также зависает. В предыдущей версии Corona всё работало быстро. На том же компе.
Такая же проблема. Win11 23H2, 2025.3 Max, 12 Hotfix 1 Корона. Но как то раз на раз бывает нормально крутиться а бывает тормозит. А если взять например солнцу или небу в лайтмиксе резко начать туда сюда крутить значения температуры то вылетает вообще с ошибкой Corona2025.DLL или как то так. Мейби стоит попробовать 12.1 Корону (не путать с Hotfix 1, это которая недавно вышла с неделю-две назад). Тож раньше такого не было.
| 06.12.2024 |
Экстерьер. Способы "зажечь" окна в окружающей застройке
Цитата александр...:
Да понял, что перед окном, ещё стекло, забор стеклянный
Это лишь 3 из ~10 вариаций которые я описал В любом случае придется унифицировать все это или потом сидеть мудохаться в фотошопе вырисовывая по Emission/Refraction маске.
И конечно же я говорю про большие проекты собранные из солянки разных зданий а не там где полтора дома стоит сделанных в одном 'стиле', одним моделлером. https://i.imgur.com/sRPmRAC.jpg
UPD - Ладно, все сдаюсь. Вирей сделает, хорошо. Не важно, проехали, и минуты больше не хочу тратить на обсуждение этого. У меня это вызывает вьетнамские флешбеки ))
| 06.12.2024 |
Экстерьер. Способы "зажечь" окна в окружающей застройке
Все равно не поняли об чем я... Ладно. Проехали. Текстом я описал подробно все, примеры показывать супер лень.
| 06.12.2024 |
Экстерьер. Способы "зажечь" окна в окружающей застройке
Цитата александр...:
И с этим вирей справляется . И в отражениях все будет и в приломлениях. Насыщенность цвет яркость , все можно менять .
Вы наверное суть описанной проблемы не поняли. Если рандомизировать по Меш Элементам то не выйдет сделать нормально. Потому что рендер НЕ будет понимать какая часть меша является цельным окном а какая нет.
Причем тут отражения и преломления, насыщенность цвет и яркость - я не понял вообще. Я про другую совершенно проблему писал. Про сам формат окон. Про то как они изначально сделаны в каждом здании.
| 06.12.2024 |
Экстерьер. Способы "зажечь" окна в окружающей застройке
Тут самая большая проблема это когда зданий - много и формат стекол разный. Где-то это текстурная маска вместо геометрии. Где-то стекло поделенное на меш-элементы по перекладинам, или одно цельное высокое окно на два этажа, где-то стекло цельное на всю оконную раму или даже на целый балкон или боже упаси на весь этаж, где-то стекло двойное (стеклопакет) или даже больше стекол объемных друг за другом, балконы сами по себе, стеклянные 'заборчики' перед окнами часто делают. Вот вы через рандомизацию врубаете и у вас выходит что 1/3 окна одним цветом, 2/3 того же окна другим цветом, а остальной кусок вообще без света, или стекла балкона светятся а стекла за ними нет
Так же и с параллаксами бывает куча гемора, не всегда планарные параллаксы годятся, иногда параллакс боксы интереснее выходят, (да я знаю про настройку Depth в планарных). И тоже их впихнуть в здания разных форматов - та еще задачка. Где то внутренности зданий приходится вырезать, где-то этажи разной высоты. Короче все это гемор и отделаться малой кровью не всегда выходит. Я вот на нынешнем проекте вынужден был унифицировать все эти форматы стекол руками делая их на всех зданиях одинаково, это прилично времени и сил сжирает конечно. Особенно когда окна еще на разной глубине и со смещениями, т.е когда каждый этаж надо прорабатывать. Тут за счет опыта только можно градус боли снизить, стараясь некоторые промежуточные этапы автоматизировать
Что до оптимизации конкретно. Даже и не знаю. Я делал по разному в больших экстерьерах, по рагульному обычными жипегами интерьеров с наложением на них через Composite светильников и рандомизацией UVW Тайлинга, делал Параллаксами и плейнами и бокс-параллаксами, даже делал 3д-лоуполи интерьеры за стеклами, делал самосвет в стеклах самих, делал плейны за стеклами... Короче не знаю я особой разницы в плане оптимизации не почувствовал во всех этих вариантах. Как то проблем с этим не бывало На каком то конкретном методе так и не остановился.
Больше всего запомнился проект где я в UE5 ставил параллакс боксы на 100500 зданий. Вышло 24 тысячи коробок и ~два дня работы Думал кукухой поеду.
| 06.12.2024 |
У кого то есть предположение почему если в сцене все битмапы сконвертировать в CoronaBitmap, то рендер жрет ~160GB Commit Size +40GB Out-Of-Core кэша, а если сконвертить обратно в родной Bitmap то начинает жрать не больше 95GB Commit Size +0GB Out-Of-Core кэша.
С чем это связано ? Понять не могу.
Наоборот ведь всегда было что CoronaBitmap призвана как бы экономить память. Да и Out-OfCore тоже ведь по идее на это и рассчитан. И сфига ли он делает 40гб кэша если у меня текстур там на 2-3гб. Я понимаю что миппмаппы может он там создает, ну там что режимы фильтрации битмап увеличивают объем текстур в ОЗУ (Summed Area там +400% к весу дает в памяти).
Но я уже через БатчМат смог исключить влияние Blur настройки, Режимов фильтрации (всех). Через Корона Конвертер переключал режимы Модуляции на None/Linear/Roughness Modulation. Еще предположил что в сцене может многовато сконвертированных V-Ray -> Corona материалов. Где в IOR слот напихано много карт. Отключил их через BatchMat скрипт, тоже не помогло. Когда рендрю с Корона Битмапами то в Out-Of-Core набегает под 40гб данных по этому пути - C:\Users\'имя пользователя'\AppData\Local\Temp\CoronaRenderer\ImageTextureCache а когда обычными битмапами соответственно там - ноль. Сижу вот репу чешу что не так то... Идеи закончились.
Типа - ОК. Отрендрю с обычными Битмапами, никто в лесу не сдохнет от этого. Но черт побери, интересно же с чем это связано.
В сторону текстур копаю потому что в суммарной инфе по потреблению пишет что именно они жрут больше всего. https://i.imgur.com/AnV2qhD.png Еще вот что интересно... А можно как то эту табличку об нехватке памяти вызвать принудительно, когда памяти хватает. Просто что бы эту статистику увидеть. Прост когда врубаю обычные Битмапы то таблички то нету ))
Разумеется я уже исключил всякие разные форматы текстур, тяжеловесные или специфические, и с Power of 2 правилом нету особо жестких проблем. И да я знаю про плагины типа Pixamoon Bitmap Resizing / Project Manager, и у меня там нету миллиарда 16к текстур. Вопрос не про это если что. А про то что - какого черта CoronaBitmap делает такую грязь с потреблением памяти
Эы... Дисплейсмент отключен и в материалах и в настройках рендера. HDRI карт на освещении - нету. Cutout (Clipping) галку на Opacity картах растений тоже тыкал.
Пока этот вопрос отложил чуть на попозже может кто подкинет идею. Сцена если что - здоровенная птичка, обмазанная вся Corona Distance картами. С тонной Форест-Пак скаттеров. Но без AO/CoronaPatter-нов.
| 06.12.2024 |
Друган в Европу (Германию) переехал и вспомнил про Осла (Мула). Хотя есть случаи когда и Осла палят провайдеры. Там фишка в том что провайдеры сканируют трафик который характерно отличается от типичного. Ну вот кто в РФ живет наверное уже наслышан про DPI. Ну вот тип такого (сканирование трафика), только там типичные торрент-трекеры палятся на раз два. Если это не помойный провайдер конечно типа "Дома-Нет-Село-27" в какой нить помойке на 300 жителей.
Тут нужно знать специфику - местного провайдера. Знать под местного провайдера DC-Помойку или аналог сервера куда сливают все через VPN (не помню как называется, не VPN а выделенный сервер отдельный который перекидывает данные). И в любом случае быть готовым оплатить штраф за скачанные непотребства То есть универсальной схемы нету. Да и стабильных тем нету. Их вечно прикрывают и возобновляют. Друган еще ни одного штрафа не заплатил за два года но уже приучился платить за все цифровые помои которые только могут быть
Другой знакомый (с этого форума) живет в Франции и говорит что там всем пофиг. Ну например...
| 02.12.2024 |
У меня ситуация как то так сложилась, так что пока косо посматриваю в сторону 5090
[[image:779745,]]
Если что это не повсеместная ситуация с заказами на UE5, их достаточно. Мне регулярно и достаточно часто их предлагают, но это заказы со стороны, т.е не в студии где работаю. А я не хочу на стороне брать доп работу а в студии я нужнее на Корона проектах
В любом случае, кайфаово прошел с 4090 на максималках - Zero Sievert, Factorio, RimWorld, Graveyard Keeper, Hades 2, Dead Cells, Dave the Diver, Dome Keeper, FTL, Noita, Nordic Ashes, Shadows of Doubt, Rogue Legacy, Loop Heroe. Не зря покупал
Про высокооптимизированные модельки в экстерьерах тут писали, вот всю неделю рендрю с этой табличкой :
[[link:image_uri:779746,]][[image:779746,sky_image_forum]][[/link]]
Табличка как бэ намекает :
Лошара выкинь в помойку 128гб, купи хотя бы 192гб... Видать пора, ведь даже играя в Сталкер 2 - оказывается 128гб не всегда хватает - https://i.imgur.com/8cu8m6d.png (Да я знаю что такое утечки памяти и что у игры траблы с оптимизацией, это шутки ради я).
| 01.12.2024 |
Про 4060 на 16гб... Сейчас так то некоторые игры жрут видеопамять как не в себя... Так что рано или поздно те же 8гб на 4060 дадут о себе знать а 16гб хотя бы продлят агонию этой дохлой видяхе ))
[[link:image_uri:779395,]][[image:779395,sky_image_forum]][[/link]]
| 30.11.2024 |
У меня много старших видеокарт побывало в компе. Но со времен 1080Ti - 4090 оказалась самой холодной из них. Собственно что и не удивительно, ведь как известно под 4090 проектировали охлады сразу на 600вт. Но nVidia успела соскочить на более энергоэффективный техпроцесс и ограничилась 450вт TGP. Да и после 3090 производители видях поняли что охлаждению GDDR6X памяти нужно больше внимания уделять. Вот пришло время RTX 5090, а ей как бы и в самый раз все это будет ))
К тому же не стоит забывать про Андервольт. У меня 1080Ti/2080Ti/3090/4090 андервольтились в среднем на ~20% без потери производительности. Нынешняя 4090 удачная попалась ужалась до ~350вт. И в стресс тесте она крутит пропеллеры всего до 30% их возможностей.
https://3ddd.ru/forum/thread/show/vidieokarta/229#post1720728
В общем не думаю что традиция такая вдруг измениться да и даже если и измениться то охлады нынешние готовы отводить 600вт T(G)P.
Когда вы говорите про то что геймерам 5080 будет много, не забывайте то что 4090 все еще 4К гейминг не тянет во многих ААА тайтлах без DLSS/FSR. Про это тоже не забывайте - https://i.imgur.com/ZOS7ybT.jpg
Рейтрейсинг - освоили, но он теперь для нищуков и лошар, а для серьезных элитных игрунов теперь есть PathTracing, вот это другое дело, там еще мощности видеокарт раз эдак в 10 надо повышать, постепенно. А вот Фреймген они зря это начали развивать, игруны должны страдать и при этом вожделеть новые видяхи, а то тут клацнул и тебе видеокарта FPS-ы дорисовывает с минимальными компромиссами. Я то и сам этой штукой пользуюсь регулярно, правда не потому что FPS-а нехватает а что бы в игры играть на зарядной станции когда света нету, эта штука экономит добрых 150вт с видяхи...
А ну и еще... nVidia отгружает значительную часть чипов для АИ сейчас. А геймерам придется рубиться в дефицит и бои против перекупов Про дефицит RTX 5000 в первой половине 2025 - вроде как официальное заявление.
| 30.11.2024 |
Актуальные конфигурации компьютеров
Цитата AlexSPb812:
Earanak, triplexmusor,gunslinger, спасибо за проявленное внимание.Правильно ли я понял, что 2х-кратное сокращение памяти при ~1.5х-кратном увеличении ее частоты несущественно (5-15%) увеличит скорость рендера в короне? Цена вопроса 500 бакинских. Менять ли память, т.е. стоит ли овчинка выделки?
Для скорости рендера, да условно до 5%.
Для отзывчивости самого 3Ds Max-а в среднем 5% с редкими исключениями в виде 15% для каких то конкретных инструментов или модификаторов. И так же с редкими исключениями где вообще разницы не будет будь там 6000Mhz/CL30 или 4800/CL40.
Так что да, если вопрос ограничен исключительно 3Ds Max-ом и Короной - то конечно же переплата за годную память не стоит того. Однозначно.
Вообще... Небинарные 48гб плашки сейчас все равно как мусор стоят. Например F5-5200J4040A48GX2-RS5W на унылых чипах стоят всего 215$ за 96гб 5200/CL40 Такое впечатление что их скоро на развес начнут продавать, лишь бы избавиться от этих помоев ))
| 28.11.2024 |
Есть ли тут те, кто рендерит на Intel core i9 14 поколения?
Ничего страшного. Если все это настроить адекватно то выйдет в любом случае неплохой компьютер и под работу и под рендринг и под игры. Тут прост проблема в этих нюансах и подводных камнях. Что надо все подкрутить будет. В остальном проблем не должно возникнуть.
Из этих мелких нюансов вот например то что у 13-14 Интелов - гетерогенная архитектура. И под них нужно ставить Windows 11. Так как если поставить Windows 10 то в некоторых рендерах половина ядер не будут работать.
Ну и нужно конечно же определяться с тем что бы брать DDR4 память под Интел или DDR5. И соответственно плату под DDR4/DDR5. Ведь есть разные преимущества у обеих вариантов.
Минусы DDR4 - низкая ПСП, больше 128GB не поставить. Хорошая память снята уже с производства, приходится выбирать из того что осталось.
Минусы DDR5 - высокие задержки и памяти и доступа к памяти, сложнее заставить работать четыре плашки на адекватных настройках. Больше нагрузка на контроллер памяти.
Разумеется и плата под такой процессор должна быть с питальником (VRM) который сможет адекватно 230-250вт держать нагрузки в рендере. То есть это плата не дешевле 250$, примерно. Какая нить MSI Z790 Tomahawk DDR4 (или DDR5) даже с запасом будет под 14900K, если что. Т.е переплачивать за более дорогую плату тоже особого смысла нету.
| 27.11.2024 |
Есть ли тут те, кто рендерит на Intel core i9 14 поколения?
Для начала, поставьте последнюю версию Биоса с х12B микрокодом который исправляет проблему с деградацией и сдыхания 13 и 14 Интелов. А так же нужно убедиться что в новых биосах не включились UVP/IA CEP/TVB/SVID Behavior и прочий мусор с защитой от дураков. Это все отголоски периода когда 13 и 14 Интелы сдыхали от ошибки микрокода и деградировали. Если интересно в интернете все на эту тему уже разжёвано. Называется - "Intel VMin Shift".
Ну а потом делайте Андервольт. При грамотной настройке он вместо 330вт потребляет порядка 235вт без потери в скорости рендера.
Есть четыре пути снижения потребления :
1.) Ограничение по PL2 Лимиту или по Температуре = Самый легкий способ но который сильнее всего убивает скорость рендера.
2.) Умеренный вариант, выкрутить Адаптивный Оффсет на -0.1 или -0.13V (самотря насколько удачный процессор попался) может и дальще -0.08V не пойти.
3.) Самый жесткий вариант андервольта AC/DC/VFpoint, настройка LLC и VRM. Тут даже можно сделать так что он будет при 235вт рендрить даже быстрее чем по заводу в 330вт.
4.) Фикс частота и вольтаж. Умеренный и безопасный вариант, но придется отказаться от турбобуста выше 5.5Ггц и в простое будет немного больше напряжение. Но это самый стабильный и безопасный вариант под рендер-машину. Небольшая потеря в однопотоке но без потерь в многопотоке.
На форуме тут приблизительно пару сотен сообщений от меня как и где и что настраивается и почему. Можно по поиску посмотреть на форуме. Но лучше в гугле/ютубе посмотрите. Или оплатите эксперта какого нить который это может адекватно все сделать. Я если что этим не занимаюсь. Но гипотетически думаю даже онлайн мастера бывают, где просто камеру телефона на экран направите а он там в Биосе все поделает. Но этот процесс может занять часа 3-4 +/- если затупов не будет и проблем.
Помимо кулера к 13-14 Интелам. Особенно старшим - обязательно купите рамку на сокет. Например Thermalright LGA1700 BCF. В зависимости от материнской платы и кулера это может снизить нагрев, порой значительно. А рамка стоит копейки. Главное ее аккуратно ставить а то если перетянуть болты то могут откиснуть каналы оперативки.
Адекватная водянка под 13900-14900K - Arctic Freezer II или III, главное что бы в корпус влезала. Все водянки дороже этой - в большинстве своем не отличаются какими то значительными достоинствами, а стоят порой раза в полтора-два дороже. В принципе Арктики это вообще золотой стандарт среди водянок нынче.
Lian Li Galahad II Trinity 360 SL-INF, шумноватая относительно Арктика. А охлаждает так же. В первых же обзорах нашел 55db против 40db, тут нужно понимать что это разница приличная. Так как децибелы по громкости считаются, ну как бы это объяснить... Нелинейно короче. https://www.kakras.ru/doc/shum-decibel.html Но если не парит шум то в общем то можно и ее брать если нравится ))
| 27.11.2024 |
Актуальные конфигурации компьютеров
Если уж возникнет желание угарать по настройке памяти нужно еще учитывать что 2х32GB это бинарная память, чаще Hynix A-Die, а 2х48GB это небинарная память, чаще Hynix M-Die. Но опять же, это вот если кто хочет упоротся по разгону и тонкой настройке, конкретно в случаях которые я описал в прошлом сообщении. В остальном без ручной настройки разница будет скудная по скоростям/задержкам и нагрузке на контроллер памяти.
| 27.11.2024 |
Актуальные конфигурации компьютеров
AlexSPb812, и где вы нашли 3Ghz DDR5 память ?
4800Mhz CL40 это базовый JEDEC стандарт.
Все что ниже это условно говоря 'аварийные' режимы работы у DDR5.
Если сравнивать настроенную 6000Mhz CL30 и JEDEC 4800Mhz CL40 с расслабленными таймингами то даже так в рендере разница будет до 5% в работе с некоторыми модификаторами/инструментами/вьюпортом в том же 3Ds Max от +0% до максимум +15% в редких случаях. Чаще это будет скажем условные +5%
В остальном... На UE5 влияние будет больше чем на 3Ds Max, на игры будет значительное влияние если нету упора в видеокарту. Конкретно на 1% и 0.1% редких событий будет самое большое влияние, вплоть до 30% в отдельных случаях. Ну еще 7Zip/WinRaR архиваторы получат практически линейный прирост от роста ПСП. На работу Windows не думаю что повлияет. А ну и еще на iGPU будет значительное влияние (если вдруг вы собрались работать без видяхи).
Да и все вроде
Из положительных моментов. Когда система работает на JEDEC-е то контроллеру памяти нужно меньше SoC/VDDG/VDDP напряжение. Соответственно меньше потребление в легких нагрузках и простое. И чуть меньше температуры. На 6000Mhz наоборот, соответственно.
| 26.11.2024 |
Актуальные конфигурации компьютеров
Цитата garik-3d:
Earanak, очень грамотно все раскладывает по полочкам кстати , как один из самых лучших здесь спецов по железу.
Да тут и без меня достаточно людей которые шарят. Порой читаю и думаю - я бы примерно то же самое посоветовал. Или так бы и ответил. Прост другие делают это лаконично а я как поехавший графоман без полотна текста не могу объяснить какой то момент
| 26.11.2024 |
Актуальные конфигурации компьютеров
Цитата shafxat:
он при любых охладах долбится в 95
У людей какое заблуждение на счет того что 7950X/9950Х обязательно должны до 95с дойти. Да нет, это не железобетонное условие для автоматики. После лаппинга или с Direct-Die охладом или с саб-эмбиент охладом они и могут и до 70 градусов в рендере проседать и без всяких настроек дополнительных.
Direct Die : https://youtu.be/y_jaS_FZcjI?t=1024 (~70c).
Lapping : https://youtu.be/vmQ7IU8Nj2c?t=1155 (~83c).
То есть это не так работает что лей на него азот а он все равно будет 95 градусов ))
Корректнее будет тут сказать с рядом уточнений :
95 градусов в нагрузке будет, если... 1.) Плата не задушит лимитами. 2.) Охлад будет на грани 230TDP справляться. 3.) Пятка кулера/Термопаста не идеальны. 4.) Температура в помещении больше ~21 градуса. 5.) Нагрузка при которой будет делаться замер хорошо утилизирует конвейер процессора. Тогда - да, будет 95с стабильно, пока руками не настроить.
...
А отдельные люди порой вообще думают что АМД так специально сделала. Мол это фича такая. Но нет, это просто высокая плотности нагрева мелких CCD в комбинации с малой площадью рассеивания (толстой) IHS крышки. Это косяк а не задумка АМД )) Косяк в случае с 9950Х подправили кстати, немного. Хоть и с термодатчиками они схитрили.
| 25.11.2024 |
Можно например в Sini Scene Checker в разделе Анализа сцены просто выделить все объекты с Chamfer модификатором и конвертнуть их. Там даже отдельная кнопка под это есть прям "Collapse Stack" ))
[[link:image_uri:778388,]][[image:778388,sky_image_forum]][[/link]]
| 24.11.2024 |
Приколько прикольно. Встроенный AI-Апскейлер, Автоэкспозиция и Авто-Баланс Белого. Норм обновка )
| 20.11.2024 |
Substance Painter. При текстурировании начал тормозить вьюпорт.
AShkredov, звучит логично, хоть я и не работал с программой. Но для начала нужно понять что происходит во время задумывания. То есть понять куда загружаются-выгружаются текстуры во время этого переключения. В видеопамять или в ОЗУ и откуда загружаются.
Например открыть GPU-Z и там следить за Memory Controller Load и Памятью видяхи. И при этом же смотреть на то что происходит с Commit Size (Своп+ФизОЗУ). Или вообще может он держит данные в файле подкачки на винчестере, смотреть за нагрузкой на чтение/запись на винчестере. Так же убедиться не однопоточный ли это процесс, т.е не долбиться ли в 100% нагрузку один поток процессора во время залипания.
Ну а дальше дело техники...
Если затуп при загрузке в видяху - проверить в GPU-Z работает ли полноценно PCI-E 3.0 x16 режим. Если затуп при загрузке в ОЗУ с Винчестера. То убедится что подкачка и файлы проекта на быстром SSD и/или Разгонать ОЗУ. Если затуп однопоточный - разгонять частоту ядер процессора или менять процессор.
Ну и прочие вариации. Например если видно что во время затупа нулевое чтение с винчестера и при этом нету упора в однопоток и при этом же нагрузка на контроллер памяти видеокарты низкая - значит все уперлось в скорость Оперативки.
Ну короч надеюсь я понятно расписал логику. Еще я бы посматривал в диспетчере задач на то что происходит с GPU Shared Memory. Я то эту прогу не знаю. Может она часть данных видеопамяти всегда держит в ОЗУ как это Unreal Engine 5 делает часто. Вот нужно в этой цепочке (SSD -> RAM -> CPU -> PCI-E -> VRAM) выявить слабое звено ))
А и еще... Я забыл совсем. 7700К это же проц времен Spectre/Meltdown чумы. Отголоски тогдашних проблем вполне себе могут до сих пор давать о себе знать. Что бы убедиться я бы попробовал отключить Core isolation и Memory integrity. Это толстая прослойка софтверная которая защищает память и процессор от этих уязвимостей. Но разный софт по разному на это реагирует. А тут как раз вопрос может быть в этом. Но это не точно
Еще бы я капнул бы в сторону Resizable Bar, последней версии Биоса и наличию поддержки у материнки этой технологии. Работает ли она можно глянуть в GPU-Z, снизу-справа. Это все тоже некоторым образом влияет на подсистему памяти, видеокарты и доступа к этой памяти от процессора. Вдогонку можно включить GPU Scheduler в системе, мелочь и все же. А вдруг ))
Да. Много я накидал вариантов. Ну а шо поделать
| 20.11.2024 |
Может кто пробовал душить 4090 ниже 150вт ? Прост интересно удалось ли это у кого-то... Ведь выставить Power Limit ниже 33% не выходит (в MSI Afterburner, nVidia Inspector, GeForce Experience). Казалось бы - настрой просто курву в Афтербернере, но курва не дает опуститься ниже 0.7V а 0.7V дают те же самые 150вт что и на 33% Power Limit Мне бы ее как то задушить до 45вт. В простое она жрет 20-25вт, но только в простое. Пусть она от этого лимита хоть в GT1030 превратиться, по производительности без разницы что с ней будет, главное что бы за 45вт не выходила. Нужно для специфического сценария использования, лень расписывать, не суть вопроса.
| 19.11.2024 |
Актуальные конфигурации компьютеров
kokoasfalt, да в общем то без разницы сейчас какие 32гб плашки брать. Остался только мусор помойный. Последние годные плашки на Micron Rev.B чипах были у Crucial Ballistix (U4) и у Corsair пару моделей на Rev.B чипах, но это все снято с производства уже пару лет как... Сейчас разве что такую память на Б/У рынке найти можно или по дикому оверпрайсу. Так что на вашем месте я бы брал просто буквально любую память которая в наличии, той которая котируется сейчас нету просто.
Но если захотите вдруг поискать Баллистиксы на Rev.B, вот список :
Китовые 3200 XMP :
BL2K32G32C16U4B / BL2K32G32C16U4BL
BL2K32G32C16U4R / BL2K32G32C16U4RL
BL2K32G32C16U4W / BL2K32G32C16U4WL
Китовые 3600 XMP :
BL2K32G36C16U4B / BL2K32G36C16U4BL
BL2K32G36C16U4R / BL2K32G36C16U4RL
BL2K32G36C16U4W / BL2K32G36C16U4WL
Не-Китовые 3200 XMP :
BL32G32C16U4B / BL32G32C16U4BL
BL32G32C16U4R / BL32G32C16U4RL
BL32G32C16U4W / BL32G32C16U4WL
Не-Китовые 3600 XMP :
BL32G36C16U4B / BL32G36C16U4BL
BL32G36C16U4R / BL32G36C16U4RL
BL32G36C16U4W / BL32G36C16U4WL
Любая с этого списка - 'топ' среди 32гб DDR4 плашек.
У моделей с L на конце - есть датчик температуры и подсветка.
Крушиалы с 3000XMP не рекомендую брать. Там LowBin отбраковка.
| 18.11.2024 |
Актуальные конфигурации компьютеров
Почему бы вам просто не принять позицию друг друга ? Ведь они обе имеют равноценное право на существование. Тут нету неверной точки зрения, они просто разные.
7950X/9950X - можно держать на топовом воздухе с небольшими компромиссами по акустике, размеру корпуса и производительности, желательно с минусовой Курвой.
7950X/9950X - можно держать на 360-420 AIO-воде без компромиссов и с возможностью небольшого разгона, хоть и ценою в приличную прибавку по энергопотреблению.
Так же и про рациональность разгона можно сказать. Для кого-то условные +5% производительности ценою в +25% потребления - нормальный размен а для кого-то неприемлемый.
В чем проблема то, не пойму
У меня например, периодами раз в 1-2 апгрейда компов меняется мнение по этому поводу. То разгон и вода то воздух и андервольт, не вижу в этом всем никакой проблемы. Каждый тут должен поступать так как ему спокойнее на душе будет, ну или как удобнее.
| 18.11.2024 |
Актуальные конфигурации компьютеров
Ну как я и говорил что в стоке он не всегда и до лимита доходит
Цитата Earanak:
которое как правило до лимитов в стоке и так не доходит
| 17.11.2024 |
Актуальные конфигурации компьютеров
Да мне в общем то без разницы какие там частоты у него. Я то говорил за стандартный заводской лимит в 230вт. Если он у вас выходит за эти пределы - значит Биос сместил в вашем случае эти лимиты, это не штатное его поведение.Что делать с этой информацией, это уже вам решать ))
Ещё нужно понимать - чем тяжелее сцена и чем выше разрешение тем ниже потребление в рендере. Разница там может быть значительной, например на 13900К мелкая пустая сцена в 2000px сожрёт 330вт в стоке а тяжёлая птичка в 8к или панорама в 16к может лишь немного за 200вт выйти. Короновский бенчмарк в данном случае ближе к первому варианту. Это не проблема, просто это нужно учитывать. Если работаете с интерьерами то потребление в бенчмарке чаще будет совпадать с реальными проектами, если экстерьерами занимаетесь то напротив будет ощутимо ниже чем в бенчмарке. Я с этими ваттами уже собаку съел, так сказать ))) https://3ddd.ru/forum/thread/show/rabota_na_statsionarnom_pk_s_otkliucheniiami_elektrichestva
| 17.11.2024 |
Печалька. Zen5 не умеют в CUDIMM :(
https://www.youtube.com/shorts/bKUQCl2h2ko
Вообще... Че мелочатся, CAMM2 имеет конструктивные преимущества которые положительно влияют на частоты а CUDIMM имеет техническое преимущество которое такое же положительно влияет на частоты. Ну так епты... Совместите CAMM2+CUDIMM, назовите это как то там MEGACUM, и пушка же будет на 12Ггц
Цитата Rebate:
Первые погорельцы пошли. Пока не понятно, что там конкретно. Нужно смотреть тенденцию и количество.
Первые рукожопы я бы сказал.
| 17.11.2024 |
Актуальные конфигурации компьютеров
СЖО, Ватты, Частоты, Пижонские микро-корпуса, кайф какой, читаю со всей силы ))
[[image:776841,]]
Единственное чего я не понял, это откуда взялись 280вт у 9950Х еще и с отрицательной Курвой... У него ведь TDP 170 (а это значит что x1.35 = 230вт PPT лимит), то есть без снятия лимитов он вообще в принципе не может больше 230вт жрать. Хоть LinX-ом хоть Prime95 его насилуй. А отрицательная курва сама по себе снижает его потребление, которое как правило до лимитов в стоке и так не доходит. Каким образом вышло 280вт - мне неясно. Если шла речь про потребление всего системника - ОК, но тогда странно это в контексте обсуждения охладов. Ну лан... Не обращайте на меня внимания, продолжайте ))
Да если че, вдруг кто не знал. АМД-шные TDP умножаются на 1.35 и выходит PPT лимит таким макаром. 5950Х TDP 105 = 140вт, 9900X TDP 120 = 160вт, 9950X TDP 170 = 230вт... Ну это так. Просто к сведению, вне контекста обсуждения. Если у вас PPT отличается от этой схемы - значит работает какой то ASUS Enchancer (или аналог)/PBO-Бустер от Платы.
| 16.11.2024 |
Не знаю как это все связано что с Москвы у кого-то траблы с сайтом и у меня с Одессы. Может хостинг чет поменял. Но у меня с ~13 числа сайт работает только через VPN, причем по началу он как бы работал но картинки не прогружал, а потом все, "This site can’t be reached" и все. Никогда такого не было и вот тебе раз В целом пофиг, VPN запустил даже тот который в Opera встроенный и все ОК.
| 15.11.2024 |
Так я в Факторио и играю. У меня уже UPS ниже 60 проседает из за дикого потока на Глебе, а я ещё даже не притрагивался к модам )) Вообще у меня в трех ключевых играх с этого жанра проц не вывозит заводы в эндгейме когда масштабироваться жёстко начинаешь. В Dyson Sphere Program, Satisfactory и Factorio.
Такой уж жанр... Что в начале все ОК а чем дальше тем сложнее компу (процу) становится. Но в DSP и Сатисфактори - спасает разгон фреймрейта через Lossless Scaling а в Факторио есть понятие FPS и UPS. FPS и так на 60 всегда а UPS (тикрейт движка) ниже фреймрейта если опускается то игровая логика залипать начинает. Не зря под Факторио есть 100500 видов бенчмарков разных тяжелых заводов )) Там вообще порой страшные вещи делают :
https://youtu.be/0bAuP0gO5pc
https://youtu.be/lLwUq2XD9Cw
https://youtu.be/MUnl-M0lVBM
Я конечно не настолько задрот ))
Вообще мне не эти проценты прироста интересны а однородность чиплетов. Мне эта история с ГеймБаром в 7950X3D совсем не нравится. То есть если бы это был точно тот же 7950Х3D но с кэшом на двух чиплетах, меня бы это уже устроило и без всяких приростов от Zen5, частот и тд...
P.S. Тем временем я смотрю на местной барахолке 'перекупы' продали последний 9800X3D за 1100$, последний официальный ценник который успел увидеть был 700$ Вот что 'ажиотаж животворящий творит'. Помню то же самое было с i9-9900K, и ценник такой же был. Вот поехавшие люди.
| 09.11.2024 |