Сообщения | Дата |
---|
Актуальные конфигурации компьютеров
Rebate, увы не осталось скринов с Win10. Но да - на этих скринах Win10 / Win11.
Впрочем, когда я делал "это сравнение" я сравнивал на Win10 - CrystalDiskMark. Просто скрины похерил глупо (оставил на рабочем столе их и форматнул систему). Но четко помню что от банальной смены платы я получил +10мб мелкоблочки, это я сразу таки запомнил )) Но да. Конечно система тоже может влиять на это как то. Нуу... Например у Samsung был свой NVME драйвер, но он подходил только к 960-970 M.2, заранее узнал что он под 980-ые не нужен. Потому сравнивал на оригинальном Microsoft NVME драйвере. Как и сейчас на Win11.
Ну а чипсет драйвера были и на AMD свежие последние и на Intel тоже свежие последние. Впрочем. Не знаю насколько это влияет. Ведь в #1 M.2 слоте SSD подключается не через южный чипсет а через чипсетные линии самого процессора, напрямую. Тут уж не знаю я. Это уже какие то нюансы и детали )
| 09.11.2022 |
Актуальные конфигурации компьютеров
Rebate, ну я на вскидку сказал. Да, разница между 50МБ и 80МБ в 25% не укладывается. Но и Seagate FireCuda 530 это все таки образцовый пример годной мелкоблочки. Например у Samsung 980 PCI-E 4.0 по первой вашей ссылке 60МБ когда у этого FireCuda 97МБ (в AS SSD Benchmark). Но это наоборот пример неудачного SSD )) Так что как посмотреть, вот у Intel Optane SSD там вообще запредельные цифры какие то по мелкоблочке были еще до PCI-E 4.0. Вообще если взять первые M.2 PCI-E 4.0 которые вышли и сейчас которые выходят, там конечно разница ну такая... Приличная )
А да... И еще конечно от материнских плат зависят результаты тестов.
Вот мой Samsung 980 Pro 1TB на ASUS X570-P : https://i.imgur.com/kf6AuQA.png
А вот он же на MSI Z790 Tomahawk : https://i.imgur.com/Y7zUNCp.png
И там и там подключены в #1 слот с полноценными процессорными PCI-E 4.0 линиями.
| 09.11.2022 |
Раньше когда динозавры по земле ходили для сборки секвенции использовали VirtualDub, но не знаю жив ли он и умеет ли в 16-32бита. Да много всякого разного софта умеет секвенции собирать. Например Davinci Resolve и 32-Бит EXR секвенцию может собрать разложив все по слоям (рендер элементам). А например через FlowFrames https://kemono.party/patreon/user/19695417/post/71960403 можно через нейросеть повышать фреймрейт нарендренной секвенции. Халявить )) Выходит с переменным успехом. Но там разные алгоритмы есть. Интересная штука. Вот 20FPS в 60FPS превратились - https://youtu.be/xXk_rQRHP80
Если не ошибаюсь то в Davinci Resolve вшит Fusion, аналог Nuke. Если ничего не путаю. Так же если не ошибаюсь After Effects больше умеет в композитинг а Premiere больше как монтажка. Но я не эксперт в этих делах. Просто хотел сказать про FlowFrames и Davinci.
| 08.11.2022 |
Смотря какой стресс тест там выбран. Если без FPU - то нагрев будет примерно как в Короне. Если с FPU - то нагрев будет где то ближе уже к Денойзеру Короновскому. Т.е на 7-10 градусов выше.
| 08.11.2022 |
Цитата Artemiuss7777777:
Мне один сказал что комп выключается из за несовместимости оперативки, у меня 2400, а на сайте процессора написано от 3200 частота. Может из за этого?
То что написано на сайте в спеках это лишь гарантированный уровень работы контроллера памяти под JEDEC стандарт. 5950Х дружит с UDIMM DDR4 памятью от 1866Mhz до 4000Mhz (в 1:1:1) режиме. Чаще это до 3733Mhz включительно.
Если есть какая то несовместимость с памятью комп либо не включиться вообще либо будет крашиться софт, мемтесты будут сыпать тонны ошибок. BSOD-ы будут с ошибками на Memory Managment. Будут двойные-тройные старты компа.
Память проверить можно через TM5 + 1usmus_v3 конфиг.
https://mega.nz/file/vLhxBahB#WwJIpN3mQOaq_XsJUboSIcaMg3RlVBWvFnVspgJpcLY
Обязательно запускать от имени админа прогу. И выбирать нужный конфиг из архива.
Во время теста комп будет тормозить, потому что память будет на 100% занята.
Если с памятью траблы то первые ошибки пойдут туже в первые минут 10.
Если будет хоть 1 ошибка, пусть даже за 3-4 часа теста - то, да. Память нестабильно работает.
Ошибок не должно быть, ни одной, даже если 7 дней гонять тест.
Чем медленней память и чем ее больше тем больше времени уйдет на тест.
| 08.11.2022 |
Я бы брал Liquid Freezer II 240 только при условии что там будет наклейка (QC).
Потому что около года эти водянки производились с бракованной прокладкой резиновой.
https://www.arctic.de/en/lf-service-kit
Они конечно высылают бесплатный сервис кит. Но нафиг этот геммор. Лучше уже сразу купить с наклейкой QC где все ОК. Мне недели 3 шел сервис кит - https://i.imgur.com/8KRkSw4.jpg
По эффективности, Liquid Freezer будет чуть лучше под 5950Х за счет того что там есть Offset крепление специальное под 3000-5000 Райзены. Которое сдвигает водоблок ближе к герющим чиплетам.
Но вообще 5950Х в стоке жрет всего 145вт в PL2 (в Рендере). Можно воткнуть на него - Dark Rock Pro 4, Deepcool Assassin III, DeepCool AK620, Noctua NH-D14 / NH-D15 - и этого будет более чем достаточно.
P.S. И не смущайтесь тому что Arctic стоит вдвое дешевле этого пижонского NZXT.
| 08.11.2022 |
Актуальные конфигурации компьютеров
DaNPride
Вопрос по M.2 обсуждался уже множество раз тут.
Смотреть нужно не на линейные скорости а на мелкоблочку.
Линейные скорости растут, только толку от них - нету. В нашем рабочем софте.
Толк есть разве что в видеоредакторах если вы гоняете 4к RAW 60FPS видео файлы.
Мелкоблочка еле еле растет. Между PCi-E 3.0/4.0/5.0 - разница скудная. Не заметите.
Подробности по этому сообщению и вообще там на этой странице все обсудили :
https://3ddd.ru/forum/thread/show/aktual_nyie_konfighuratsii_komp_iutierov/897#post1691739
Человек там тоже схавал уловку маркетологов и до конца не понимал в чем дело... Думал если там будет 6-10гб/сек скорость у M.2 то у него все будет быстрее открываться и сохраняться. Ну ну
vitkor, ну так вы сравниваете дорогой 4.0 M.2 с радиатором и дешевую помойку 3.0 без радиатора. Возьмите на 3.0 позицию Samsung 970 Pro, удивитесь наверное что 3.0 дороже ))
Цитата DaNPride:
Слышал что чем больше будет объем памяти тем шустрее будет работать, это правда?
У моделей с большим объемом памяти - как правило больше КЭШ-а ставят. На коротких дистанциях 100% будет быстрее. Так же чем больше памяти занято на SSD тем медленней он становится. Но даже будучи забитым на 100% он все равно будет достаточно быстрым что бы не ощутить этого.
| 07.11.2022 |
Конфигурация компьютера для GPU рендеринга
Цитата ukachaka:
Earanak, расскажи об этом команде редшифта и разрабам нвидиа — вместе и посмеётесь
https://support.maxon.net/hc/en-us/articles/1500006456701-When-Redshift-uses-multiple-GPUs-is-their-memory-combined-
Может я как то не так понял ? Не ну ок. Я то не упертый, если я ошибся и есть какие то GPU рендеры которые возьмут из двух 2080Ti сделают 22гб VRAM - то ок. Ноу проблем. Не всем же обо всем знать. Буду даже рад узнать об этом.
Только пруф нужен нормальный. Адекватный.
| 07.11.2022 |
Конфигурация компьютера для GPU рендеринга
ukachaka, nVlink/SLI не делают общий пулл видеопамяти у RTX2000-3000 в перечисленных мною рендерах. Можете третий раз одну и ту же картинку скинуть - от этого у вас не станет 22гб у двух 2080Ti
P.S. Про Quadro, A6000, RTX 8000 - не в курсе. Но про них и речь не идет.
| 07.11.2022 |
Конфигурация компьютера для GPU рендеринга
ukachaka, Quadro GV100, серьезно ? Ох, ну и ну
Тут человек выбирает между 3060 и 3080Ti... Octane, FSTORM, V-Ray RT, RedShift - умеют использовать общий пул видеопамяти ? - Нет. Только не нужно сейчас выгугливать какие то фантастические неизвестные никому GPU Рендеры. Тут люди выбирают из обычных доступных видях под обычные распространенные GPU-Рендеры.
| 07.11.2022 |
visualizer_alexander, ну вообще. Каждый элемент железа можно тестить разными софтинами. Смотря что конкретно вас интересует. И зачем вообще это вам нужно.
Видяха :
1.) Furmark
https://geeks3d.com/furmark/
Furmark для видеокарт старше 3060, я уже считаю слабым. Он хорошо когда то грел GPU, но не нагружал видеопамять.
2.) 3DMark Стресс тест на 20 циклов.
https://store.steampowered.com/app/223850/3DMark
3.) Superposition стресс тест на 20-30 минут.
https://benchmark.unigine.com/superposition
Память :
1.) TM5 + anta777 Heavy конфиг на ночь.
https://mega.nz/file/vLhxBahB#WwJIpN3mQOaq_XsJUboSIcaMg3RlVBWvFnVspgJpcLY
ОБЯЗАТЕЛЬНО запускать от имени админа и отключать всякие Hyper-V, Изоляцию Ядра.
И обязательно выбрать нужный конфиг и что бы его название было видно в окне программы.
2.) HCIDesign MemTest в 32 окна до 600-999%. https://i.imgur.com/0zqr1AC.png
https://hcidesign.com/
3.) GSAT на флешку через Rufus заболванить и на ночь на тест.
https://drive.google.com/file/d/1_Mzk14yyOWow8sJeFBdKYVaMFJKtfPbv/edit
https://rufus.ie/ru/
4.) Prime95 (Large FFT) на ночь.
https://www.mersenne.org/download/
Проц :
1.) OCCT на 30 минут.
https://www.ocbase.com/
2.) Prime95 (Small FFT) на 30 минут.
Главное не перепутать с Smallest FFT.
Блок питания / Комплексный тест :
1.) Aida64 System Stability Test - поставить все галки.
https://www.aida64.com/downloads
2.) OCCT в режиме Power (CPU+GPU).
3.) Можно в V-Ray RT каком нить включить CPU+GPU гибридный режим, и погонять часик.
Винчестеры :
1.) CrystalDiskMark / CrystalDiskInfo
https://crystalmark.info/en/software/crystaldiskmark/
Если просто надо скорость узнать.
Или посмотреть S.M.A.R.T.
2.) HDDScan
https://hddscan.com/
Если надо поискать битые сектора.
3.) Victoria
https://hdd.by/victoria/
Если надо хорошо поискать битые сектора.
По поводу деградации и прочие моменты :
Уровни какие то это я как понял речь про LLC, Load Line Calibration Levels.
https://ru.msi.com/blog/llc-friend-overclocking
1.) Процессы деградации в проце очень медленные.
2.) Скорость деградации зависит от соотношения температуры и напряжения.
Если проц просто греется с низким напряжением или наоборот - можно забить.
Если проц и греется до tJMAX (95c) и при этом на нем выше 1.35V на ядрах - то да.
3.) Деградация не убивает процессор. Она лишь повышает Voltleak, снижает стабильность на предельных частотах в разгоне. И это происходит медленно и совсем понемногу. Ну например... Скажем что вы разогнали проц до 4.6ггц при 1.4V и он греется до 90-95 под водой. Ну через год такой работы придется либо повышать напряжение до 1.42V, либо понижать частоту до 4550-45750, условно говоря каждый год будет примерно такая ситуация.
4.) Процы чаще всего умирают от перенапряжения на SoC или IMC (контроллер памяти).
У Ryzen-ов безопасный вольтаж SoC - ДО 1.1V
Так же не все материнки обладают хорошими питальниками, предустановками.
Могут влупить на SoC слишком много и допускать овершуты до 1.3-1.4V.
В таком раскладе проц может сдохнуть в любой момент.
https://youtu.be/iQB7ELwBbVI - Раньше это была №1 причина смертей Райзенов.
5.) IMHO - если настраивать сам проц то делать это только через CTR или Hydra.
Но только если есть понимание что и как работает, с корректными настройками в Биосе.
6.) Вольтажи и прочие данные по системе можно получить в HWInfo64.
https://www.hwinfo.com/
Там можно узнать и VDroop (VID), и VCore вольтаж и SoC и Лимиты.
И узнать все нужные данные по нагреву видяхи/проца.
7.) В Aida64 Cache Mem бенчмарке можно глянуть че там по ПСП у ОЗУ и по Latency.
https://i.imgur.com/KZN1Bfo.png
~65гб ПСП / 55ns Latency - хороший разгон топовой памяти.
60гб ПСП / 57ns Latency - очень хорошо.
50гб ПСП / 60ns Latency - хорошо.
40гб ПСП / 70ns Latency - нормально.
Меньше 40гб ПСП / выше 70ns Latency - уныние.
Если в настройках биоса отключить Power Down, это может чуть улучшить Latency.
Но тогда лучше отключить спящий режим и отключить файл гибернации.
Но в остальном все зависит от соотношения частоты/таймингов, и то как память настроена.
P.S. Напоследок могу сказать что можете комп прогнать через UserBenchmark :
https://www.userbenchmark.com/
Да. Я знаю что этот бенч прям люто бешенно не любят шарющие челы в компах. Но мне нравится как раз таки то что там очень много всяких васянских результатов. По этим результатам вы можете после теста глянуть насколько хорошо конкретный элемент компа отрабатывает у вас в среднем по больнице.
[[link:image_uri:614053,]][[image:614053,sky_image_forum]][[/link]]
| 07.11.2022 |
Конфигурация компьютера для GPU рендеринга
Наверное единственный расклад когда для GPU рендера я бы посоветовал 3080Ti вместо 3060. Это когда легкие сцены, и рендрить надо видео. Т.е когда много памяти не нужно но нужен мощный GPU что бы считать много кадров. Тогда конечно 3080Ti будет отличным вариантом.
| 07.11.2022 |
Конфигурация компьютера для GPU рендеринга
kiwi-007, неужели непонятно как то написали тут, не пойму. Причем тут CUDA ядра...
Лично для меня все что меньше 24гб - мусор. Без разницы сколько там CUDA ядер если видяха НЕ сможет рендрить нормально (либо вообще не сможет если нету поддержки Out of Core в рендере). Сортиры и предметку можно и на проце рендрить без таких ограничений. Как по мне если 'мокаться' в GPU рендеры то минимум 24гб брать нужно. Для экстерьеров желательно 48гб. И то... Смотря каких экстерьеров.
Если побаловаться. То идеальный вариант 3060 на 12гб. Да. 3080Ti будет значительно быстрее рендрить. Но она и стоит как две с половиной 3060. А GPU рендеры и так быстрые... Да и большой объем не вгонишь в 12гб. Тогда че толку от этой 3080Ti с 12гб будет, ну вы играх - да. Кайф будет. Но рендрить она сможет только такие же объемы как и 3060.
Были слухи про 16гб видяху. Но пока это лишь слухи...
https://wccftech.com/nvidia-geforce-rtx-3070-ti-16-gb-graphics-card-spotted-once-again-in-gigabyte-listing/
Тогда эта видяха стала бы лучшим вариантом для Entry уровня в GPU.
| 07.11.2022 |
Конфигурация компьютера для GPU рендеринга
kiwi-007, память. У GPU рендеров - Инклюзивная память а не общий Пулл.
Ее нельзя объединить. Хоть 10 видеокарт поставьте. Память у всех инклюзивная.
Че толку от мощности видяхи если в итоге ей памяти не хватит.
Че толку от Out of Core если стабильность/скорость в нулину рухнет.
3060 - 12гб
3060 Ti - 8гб
3080 - 10гб
3080Ti - 12гб
3090 / 3090 Ti / 4090 - 24гб.
A6000 - 48гб (и стоит всего ~4.5к баксов на Ebay).
| 07.11.2022 |
ColorCorrect 2023 возможная дата выхода?
Я бы в данном случае заказал бы скрипт (он по идее не особо дорогим должен быть). Который бы гамму с ColorCorrect брал, конвертировал бы их в CoronaColorCorrect и применял там эту же гамму.
Прост Короновский Колор Коррект быстрее парсит сцены - https://youtu.be/JXCzH2nf2Ek?t=110 Собственно с 5 Короны я полностью отказался от других колоркорректов и на Корона Битмапы перешел тоже. Ни разу за все это время не сталкивался с нуждой использовать родные максовские ноды.
| 06.11.2022 |
Вот есть Real time - движки, а как называются не Real time?
Цитата monotumba:
Earanak - сложная и непонятная классификация у вас.
Не знаю для меня все просто и понятно ))
Цитата monotumba:
Дело в том, что ГПУ рендереры умеют ведь и не в рилтайм просчет.
Так тут никаких противоречий у меня нету. Я ведь так и написал по сути. Просто в случае с GPU рендерами я не использую обычно понятие как "оффлайн". Ну тип для меня и тех с кем я общаюсь и так понятно когда говорят "GPU рендер" или "Реалтайм графика" это разные вещи. Если уж так грубо сказать то для меня все что выдает 30 кадров в секунду - реалтайм. Все что меньше - не реалтайм Даже если это Cyberpunk 2077 в 4к на Ультрах страдающий в 20FPS, это уже для меня оффлайн рендер на видеокарте (ну это я так утрировал).
Про Интерактивность, я и сам написал - не знаю. Не приходилось как то уточнять этот момент в общении. Вроде как среди тех людей когда эти термины используются и так все более менее понятно. Тот же Unreal Engine, может быть и реалтаймовым с интерактивом и не-реалтаймовым, как вы привели пример когда рендриться секвенция кадров. Но так же Unreal Engine поддерживает CPU-PathTracing )) Так что может рендрить и не видяхой ))
Цитата monotumba:
То , что сейчас большая часть рилтайм рендереров на GPU - ничего не значит, классифицировать по типу GPU = рилтайм нельзя.
Я так не говорил. Наоборот ведь в 2 и 4 пункте что я написал, это разные вещи ведь. Просто в одном случае я уточняю что речь идет про рендер на GPU, а в другом случае нет. Но как я и отметил это уже такая, субъективная штука. Если НЕ нужно уточнять на чем идет рендер, конечно можно вообще забить и действительно использовать только два обозначения - Реалтайм/Не-Реалтайм.
OFFTOP Вспомнился этот... Brigade :
https://youtu.be/BpT6MkCeP7Y
https://youtu.be/n0vHdMmp2_c
Эх... 8-10 лет уже прошло. Когда то это впечатляло )
Теперь я это назвал бы не реалтаймом а "шумной сракой"
| 05.11.2022 |
Corona 7 Бесконечный Parsing Scene
Max 2020/2023.2.2 + Win10/11 + Corona 6/7/8/9 - с подобной проблемой не сталкивался.
По всей видимости Google Remote Desktop эта проблема не затронула.
Часто с телефона или с другого компа подключаюсь через эту софтину.
И пользуюсь Microsoft RDP, когда надо к рендер-ноде (без видяхи) подключиться с мейн-ПК.
Кстати недавно Google начали выпускать тестовые обновления. Мне вот недавно пришло предложение перейти на бета версию этой софтины. Они прям СИЛЬНО удобнее и функциональнее ее сделали на телефоне. Супер-удобно.
| 05.11.2022 |
Вот есть Real time - движки, а как называются не Real time?
1.) Когда речь идет про Mental Ray / Corona / V-Ray - я называю это Софтверным CPU-Рендером. Очень редко использую в данном случае - "Оффлайн CPU Рендер".
2.) Когда речь идет про V-Ray RT / FSTORM / Octane / iRay / RredShift - я называю это Хардверным GPU-Рендером. Как то так вышло что в этом случае не применяю "оффлайн". Может со мной что то не так ?
3.) Ну еще бывает что "оффлайн рендеры" работают одновременно на CPU+GPU, в таком случае говорю - "гибридный CPU+GPU оффлайн рендер".
4.) Когда речь идет про Unreal Engine / Unity / Eevee / Marmoset Toolbag / Игры - я называю это - Реалтайм GPU-Рендером. Или изредка - "реалтайм графика / реалтайм движок". Единственный случай наверное когда я не всегда уточняю что речь идет про GPU, ведь в 99% случаев это так.
5.) Ну и на последний 1% есть редкий случай комбинации из Софтверного Реалтайм CPU-Рендера. Ну это слишком уж специфичная штука как по мне. За уши притянуть можно софтину как Keyshot. Последний раз когда я ее юзал она была на проце и реалтаймовая, потому что быстрая была, почти как реалтайм. Но блин, с таким же успехом можно и Corona Interactive назвать реалтаймом на проце. Ну не знаю...
OFFTOP :
Ну это уже чуть оффтопа если вдаваться в этот 5.) пункт. И все же... Например в Counter Strike можно включить Software режим графики. В Crysis (CryEngine) можно включить Software режим графики. В этом случае игры ВООБЩЕ (никак) не используют видеокарту. Только процессор. Вот пример с Crysis (ссылка с таймкодом) - https://youtu.be/1LaKH5etJoE?t=553
Так же это относиться к Nitrous Software вьюпорту в 3Ds Max, когда видеокарта ВООБЩЕ не участвует в отрисовке вьюпорта и все (включая текстуры) рисует исключительно процессор. Да, 3Ds Max может полноценно (хоть и медленно) работать без какой либо видеокарты (без iGPU/dGPU), если что. Когда то на эту тему с кем то спорил, вот видос - (ссылка). Да и еще - RDP тут не делает свой вклад. Можно отключаться, в слепую без монитора чет поклацать подвигать в сцене, потом подключиться и увидеть что и без монитора и без RDP/Видяхи - все работает. Еще в ZBrush софтверный вьюпорт поумолчанию. Т.е 99% работы делает проц.
| 05.11.2022 |
https://3ddd.ru/forum/thread/show/batch_render_9#post1694735
https://3ddd.ru/forum/thread/show/3dsmax2022_3_problemy_s_batch_render#post1688699
Это не единственная тема. Поищите по форуму, по ключевым фразам.
Как я понял решение костылем это автокликеры. А суть проблемы в какой то конкретной комбинации версии Макса, Винды, Короны.
У меня :
Win10 21H2 + 2020 Max + Corona 8.2 - все Ок.
Win11 22H2 + 2023.2.2 Max + Corona 9 - все Ок.
| 05.11.2022 |
Ага... У 3080 Ti мобильной (ноутбучной) - 16гб GDDR6
У 3080 Ti здорового человека (десктопной) - 12гб GDDR6X.
| 04.11.2022 |
Забавные штуки тут выясняются про 8К и другой буллщит с этой прессухи ))
https://youtu.be/pAUxrWCZV50
| 04.11.2022 |
Как же раздражают прессухи когда не показывают сравнения с видяхами конкурентов ) Я бы вот глянул насколько 3090 будет медленней. Ведь по цене это будет почти прямой конкурент для 7900XTX. Это конечно с поправкой что 3090 видяха не свежая и с учетом НДС налога, новизны и все такое. По крайней мере для рабочих нужд я бы рассматривал видяхи только с 24гб VRAM. 4090 похоже быстрее и дороже. А вот что там с 3090...
| 03.11.2022 |
Если вдруг по какой то причине кому то интересны Радеоны. То через час АМД вроде как будут показывать новые видяшки. https://videocardz.com/newz/watch-amd-radeon-7000-rdna3-series-announcement-here Слухи есть на тему того что MCM архитектура (чиплеты) победят 4090, будет дешевле и энергоэффективнее. Ну... Посмотрим ) В этом году как то слишком уж точные все сливы были и по Райзенам и по Интелам и по Нвидии.
UPD : Ну и смехотура, 4К480гц Мониторы, 8К165гц...
Похоже снова у АМД ставка на зажиточных бояр.
Боюсь такие мониторы будут стоить дороже всего компа вместе взятого ))
| 03.11.2022 |
nikita.poleshuk@gmail.com, тестов то много есть.
https://www.pugetsystems.com/labs/articles/Impact-of-DDR5-Speed-on-Content-Creation-Performance-2300/#CineBench_R23
Сам не тестил.
Единственное что я замерял в HWInfo64 какая пропускная способность контроллера памяти когда Corona рендрит 6000px картинку большущего экстерьера. И в пике там было 25гб скорость. Но чаще это было в районе 20гб. Это сильно от сцены и разрешения наверное зависит. В данном примере было занято более 100гб памяти. Но если судить по этому моменту то Короне хватит 2133Mhz/CL15 JEDEC памяти в двухканале.
По поводу старта интерактива. Думаю что чуть чуть процесс его запуска ускориться.
Но не сильно, скорее всего. Потому что компиляция сцены занимает большую часть времени старта Интерактива. А скорость загрузки данных в память занимает мелкий (скудный) промежуток времени. Не думаю что что-то радикально изменится. Но да, в теории должно стать чуть лучше у DDR5. На сам рендер влияние скудное. Особенно если смотреть не короткие Корона и Вирей бенчми на 30-50 секунд, а если смотреть на более длительные замеры.
Ок. Представьте себе АБСОЛЮТНО идеальный расклад. Когда вот прям ИДЕАЛЬНАЯ утилизация скорости памяти. Вот у вас 128гб, запущенная сцена жрет 45гб, запускаете вы интерактив и памяти надо подгрузить еще 30гб к этому. Ну так вот... DDR4 2133Mhz/CL15 двуканал выдаст вам как раз эти 30гб. 30 гигабайт в секунду. Ну DDR5 в 5200/CL40 выдаст вам 65-70гб ПСП. Ну быстрее на пол секунды станет. Но это тупой и грубый подсчет. Там все чуть чуть более комплексно. Надеюсь не запутал этим примером грубым.
Если вкратце, мое субъективное мнение - толку от DDR5 в этом плане мало.
UPD - ВО ! Придумал. ЕСЛИ вы одновременно рендрите фоном и играете в игру (с открытым миром), или рендрите в 2-3 Окна Макса то тогда в теории от DDR5 может быть больше профита. Ну это в теории. Но звучит правдаподобно )) Канал то шире, если его начать забивать всем подряд то DDR4 может в теории стать узким горлышком а DDR5 нет. Ну или вы рендрите в Максе, у вас открывается в Фотошопе что то тяжелое в EXR-32Bit, или CXR в Corona Image Viewer. Ну в такие моменты думаю DDR5 сможет раскрыться. Ненадолго
| 03.11.2022 |
ukachaka
Да. Разумеется у DDR5 и Burst Lenght с возможностью отправлять разного размера порции данных и шина двойная на плашку. Все это круто конечно. Только как мы знаем в большинстве задач минимум выхлопа от DDR5. А в играх и того хуже ситуация. Конечно с современными процами, там уже пофиг какая память, FPS-ы заваливают за все разумные рамки. В целом - согласен с вами.
Правда тогда не знаю какой вывод делать из всего этого.
Что DDR4 что DDR5, плевать по большому счету.
Профит будет только когда надо большие объемы памяти прогонять, например редактируя 4K RAW видео, или распаковывать/запаковывать какой то архив в WinRaR/Zip. Не знаю где еще пригодится может... Может какую то симмуляцию частиц закэшированную тяжелую подгружать. Ну чет такое. Не рядовые задачи.
Еще вот думаю на тему RTX I/O (Ну или MSDS)... Раньше то данные в видяху гонялись через проц и память, а в будущем будут напрямую с винчестера (ПЗУ) в видеопамять фигачить. Тогда получается еще меньше станет профит от скорости ОЗУ.
То есть вот как оно сейчас работает - https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/rtx-io-gpu-accelerated-storage-technology/geforce-rtx-30-series-rtx-io-games-bottlenecked-by-traditional-io.jpg
А вот как в теории будет работать в ближайшие годы - https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/rtx-io-gpu-accelerated-storage-technology/geforce-rtx-30-series-rtx-io-announcing-rtx-io.jpg
Маркетологи все равно рано или поздно выпустят 10000Mhz DDR5, и все побегут ее покупать. Цифра то красивая )) https://videocardz.com/press-release/g-skill-showcases-ddr5-10000-memory-on-asus-z790-rog-maximus-apex-with-core-i9-13900k-cpu
Лан. Сорян. Что то меня в оффтоп понесло с размышлениями.
| 03.11.2022 |
ukachaka, не каждый софт умеет утилизировать высокую пропускную способность ОЗУ. Например те же игры до 60гб ПСП получают стабильный прирост когда нету упора в GPU, и то далеко не все. После 60гб (что чаще дает DDR5, или четырехканал DDR4) - прирост скудный.
Остается только на задержки и обращать внимания. Но да, даже так не каждый софт и игра чувствительна к этому. Именно потому если рассматривать DDR4 3600Mhz/CL16, то особого смыслу выжимать из памяти соки дальше - нету, практически. За исключением работы видеоредакторов, архиваторов, специфического софта. 3Ds Max, Corona Render, V-Ray - получают скудный прирост после 3600Mhz/CL16. Да и между 2666Mhz/CL20 JEDEC и 3200Mhz/CL16 XMP не сказать что много разницы.
Именно потому я тут раз за разом отмечаю то что чисто для рабочей машины для визуализатора, особого смысла нету вкладываться в оперативку. Именно потому можно спокойно экономить на этом. Не тратить время на разгон и вникание. Не вкладываться в DDR5 ради пустых дутых циферок в ПСП.
К тому же надо понимать что у плашек есть Bank/Rank Group Swap, у DDR5 вообще шина на два канала разделена. И все эти задержки нельзя оценивать одним числом. Ведь когда вы выполняете конкретную операцию там происходит много процессов внутри памяти и контроллера памяти. То что Аида64 показывает Latency, это лишь верхушка айсберга. А просто оценивать 3600Mhz CL16 как 8.8нс в так называемом "Real Latency" это еще более поверхностная оценка задержек памяти. Я просто предпочитаю чуть иначе в более упрощенной форме показывать эти цифры, как вы отметили - для домохозяек. Много ума тут не нужно что бы посчитать... https://notkyon.moe/ram-latency.htm Тут как бы проблема в том что это мало чего говорит про скорость памяти.
Отдельно конечно хочется отметить то что у современных процессоров удельного кэша на ядро становится с каждым поколением больше и больше. Предсказатель переходов (ветвлений) улучшается. И нынешние процы с каждым разом становятся менее зависимы от оперативной памяти. Меньше промахов по кэшу = меньше данных с памяти приходится дергать. Еще лет 6+ пройдет и думаю что разгон памяти вообще станет моветоном, если не раньше. А то выйдет 7950X3D в следующем году с тонной L3 кэша и все, и пофиг станет на то что DDR5 тугая. Вся ее тугость с лихвой перекроется горой кэша в проце.
А вообще я уже утомился раз за разом говорить одно и то же )) Постоянно говорю что в 99% случаев память можно и не гнать. И что в Максе и Рендере прирост скудный. И что частота у DDR5 не роляет. А мне все равно в личку пишут постоянно с вопросами как разогнать, какие чипы выбрать и тд )) Будто людям важнее циферки в бенчмарках а не реальный профит.
| 03.11.2022 |
Цитата rainmangrizzli:
P.S. для рендера можно и самые дешевые ddr5 брать.
Тогда можно взять самую дешевую DDR4. Ах, нет с 7950Х нельзя же Ну если кто то сейчас будет собирать первое поколение Hynix M-Die (или боже упаси Micron DDR5), и не дождется A-Die, ну что-ж... Земля ему текстолитом. Ей богу лучше бы уж тогда взял бы любую 3200/CL16 DDR4. С Hynix A-Die хотя бы есть надежда что поменяв проц и плату она раскроется в четыре двуранга. В перспективе ) В теории )) Может быть )))
| 03.11.2022 |
rainmangrizzli, почему странно ? В четыре плашки DDR5 при любых раскладах всегда будут медленней чем DDR4 в четыре двуранга. При любых раскладах. Даже если вы возьмете супер топ память, плату и руки прямые. IMC (КП) все равно не вытянет ее в нормальном режиме. А две плашки курам на смех. Если интерьеры рендрить можно и 5950Х взять. DDR5 бестолковый выбор, для тех кто ведется на циферки ПСП и частоты, которые ничего не значат в реальных задачах. Ну конечно если вы каждый день жмете WinRar/7Zip архивы, то конечно толк в DDR5 будет, разумеется )
Лан, пофиг. Тут уже все это по сто раз обсуждалось.
Чет я повторяюсь слишком часто по этому поводу.
| 03.11.2022 |
rainmangrizzli, ну так если бы у меня не было памяти я бы все равно не брал бы убогую DDR5 )) Тут нужно хотя бы ждать Hynix A Die второго поколения DDR5, месяца через 3-4 может выйдет несколько достойных китов. И то они будут с 32гб плашками. Я бы еще года два к DDR5 не притрагивался бы. А если бы ее сейчас взял то все равно это недоразумение менял бы с следующим апгрейдом. Ну нафиг ))
| 03.11.2022 |
Жесть... Вот это цены. B650 стоит как Z690
Z690 Tomahawk DDR4 дешевле на 500грн чем B650 Tomahawk.
Не ну я знал что у АМД все плохо с ценами. Но что настолько, даже и не догадывался.
Кстати у B660 интеловского чипсета есть платы с 14 фазными питальниками.
Как раз под 13900K/KF, не обязательно брать Z690-790. Как и у АМД не обязательно брать X670. Неудивительно что почти каждый техноканал снял видос что у АМД проблемки ))
| 03.11.2022 |