СообщенияДата

Видеокарта

Можно еще открыть GPU-Z и посмотреть сколько ватт идет по каждому проводку. У меня RTX 3080 (8+8 Pin) в стоке. По заводу TDP (TGP) лимит 330вт. Вот запустил Cyberpunk 2077, 1440p/Максималки : [[image:597448,]]
07.09.2022

Видеокарта

Ну это же легко гуглится и на русском и на английском, везде инфа сходится. Вот например у Гиги на сайте : https://www.gigabyte.com/Support/FAQ/2773 
07.09.2022

Видеокарта

Я видел другую инфу, что 8-пин на проц до 384вт а 8-пин на видяху до 150вт а 6-пин на видяху всего 75вт. И через сам PCI слот платы ещё 75вт. https://www.nix.ru/computer_hardware_news/hardware_news_viewer.html?id=177667 4 пина на видяхах вообще никогда не видел. Может речь про 4 пина на проц ?
07.09.2022

Zen 4 vs Raptor Lake

Цитата Rebate: Добавляйте апы, просто написав новый пост, он пристыкуется к прошлому автоматом, и обновиться в стэке. Ну я так и делал, и после этого тема сразу в топе. Я не редактировал пост. Просто я рано утром это писал, и тема успела скатится.
07.09.2022

WIP Визуализация , работа не прошла модерация

Но ведь если бы это была Луна то она светила бы и на здания за окном. А они тёмные все. К тому же свет от луны было бы видно разве что в тёмном помещении без искусственного света. А тут все светильники включены. Потому кажется что это прожектор фигачит в окно так аж что тюль горит прям будто от прямого освещения. Да и небо тёмное слишком под такую луну мощную. Она ведь и облака тоже подсвечивает.
07.09.2022

WIP Визуализация , работа не прошла модерация

Это какой то прожектор ночью лупит в окно ? 
07.09.2022

Видеокарта

Чутка утечек по приросту мощности у RTX 4000 серии : https://wccftech.com/nvidia-geforce-rtx-40-series-gpus-gaming-productivity-performance-2x-faster-than-rtx-30/ Ну что ж... Если даже в Minecraft +80% к FPS, придется покупать новую видяху  Интересно как будет выглядит 2x16-pin на видяхах, это же целая колбаса проводов.
07.09.2022

Актуальные конфигурации компьютеров

baikot, у Райзена контроллер памяти так устроен что при повышении частоты памяти повышается и частота Infinity Fabric. Если выбирать Coupled режим. В таком случае... При 3600Mhz Infinity Fabric будет на частоте 1800Mhz, а с 3200Mhz будет 1600Mhz. Да, у DDR4 есть очень очень грубая формула по которой можно считать, точнее прикидывать... Берете частоту и делите на первичный CL тайминг. А потом сравниваете. Например 3600/CL18 = 200 Теперь берете 3200/CL16 = 200 Толку обращать внимания отдельно на тайминги или частоту - нету. Только на совокупность. Значит что по крайней мере в таком сравнении эта память будет работать примерно с одинаковой пропускной способностью. Но у 3600 будет Infinity Fabric быстрее. А значит и задержки меньше. А значит 3600 все же будет чуть быстрее. К тому же всегда можно будет попробовать опустить до CL16, например. Ну то такое... Толку от простой подкрутки первого тайминга - почти нету. Толк есть в комплексной ручной настройке всех таймингов. А это гемморно, и надо будет многое изучать. И еще... Не ограничивайте себе выбор памяти китом на четыре плашки. В этом нету никакой нужды. Сейчас не времена DDR2-DDR3 где это рекомендовано было. Сейчас все 32GB UDIMM плашки с одинаковыми чипами почти все и с одинаковыми PCB. Хоть все четыре разные плашки тыкай (это я утрирую конечно). Я к тому что... Можно рассматривать два кита по две палашки. У меня например был случай когда плашка памяти сдохла, и мне не пришлось отдавать всю память по гарантии. Так как были отдельными плашками куплены а не в наборе. Иначе пришлось бы весь кит отдавать. К тому же потом сложнее будет продать сразу 128гб когда время придет. Легче будет по отдельности два набора продать. (Еще я немного хрюкнул с того что сдохла у меня память которую я никогда не разгонял и держал ее в JEDEC спеках на ноде, это единственный случай был с мертвой памятью у меня). А вообще. Разница в цене между 3200/CL16 и 3600/CL18 мизерная должна быть. А вот ВЫШЕ чем 3600Mhz - я бы не брал. Потому что та самая Infinity Fabric лишь в ~25% случаев может работать в 1:1 (Coupled) режиме с 3800Mhz памятью (обычно это 3733Mhz), и наверное меньше 5% процессоров смогут вытянуть 3933-4000Mhz в 1:1 режиме. Именно потому не рекомендуется на Райзен брать память с высокой частотой на XMP, ибо есть риск получить 2:1 режим и потом придется руками настраивать все что бы исправить положение. Да... Вот та самая картинка от АМД : [[link:image_uri:597114,]][[image:597114,sky_image_forum]][[/link]]
07.09.2022

Актуальные конфигурации компьютеров

Цитата baikot: с потенциалом разгона К сожалению сейчас найти годную память под разгон - это проблема. Потому что крутая память вся снята с производства. Сначала свернули производство Samsung B-Die, потом Crucial свернула бренд Ballistix где были крутые Micron Rev.E и Rev.B чипы. Очень удачная и недорогая память была под разгон у Crucial. Вот 128гб у меня такой памяти поехали на 3733/CL16 - https://i.imgur.com/tCzarTJ.png Так то она заводилась и на 3933/CL18, но толку было мало от такого разгона, КП (IMC) на пределе стабильности был и вторички страдали, да и напряжение в 1.36V на 3733 меня как то больше впечатляло чем 1.42V на 3933Mhz. В общем если удастся вам КАКИМ то образом найти Crucial Ballistix U4 на 3200Mhz XMP - рекомендую. Только не берите с XMP ниже 3000Mhz, там Micron Rev.D мусорный. А в 3000/3200/3600 китах - до 2021 года были Rev.E, после уже Rev.B, четенькие чипы под разгон. Особенно на Интеле или APU они чудеса творят. Модель получается такая : BL2K32G32C16U4B / BL2K32G36C16U4B Если на конце буква L значит с подсветкой и датчиком температур внутри. Ну и если вместо буквы B там W/R, это просто цвет другой. Чипы такие же. Короче я бы искал все 12 вариантов этих китов. Или сколько их там. Когда то эта память еще и самой дешевой была. Я вот за 590$ брал 128гб. Сейчас у 99% 32GB UDIMM памяти чипы Hynix, не стоит ожидать что они нормально погоняться. Я бы брал 3600 Кит и лишь немного шлифанул бы вторички, подрезал бы tRFC, попробовал бы CL16, и забил бы с дальнейшими твиками. Со всех китов которые вы перечислили навряд ли удастся выжать что то вменяемое. Кстати плата у вас отменная под разгон памяти. Жаль что хорошую память сейчас не найти. Ну или гемморно найти будет. Ну или по неадекватной цене. В общем скорее всего придется сильно захотеть и еще и придумать повод по какому вам нужно найти хорошую DDR4 под разгон )) Цитата baikot: И вообще есть ли смысл гнать память в рабочих задачах? Ну так это смотря какие рабочие задачи и какой софт. Для 3Ds Max-а в целом не нужно гнать память, хватит и 3200/CL16 XMP дефолтного. Для рендеров типа V-Ray/Corona - вообще смысла нету. Прибавка скудная. Считайте если 2666/CL20 JEDEC взять и например 3933/CL18 то прирост будет меньше 5% в рендере. Ну а в чувствительных к ПСП/Задержкам программах конечно же смысл будет. Ну и в играх разумеется смысл тоже будет. Тут конечно главное правильно все сделать. А то кривым некомпетентным разгоном можно сделать только хуже или стабильность потерять. Тут нужны прямые руки и понимание. Про кривые руки и хреновый разгон памяти, недавно Buildzoid выпустил видос где у подписчиков оценивал разгон. Ох, там порой такая хохма попадалась  (ССЫЛКА НА ВИДОС) 
07.09.2022

Есть ли разница в способе подключения устройств к БП?

UPD - Упс. Я чет протупил с просони. Не проснулся еще. Видяху же питает не только питание по кабелю но и материнская плата через сам слот выдает 75вт. Значит... В чем то другом дело с 3060-ыми и Блоками питаниия. Да и 8-Pin обычно на видяхе выдают не больше 175вт. Пойду дальше спать  sten, дык дело не в видеокарте а в основном в блоках питания.
06.09.2022

Есть ли разница в способе подключения устройств к БП?

coo1erman Да, есть такие блоки питания которые делят 12V линию на две (или даже четыре) части а на один PCI-E коннектор выдают недостаточную силу тока в Амперах по одному кабелю на видяху. Например чуть меньше 16Ампер. Помню был период такой, с какими то Радеонами, которым тупо не все блоки питания подходили. Потому что у них был 1 коннектор доп питания и больше подключить нельзя было а многие блоки питания тогда не могли выдавать больше 16Ампер на один PCI-E провод (то есть чуть меньше 200вт). Ну или чет тип такого было. Точно уже непомню. Собственно... Я не хотел подробно разбирать этот момент. Потому что это вроде как редкость сейчас. Потому пытался отделаться одной лишь этой строчкой )) Цитата Earanak: Ну а на дешевом БП может и вовсе быть другого рода внутренняя проблема с 1 проводом. Может у вас какой то специфический случай... Так то и на мощных БП бывают проблемы с видяхами (другого рода) - https://youtu.be/EHjpa-6eg1U Не обязательно он должен быть дешевым или старым что бы что-то пошло не так ))
06.09.2022

Есть ли разница в способе подключения устройств к БП?

CrAsssH, с 3060 - без разницы. Там вроде референс модели жрут 170вт в полной нагрузке, ну наверное с заводским разгоном ~200вт. Да пофиг. Вот все что выше 350вт - я бы не рискнул. Хотя и 350вт производители рекомендуют двумя проводами подключать. Ну как в случае с 3080...
06.09.2022

Есть ли разница в способе подключения устройств к БП?

С этим блоком питания можно не париться... Да, хороший.
06.09.2022

Есть ли разница в способе подключения устройств к БП?

У дешевых блоков питания проводки обычно идут с недостаточным сечением, с примесями алюминия, плохой изоляцией. Только в таком случае стоит парится. Но если Блок Питания дороже 100$ то думаю без разницы. Винчестеры и SSD жрут фигню питания. Вот если говорить про 3070Ti/3080/3090 видяхи - то почти ВСЕ производители НЕ рекомендуют подключать питание через Дейзи-Чейн (т.е одним PCI-E проводом). То есть рекомендуют подключать каждый слот доп-питания на видяхе отдельным проводом. Просто провода и коннекторы будут сильно горячими если все на 1 провод воткнуть. Ну а на дешевом БП может и вовсе быть другого рода внутренняя проблема с 1 проводом. Но это нужна комбинация из мощной видяхи и дешевого БП. В основном рекомендуют что бы провода не грелись. Если видяха типа 3060, 2070, 1080 - в общем то можно подключать и одним проводом. (OFFTOP) Так и процессоры, дополнительные питание процессора - зависит от процессора. Если это HEDT типа Тредрипера то всегда надо заполнять все слоты. Если 10900K/12900K - тоже, ведь они во время рендера в стоке жрут 250+ ватт, и подключив лишь один 8-пин провод он будет просто горяченьким. А на некачественном кабеле даже ощутимо горячим. Но этот 8-Пин слот может прокачивать через себя 384вт, т.е комп то будет работать даже на Тредрипере с одним 8-пин. Но... Зачем, когда можно подключать второй проводок что бы они не грелись. На Райзенах десктопных вообще пофиг например. Там хоть один 4-пин подключай. Производители плат бесу гонят делая 8+8 пин, чисто маркетинговая уловка. Видел как экстрим оверклокеры даже не подключают этот второй 8-Пин, бесполезно, слоты то спаянные все равно )) А да... И еще если у вас дискретная аудиокарта с подключением доп питания то ее тоже лучше подключать отдельным проводом. У меня вот например ASUS Strix Soar была. Когда она была подключена одним проводом с видеокартой то звук в наушниках начинал щелкать в нагрузках. Ну думаю тут и так понятно. Цитата Yehat: То, что потребляет много - лучше посадить на отдельный кабель, например, видеокарту. То, что мало - можно собрать в пучок. Например. 2 SSD и 3 HDD. Так и делаю. Особо добавить тут нечего. Ну кроме того что я выше про видяхи написал. А то есть RTX 3080 у которых TDP (TGP) лимиты в 450вт по заводу. Я бы не рискнул такую мощь сажать на один PCI-E Кабель 
06.09.2022

Стоит ли увеличивать оперативную память

aӀех, еще не стоит забывать что 3D пакеты не особо хорошо работают с цельными тяжелыми объектами. Например когда 5 объектов в вьюпорте разных (не инстансы) то с них могу выжать 300кк поликов перед вылетом. А когда один объект то уже после 150кк вылетает. Когда 250 объектов то 500кк не вылетает. Ну это на примере 3Ds Max-а если что. Конечно какой нить ZBrush принципиально иначе устроен и сожрал бы и 5000кк, а вот 3Ds Max не может так, по понятным причинам. А ну и еще видеокарты с ума сходят от Wired режима на плотной геометрии, особенно обычные игровые видяхи от Wired погибают. Если я не включаю Wired, то вылет происходит на 1 итерацию позже.
06.09.2022

Стоит ли увеличивать оперативную память

Ну да еще стоило бы описать тему Editable Mesh, Editable Poly, про Channel Info, про параметрическую геометрию и несхлопнутый стак модиификаторов... Ну то такое. Я думаю и так многие в курсе что фактическая геометрия в Editable Mesh меньше занимает места в весе сцены и быстрее переваривается рендером на этапе парсинга сцены. А кстати еще есть люди которые почему то уверены что геометрия когда в Proxy то она жрет меньше ОЗУ во время рендера  И еще лучше бы люди поняли в чем суть галки Keep in Memory у Проксей. Ну так если уходить в тему оптимизации и что сколько и как жрет - так можно далеко зайти в этой теме. Дойти до Компрессии памяти, рендера из под командной строки, выпиливания плагинов с Плагин Менеджера и прочей дичи )) Кстати и про видеопамять в Вьюпорте не стоит забывать. Ведь если у вас видяха на 4GB видеопамяти, то если у вас куча объектов в сцене в полноценном режиме отображения с показанными текстурами, и у вас забитая видеопамять - то Видяха начинает перекладывать нагрузку на ОЗУ создавая для себя там подкачку. Я на днях для ограниченного круга людей писал видос где на примере снизил потребление с 7.5гб до 4гб VRAM и -9гб ОЗУ в сцене. С дикцией все плохо, микрофон так себе, писал почти на одном дыхании в вольной форме так что пару оговорочек есть и затупов. Ну то такое... Рекомендую в х1.5 скорости смотреть (ссылка) если кому интересно вдруг. Вообще не планировал это видео где то постить. Но думаю тут это будет в тему.
06.09.2022

Стоит ли увеличивать оперативную память

grdesigner, угу так и есть. Добавлю от себя более развернуто : Когда в Короне вылетает предупреждение об нехватке памяти, можно обратить внимание на соотношение потребления памяти Геометрией и Текстурами. Как правило у меня где то 20% памяти жрет Геометрия, 5-10% Displacement (в экранном пространстве разуметься). А все остальное это текстуры  И тут надо понимать что текстуры в оперативной памяти занимают больше вес чем сам файл весит. Например если взять стандартную Битмаму то Pyramidal Area дает +133% к весу. Summed Area +400% к весу. И теперь прикиньте какой то Composite в Диффузе на пару Utility/Dirt текстур, пару миксов. Текстурку на Reflection/Gloss, карту нормалей и вот вам материал уже на пол гига во время рендера, если не больше  Именно по этому надо в первую очередь чистить материалы а не геометрию. Так же стоит понимать что например текстура Дисплейсмента не лежит в ОЗУ во время рендера. При условии что не работает Автобамп. Про автобамп можете погуглить изучить. Суть в том что карта дисплейсмента участвует до начала рендера на этапе парсинга формируя геометриию. А потом выгружается. Но выгружается она только если в слоте бампа что то есть. В противном случае если у материала только Дисплейсмент без бампа - то корона использует Автобамп и тогда карта дисплейсмента загружается во время рендера в память. Это надо знать когда вы всякие текстуры с Quixel Megascan библы тянете. Например. А то может выйти так что вам и 128гб не хватит ведь в Дисплейсмент картах используются 16-32битные форматы (так как 8-мибитные дают ступеньки на дисплейсменте). Поверьте, вы бы не хотели загружать 4К EXR 32Бит текстуру в оперативку на материалах с дисплейсментом  HDRI карты кстати в 32битном виде даже на 8к разрешении не сильно кстати грузят ОЗУ, ну не так сильно как могло бы показаться.
06.09.2022

Стоит ли увеличивать оперативную память

grdesigner, у DDR4 платформ, всех без исключения такого я не встречал. То есть без разницы что там написано в спеках платы и проца всегда можно больше поставить чем написано. Получается речь идет про платформы до 2013 года 
05.09.2022

~25 процентов мощности процессора при визуализации

Ах... Снова Alder Lake на Windows 10, как неожиданно и свежо  Вот ссылка прямая на сообщение из темы по Алдер Лейкам : https://3ddd.ru/forum/thread/show/alder_lake/18#post1652273 Если вкратце. У Alder Lake гетерогенная архитектура не дружит с планировщиком в Windows 10. Так что... Если не изобрели каких то костылей то придется просто перейти на Windows 11.
05.09.2022

Zen 4 vs Raptor Lake

Не знаю почему они не пишут (+) после значений. Это ведь не жесткое ограничение. Это лишь базовый безопасный уровень который в теории на JEDEC спеках запуститься. Представляю как у всяких вендоров типа G.Skill пригорает от таких пунктов... А то так если не шарит человек подумает что это указана Максимальная частота. Но это не так. Т.е написали бы : 1DPC 1R - 5200 (5200+ OC) 1DPC 2R - 4800 (4800+ OC) 2DPC 1R - 4800 (4800+ OC) 2DPC 2R - 3600 (3600+ OC) P.S. FCLK 1733 это даже хуже чем у прошлых Райзенов   Ну ниче. Роберт нам обещает что это - ОК. Может просто DDR5 настолько плохо работает что это не сделает картину сильно хуже  UPD - Рекомендуемые ценники на некоторые АМ5 платы начинают появляться. Только вот... Не пойму на кой черт сравнивают платы принципиально разного класса по цене. Тупость какая то. Extreme чипсет двойной, с полным фаршем платы сравнивают с X570 где подобные платы были только в самом-самом High-End сегменте. Блин такая же тупость как X570 сравнивали с X470... https://wccftech.com/msi-x670e-am5-motherboard-prices-confirmed-almost-twice-as-expensive-as-x570-am4-boards/  У X670E ACE питалово мощнее чем у прошлого X570 Godlike а MSI PRO X670-P за 290$ лучше чем 90% X570 плат )) Но нытья то будет уверен много. Что платы дорогие. Ну так блин понятно что они дорогие, это же супер хай-энд уровень для экстрим разгона на азоте )) Вот выпустят B650 платы, тогда виднее будет че там с ценами на АМ5. UPD №2 - https://videocardz.com/newz/asus-rog-maximus-z790-motherboard-has-been-pictured-equipped-with-core-i9-13900k-cpu-and-20-cooler  The CPU hit 6.5GHz single core at very light load. Full load, so far, P-5.7GHz E-4.4GHz R-5.0GHz. Жоска...
05.09.2022

Zen 4 vs Raptor Lake

Ах... Я сначала про DR написал. А потом удалил ту часть сообщения. Не хотел оффтопить. Но вы успели прочитать )) Я прост подумал... Что... Мне без разницы кто как использует рендер ноды. Каждому свой вариант удобнее. У каждого свои достоинства и недостатки у этого. Например у grdesigner и у меня опыт взаимодействия с рендер нодами РАДИКАЛЬНО отличается. Так что я забил на эту тему в общем то... Слишком субъективная эта тема. Цитата Rebate: Почему на скрине запись больше? У 3000-5000 Райзенов они усекали ширину шины на запись из за ограничений подложки процессора и сокета. Тут же новый сокет, больше контактов, другая разводка у подложки. Значит больше в этом нужды не было у них, в этом усечении. Вообще, без указания всех таймингов памяти в этом скрине с Аиды смысла нету. Аида показывает лишь линейную скорость памяти и задержку при обращении к данным у памяти. Но... Не показывает вообще нисколько хорошо память настроена. И насколько она адекватно работает. P.S. (Частично Оффтоп) Кстати на днях. Билдзоид выпустил супер крутое видео, по моей теме. Очень много нюансов сложились в единую картину. Там как раз много где обсуждается именно то про что я говорю. Что не всегда важно только ПСП и первичная Задержка. Важно то как память внутри себя работает. Она может выдавать 100гб ПСП с DDR5, но в приложениях работать хуже чем DDR4 корректно настроенная с 50гб ПСП. Так же неоднократно в видео обсуждается момент что ручной настройкой некомпетентный человек может сделать только хуже. В общем вот видос. Для тех кому интересна тема настройки памяти на AMD и Intel, рекомендую смотреть в х1.5 скорости - https://youtu.be/o3HpXNkrQqM (на ~8 минуте ничо так разгон DDR4 до 5000Mhz/CL18). Так как настройка памяти на Интел и АМД сильно отличается. Прям сильно. То я как бы заранее решил подготовится. А то на Интелах память уже лет 5 не настраивал наверное   Если очень быстро подытожить то говоря про (Интел) : 1.) Gear2 не так сильно убивает производительность как 2:1 режим у АМД. 2.) Есть настройка TREFI которой можно снижать влияние tRFC. 3.) Очень часто контроллер памяти не вывозит CR1 а у АМД наоборот почти всегда CR1. Если не вывозит CR1 то лучше что бы память была в Gear1. Потому что Gear2 + CR2 = катастрофа. У АМД у новых Райзенов - Роберт Хеллок (ака Лысый хрен) сказал что вообще будет пофиг. То есть контроллер памяти у АМД не будет сильно страдать от скорости памяти. И может быть в Uncoupled режиме. То есть например если память 6000Mhz а контроллер 2000Mhz то типа все ок должно быть. 4.) Можно спокойно ставить первички нечетные. У АМД всегда четные, либо надо отключать GearDown. 5.) Другой софт для проверки таймингов, другой софт для проверки результатов настройки памяти. Например почти все юзают утилиту от ASRock для проверки таймингов. А у АМД это ZenTimings. И еще там по мелочам всякие нюансы. Короче если кто разобрался с настройкой памяти на АМД. То с Интелом будет не все так просто... Придется освежать знания.UPD - Тут АМД решили 5000 Райзены еще подешевле сделать  https://wccftech.com/amd-ryzen-5000-cpu-huge-price-drop-weeks-prior-to-ryzen-7000-launch-5950x-499-5900x-349-5800x3d-379-5800x-239-5600x-179/ 
05.09.2022

Zen 4 vs Raptor Lake

Цитата grdesigner: чтобы твердые трубки ровно согнуть и фиттингами зажать Ну, у меня друган себе кастомную воду собирает из гибких шлангов. Он уже кучу всяких вариаций собрал без этих трубок которые греть надо и гнуть... Я сам только в следующем году буду вкатываться в кастомное водяное охлаждение. У меня только прошел период привыкания к обычным AIO, теперь вот кастом хочу на видяху и проц. Цитата Rebate: Это понятно, в таблице написано все понятно про 5.8 на одно, два ядра. Мне не понятно почему 5.5 так близко к 5.8 при полной нагрузке и под какой нагрузкой. Пока гадание. Ну вы эти 5.8ггц воспринимайте как XFR у AMD. Типа никто не гарантирует вообще что оно пойдет выше 5.5, но типа в теории при определенных условиях может пойти. У АМД так же было  У АМД по моему за каждые 5 градусов был буст в +25мгц (у 3000 Райзенов по крайней мере). Вот у Интела видать это будет просто чуть больше чем +25мгц. Почему так близко, не знаю. [[link:image_uri:596801,]][[image:596801,sky_image_forum]][[/link]] Ryzen 7600X и DDR5 6000Mhz Память : Что то у Китайца не вышло двуранги DDR5 на Райзене разогнать выше 3733Mhz/CL40  [[link:image_uri:596806,]][[image:596806,sky_image_forum]][[/link]] Хотя конечно 69ns и Такое ПСП. Выглядит неплохо. Примерно как четырех канал образца 2014 года с 3200Mhz/CL16 DDR4. Конечно не стоит забывать что Аида показывает только лишь верхушку айсберга. Что там с скорость памяти выяснить по этому скрину невозможно.
05.09.2022

Zen 4 vs Raptor Lake

Цитата grdesigner: Говоря про топовую воду, Вы имеете ввиду уровень NZXT - Kraken 73, ASUS - Ruijin или кастомные сборки от Thermaltake, EKWB? Топовая вода кастомная это для меня типа EKWB, да. Ну или хотя бы что то такого плана имею ввиду (прост спаянные два радиатора и наружу компа + помпа с алиэкспресса мощная), дешевле EKWB и лучше чем AIO обычные. Это я и имел ввиду. Все что круче этой отметки буста в стоке не даст никакого как я понимаю. А дальше... Водянки с фазовым переходом, иногда с небольшим охлаждением жидкости. Еще дальше полноценные чиллеры с холодной водой. И LN2 с "стаканами". Такого я пока еще с 7950Х и 13900К не видел. Сейчас в тестах преимущественно обычная AIO типа вот этих вот Kraken, Ruijin, Liquid Freezer и тд... То есть никакой жести жестянной. Обычные водянки за 150-250 баксов, которые - "воткнул-забыл". В китайском видосе по 13900К например - Phanteks Glacier One 360 MP. Обычная вода. Когда я говорю про топовую воду то это все же кастомные водянки... P.S. Кстати... Вот подумываю а не сделать бы Push Pull продув моей водянке. Все таки радиатор толстый... (Это когда ставят вертушки с двух сторон радиатора). Все таки будет водичка то тёпленькая с разогнанным 13900К )) P.P.S. Во, че нашел... Зацените - https://tinyurl.com/3k8vhyt6 То шо надо под кастомную воду 
05.09.2022

Zen 4 vs Raptor Lake

grdesigner, ну... Эы... У P-Ядра два потока. Т.е 2 бакета. У E-Ядра один поток. Т.е 1 бакет. У P-Ядра лучше IPC, больше кэша, выше частота. Но бакета то два на 1 ядро. Сложно сказать. Но в теории там не должно быть прям разительной разницы в том как быстро они бегают по VFB окошку. Но думаю бакеты от P-Ядра будут все же чуть-чуть быстрее бегать.
05.09.2022

Zen 4 vs Raptor Lake

Цитата Rebate: Что значит 5.5 на все P-ядра, а на одно 5.8; почему разница в 300 Мгц? У 7950X разница 4.5/5.7 в 1200Мгц. 5.8 Ghz это Enhanced Thermal Velocity Boost, своя интеловская технология Precision Boost-а как у АМД. Только у Интела она и вправду работает неплохо, и более точно выбирает удачные ядра проца по заводу. В зависимости от нагрева процессора частота может пойти выше чем в стоке будет стандартный буст. Т.е на воде будет выше чем на воздухе. На крутой воде с фазовым переходом еще выше. На чиллере еще выше. На LN2 еще выше. Но на самом деле нет. 5.8ггц скорее всего уже будут на топовой Воде. Дальше просто будет лимит в 5.8Ггц при легких нагрузках (на удачные ядра). Короче это не про рендер а скорее про моделинг, взаимодействие с системой, легкие нагрузки и браузер. Скорее стоит воспринимать 5.8ггц как 5.1ггц на 5950Х в стоке. Когда в Пейнте рисуете или в блокноте печатаете  Цитата Rebate: при нагрузке рендера стакана или теста Prime95? Судя по тому что писали 5.5ггц или около этого должно быть в обычном рендере типа Короны-Вирея. Prime95 есть разный. Large FFT, Small FFT, Smallest FFT. Smallest FFT может вообще занизить частоту до базовой из за перегрева и нагрузки. А Large FFT может нагреть проц меньше чем Корона. Про какой стакан речь идет - я кстати не понял. Стакан от LN2 медный ? Ну пока еще не было тестов с LN2. Или какой еще стакан... Цитата grdesigner: Насколько сильно они будут тупить? У 12900К эти ядра уровня приблизительно Intel 6000. У 13900К ожидается чуть выше уровень и их разгонный потенциал. Есть те кто оценивают у 13900К их как ядра у Intel 8000. То есть имеется ввиду что ядро без гипертредиинга, одним потоком выдает производительность одного полноценного ядра с гипертредингом уровня 6700К. Или в случае 13900К ожидается уровня ядра 8700К. Точных тестов с 13900К еще никто не проводил. Еще не забываем что у Интел HT хуже чем SMT работает ! Т.е если взять ~7700К+7700К+7700К+7700К (16 Ядер). CineBench R23 - ~6200+6200+6200+6200 (16 Ядер).  Но из за унылого HT тут не будет 100% КПД и близко. Короче без конкретного теста точно посчитать сложно. Я бы сказал что E-Ядра выдают где то ~20к Баллов из общего счета у 13900К. Остальное это P-Ядра.  На вскидку. Вообще конечно... Надо бы мне и самому посмотреть обзоры где сравнивают мощность E-Ядер и P-Ядер. А то я могу чет путать или забыть уже за этот год. Просто 12900К был мало интересен. Могло что то исказиться в памятии.
05.09.2022

Zen 4 vs Raptor Lake

Чуть чуть более подробный тест 13900К инженерника. Который явно имеет схожие проблемы с 12900К инженерниками которые были в свое врем (ссылка на видос про 12900к ES). Которые иногда в рендер и разгон могут а во все остальное почти всегда не очень )) https://videocardz.com/newz/another-intel-core-i9-13900k-raptor-lake-cpu-gets-tested-ahead-of-october-launch  Как же странно выглядит Китайское оформление видосов всяких и скриншотов. https://www.bilibili.com/video/BV1BW4y1q7u4?zw  Вечно все какое то пёстрое, в дешевой обводе. Странные какие то цвета. Чисто вырви глаз. Я бы вот даже если захотел бы наверное не смог бы повторить этот стиль.
04.09.2022

Corona 9

Пусть сначала выпустят 64гб VRAM видяхи от nVidia, потом я посмотрю что там GPU рендеры умеют, а так без толку, больше времени на оптимизацию экстерьеров уйдет чем на буст в скорости рендера. Один фиг соотношение рендера и работы, у меня сейчас это где то 90% работы и 10% рендера. Это вот если видео нарендривать, тогда да... А так, чё толку статику рендрить видяхой. Интерьерщикам небось норм и с А6000 на 48гб, регулярно вижу Б/У за 4.5к баксов всего. Хотя я бы подождал середины следующего года, ходят слухи что выйдет либо преемник А6000 либо чет типа Титана нового, правда тоже на 48гб, уныние.
04.09.2022

Ноутбуки для 3д макс

slsnejinka, я бы глаза сломал на 13 дюймовом ноуте. Видеокарта избыточная для архивиза/3DsMax-а. Процессор можно найти десктопный 5950Х под Ноутбук. Да, десктопный под ноутбук, придушенный лимитами но все же полноценный 16-ти ядерник. А не этот каличный убогий 5980HS в 8 ядер. Вот например серия ноутбуков с десктопными процами - https://www.xmg.gg/en/xmg-apex-15-max/  У них вроде еще и есть модели с 2х32GB ОЗУ. То что надо, 16 ядер, 64гб. Ну и если у них есть модель видяхи попроще в связке с 5950Х - было бы отлично. Не в курсе. Наверное альтернативы так же есть с десктопными 5950Х. Без понятия. Эта серия просто первой в гугле под руку попалась.
04.09.2022

Новичкам! (3ds max)

Цитата wosserOne: В двух словах открыть ENU, в блокноте CurrentsDefault.ini и назначить в OutputGamma = 1 (а не 2.2) Ну что-ж. Это значит что он не разбирается ничерта в LWF/Гамме. И именно из за таких умников которые делали скрипты на Гамму. Редактировали конфиг файлы. И вот этим мракобесием занимались - многие новички в те годы и не понимали что у них там не сходится то VFB с картинкой. То текстуры выбеленные. И вот у таких новичков малёха мозг сломался когда новые версии Макса изменили стандартные параметры, да и Вирей тоже. Именно потому я в тех сообщениях и описал в чем суть и почему этим всем заниматься не нужно. Потому что это костыль и невежество. И если понимать суть этой проблемы то внезапно окажется что за вас уже все сделали корректно и в Максе и в Вирее (после Max 2014 и после 3.0 V-Ray). Просто надо знать че жать и почему это надо жать. В Короне например вообще про это думать не нужно, в ней только LWF и есть по дефолту. Не ну может как то можно запекать Гамму в Короне, ток не знаю зачем. Я на LWF+EXR перешел еще в 2014 году  Цитата Earanak: 1.) https://3ddd.ru/forum/thread/show/riendier_3d_max_otlichaietsia_ot_itoghovoi_sokhraniennoi_kartinki#post594795    2.) https://3ddd.ru/forum/thread/show/riendier_3d_max_otlichaietsia_ot_itoghovoi_sokhraniennoi_kartinki#post594803   
04.09.2022

Новичкам! (3ds max)

wosserOne, если V-Ray то может поможет мое старое пристарое сообщение на тему запекания гаммы и Linear Workflow... Я тогда как все это понял в полной мере что к чему - так у меня с тех времен никогда не было подобных проблем более. Так как я понял в чем суть гаммы в вирее и разных режимов фреймбуфера/тонмаппинга. Не знаю насколько по интерфейсу должно быть понятно исходя из старой версии Вирея. Но по идее сами механизмы и в целом подход должен остаться прежним. Вот, может поможет. А может не поможет ))  1.) https://3ddd.ru/forum/thread/show/riendier_3d_max_otlichaietsia_ot_itoghovoi_sokhraniennoi_kartinki#post594795  2.) https://3ddd.ru/forum/thread/show/riendier_3d_max_otlichaietsia_ot_itoghovoi_sokhraniennoi_kartinki#post594803  UPD - Да, походу в новых V-Ray все по дефолту с Гаммой должно быть ок, как в Короне.
04.09.2022