СообщенияДата

Видеокарта

motnahp1, да причем тут это. Вы наверное как и большинство краем уха услышали про конденсаторы и теперь предполагаете что это в них дело. Я этот нюанс крайне подробно и с начала и до конца изучал. Проблема преувеличена, проблема была не только в кондёрах но и в драйвере, даже больше в драйвере. Драйвер устранил нестабильность, помимо этого повысил поверлимит чутка, снизил частоты у моделей которые бустились выше 2ггц. В первую очередь стабильность вернули многим картам даже при условии если вернуть прежний поверлимит и частоту, то есть ограничение буста не являлось ключевым решением проблемы. Просто до людей не сразу дошло проверить якобы проблемные видяхи в Линуксе и в Винде, оказалось что старые драйвера на Винде были нестабильны в некоторых случаях а на Линуксе все ОК было в сопоставимых по нагрузке на конвейер GPU тестах. При идентичных частотах, потреблении, нагреве. Помимо этого проблемные видяхи в большинстве случаев были ревью сэмплами которые выдавали обзорщикам а в ритейл пошли видяхи с годными кондёрами, у той же EVGA например. Качество фильтрации GPU кондёрами НЕ гарантирует вам что у вас не будет проблем на старом драйвере. Потому что ASUS TUF с 6-тью MLCC кондёрами так же вылетал как и Founders Edition, как и помойные Палиты. Все что дают качественные кондёры для фильтрации, так это повышают вероятность удачного разгона на переделе возможностей чипа. Но если сам по себе чип мусорный, а мы знаем что мусорные чипы так же идут в сборку в 3080 как и топовые отборные, то никакие вам кондёры не помогут. А вот в случае наоборот, когда чип годный попался с высоким ASIC Quality, меньшими Volt Leak-ами, ниже VID, все это как раз таки может отразиться на стабильности. Но блин... Какая разница если видяхи вылетали ТОЛЬКО в предельных и игровых нагрузках. И они именно вылетали, крашили драйвер, чёрные экраны, зависания полные системы. Тут речь про статтеры, хардверную аккселерацию в БРАУЗЕРЕ и ФОТОШОПЕ, которую если отключить то все нормализуется и больше никаких проблем нигде не возникает. Как вообще можно было исходя из моего сообщения думать что проблема в кондёрах - ума не приложу. Та же проблема с BSOD-ом указывает на драйвер Нвидии и возникает только при открытии GPU-Z, просто софтверный конфликт какой то. У моей видяхи относительно дорогие SP-Cap кондёры (не POS-Cap). Гига не экономила на них, судя по обзорам и их официальному заявлению. И из за некомпетентных пользователей им пришлось пояснять за этот момент. Потому что паникеры, паниковали, а в суть не углублялись и упустили то чем все закончилось (банальным обновлением драйвера). Многие до сих пор верят в то что это брак на хардверном уровне был. Просто бред... Официальное заявление Гиги : "The GIGABYTE GeForce RTX 30 graphics cards are designed in accordance with NVIDIA specifications, and have passed all required testing, thus the product quality is guaranteed. GIGABYTE GeForce RTX 3080/3090 GAMING OC and EAGLE OC series graphics cards use high-quality, low-ESR 470uF SP-CAP capacitors, which meet the specifications set by NVIDIA and provide a total capacity of 2820u in terms of GPU core power, higher than the industry’s average. The cost of SP-CAP capacitors is not lower than that of MLCCs. GIGABYTE values product integrity highly and definitely does not reduce costs by using cheap materials." К сожалению уже ничего не поделать. Никакие сообщения, заявления, отсутствие жалоб на Реддите после обновления драйверов. Ничего уже людей не убедит в том что проблемы по сути и не было, что она была в драйвере. Да всем плевать. Любая проблема с RTX 3080 ? - Кондёры небось виноваты, да 
17.10.2020

Zen 3

CTR 1.1 завезли : https://www.overclockers.ua/cpu/clocktuner-for-ryzen-1-1/ 
17.10.2020

Видеокарта

Rebate, ну коль уж так, то и пофиг. Мне супер лень перекидывать видяхи туда сюда. Думал прост прогнать какой то тест что бы было с чем сравнивать. Ясное дело видяху я брал для игрушек а не для вьюпорта и не для GPU рендера (так бы взял 3090 или ждал бы 20гб версий). У меня на рабочем компе стоит 1050 Ти и мне ее хватает с запасом под вьюпорт 3Ds Max-а, в том числе и под большие экстерьеры  UPD : Пока что вот что могу сказать. С 3080 не все так гладко выходит. Ну... В плане игр все ОК. В плане стабильности в нагрузках все ОК. Я имею ввиду конкретно драйвера и Софтверную часть. Есть траблы с Хардверной Акселерацией в Браузерах, с Акселерацией в Видео. Траблы с некоторыми Оверлеями которые не обновились. Траблы с Акселерацией в Фотошопе 2020 версии. Та даже GPU-Z я вот запускаю он 1 из трех раз выдает мне синий экран "0x0000004e" (PFN_LIST_CORRUPT). Например если открыть Фотошоп с включенной акселерацией то делая скриншот (простое нажатие на принтскрин) - комп моментально подвисает на пару секунд. Если фоном открыто видео на втором монике в браузере и я что то рисую в фотошопе то видео заедает. Если крутить в браузере ползунок громкости музыки на странице Яндекс.Музыке то на основном мониторе начинает моргать холст в фотошопе  Если включен nVidia Freestyle то во время захвата экрана через OBS все начинает моргать если записывать через NVENC. Как то так... В целом критических проблем нету. Я просто отключил акселерацию в браузере, в фотошопе и все нормально заработало.  Доп инфа : Win10 Pro ENG x64 (2004 Версия) + Все обновления. Драйвера - 456.71 GPU Scheduling - Включен. DPI-Скейлинг - оригинальный 100% К видяхе подключен 1920х1080/60Hz монитор по HDMI. И еще подключен 2560х1440/144Hz монитор по ДисплейПорту. В играх, стресс тестах, бенчмарках - все идеально работает. Пробовал и на старой системе через DDU выпиливать драйвера. Пробовал и на начисто систему устанавливать. Видяха работает в PCI-E 4.0 режиме. Я в курсе что PCI-E 4.0 может сбоить из за Infinity Fabric у Zen2 в 1900Mhz. Именно потому я пробовал сходу снизить до 1866Mhz, разумеется в 1:1 режиме. Не сказать что я прям как то яростно стараюсь найти решение проблемы. Так как мне эта акселерация в целом нафиг и не нужна. Я не рисую Blur-Кистями на холстах в 32к Пикселей и не смотрю видео в 15 вкладках браузера в 4К/60FPS 
16.10.2020

Видеокарта

Spirif, я то напишу. Но я ведь спросил какой тест то прогонять   Я прост не в курсе где тут тема с тестами. Какой тест самый адекватный и актуальный.
16.10.2020

Видеокарта

Какой сейчас тут актуальный местячковый тест вьюпорта в 3Ds Max ? Хочу RTX 3080 ради интереса прогнать. Почему то есть мнение у меня что разницы между какой нить 1080 Ти и 3080 будет с гулькин нос, потому что вьюпорт 3Ds Max-а та еще вонючая помойка 
16.10.2020

AMD Ryzen 9 3900X высокая температура

Ставить воду на 3900X/3950X - безумие, IMHO. Если температуры вылетают за 75 градусов в Corona Render/V-Ray, то явно что то не так с VID/LLC/VDroop/Датчиками/Контактом с Охладом. Либо люди смотрят не тудой (путая tCTL/tDie или еще какой нить левый датчик). Ну или если там стоит какой нить Gammax 400... Кстати из за разницы в VID-ах у 3900Х и 3950Х как правило у них - одинаковая температура и практически одинаковое энергопотребление. Да, 12 ядер по энергопотреблению и нагреву почти как 16 ядер. Потому что у полноценных ССD меньше Volt-Leak, лучше VID ну и у 3950Х ниже базовая частота. Ну и у 3950Х жесткий лимит на предельные нагрузки зашитый (EDC Throttling), порой он и меньше чем 3900Х жрет. 3900Х лучше андервольтиться а 3950Х по дефолту как бы с завода годно затестирован и подогнан. Андервольт вообще в случае с 3900Х чудеса творит. ~60 градусов на воздухе (NH-D15) при комнатной температуре в 18 градусов, (это если без потери в производительности резать вольтаж). На кой фиг ставить воду на эти процы - ума не приложу если они не греются выше ~70 градусов на воздухе (при адекватных условиях, не настроенные, летом в душных корпусах). Ну ладно. Я понимаю что есть материнки помойные, которым реально место в мусорке вонючей, которые неадекватные LLC подбирают или позитивный VDroop накручивают, или датчики у них кривые или метрика сбитая. Но это времена середины ~2017 года, уже вроде как такое практически и не встречается. Когда материнка с учетом VDroop-а лупит 1.35 вольт на VCore, конечно там будут 80 градусов на водянке  Как показала тулза от 1usmus-а идеальный вольтаж для Zen2 в районе 1.25V с учетом VDroop-а в районе 1%, тогда и нагрева не должно быть адового при наличии адекватного воздушного кулера.
16.10.2020

Zen 3

Rebate, небось они отталкивались от ценников 3600XT и 3800ХТ. Только вот все же знают что между 3600 и 3600XT и между 3700Х и 3800ХТ - разницы кот наплакал, по факту. И как то существование 9900К который недавно потерял в цене и 10700К который стабилизировался на отметке в 405-410 баксов - АМД как то забили, хотя сами показали что у Zen3 в играх +/- паритет с этими процами (в играх). Ну такое короче... Если я думал что сломя голову побегу что то покупать на Zen3, теперь придется немного остыть и все взвесить. Еще бы узнать когда Эмбарго на обзоры снимут что бы более развернутые тесты и сравнения глянуть и понять че там с оперативкой. А то я накупил себе памяти которую до 4400/CL18 можно вогнать, а толку от нее пока у меня 3900Х 
08.10.2020

Zen 3

Predator84, дык не в Zen3 же. DDR5 уже на AM5 сокете будет и Zen4. Не в ближайший год это уж точно.
08.10.2020

Zen 3

Rebate, проблема в том что новые Райзены будут производится на тех же линиях что и старые. Старые просто не успеют начать дешеветь как пропадут со складов. Так было по крайней мере с Тредриперами вторыми. Они тупо не успевали дешеветь и просто пропадали с продажи. Я не решусь утверждать что так же будет с Zen2, но я бы не надеялся на это.
08.10.2020

Zen 3

Rebate, как повлиять, в негативном ключе разве что  AMD с этими 5000 Райзенами, мягко говоря не сказать что матери терезы. На релизе Zen2 16-ти ядерник (3950X) стоил 750$, теперь Zen3 800$. На релизе Zen2 12-ти ядерник (3900X) стоил 500$, теперь Zen3 550$. На релизе Zen2 8-ми ядерник (3700X) стоил 330$, теперь Zen3 450$. На релизе Zen2 6-ти ядерник (3600) стоил 200$, теперь Zen3 300$. При этом ни слова не сказали про версии процов без X. То есть если с предыдущими Райзенами был выбор (потерять 100мгц и сэкономить). Теперь выбора нету, отваливай за восьмиядерник на 120 баксов больше и молчи в тряпочку  P.S. Лично я бы, даже и не думая брал бы 10700K вместо этого 5800Х. Так как 450$ MSRP без учета НДС превращаются в 540$, что уже по факту дороже чем 10700К который можно пойти и взять прям сейчас за 405 баксов. На кой фиг тот Райзен нужен то. Сидеть с ним и наяривать на энергопотребление и PCI-E 4.0 который никому не нужен оказался даже после выхода RTX 3080, ну такое. IMHO. P.P.S. Если не смотреть на игры. А на рабочие задачи и 12-16 ядерники. То ОК, наценка в 50$ не такая уж и страшная. Сгодится.
08.10.2020

Zen 3

petrovich23rus, дык 10900К это и есть старый проц на скайлейк архитектуре 2015 года  Но вообще я с телефона печатал с горяча не так выразился. Вообще я теперь немного в смятении. Ожидал какой то более уверенной победы, а не (-1% <—> +6%) 
08.10.2020

Zen 3

Мдее... Не впечатлило. Как они сами показали паритет с 10900к или на ~6 процентов быстрее. И ни слова про КП и разгон памяти не сказали. Ни слова про новые материнки. Уныленько. Поржал что на их слайдах некоторые игры все еще быстрее или в паритете с 10900К на древней архитектуре... Догнать то догнали, а вот что будут делать они против Рокет Лейка это уже интересней вопрос )) [[link:image_uri:410496,]][[image:410496,sky_image_forum]][[/link]] В CS:GO процы и так под 600FPS выдают, куда еще больше то )) Вроде как бы и ожидаемый результат. И догнали. И местами чутка перегнали. Но как то, не сказать что прям вот горю идеей обновлять оба своих 3900Х. Сложна  Надо будет смотреть какой будет ажиотаж на релизе и что с ценами будет.
08.10.2020

Zen 3

Rebate, у меня планы постоянно меняются. Потому что, то у меня денег так много что девать некуда то денег так мало что на коммуналку и еду впритыки хватает. Я то 3090 хочу себе с тредрипером то третий комп, то поменять оба компа на тредрипер то сменить 3900Х на 5950Х а другой 3900Х на 9900K. У меня есть некоторые проблемки с "потре**ядством", когда мне явно всего хватает и нет нужды а все равно хочется что-то купить и сразу все самое лучшее самое новое. Раньше у меня был более рациональный подход, но и более тощий кошелек  А вообще то что мне не интересно что там в плане рендринга у Zen3 ничего ровным счетом не меняет в моих планах. Мне просто без разницы насколько 5950Х будет быстрее чем 3950Х. Меня больше интересует что там по производительности в играх будет. А то мне уже 144гц мало, хочется 280-360гц FullHD, на таком фреймрейте к сожалению AMD помойка никчемная. Впрочем сегодня помойкой стать может Интел, но это не точно  Пока планы такие - На рабочем компе ставлю 5950Х. На игровой комп Zen3 8-ми ядерник/Rocket Lake 8-ми ядерный в след году. Выкидываю тонну оперативки, оба 3900Х и материнку. Если вдруг Zen3 расстроит и с сменой видяхи мне хватит 3900Х, может вообще никуда рыпаться не буду. Конечно же я себя обманываю. По любому что то да поменяю в железе. Но вот что на что и зачем, это уже сложный вопрос. Сегодня планы такие. Завтра другие.
08.10.2020

Zen 3

Вообще как то маловато утечек было на счет Zen3, ну тип да. Заранее раскрыли что будут обзываться 5000 серией, ну тип CBR20 результаты слили. Что 8-ми ядерные CCX будут. Но ничего такого больше интересного как то и не было. Даже предполагаемых ценников. Вот только час назад слили инфу что MCLK:FCLK 1:1 будет до 3000Mhz работать у годных сэмплов, ну это как то жестко, с 1900Mhz сразу до 3000Mhz, но было бы круто. Теперь спалить топовую память можно будет не только на Интеле но и на AMD  Хотя мне и 2200Mhz IF хватило бы для полного счастья до выхода DDR5. Ссылки на трансляции, начало в 19:00 по МСК : Ютуб - https://www.youtube.com/watch?v=iuiO6rqYV4o Твитч - https://www.twitch.tv/amd  Что думаю по этому поводу : Надеюсь AMD сегодня не будут снова душить своими сайнбенчами/блендером/виреем и вот этим всем унылым рендрингом который изрядно уже утомил. Неспроста же они назвали сегодняшную трансляцию "Where Gaming Begins", надеюсь в этот раз упор сделают на производительности Zen3 в играх/стримах. Но, тогда возникает вопрос - Если будет задача показать превосходство над Intel-ом, потребуется крайне мощная видяха что бы производительность не долбилась в GPU. Ну не станут же они показывать прирост с Radeon VII который еле и не всегда до 2080 дотягивает, не будут же они ставить в конце концов на тестовый стенд RTX 3080 (что было бы в целом интересно), или инженерные ранние сэмплы своих будущих видях. Хм... Интересно что да как будет в этом плане. Не хотелось бы видеть тесты на Radeon VII в 1920х1080 на средних настройках в специально подобранных "Cherry Picked" старых  играх-бенчмарках типа Ashes of the Singularity или Kingdom Come Deliverance  P.S. Что там в рендринге будет у Zen3 мне мало интересно, Zen2 и так достаточно, IMHO.
08.10.2020

Zen 2 (Ryzen 3XXX)

rainmangrizzli Вы наверное не особо представляете себе что из себя представляет Prime95 в режимах Small/Smallest FFT если для вас это нонсенс... По факту это проблема большинства недорогих плат без регулировки LLC на физическом уровне контроллера питания. Например ASRock X370 Fatality Gaming X + 2700X + Отключен Relaxed EDC - во время Smallest FFT случается мощнейший VDroop при котором просто нехватает питания процу (личный опыт). Так же Small/Smallest FFT/Linx сжигал процы времен BW-E, HW-E. Предупреждение об этом в профильной теме на РуОверах до сих пор весит. Потому что это нереалистичный сценарий нагрузки на конвейер процессора и максимальная утилизация кэша с минимальными промахами по кэшу. Это самые экстремальные нагрузки из всех возможных на процессор. Потому что порции данных идеально упакованы что бы во время просчета не было никаких затыков. Пруф про BWE/HWE - https://forums.overclockers.ru/viewtopic.php?f=2&t=517465&start=20860 Цитата с шапки темы от куратора - "Настоятельная рекомендация не запускать Prime 95 версии с AVX тест Small FFT и Linx 065 и выше на процессорах Haswell-E и Brodwell-E, т.к возможно повреждение встроенного в процессор IVR" Еще раз : Prime95 Smallest FFT - экстремальные нагрузки на проц которые не встречаются нигде и никогда ни при каких условиях. Выдерживают их годные сэмплы процов, на платах которые хорошо компенсируют VDroop и/или имеют зашитые системы защиты от грелок (например Relaxed EDC). В Zen2 эти механизмы защиты уже зашиты в микрокоде, потому все эти грелки в экстремальных режимах неэффективны (выше ссылки давал с сравнением потребления 3950Х и 2700Х в этих тестах). Prime95 Small FFT - этот уровень нагрузки встречается в задачах где хорошо утилизирована нагрузка на конвейер процессора. Например этап Денойза в Корона рендере. Многие замечали что во время этого этапа температуры могут быть выше на 10-15 градусов чем во время самого рендера. Вот собственно. Это неплохой хоть и суровый тест на стабильность для тех кто рендрит и денойзит. Для тех у кого nVidia денойзер - этот тест избыточный. Prime95 Large FFT - этот тест больше подходит для проверки оперативки. Так как дает такие большие порции данных что Кэш у проца забит, часть данных выгружается в оперативку. Нагрев при этом чутка ниже чем в Короне (во время обычного рендера). Не сказал бы что это хороший тест для тех кто рендрит на проце. Итого : 1.) Прайм Прайму рознь, как вы уже поняли. 2.) Smallest FFT нагрузки вы нигде не найдете. Нету никакого смысла измерять стабильность этим режимом. 3.) Small FFT имеет смысл использовать если у вас CPU-Денойзер и вы визером работаете. 4.) Large FFT имеет смысл использовать при разгоне оперативки и если вы ничего не рендрите а играете в игры. Это неплохой тест без излишеств и перегибов. Но для рендринга он слабенький.
07.10.2020

Zen 2 (Ryzen 3XXX)

rainmangrizzli,  1.) Прайм прайму рознь, потому что разные режимы утилизации конвейера процессора и его кэша в разных режимах теста (Smallest/Small/Large FFT). 2.) У меня Prime95 Small FFT проходится без проблем в течении часу после разгона по рекомендациям CTR. Ясен пень с Smallest FFT вы можете выявить нестабильность на процессорах и без разгона. Но на райзенах (Zen2) в Small/Smallest FFT + AVX будет срабатывать Relaxed EDC Throttling, если вот его отключить то хана стабильности в некоторых случаях либо просадка частоты до базовой (ниже минимального буста, даже без нагрева). На Zen/Zen+ будет перегрев и лишь потом падение частоты. А нагрузка уровня Small FFT свойственна разве что во время работы денойзера в Короне, именно этот этап самый страшный для любого визера который гонит проц в упор. Что же говорить по поводу самого рендера, в Короне это уровень чуть выше чем у Large FFT+AVX что вполне соответствует встроенному тесту в CTR. 3.) Ах, да... Держу в курсе в этой программке как раз таки Prime и используется  [[link:image_uri:409866,]][[image:409866,sky_image_forum]][[/link]] P.S. Ясен пень у меня все норм и рендрит и денойзит и игры играются. На обеих компах. На Тайчи пришлось перебирать LLC на проц, судя по результатам подошел LLC3. В инструкции к CTR указано что с Асроковскими платами вам придется самим подбирать LLC который даст наименьший VDroop. Так что если к другим вендорам есть конкретные советы то с Асроком вам придется самим выбирать.
07.10.2020

Актуальные конфигурации компьютеров

Цитата akkoxe: значимость этой функции Значимость этой функции я описал в этом сообщении : https://3ddd.ru/forum/thread/show/tiestiruiem_protsy_max_corona/105#post1492216  Поясняю вкратце — Без регулировки LLC невозможно было бы добиться таких результатов при которых в рендере процессор грелся бы минимально проседая до нужной отметки по вольтажу, но при этом в смешанных и легких нагрузках он бы бустился чуть выше чем в стоке. А тут как ни крути, чем холоднее проц в рендере тем больше он частоты жмет, а в легких нагрузках чем выше вольтаж чем выше частоты могут быть. Вот из за этого баланса LLC и нужен. Одним оффсетом или боже упаси Райзен-Мастером тут никак не обойтись не срезав предельный буст. Ну только если вы не будете редактировать SMU-Прошивку или крутить P-State режимы (что лютый геммор и неактуальный метод). К тому же вот CTR вышел. И для корректной его работы LLC просто необходим.
04.10.2020

Zen 2 (Ryzen 3XXX)

Затестил CTR на X570-P + 3900X старого батча. В Биосе LLC выставил Extreme. Программка после диагностики сказала что это у меня Silver Sample. [[link:image_uri:409220,]][[image:409220,sky_image_forum]][[/link]] Итого при разгоне по CCX-блокам получил следующий результат : [[image:409221,]] [[image:409222,]] Вообще сложно это разгоном называть когда вольтаж с учетом VDroop-а в районе 1.24V в рендере  Скорее это не разгон а оптимизация, которая и температуры снизила в сравнении с стоком, и ~9% производительности сверху накинула. Результат конечно же лучше чем то что у меня раньше стояло. Раньше мне лень было тестить каждый CCX на разных напругах. Я прост для рендера фигачил 4300 на все CCX и 1.28 вольта. Теперь и проц шустрее и холоднее. Да, все то же самое можно было сделать и вручную. Но на это ушла бы уйма времени. А так на все про все про все ушло не больше 1 часу. Это - прочитать инструкцию, выставить нужный LLC в Биосе, пройти диагностику, прогнать тесты на разгон, сохранить профиль. Разумеется и процесс андервольта так же это все дело ускоряет в разы. Когда выйдет Zen3 конечно эта прога станет еще более актуальной. Потому что там у каждого ядра будет свой вольтаж/частота, которые независимо можно будет подбирать. В результате можно будет выжать еще больше соков и еще больше ужать потребление. Кайф, что тут сказать... P.S. Может потом второй 3900Х прогоню через это дело на X470 Taichi. Пока проект у меня в работе, не хочу ничего трогать. P.P.S. Рекомендую занижать разгон памяти во время всех этих эксперементов. После того как подберете оптимальные частоты и вольтажи, можно вернуть разгон памяти. Ну это конечно если у вас оперативка выжата до упора.
04.10.2020

Актуальные конфигурации компьютеров

akkoxe, ну я говорил про пример где вместе с кондёрами сменили еще и контроллер питания, который лишился возможностей регулировать LLC. Соответственно и в биосе кусок по настройке SoC-LLC, VCore-LLC, настройку частоты переключения VRM и еще Full Phase Control - тупо вырезали, зато исправили DIMM-Разводку на плате. После этого случая я каждый раз гуглю есть ли разные ревизии у материнок, даже если производитель не указывает каких то явных изменений то порой сами пользователи отписываются об некоторых переменах которые порой случаются то в лучшую то в худшую сторону. Впрочем, не думаю что все эти мелочи важны для рядового пользователя.
04.10.2020

Актуальные конфигурации компьютеров

А иногда в новых ревизиях экономят на элементной базе, контроллерах питания (например вырезают LLC-уровни), меняют мосфеты и кондёры на подешевле. Порой даже могут заэкономить так что меняют крепление радиаторам с зажимом на болтах на пластиковые клипсы которые со временем ссыхаются  Нет, ну конечно же есть примеры когда просто косяки устраняют. Или наоборот, прост закончилась партия каких то элементов и их заменяют. Из последнего помню X470 AORUS GAMING 7 WIFI, у платы были проблемы с выводом звука, ну поменяли чип и разводку на Аудио. Но в придачу к этому еще заменили датчики вольтажей, потому что они раньше сбоили. Но при этом сэкономили на кондёрах на VRM (поменяли на более дешевые варианты). Вот еще помню когда ASRock X370 Fatality Gaming X, ох... Вот ее то во второй ревизии вообще не пощадили. Порезали на питальнике элементную базу, взяли более дешевый контроллер питания. Убрали регулировку LLC, в результате получаем мощнейний VDroop, когда Ryzen 1700 в разгоне до 3.9ггц на 1.4 вольтах проседает в рендере до 1.2 вольт  Впрочем... У прошлой версии этой материнки была критическая ошибка в разводке DIMM-слотов, из за чего эта плата была одной из худших в плане разгона оперативки, никакие биосы и новые райзены не спасали ее, так как косяк был на железном уровне. Даже и не знаю что бы я в таком случае выбрал, первое или второе. Так что тут такое. Нужно просто изучать что изменили.
04.10.2020

Продаю рабочую станцию на 2970WX

Цитата DoubleDucky: У первой ревизии помпа отмирала сама по себе спустя какое-то время. Впоследствии эта проблема была решена. Я бы может ничего и не писал сюда, если бы вы не указали что якобы в второй ревизии они устранили проблему. Я конечно понимаю что вы могли руководствоваться заявлением производителя. Но, увы производитель приврал а проблему полностью не исправил. Цитата DoubleDucky: Вы очень не вежливо себя ведете вбрасывая подобные сообщения в теме о продаже.  Про водянку так или иначе уже написал "Sawamura" что место ей в мусорке. С моей позиции корректнее такие высказывания подкреплять как раз таки подобными видео, что я и сделал. При этом я НЕ давал никаких комментариев по данной проблеме, выводов не делал, никого от покупки не отговаривал. Про какую грубость речь то идет - ума не приложу. Пусть покупатель теперь знает что со временем помпа может забиться слизью (а может и не забиться), и если это случится, по вашим словам — либо RMA либо он сам поменяет водичку, пару часов почистит и все норм будет. Я считаю что от этой информации в выигрыше и тот кто будет покупать и вы застрахованы в случае чего, предупредили ведь. Проблема то плавающая, от разных факторов зависит что слизь может начать появляться и через 4 месяца и через 18 месяцев. Если вам легче станет : Могу сказать что ценник вы выставили адекватный. Даже с учетом этой водянки, да.
04.10.2020

Продаю рабочую станцию на 2970WX

Тут целое расследование на счет второй ревизии этого охлада : https://youtu.be/rlTlCV1AgoA?t=1436 (так же там есть видео и по первой ревизии) Вкратце : Производитель говорит - Мы все исправили. По факту - не исправили. Perform the same, looks the same, failed the same, didn't look fixed (c) Стив 
03.10.2020

Zen 3

AlanSesarskiy, а ничего что контроллер памяти (IMC) находится в процессоре )) Всегда производители материнок писали объем памяти с которыми материнка была протестирована. Это никогда не было Максимумом. Ну, ладно. Когда то контроллеры памяти были на материнке. Тогда да. Но не последние лет 10+ Один из примеров : Когда выходили 5820К и первая итерация DDR4, у 2011-3/X99 материнок писали (и до сих пор написано) что максимум они поддерживают 64гб ОЗУ -> https://www.asus.com/ua/Motherboards/X99A/specifications/ И у процессоров так же было, указывался объем ОЗУ на котором они были протестированы -> https://ark.intel.com/content/www/ru/ru/ark/products/82932/intel-core-i7-5820k-processor-15m-cache-up-to-3-60-ghz.html   Но затем вышли 16гб плашки и сразу же оказалось что уже они тянут и 128гб, а года полтора назад 32гб плашки вышли и внезапно 256гб ОЗУ работают с восьми DIMM слотов, даже на старых биосах. Все потому что изначально в IMC/Микрокоде заложена разметка под большие объемы ОЗУ. Производители процов/материнок не могут быть уверены каков цикл жизни будет у памяти, какого объема плашки будут. Вот в случае с Райзенами заложили сразу поддержку вплоть до 1ТБ ОЗУ.
01.10.2020

Zen 3

Predator84, в среднем на 1% быстрее, я бы сказал. Но чаще паритет. Из за отборных CCD, меньших утечек тока, чуть-чуть-чуть лучшего буста. Но конечно это еще и от системы, LLC/Оффсетов/VID-а заводского зависит. В определенных ситуациях 3900Х может вполне себе оказаться быстрее в однопотоке чем 3950Х. Но опять же это все разница там тудым сюдым в 0.5-1% +/- AlanSesarskiy, все райзены без исключений и тредриперы и десктопные держат у себя на борту КП (IMC) который на физическом уровне поддерживает вплоть до 1ТБ ОЗУ (инфа от 1usmus, и людей которые реверсили микрокод), но при условии что это UDIMM память а не RDIMM. То есть, по факту. На Ryzen 1000/2000/3000 любые можно установить без проблем 128гб ОЗУ. Если вдруг появятся плашки на 128гб (UDIMM), то и это не станет для них проблемой. Более того, я как обладатель этих самих 128гб ОЗУ могу сказать что ее еще и разгонять вполне себе можно. С какого такого перепугу вы взяли что у 3900Х что то там отличается по памяти - ума не приложу. У него точно такой же IMC как у всех Zen2. Вот я отписывался по поводу разгона 128гб памяти на X470 Taichi и Ryzen 2700X : https://www.reddit.com/r/Amd/comments/dkd0gj/128gb_udimm_ram_x470_taichi_2700x/ Это еще когда у меня 2700Х был. Сейчас у меня два 3900Х. И никаких проблем у них нету с 128 гигами памяти, ни на B450 ни на X470/X570. У 2700Х тоже было все в порядке. Даже на старых биосах и старых AGESA, настолько старых когда еще в природе не существовало 32GB UDIMM плашек. Более того, так как эти плашки двуранговые а не четырехранговые как некоторые RDIMM серверные, их вполне можно миксовать с 16гб плашками без геммора с настройкой сопротивлений (RTT/CAD/ProcODT). То есть вполне реально поставить две по 16 и две по 32, например.
01.10.2020

Zen 3

https://www.cpu-monkey.com/en/cpu_benchmark-cinebench_r20_single_core-9 https://www.cpu-monkey.com/en/cpu_benchmark-cinebench_r20_multi_core-10  Немного поспешили добавив их заранее )
01.10.2020

Продам DDR4 32gb

Если эта память на Micron B-Die (D9XPF чипы) то вполне себе неплохо гонятся такие плашки. У меня 128гб такой памяти на X470 Taichi + 2700X гнались до 3600/CL18 при адекватных вольтажах (1.39). В две плашки на X570-P и 3900Х с свежими биосами даже 3800/CL18 брали при 1.42V. Нельзя сказать что это лучшая память среди 32гб плашек. Но это явно не деревянный Hynix который попадается в дешевых 32гб плашках который выше 3466/CL18 не ползет, в общем выше среднего плашки. Моя инфа по разгону (на старом биосе, старом проце и материнке) : https://www.reddit.com/r/Amd/comments/dkd0gj/128gb_udimm_ram_x470_taichi_2700x/ Вот чуть свежее железо, но это уже не от меня : https://www.reddit.com/r/overclocking/comments/cpuuee/overclocking_2x32gb_micron_16gbit_revb_d9xpf/  P.S. Если там другие чипы у этой плашки то все что я написал не считается 
22.09.2020

Real time rendering

Цитата coo1erman: А вообще, что мешает закинуть такую сцену в движок и посмотреть, какие ресурсы использует. Мешают нулевые знания. Понятия не имею как мне переносить Форест-Паки, Корона-Скаттеры, Корона Материалы, и вот это вот все... Не собирать же сцену с нуля. А если кто этим занимается то проще что бы подсказали а не сидеть самому целый день (или больше) что бы понять тянет оно или нет. Да и толку. Я то еще видяху не купил. Выбираю между 3080 и 3090. На рабочем компе сейчас вообще стоит 1050 Ti. Если все что я описывал нереально даже в теории на UE4 - плюну и возьму 3080. Чисто для игрушек (1440p/144hz монитор). Если реально - то буду думать в сторону 3090 или ожидания 3080 на 20гб. Для игрушек 20гб мне не нужно это уж точно. 3090 тем более.
20.09.2020

Real time rendering

Oleg.budeanu, ммм... Ну просто когда дают 5-7 дней на экстерьер, заниматься ретопологией, ужимом геометрии просто нету времени. Корона лопает все подряд, просто сотни миллиардов полигонов жрет (инстансами), тяжелые неоптимизированные растения всякие разные. Причем походу проектов часто модельки деревьев/кустов/цветников меняются. Это просто нереально будет каждую модель до ума доводить, менять на другую модель и снова заниматься оптимизацией. При демонстрации UE5 было сказано конкретно "No More Polygon Budget". В UE4 получается все намного сложнее в этом плане и так не прокатит как я думаю работать ? Было бы неплохо заранее прояснить эти моменты. А то возьму RTX 3090, начну учить UE4 и пойму что в этом смысла не было. А пока выйдет UE5 пройдет еще я так понимаю достаточно много времени. Небось весь последующий год будет в бетке только. Цели крутить сцену в интерактиве у заказчика нету. Максимум видео записывать с облетами. Цель комфортно сборкой сцены заниматься. Сборкой из неоптимизированных ассетов. Типа деревья по 3-5кк трисов с вагоном текстур. Обычно на сцену у меня 800-2000 текстур. В крупных сценах 4-5 типов покровов, 4-5 скаттеров с кустами, 20-30 типов уникальных деревьев, несколько типов травки. Причем даже в многолетниках порой приходится пихать небольшие растения на 500-600к трисов.
20.09.2020

Real time rendering

Сорян что врываюсь в чужую тему с своим вопросом Я уже как то в профильной теме по UE спрашивал но никто так ничего и не ответил. Для архивиза, экстерьерного в UE для комфортной работы что важнее, объем ОЗУ или объем Видеопамяти (при условии что сам GPU достаточно мощный, что то уровня 2080 Ti/3070/3080). И что там по процессору, 3900Х хватит или там нету прям супержесткой привязки к количеству ядер процессора ? Весь массив геометрии/текстур где храниться во время сборки сцены, в видеопамяти, озу или вообще выгружается куда то на жесткий диск ? Прост хочу понять что лучше будет : 3950X (16c) + 128GB ОЗУ + 10-16гб Видеопамяти + PCI-E 4.0 SSD. или 3900X (12c) + 64GB ОЗУ + 20-24гб Видеопамяти + SATA3 SSD. Какая комбинация будет более перспективной ? Так то я понимаю что вон красоту собирают на четырех-ядерном i7-7700, 16GB ОЗУ и GTX 1070 8GB. https://www.behance.net/gallery/69774727/Modern-Barn  Но там все заоптимизировано по самый помидоры. Меня все же интересует больше возможность халявить на оптимизации, закидывать неоптимизированные ассеты/текстуры, и не трястись за лишние десятки миллионов полигонов в кадре. Пока вопрос конкретно по UE4. Вообще возможно ли с таким подходом в нем работать ? Или один фиг все придется оптимизировать/ужимать ?
20.09.2020

Выбор монитора

Стоит рядом плоский 27"/1920x1080/60Hz/IPS и изогнутый 31.5"/2560x1440/144Hz/VA, тёмные цвета только глубже стали как взял VA этот. На IPS они выбеленные, больше серые, на VA они прям по хорошему тёмные. Картинка сочнее стала. Впрочем, у мониторов есть настройки контраста и самое главное - "Black Equalize", при желании можно угробить весь этот эффект VA и свести результат с старым монитором, чего я делать не стал конечно же. Но вот в сетевых/соревновательных играх Black Eualize помогает, очень. Потому что выбеливает тени и тёмные участки при этом не сильно ломая контраст и не делая засветов, очень удобно в каком нить CoD:Warzone. В плане цветов разницы не вижу. Вот только если смотреть на VA как то снизу или сверху, то теряется насыщенность цветов. Но я никогда не сижу так за монитором что бы это происходило. В целом не вижу для себя смыслу гонятся за IPS. Ах, да... Кривизна монитора никак негативно не повлияла, ее практически незаметно, не вижу искажений на чертежах/сетке и тд. И вообще, ее настолько незаметно что я про эту кривизну вспоминаю раз в месяц наверное когда смотрю на выключенный монитор сбоку.
18.09.2020