Грустно становится порой во что скатывается канал Лайнуса. Постоянно какая то клоунада, минимум технической инфы, максимум маркетинговой и рекламной туфты. Вот выпустили они вчера типа сравнение двух сборок на 7950Х и 13900K, 20 минут рассказывали и показывали со всех ракурсов что они там выбрали. А из тестов, сайнбенч, полторы игры с грубой методикой тестирования, хавайте... Мде... И это у него большая команда работает над каналом, есть челы которые шарят, и они все это просто в клоунаду превращают вместо полезной инфы.
Эы... Сам я кста остался без света, интернета и без норм мобильной связи. Скорее всего в ближайшее время будет не до форума Впрочем, может оно и к лучшему. Слишком много меня стало на форуме в последнее время. Наверное уже всех подзадушил своими полотнами текста...
P.S. Все еще считаю 5950Х процессором здорового человека а 13900K/7950X процессорами курильщиков.
Earanak, никого ты не задушил, главное заряд береги! А по сабжу - там, кажется, занесли (не-)много, дабы акцент на скидосы сделать в конце и типа рязань дешевле - берите. Да и игры подобраны таким образом, чтобы плюс/минус паритет был, а в сайнбенч только словестно результаты оглашены были.
Я вот думаю, как бы через год не вышел бы какой-нибудь новый AM5+ уже без оглядки на старые крепления под охлаждение. Там уже и форма и толщина крышки нормальными будут.
Может просто сделают PCB на 2мм толще а крышку на 2мм меньше и - о чудо, 16-ти ядерный Райзен станет на 5-7 градусов меньше греться, вау... А еще можно дойти до шлифовки IHS крышек на заводе. Тоже снизит нагрев на несколько градусов. А можно просто в обновлениях Биоса последующих тихонько сместить лимит чутка, ну например до 215вт вместо 230 Можно просто следующим процам не менять техпроцесс и библиотеки литографии и просто выкатить более обкатанный результат с меньшими утечками тока. Ну а чуть что, что бы не бухтели можно еще вспомнить опыт первых Райзенов где делали Оффсет заводской на температурные датчики. Ну а чё... Это запасной план )) Пользователь видит 75 градусов - радуется, ну а то что там 85-90, ничего страшного ведь.
А вообще. Я прям вижу будущее процессоров - Direct Die охлад.
Как на ноутбуках и видеокартах. Правда придется придумать идеальный механизм крепления.
Но это вот прям сразу срежет лихо нагрев )) Ну вообще это вполне реально.
Вообще эта тема нынче популярна. Все ей страдают понемногу.
В общем, купил я этот 13900к, и возникла проблема: а как это тестировать на стабильность, особенно в процессе тюнинга и всякого такого.
Раньше я как поступал: проводил серию тестов, по несколько часов на каждый:
1) Prime95 2) LinX 3) TestMem5
Ну и условно, если в течении скажем часов 8 теста этими средствами ошибок не было - значит конфиг стабилен.
Тут же, из коробки если запустить Prime95 - хрясь, и 100 градусов. С LinX получше, но тоже в предел по температуре упирается быстро. TestMem5 - этот память тестирует, поэтому тут ок.
Разные там Синебенчи нет смысла запускать - это и нагрузка слабая, и что там вообще ошибкой то может быть? В бите ошибка - ну приведет к чуть другому оттенку пикселя, как там ошибку определить?
В общем, пока что стратегия тестирования для меня не понятная. Делать офсеты если - а как потом проверить то все это с такой вот долбежкой в сотню градусов?
Цитата Reiiishi:
Цитата Thunderbird:
Пока сидим на 5950x и не суетимся
c одной стороны да, а с другой стороны переход с 5950x на 13900к - на глаз весьма заметен по производительности, даже в повседневных задачах. Я апгрейд этот делал не потому что надо, а так, ради развлечения - и результат в целом не разочаровал.
Разные там Синебенчи нет смысла запускать - это и нагрузка слабая, и что там вообще ошибкой то может быть? В бите ошибка - ну приведет к чуть другому оттенку пикселя, как там ошибку определить? В общем, пока что стратегия тестирования для меня не понятная. Делать офсеты если - а как потом проверить то все это с такой вот долбежкой в сотню градусов?
Если проц нестабилен в CBR23 - либо рендер вылетит. Либо комп зависнет. Либо уйдет в ребут. Либо вылетит Синий экран "clock_watchdog_timeout". CBR23 в режиме стресс теста 30-минутного - более чем достаточно при андервольте. Сначала пробуете -0.1V адаптивный оффсет. И начинаете спускаться до момента пока не вылетит. Затем просто на два шага обратно возвращаетесь.
Например :
-0.1V - Ок
-0.11V - Ок
-0.12V - Ок
-0.13V - Краш.
Значит откатываемся на -0.11V и прогоняем еще раз тест.
Тестить Праймом - это бред. Таких нагрузок в реальной работе вы нигде не найдете. Если речь идет про Smallest FFT и Small FFT режим. Тестить Праймом надо память в режиме Large FFT.
Prime Smallest FFT жмет с проца все соки. Идеально утилизирует конвейер. Даже в стоке некоторые процессоры могут нестабильно работать. И на кой черт такой тест ? Например во времена Haswell-E, Broadwell-E - Smallest FFT убивали процессор. Да. Прям вот насмерть. Защита не успевала срабатывать. И это в стоке. Тестить грелками с идеальной оптимизацией типа LinX Linpack, OCCT+AVX, Prime95 Small FFT это тупость.
Сейчас сижу без света. Примерно так скажу (-0.1V) :
Кстати я боялся всплесков температуры при Денойзере в Короне. Но наоборот у меня проц почему то остывает и сбрасывает потребление. Может какая то защита срабатывает или в Corona 9 есть какой то пресет под современные процы с более щадящим денойзером, не знаю. 5950Х у меня наоборот на 7+ градусов теплеет при денойзере, в том же рендере.
Prime95 Smallest FFT даже с андервольтом выжирает 330вт. На кой черт им тестить стабильность если в реальной работе вам таких сценариев никогда не встретиться. Ну или я просто НЕ знаю про такие сценарии работы. Если у вас такого плана длительные нагрузки, то придется тогда вам устанавливать Intel XTU и более тонко настраивать проц - https://www.intel.ru/content/www/ru/ru/download/17881/intel-extreme-tuning-utility-intel-xtu.html (там можно просто бахнуть лимит, в 235вт поверх Оффсета). Да и оффсет там же можно настраивать. Затем перенести в Биос.
P.S. Капец неудобно печатать с телефона/
Весь день без связи был. Сейчас видать вышкам свет дали.
Разные там Синебенчи нет смысла запускать - это и нагрузка слабая, и что там вообще ошибкой то может быть? В бите ошибка - ну приведет к чуть другому оттенку пикселя, как там ошибку определить? В общем, пока что стратегия тестирования для меня не понятная. Делать офсеты если - а как потом проверить то все это с такой вот долбежкой в сотню градусов?
Если проц нестабилен в CBR23 - либо рендер вылетит. Либо комп зависнет. Либо уйдет в ребут. Либо вылетит Синий экран "clock_watchdog_timeout". CBR23 в режиме стресс теста 30-минутного - более чем достаточно при андервольте. Сначала пробуете -0.1V адаптивный оффсет. И начинаете спускаться до момента пока не вылетит. Затем просто на два шага обратно возвращаетесь.
Например :
-0.1V - Ок
-0.11V - Ок
-0.12V - Ок
-0.13V - Краш.
Значит откатываемся на -0.11V и прогоняем еще раз тест.
Тестить Праймом - это бред. Таких нагрузок в реальной работе вы нигде не найдете. Если речь идет про Smallest FFT и Small FFT режим. Тестить Праймом надо память в режиме Large FFT.
Prime Smallest FFT жмет с проца все соки. Идеально утилизирует конвейер. Даже в стоке некоторые процессоры могут нестабильно работать. И на кой черт такой тест ? Например во времена Haswell-E, Broadwell-E - Smallest FFT убивали процессор. Да. Прям вот насмерть. Защита не успевала срабатывать. И это в стоке.
это так себе проверка. Смотря где ошибка ляжет, если на какие то системные процесс бенча, да, будет краш, а если просто, как я и писал бит будет при вычислении значения цвета не тот - то ошибка будет вообще не заметна.
а нужна строгая проверка, со сверкой корректности вычислений по хешам, и всякому такому. Иначе можно думать что все ок, т.к. синебенч не вылетел, а на самом деле нихрена не ок, и получить потом запись не верных значений в ходе работы какого нибудь драйвера системы, и кашу на жестком диске на рабочем проекте как итог.
Про то что прайм в стоке убивает процессор - значит хреновые процессоры были. У меня на амд 1950, 3950, 5950 - прайм ничего не убивал, вываливался с ошибкой, если чтото было не то с настройкой процессора, и только.
Хоспаде... Я бы еще понял тестить Prime Large FFT на ошибки по памяти, ну ладно... Похоже это 'особый случай', проехали. Если у вас такое виденье этого процесса - Тогда не делайте андервольт через Оффсет а просто ужмите лимит до 235вт. Тогда будет там все еще горячо но без троттлинга, если водянка норм. Проверьте что в Биосе включен IA CEP, и все. Не парьтесь. Защита от нехватки напряжения работает быстрее чем частота питальника. У АМД в этом плане чуть иной подход с стретчингом частот при нехватке напряжения, но суть та же грубо говоря. То есть если жать лимиты по потреблению то проц будет всегда успевать сохранять стабильность при нагрузке. Андервольт через Оффсет просто дает чуть лучше результаты чем ужим лимита.
Кстати... Тестить отдельные ядра проца в Prime95 Smallest FFT - удобно. Аналог CoreCycler. Что бы понять насколько удачное каждое ядро. В Intel XTU потом можно даже оффсет относительно температур конкретного ядра настроить. То есть выбрать горячие ядра и снизить им множитель. А самым холодным наоборот приподнять. Ну это уже если надо доить каждый % с частот.
Хоспаде... Я бы еще понял тестить Prime Large FFT на ошибки по памяти, ну ладно... Похоже это 'особый случай', проехали. Если у вас такое виденье этого процесса - Тогда не делайте андервольт через Оффсет а просто ужмите лимит до 235вт. Тогда будет там все еще горячо но без троттлинга, если водянка норм. Проверьте что в Биосе включен IA CEP, и все. Не парьтесь. Защита от нехватки напряжения работает быстрее чем частота питальника. У АМД в этом плане чуть иной подход с стретчингом частот при нехватке напряжения, но суть та же грубо говоря. То есть если жать лимиты по потреблению то проц будет всегда успевать сохранять стабильность при нагрузке. Андервольт через Оффсет просто дает чуть лучше результаты чем ужим лимита.
Кстати... Тестить отдельные ядра проца в Prime95 Smallest FFT - удобно. Аналог CoreCycler. Что бы понять насколько удачное каждое ядро. В Intel XTU потом можно даже оффсет относительно температур конкретного ядра настроить. То есть выбрать горячие ядра и снизить им множитель. А самым холодным наоборот приподнять. Ну это уже если надо доить каждый % с частот.
не, ужимать лимит не хочется, хочется именно оффсет, и 100% далее убедиться в стабильности процессора. XTU у меня не работает - стоит гипервизор HYPER-V.
У вас вижу 5500 по всем ядрам? Вы чтото делали для этого, или оно само?
Я все же передал сцену на свой тест с 13900KF - ограниченному кругу людей. Не хотелось бы сюда ее публиковать. Прост хотел методологию показать, если вдруг кому интересно было что как делал когда сравнивал 5900Х и 13900KF
.
Если вдруг - окажется что кто то сможет повторить все это (кому я передал сцену), я отпишусь с результатами тут. Надежда на это невелика. Цели делать все это для широкого круга людей что бы каждый повторить мог - не было.
Да... Кстати. Я проверил поверхностно разгон памяти с 3200Mhz/CL16 XMP-Auto до 3866/CL16-CR1 Gear1 с поджатыми вторичками - ДАЕТ прирост отзывчивости в 3Ds Max, местами небольшой, местами ощутимый. Пока без точных цифр. Нету на это времени. Но да... Вот вам и "бесполезный" разгон памяти. Выделение объектов ускорилось на ~10%, открытие MTL Эдитора и Аттач Объектов ~15%, остальное что показал в видео ~0-5%. Так же стоит отметить что дело не в ПСП а скорее в Latency, повторил тесты с завышенным tCWL/CL но ужатыми вторичками (что бы ПСП снизить но и что бы Latency снизить тоже), получил примерно тот же результат что и с более высоким ПСП.
Эы... Если нигде не накосячил, получается что от настроенной DDR4 будет больше профита чем от DDR5 в плане взаимодействия с 3Ds Max. Потому что DDR5 дает хоть и выше ПСП (от которого толку нету в 3Ds Max по моим замерам) но при этом завышает задержки (которые похоже и влияют на отзывчивость части инструментов в 3Ds Max). К сожалению у нас в Украине траблы сейчас с электричеством, и я не могу по полной все затестить. Подсчитать. Не до этого, 2-4 часа в сутки света. Но предварительные выводы думаю я уже сделал, потому что результаты повторяемые простым переключением профилей в Биосе и повтором замеров. Я еще лет эдак пять назад тут на форуме писал на эту тему но все никак руки не доходили сравнить все это.
Цитата - "Intel якобы работает над обновлёнными чипами Raptor Lake Refresh. Предположительно именно они за счёт функции DLVR смогут предложить до 20 % более низкое энергопотребление по сравнению с актуальными моделями Raptor Lake."
UPD (1-Декабря) - ммм... Интересненько. Динамический режим LLC.
и всё таки DDR5 не избежать и новые сокеты тоже. Во что всё же инвестировать, в AM5? и следующее поколение от АМД, которое исправит ошибки? Не хочется купить(да, дешевле) 13900 и потом его сливать через год за копейки. Нужна новая платформа на 3 года.
Если и инвестировать в DDR5, то ждать Hynix A-Die в начале-середине следующего года. В плане качества контроллера памяти между Alder Lake и Raptor Lake у DDR5 судя по всему разницы накапало на 400мгц. И как оно будет у Meteor Lake и Zen5 - неизвестно. Частота XMP плашек сейчас сильно обгоняет возможности контроллера при работе с четырьмя плашками. Может это как то простимулирует AMD/Intel, проработать этот момент. Пока что они ничего лучше чем Gear4 и Uncoupled Mode не придумали. И то... Костыль для тех кому вообще пофиг на задержки памяти, кому надо ПСП любой ценой. А вообще... Я бы сейчас инвестировал в nVidia A6000 48GB
(ну или 3090-4090) и уходил бы на Анриал или GPU рендеры.
Элементарный вопрос рационального использования средств. 13900 выглядит привлекательно на ДДР4, апгрейд очень недорогой. Но зная Лизу из АМД, они обязательно учтут ошибки и выпустят новый хит 8950х под АМ5, а потом и 9950х под тот же сокет. А вот Интел нет. Но это всё предположения и не хочется прогадать с сокетом АМ5. Поэтому и вопрос - в какой бренд инвестировать?
Этому видео 5 месяцев а открытой документации больше года. А процы эти выйдут через год. Думаю вы понимаете что - время между выпуском архитектуры и ее разработкой и учетом ошибок - значительно больше чем может показаться. Условно говоря Zen4 на бумаге были сделаны еще 3-4 года назад а угроза со стороны Интела была осознана лишь в прошлом году. Это так не работает что они выпустили проц, через год уже что то исправили )) Ну или вообще ошибки (слабые места) могут учесть еще до выпуска процессоров. Но исправить только через пару лет. Например уязвимости Spectre/Meltdown у Интел исправили на хардверном уровне по моему через 5-6 лет только.
Если уж вам прям настолько приспичит каждый год обновлять процы то не вижу ни единой причины просто взять выкинуть плату на какое нить Авито/OLX, и купить новую. В таком раскладе потеря по деньгам - мизерная, потешная. Типа купил плату за 350$ потом продал за 250$, добавили 100$ и купил новую.
Цитата Holy3D:
Поэтому и вопрос - в какой бренд инвестировать?
В nVidia очевидно. Брать A6000 или 3090-4090 и уходить на GPU-Рендеры или Реалтайм графику )) И что значит вообще инвестировать. Будто вы покупаете недвижимость какую то... Тут не надо думать про инвестиции, тут сиюминутная прибавка к скорости которая вам необходима. А в будущем в любом случае продажа старого и покупка нового когда вам это станет нужно.
Условно говоря если вдруг Zen5 и Meteor Lake выйдут супер крутыми... А вам будет хватать нынешнего 5950X/7950X/13900K - то нафига их менять то. Просто сидите себе дальше до Arrow Lake, Zen6, делов то... Будто вас обгонит кто то если вы вовремя не обновитесь ))
Ну ладно... По этому вопросу мне нечего добавить. Не знаю что тут сказать.
Включать тогда ждуна и ждать Хита остается разве что. Потому что сейчас - паритет.
Holy3D, пару недель назад вышел UE5.1 в котором Наниты научились работать с Lumen в режиме Two Sided Foliage, думаю это уже все очень скоро произойдет )) Ну если интересно можете глянуть - https://youtu.be/FUGqzE6Je5c
Я на RTX 3080 напихал тонну неоптимизированных ассетов деревьев (самых тяжелых что нашел). Взял Quixel Leaf мастер материал с Wind-ом. Зафигачил 500 миллиардов трисов (не опечатка) в вьюпорте через Foliage-Scatter и норм с High пресетом в 1440p работает с 40-50FPS. В Epic пресете уже не особо приятно 20-30FPS, особенно когда на полной скорости летишь через лес. Хотя это я явно взял с перебором )) Навряд ли кто то будет всюду кидать деревья по 20 лимонов трисов здоровенные ))
Так что в плане чисто объема геометрии в вьюпорте - ноу проблем. Сейчас вот надо только определится с потреблением видеопамяти
. А то непонятно... Пустой редактор жрет 6гб VRAM, закидываю тонны Мегасканов, текстур и тяжелых объектов он начинает жрать всего на 1-1.5гб VRAM больше. Будто большая часть объектов стримиться с какого то кэша на винчестере... Вот сейчас у меня незапланированный отпуск. Думаю как раз в UE5.1 что то собрать что бы понять лимиты чего можно сделать. Разумеется не в интерактиве.
Earanak, извиняюсь за оффтоп. но Анриал умеет в рендер сферической панорамы 20к на 10к пикселей? С учетом всей тяжести ландшафтной архитектуры, с дисплейсментом тысяч квадратных метров различных поверхностей типа брусчатки, облицовки фасадов? С элементрарным тримом газона вдоль дорожек? Не верю, что есть студии или фрилансеры, которые научились всё это укладывать в ГПУ в разумные сроки разработки.
Holy3D, я же говорю - надо сначала самому попробовать собрать что-то а потом делать выводы. Как я могу ответить вам на эти вопросы если я еще ничего не собрал и не сделал а UE в растения неоптимизированные научился только пару недель назад. Я же не Ванга какая то... Я вот тоже работаю с большими экстерьерами
, только меня вот это вообще нисколько не останавливает в изучении чего то нового. Ну и если вы работаете с большими экстерьерами как и я...То какие там инвестиции, железо же условно 'копейки' стоит на фоне зарплат.
К тому же в Unreal Engine есть, внезапно - V-Ray и Path Tracing. Но опять же - я не имел с ними дела что бы какие то истинны провозглашать. Просто я считаю сейчас перспективнее в видяху "инвестировать" что бы уже начать вкатываться в это дело. IMHO.
Сорян за оффтоп. Завязываю.
По сути добавить мне нечего по вопросу что лучше брать сейчас на 3 года.