Вы наверное как и большинство краем уха услышали про конденсаторы и теперь предполагаете что это в них дело. Я этот нюанс крайне подробно и с начала и до конца изучал. Проблема преувеличена, проблема была не только в кондёрах но и в драйвере, даже больше в драйвере. Драйвер устранил нестабильность, помимо этого повысил поверлимит чутка, снизил частоты у моделей которые бустились выше 2ггц. В первую очередь стабильность вернули многим картам даже при условии если вернуть прежний поверлимит и частоту, то есть ограничение буста не являлось ключевым решением проблемы.
Просто до людей не сразу дошло проверить якобы проблемные видяхи в Линуксе и в Винде, оказалось что старые драйвера на Винде были нестабильны в некоторых случаях а на Линуксе все ОК было в сопоставимых по нагрузке на конвейер GPU тестах.
При идентичных частотах, потреблении, нагреве. Помимо этого проблемные видяхи в большинстве случаев были ревью сэмплами которые выдавали обзорщикам а в ритейл пошли видяхи с годными кондёрами, у той же EVGA например. Качество фильтрации GPU кондёрами НЕ гарантирует вам что у вас не будет проблем на старом драйвере. Потому что ASUS TUF с 6-тью MLCC кондёрами так же вылетал как и Founders Edition, как и помойные Палиты. Все что дают качественные кондёры для фильтрации, так это повышают вероятность удачного разгона на переделе возможностей чипа. Но если сам по себе чип мусорный, а мы знаем что мусорные чипы так же идут в сборку в 3080
как и топовые отборные, то никакие вам кондёры не помогут. А вот в случае наоборот, когда чип годный попался с высоким ASIC Quality, меньшими Volt Leak-ами, ниже VID, все это как раз таки может отразиться на стабильности.
Но блин... Какая разница если видяхи вылетали ТОЛЬКО в предельных и игровых нагрузках. И они именно вылетали, крашили драйвер, чёрные экраны, зависания полные системы. Тут речь про статтеры, хардверную аккселерацию в БРАУЗЕРЕ и ФОТОШОПЕ, которую если отключить то все нормализуется и больше никаких проблем нигде не возникает. Как вообще можно было исходя из моего сообщения думать что проблема в кондёрах - ума не приложу. Та же проблема с BSOD-ом указывает на драйвер Нвидии и возникает только при открытии GPU-Z, просто софтверный конфликт какой то.
У моей видяхи относительно дорогие SP-Cap кондёры (не POS-Cap). Гига не экономила на них, судя по обзорам и их официальному заявлению. И из за некомпетентных пользователей им пришлось пояснять за этот момент. Потому что паникеры, паниковали, а в суть не углублялись и упустили то чем все закончилось (банальным обновлением драйвера). Многие до сих пор верят в то что это брак на хардверном уровне был. Просто бред...
Официальное заявление Гиги :
"The GIGABYTE GeForce RTX 30 graphics cards are designed in accordance with NVIDIA specifications, and have passed all required testing, thus the product quality is guaranteed. GIGABYTE GeForce RTX 3080/3090 GAMING OC and EAGLE OC series graphics cards use high-quality, low-ESR 470uF SP-CAP capacitors, which meet the specifications set by NVIDIA and provide a total capacity of 2820u in terms of GPU core power, higher than the industry’s average. The cost of SP-CAP capacitors is not lower than that of MLCCs. GIGABYTE values product integrity highly and definitely does not reduce costs by using cheap materials."
К сожалению уже ничего не поделать. Никакие сообщения, заявления, отсутствие жалоб на Реддите после обновления драйверов. Ничего уже людей не убедит в том что проблемы по сути и не было, что она была в драйвере. Да всем плевать. Любая проблема с RTX 3080 ? - Кондёры небось виноваты, да
Ничего уже людей не убедит в том что проблемы по сути и не было, что она была в драйвере. Да всем плевать.
Да, всем плевать и это верно, продукт нужно было хорошо "думать" до выпуска. Я тоже было хотел на старте написать гневный пост, но der8auer показал, что основная проблема в бестолковых пиках буста и вина в программной части. Нужно просто было потестить лабораторией продукт, самоуверенность?
Но пусть получают то, что породили сами. Тестировали бы продукцию, сразу бы всё видели, а теперь пусть идут и хлебнут г-на. А... уже хлебнули и исправили, а ну всё. Ещё раз выпустят такое, то пусть тазик сразу готовят.
Rebate, меня больше поразил факт что обзорщикам выдали драйвера раньше чем AIB производителям. Я в полнейшем шоке и недоумении был когда это узнал. У меня это до сих пор в голове не укладывается. Какому то васяну с Ютуба выдают ревью-драйвера, что бы он запилил обзорчик, а производители видеокарт получают драйвер когда уже видеокарты напечатаны, обзоры написаны, как это вообще. Почему... Что бы утечек не было ? Бред...
Earanak , вот вас бомбануло))). Успокойтесь, дышите глубже, это был вопрос, и достаточно было бы ответа что с этим порядок. К тому же драйверами бывает устраняют и косяки железа (например в "сырых" в приоритете производительность, а далее стабильность, и иногда с более стабильными приходит снижение производительности). Кстати вы проверяли изменение производительности после установки нового драйвера?
Человек дал развернутый аргументированный ответ на вопрос, которым интересуются многие желающие приобрести карты 3000ой серии. за что ему большое спасибо))
motnahp1, понятия не имею где вы усмотрели "бомбежку"... Если бы вы читали внимательнее, то не спрашивали бы про драйвер и производительность. Так как я на упреждения разобрал этот момент.
Цитата Earanak:
Драйвер устранил нестабильность, помимо этого повысил поверлимит чутка, снизил частоты у моделей которые бустились выше 2ггц. В первую очередь стабильность вернули многим картам даже при условии если вернуть прежний поверлимит и частоту, то есть ограничение буста не являлось ключевым решением проблемы.
Если говорить про конкретные пример и конкретные цифры : Да. Производительность снизилась, на некоторых моделях с хорошим охлаждением, с высоким ASIC Quality, с референсным Power-Лимитом. Именно в такой связке видеокарты потеряли больше всего от нового драйвера. Около 0.5-1% они потеряли. Абсолютное большинство видеокарт вообще ничего не потеряли, потому что они и раньше не бустились выше 2ггц. Моя что на старом драйвере что на новом выше 1980Mhz в играх не идет. А при нагреве до 69-70 градусов проседает до 1950Mhz, как и положено. Разгонять видяху у которой и так TGP в районе 350вт, желанием не горю, если что. Даже не интересно какой там ASIC Quality и предел стабильности у чипа. Даже если там 2200Mhz он возьмет без вольтмода, я все равно не решусь держать карту с потреблением в 500вт
P.S. Видяху я как только не насиловал.
Никаких проблем с стабильностью под нагрузкой так и не удалось выявить.
Когда ложился спать, врубил 3DMark TimeSpy Extreme Stress Test, в бесконечном режиме.
За ~8-9 часов максимально зарегистрированная температура на GPU была 75 градусов.
В закрытом корпусе Be Quiet 500DX. При комнатной температуре в районе 18-20 градусах.
Видяха в заводском разгоне. Ничего не настраивал ей.
Никто еще не юзал 3080? Как она там по дровам, не сырая? Рендил ли кто GPU при помощи ее? Как скорость рендера и тп. Скоро придет комп с ней, хотелось бы знать заранее...
Никто еще не юзал 3080? Как она там по дровам, не сырая? Рендил ли кто GPU при помощи ее? Как скорость рендера и тп. Скоро придет комп с ней, хотелось бы знать заранее...
3000 серии нет, майнеры все сьели. Нвидиа обосралась с производством и новых карт не предвидеться в ближайшее время.
Вот такая фигня. Довольно невесёлая новость для тех, кто ждал увеличения количества видеопамяти в 30хх поколении. Возвращаемся в режим ждунов и будем надеяться, что 40хх наконец-то порадует объёмами.
Я без особых проблем заказал себе 3080 Eagle OC в Розетке за 33к грн
. Я не сказал бы что это какой то лютый дефицит у 3080... Как когда было с процами 10980ХЕ/3950X, когда их НИ ЗА КАКИЕ деньги нельзя было взять. Тут больше ситуация похожа на 9900К. Когда и выбор небольшой и переплата есть. Но взять можно.
Не сказать что я прям как то супер жестко старался. Просто добавил папочку в вкладки браузера, туда закинул приемлемые для меня магазины, и выставил там фильтры на 3080. Предварительно прикинул модели которые бы меня устроили и ценник. И вот 15 числа прям с Розетки заказал себе 3080 Eagle OC с годными SP-Cap-ами, и отзыв там же на розетке оставил. По инерции и ради любопытства продолжаю мониторить ситуацию.
Недавно вон человек за 34600грн взял Aorus 3080 Master
, а это уже вам не базовая какая то унылая модель а премиум сегмент. Так что кто реально хочет взять себе видяшку, вполне себе может. Ведь раз в несколько дней то там то сям появляются модели в районе 33к грн. Если что, если вдруг еще кто не в курсе, MSRP ценник в 700$ это только ценник на базовые AIB модели для безналоговых штатов в США. У нас, дай бог что бы базовые AIB бы стоили по 950$ в ближайшие года пол (из за НДС, Пошлин, и самому магазу что то заработать нужно, квоты, все дела). Ниже, навряд ли будет в обозримом будущем. В любом случае - 33к грн это почти как за новую 2080 Ти, но при этом видяха ощутимо быстрее.
Вот такая фигня. Довольно невесёлая новость для тех, кто ждал увеличения количества видеопамяти в 30хх поколении.
Не понял )) ... Зажмотили так и скажите. Поняли что 3090 никто брать не будет, если выйдут 3070/3080 16/20Гб.
Цитата GreatWhiteShark:
Возвращаемся в режим ждунов и будем надеяться, что 40хх наконец-то порадует объёмами.
Да какие ждуны нафиг )). Нвидеа карты обновляет ≈ циклом раз в 2-а года, цп и то ≈ раз в год. Сейчас звезды сошлись, что карты нвидеа/амд и зен3 обновились в одном квартале. Это время самое лучшее для покупки/обновлений систем новым и расчёта планов...
Сейчас с выходом Zen3, RDNA2, Ampere - вообще крутяк собирать компуктер для игрушек или для рендера ну или универсальную машину. И с этим железом уже можно будет конкретно так ждуна включать аж до выхода второй итерации DDR5 систем. IMHO лучше подождать второго поколения DDR5 с допиленными контроллерами и всем этим. Больно уж радикальные изменения ожидаются там и непонятно насколько все гладко будет с первыми системами. Что бы не вышло как с BW-E, первыми тредриперами. Когда между поколениями проходит условно ~1 год а количество ядер прыгает с 10 до 18 (в случае с Интел), в случае с AMD с 16 до 32, так еще и DDR4 память перестает долбится в 3200Mhz/CL16 и начинает рвать и метать с выходом Sams-B Die, Micron E-Die. Впрочем. Кто его знает, это лишь предположения. Я по крайней мере постараюсь сдержать себя и не обновляться до DDR5 сходу. Да и с 3080 посидеть хотя бы до 2023-2024. Лишь бы не сломаться и не дать волю своим хотелкам.
P.S. На CES в начале след года я так понимаю покажут новые Тредриперы.
Ну и там Rocket Lake близко. В любом случае это ближайшее будущее.
P.P.S. Puget Systems протестировала четыре GeForce RTX 3090 в одной системе :
Меньше недели до анонса Big Navi и что-то пошло уже прилично слухов
, что RX 6800 XT таки не особо
хуже 3080 и, возможно, что и дешевле
.
На презентации Zen3 "удаленно" сравнивали фпс, там не было ничего выдающегося, но и ценника не было.
А если АМД карты окажутся лучше цена/качество, то походу не только Zen3 добьется превосходства, но и видео отрасль заявит о себе. А не поэтому ли Нвидеа спешила с выпуском 3000. Возможно, будет удар по Нвидеа, осталась узнать силу удара... неделя но анонса.
какой удар если итак дефицит карт, вообще не понятно что за хрень с дефицитом, америкосы ввели санкции против хуавей и по идее разгрузили производства а дефицит на все, даже на консоли предзаказы отменяют