Ну это неплохая модель в плане охлада. Если проблема внутри видеокарты то конечно открытый корпус тут и не поможет. Но на всякий случай я бы попробовал посмотреть на температуры например во время прогона Superposition
. Отдельно я бы понаблюдал не троттлит ли видяха во время нагрева, сравнивал бы результаты между прогонами бенчмарка. То есть посмотрел бы на частоту GPU в начале теста и на частоту когда она прогреется ко второму-третьему прогону. Ну например если вначале прогона было скажем 1800Mhz а к третьему уже 1500Mhz и результаты бенчмарка стали ощутимо ниже - значит видяха все же троттлит от перегрева.
Частенько несколько вертушек на видяхе объединяют в один коннектор, потому скорее всего третьего и не видно. Ну тут по гарантии я не подскажу. Но они могут сказать что по средним температурам видеокарта работает в рамках спецификаций. Ну тип нету же 95 градусов в среднем по чипу, ну значит все ок могут сказать
Я как поставил на открытом стенде обдув на видяхе с двух сторон 140мм вертушками у меня упали температуры чипов памяти на ~15 градусов а обороты вертушек на видяхе просели с 65% до 33% во время игр Сложно что то лучше придумать, ну разве что разобрать можно еще видяху что бы пластик и бэкплейт не мешали обдуву.
У меня вообще с RTX 3080 температура GPU намертво в играх стоит в 67 градусов. Меняется только % оборотов вертушек. В комнате жарко ? Просто больше пропеллеры фигачат. Холодно ? Все те же 67 градусов )) А вот GDDR6X без обдува в некоторых играх подползала к 90 градусам. Это неплохо, но когда там 75-77 мне спокойнее )
Скажите пожалуйста какая максимально допустимая температура для RTX 3060? У меня во время просчета освезения в Анрил температура Gpu доходит до 85 градусов, а Hot Spot до 98 градусов.
Стоит сейчас 3060 в непрерывном просчёте 16 часов, температура 51 градус при компиляции нового кадра (3-5 секунд) и 54-56 градусов при рендеринге в шторме. У меня всё считается на CUDA, не знаю какие компоненты карты у вас задействуются, но я не видел температуры выше 59 градусов. У меня 3060 GIGABYTE с двумя кулерами
Спасибо всем за советы. Я решали оставить все как есть, а если моя видюха накроется, отнесу её в СЦ по гарантии. Думаю это будет гарантийный случай. Я же ее просто эксплуатировал в штатном режиме.
Мда, ну и решение... Слов нет. Тогда уж точно скажут про неправильную эксплуатацию. Ну вы тогда скажите следующему покупателю что у вас видяха на 170вт скажете что там все подогрелось до 95 по хотспоту, прожарилась так сказать как well done бифштекс не майнила, не крашена, новенькая как уголёк с шахты Жаль просто когда принимают решение убивать видяху лишь бы в гарантийку не обращаться. Ну что же, условныйВикон будет доволен
новому заказу
Мда, ну и решение... Слов нет. Тогда уж точно скажут про неправильную эксплуатацию. Ну вы тогда скажите следующему покупателю что у вас видяха на 170вт скажете что там все подогрелось до 95 по хотспоту, прожарилась так сказать как well done бифштекс не майнила, не крашена, новенькая как уголёк с шахты Жаль просто когда принимают решение убивать видяху лишь бы в гарантийку не обращаться. Ну что же, условныйВикон будет доволен
новому заказу
Вероятно Вы меня не так поняли. Я совсем не заинтересован в том, чтобы ее убить. Я считал, что для относительно новой видеокарты (ей около 6 мес всего) нести ее по гарантии в СЦ глупо. Да, я еще не знаю что мне там скажут или попросят доплатить за замену термопрокладок, но сам факт... Она ж почти новая.
Просто если отвалится чип, это же гарантийный случай?
Возможно я не прав в своих суждениях и ее просто стоит отнести с конкретной жалобой.
Дык епт он же в этом видосе говорит про GA102, это 3080Ti с GDDR6X памятью, которая при 120-125 по памяти начинает троттлить, конечно 100 градусов по памяти для нее - ок.
Только у вас во первых это GDDR6 без X у которой 90 это уже много. Во вторых причем тут видеопамять, мы то не знаем по датчикам ее температуру. В третьих на его видосе видяха которая жрет 350+ вт а у вас 170+ вт. Да и я же писал что хотспот это может быть GPU, к тому же GPU в среднем у вас 85, блин и это когда выше 70 не должно быть. У вас настолько выходит нагрев за рамки нагрева видеокарты и вы типа такие, хм, ну и так пойдет...
И я ведь проговорил этот момент про троттлинг, GPU-Z, суперпозишн. Что я бы сделал ? Да блин что угодно что бы видяха не жарилась по хотспоту в 95 градусов ! Уму непостижимо, 3060 с норм охладом долбиться в 95 градусов, КОНЕЧНО с ней что-то не так если она греется больше чем 3090 в стресс тесте. Будь она в душном корпусе, душном помещении, в душный сезон, душной задаче - она все равно не должна выше 70 грется. Ни по GPU, ни по GDDR6, ни по хотспоту.
saurongorynich вон выше ведь отписался по 3060 гиге двухвентиляторной которая за 10+ часов нагрузки выше 60 не прогрелась. Вот это нормальный результат как для 3060. Потому что там нечему грется. Так и должно быть. Ну а что вам скажут и сделают в СЦ я то откуда могу знать. У них есть повод заявить что все ОК, только это нифига не ОК. Добавить мне тут больше нечего.
Мда, ну и решение... Слов нет. Тогда уж точно скажут про неправильную эксплуатацию. Ну вы тогда скажите следующему покупателю что у вас видяха на 170вт скажете что там все подогрелось до 95 по хотспоту, прожарилась так сказать как well done бифштекс не майнила, не крашена, новенькая как уголёк с шахты Жаль просто когда принимают решение убивать видяху лишь бы в гарантийку не обращаться. Ну что же, условныйВикон будет доволен
новому заказу
Вероятно Вы меня не так поняли. Я совсем не заинтересован в том, чтобы ее убить. Я считал, что для относительно новой видеокарты (ей около 6 мес всего) нести ее по гарантии в СЦ глупо. Да, я еще не знаю что мне там скажут или попросят доплатить за замену термопрокладок, но сам факт... Она ж почти новая.
Просто если отвалится чип, это же гарантийный случай?
Возможно я не прав в своих суждениях и ее просто стоит отнести с конкретной жалобой.
https://3ddd.ru/forum/thread/show/vidieokarta/211#post1689210 -> Возвращаясь к этому обсуждению переходников... Все понемногу начинают упоминать этот момент. Походу nVidia решили как можно быстрее начать продавать видяхи, а дальше гори оно все синем пламенем. В прямом смысле
UPD (29 Sept) - Ну все Нвидия сдались похоже. Не проканало
У 4090 TGP (TDP) 450вт. Это у референс модели. У вендоров может до 600вт быть.
8+8+8 дают 450 + 75 в PCI-E коннектора.
Но это в идеальном раскладе. Но ! Проблема в том что ATX 2.0 блоки НЕ умеют равномерно распределять нагрузку по переходникам. И даже если вы сделаете четыре раза по 8-Пин переходник. То на один провод будет идти ~280вт что УЖЕ превышает стандарт на 85%, а на остальные проводки будет идти мизерная нагрузка.
Но это в идеальном раскладе. Но ! Проблема в том что ATX 2.0 блоки НЕ умеют равномерно распределять нагрузку по проводам. И даже если вы сделаете четыре раза по 8-Пин переходник. То на один провод будет идти 250+ вт что УЖЕ превышает стандарт, а на остальные будет меньше нагрузка.
Нет, не путаю. С одной линии 8+6 предел где то 200вт. С одной 8пин пусть даже 150вт. Так я не совсем понял, переходник будет на 3 - 8пин или какое там будет подключение?
Ну на seasonic как раз 3 линии 8+6 и ровно по 200вт по каждой линии идет. Но конечно, вопрос в том, что не все БП наверно так работают.
Это как работает переходник с четырех 8-пинов на один ATX 3.0 16-пин. Без преобразователя.
2.) Полноценный ATX 3.0 16-пин коннектор новый идет с вдвое большим сечением.
И один, может выдавать до 600вт.
3.) У реф модели 4090 - 450вт TGP (TDP), у не-реф моделей может быть до 600вт.
4.) Уже все проверили и затестили. И выявили проблемы с поджаренными проводами, БП уходящими в защиту.
5.) Нвидия увидела что проблему массово обсуждают и теперь сделает переходники с преобразователем. Что бы равномерно распределять нагрузку на переходнике.
Понятно теперь в чем проблема ?
Если у вас старый ATX 2.0 БП и переходник без преобразователя - вы рискуете убить и коннектор и провод и БП. И еще неизвестно как видяха на это будет реагировать. И только если у вас ATX 3.0 (которые только к Новому Году будут в продаже) с новым 16-пин коннектором - у вас будет гарантиированно все ОК. Ну а ATX 2.0 переходник на 16-пин с преобразователем - это более менее адекватный вариант для старых БП.
Но... Не все производители будут делать такие переходники скорее всего.
Это как работает переходник с четырех 8-пинов на один ATX 3.0 16-пин. Без преобразователя.
2.) Полноценный ATX 3.0 16-пин коннектор новый идет с вдвое большим сечением.
И один, может выдавать до 600вт.
3.) У реф модели 4090 - 450вт TGP (TDP), у не-реф моделей может быть до 600вт.
4.) Уже все проверили и затестили. И выявили проблемы с поджаренными проводами, БП уходящими в защиту.
5.) Нвидия увидела что проблему массово обсуждают и теперь сделает переходники с преобразователем. Что бы равномерно распределять нагрузку на переходнике.
Понятно теперь в чем проблема ?
Если у вас старый ATX 2.0 БП и переходник без преобразователя - вы рискуете убить и коннектор и провод и БП. И еще неизвестно как видяха на это будет реагировать. И только если у вас ATX 3.0 (которые только к Новому Году будут в продаже) с новым 16-пин коннектором - у вас будет гарантиированно все ОК. Ну а ATX 2.0 переходник на 16-пин с преобразователем - это более менее адекватный вариант для старых БП.
Но... Не все производители будут делать такие переходники скорее всего.
Я так понимаю, это всё для 4090 более актуально. Для более слабых карт, таких проблем быть не должно.
Я так понимаю, это всё для 4090 более актуально. Для более слабых карт, таких проблем быть не должно.
У 4080 и 4090 - 16Pin ATX 3.0 коннектор. Проблемы у них примерно одинаковые будут. Хоть пять 8-Pin переходников воткни, все равно 60% от общей нагрузки карты будет идти по одному 8-Пин из всего переходника. Да, для - 4070 и младше - наверное проблемы не будет. Особенно если они сделают классические 8-Пин то 100% будет все ок Ну тип, нафига на 4070 будет делать коннектор рассчитанный на 600вт - ума не приложу.
UPD (5-Oct)- Обзоры на ARC770, потехи ради можно посмотреть ))
По крайней мере первые модели будут такими толстыми, с избыточной начинкой. Может через год появятся поменьше размером )) Но вообще лично мне даже нравится такой расклад. Пусть хоть на шесть слотов будут, зато тихие и холодные и без 90-100 градусах на GDDR6X. По утечкам конечно страшные цифры по приросту производительности. Сижу вот уже как то косо смотрю на мою 3080