Я так понял из эксклюзивных фишек 5090 относительно 4090 только мультикадровая выборка для генерации кадров в DLSS4, ну еще там DisplayPort/PCI-E новые которые мне нафиг не сдались. А Нейро-Шейдеры/Компрессия-Текстур и прочие 'штуки-дрюки' и на 4090 будут работать. Итого выходит +25% к MSRP +25% вычислительной мощи +25% к TGP +25% к VRAM + x2 Буст в нейросетях который мне нафиг не сдался. Блин, ну вроде неплохо но и как то без 'вау' эффекта
Я так понял из эксклюзивных фишек 5090 относительно 4090 только мультикадровая выборка для генерации кадров в DLSS4, ну еще там DisplayPort/PCI-E новые которые мне нафиг не сдались. А Нейро-Шейдеры/Компрессия-Текстур и прочие 'штуки-дрюки' и на 4090 будут работать. Итого выходит +25% к MSRP +25% вычислительной мощи +25% к TGP +25% к VRAM + x2 Буст в нейросетях который мне нафиг не сдался. Блин, ну вроде неплохо но и как то без 'вау' эффекта
зато у 5090 32 Гб видеопамяти, что очень важно для анрил) жаль что у 5080 также 16 как у 4080, но, может выпустят 5080ти с 24, была бы хорошая альтернатива 4090
Промежуточные выводы такие. NVIDIA сделала цену 5070 в 549$, и позиционирует её с новыми фичами как ровня 4090... если обновляться то уже только на 50 серию.
Теперь понятно почему NVIDIA остановила выпуск почти всех видеокарт серии GeForce RTX 40, 40 серия стала бессмыслена.
Кстати, Вы видел презентацию АМД... даже никто не понял что она была, это никчемность. АМД анонсировала свои GPU на базе RDNA 4 на CES 2025, но... не раскрыла полные характеристики, цены и точные даты выпуска новых графических адаптеров. Ахаха, они зассали даже карту показать свою видеокарту на анонсе, когда такое было?
NVIDIA это новый гугл, с ее капитализацией, которая будет только расти. GPU от АМД уничтожена, всё! NVIDIA забрала топ и мидл. А Интел забирает бюджетные варианты.
К слову, презентация Интел тоже туфта ни о чём. Но все тесты
NVIDIA были на 9800X3D, прощай Интел )).
Ещё раз АМД даже карту не показала... всё, прощай АМД GPU. Эпоха уходит. АМД нужно кардинально менять архитектуру и переворачивать стол как она сделала с процами и победила Интел.
скорее всего 5070 как 4070ти супер . наверное так корректнее сравнивать( ну и еще учесть что у новинки памяти меньше )
А понимаете. Вот да, DLSS мылит картинку, без нее прям четкость и рай, но с мелким фпс.
И правильно пишут в инете, эпоха рукожопых разрабов и DLSS для игроков, чтобы перекрыть рукожопство разрабов. Что в свою очередь попуститель-ствует разрабам не стараться, ведь есть DLSS. Зачем оптимизировать игру, раздувать бюджет, тратиться, всё равно включат DLSS. Сейчас не эпоха 60гц мониторов, 80 фпс уже у современных детей уже не фпс )). Но в плюсе точно пока Nvidia )).
Нейросети технология пока еще в статусе перспективной. Под GPU рендер, попробовать хочется конечно, но лично у меня неоптимизированные проекты по 100-110 ГБ ОЗУ жрут. Допустим я бы смог постараться влезть в 64 ГБ ОЗУ. Не совсем понимаю если это перевести в видеопамять, то в 32 помещусь или нет?
5080 выглядит интересной, если бы не объем памяти. Сугубо под 4К игры брал бы и радовался.
Скорее всего. Если говорить про виз. Всё от того как обновятся рендереры под новые фишки. То же нейротекстурное сжатие, оно же как я понял может память и в визе экономить, не уверен, но в этом ключе.
Кстати, по визу видел пока одно сравнение в слайде
по D5 с DLSS. Это по анимации как я понял. Как и в Анриле. А что, те кто делает презентации в анриле выйграли получается.
5070ti будет с 16 ГБ ОЗУ, MSRP $750, очень неплохо... наверное.
Пока посижу с 3060-12
ЦИФРОВОЙ ЛИТЕЙНЫЙ ЦЕХ потестил новое нейромыло, оно быстрое и несколько менее мыло. В общем, как в анекдоте: уже и цвет как у масла, и на хлеб хорошо мажется; над запахом и вкусом еще предстоит поработать
Цитата Rebate:
даже никто не понял что она была, это никчемность. АМД анонсировала свои GPU на базе RDNA 4 на CES 2025, но... не раскрыла полные характеристики, цены и точные даты выпуска новых графических адаптеров. Ахаха, они зассали даже карту показать свою видеокарту на анонсе, когда такое было?
Причина тряски? Ну не раскрыла и не раскрыла. Карты выйдут, производительность увидим, кто захочет - купит.
На возможные будущие успехи Интел у меня больше всего надежд.
Если вдруг кто не знал, то с помощью Lossless Scaling можно разогнать FPS генерацией в x2/x3/х4 и без всяких RTX 5090/DLSS4 https://store.steampowered.com/news/app/993090/view/4324104099036055973?l=russian Я так трилогию Хитмана прошел с отключениями света играя с зарядной станции, залочил в игре FPS на 40 и разогнал под герцовку монитор до 165. Достаточно экономно по потреблению выходит а по плавности не отличить от реальных FPS-ов. Ну по инпутлагу разумеется оно ощущается как изначальные 40 FPS в 25мс, тут к сожалению магии не случается, и конечно х4 режим дает больше гостинга чем х2, это несколько ограничивает спектр конкретных игр где оно пригодно, тем не менее мне пригодилось )) В том числе и в играх где залочен FPS и его античит не дает разлочить, или когда FPS привязан к скорости просчета физической модели сцены (например Skyrim/Fallout, DarkSouls/Elden Ring).
Когда пишет кто-то про то что современным школьникам мало 60FPS, а вот раньше то было... Эти люди видать не застали времена Quake/UT/CoD:UO/HL-CS, когда на ЭЛТ мониторах понижали разрешение до 640х480, накручивали миппмаппинг, юзали Yitch3.CFG и прочие штуки что бы выжать 120гц на мониторе (а у некоторых моделей и 160гц, как у Sony GDM-FW900) и получать при этом 125/250/333FPS, так как именно эти значения FPS влияли в Quake/CoD не только на плавность и инпут лаг, но и на длину-высоту прыжка, темп стрельбы, частоту издаваемых звуков и урон от падений. А так же давал пакет-бёрст когда за один тик сервера ты мог попасть 4 раза вместо трех. https://www.codjumper.com/forums/viewtopic.php?t=9243 Раньше 60фпс/60гц хватало, ага-ага, кулстори. Если что на турнирах/серверах многих запрещали больше 250FPS из за этого а на некоторых больше 125 Это я говорю где то за 2002-2003 год, расцвет Q3/CS1.6/Релиз CoD1.50, CoD:UO. У нас в комп клубе все ЭЛТ мониторы были с разгоном, да уже тогда люди научились разгонять мониторы )) Да и вообще на 60-75гц за ЭЛТ было глазам больно так то...