GTX 680 - сгорая от стыда...

Автор
Сообщение
На сайте c 10.07.2008
Сообщений: 1693
Украина, Киев
Quote:
Не забываем отключать процессор!!!
А где его отключать? С i-ray не работал. В настройках рендера не нашел.
На сайте c 28.05.2011
Сообщений: 378
Иваново
В тридевятом царстве еще была у меня печь 6600 аж на 128 мегабайт видеопамяти(сталкера тянула!!!) потом настал 3ий курс обучения в заборостроительном и променял печь на радика 4830, разницу во вьюпорте почти не заметил. А если не видно разницы...ну вы понимаете =)
На сайте c 02.08.2008
Сообщений: 625
Спрошу тут.., а то забанят) ..ибо тем по видеокартам больше не нашел.
В характеристике видеокарты:
"Число универсальных процессоров- 3072" -это и есть ядра?
Их в 2 раза больше чем у GTX 680.
"Графический процессор 2 x NVIDIA GeForce GTX 690" -или это ядра?
...это походу 2 процессора на одной видеокарте.
По сравнению с GTX 680, GTX 690- намного облегчит работу с тяжелыми сценами?
На сайте c 07.10.2010
Сообщений: 1709
Минск
Menhir
http://www.3ddd.ru/modules/phpBB2/viewtopic_t_10970_start_0.html   - даже прилеплена
Ну, формально да, ядра. 690я - это 2 ядра 680х объединённых на 1й плате. При работе во вьюпортах разницы между 680й и 690й не почувствуете. Как по мне, по цена/качество наиболее оптимальная сейчас 660Ти - от 670й отличается только разрядностью шины, в остальном - идентична (ну лимит памяти на борту только 2Гб, зато очень много гигагерцовых версий - для вюпорта это критично).
На сайте c 02.08.2008
Сообщений: 625
2 гб всё таки маловато мне кажется, для современных видекарт.. Присматриваюсь к чему нить с четырьмя гигами..
На сайте c 22.05.2010
Сообщений: 27
Quote:
UPDATE!!!


Ребят, у кого есть возможность протестить видюхи (сценаhttp://www.revitforum.org/rfo_renderbenchmark.zip   ), плиз!!! Интересен резалт ПЕЧ 580, 480. Не забываем отключать процессор!!! Лучше тестить в 2013 версии!!!

Завтра приедет 580-ая хочу поставить все точки над "и", можно сравнивать гпу, симуляции.. и выкладывать итоги. Правда 3шку с рук так и не продали пришлось купить полтора
На сайте c 22.05.2010
Сообщений: 27
Quote:

Это почему не кеплер? 780 кеплер, потом выйдет архитектура максвел. И кто сказал что больше года? Если мне не изменяет память то новая серия выйдет уже весной.

дада выход на март-апрель назначен, но там и еще один момент они и профессиональные собираются обновлять - май-июнь выход, поэтому надо имхо дождаться июня и там делать выводы.
На сайте c 04.04.2008
Сообщений: 67
Владивосток, сэконд ривер
Господа -товарищи!

Процессор отключаем либо с помощью скрипта iray manager, либо в настройках ирея в 2013 версии.

2 Wolcheg - давайте, 580 оч интереснна.
На сайте c 25.07.2009
Сообщений: 271
Tesla K20 уже у всех есть, что вы панику развели, но когда сделают из нее 780, неизвестно.
На сайте c 22.05.2010
Сообщений: 27
о профах имеется ввиду замена картам 2000 и 4000 в следующем году, tesla то есть
На сайте c 04.09.2008
Сообщений: 13901
Уфа
Menhir
плохо искали, в первом посте "рекомендованных конфигов" ссылка висит на тему по видеокартам

она же в железе приклеенная висит,в первой десятке
На сайте c 10.07.2008
Сообщений: 1693
Украина, Киев
berry
Собственно тест.

Видяха - GTX 580 (принтскрин параметров прилагаю)
3ds max 2012

сцена RFO Benchmark Version Iray.max
Открыл, запустил скрипт iray manager, выбрал режим GPU, нажал рендер

Rendering Time - 20:22, Translation - 1:34

RFO_Benchmark_Version_Iray.jpg
На сайте c 22.05.2010
Сообщений: 27
Итак сцена RFO Benchmark Version Iray.max

Soft: Windows 8, видео Zotac GTX 580 1536Mb (815_4100), драйвер версии 306.97, 3ds max 2013

Только GPU - Rendering Time - 14:34 мин.

CPU_3930 (4500) + GPU - Rendering Time - 10:37 мин.
На сайте c 11.06.2009
Сообщений: 74
Хуст Украина
я как пользователь Octan Render .. могу заявить что 600 серия это жосткий лохотрон! по факту эта карта 680 должна была стать 660ti, но нвидия решила подзаработать бабок . сделав ее флагманом! по скорости рендера, 680 и показала скорость на уровне 460-560 ! это с учетом того, что октан поддерживает кеплер полностью. без урезок. Причин много , первая это сами ядра. их много но они очень слабые! вторая это тех процес не 16 как у 480 и 580 .а всего 7 как у 460 .. среднего сорта ягоды, она по параметрам и соответсвует той самой 660ti которую не выпустили. Из плюсов только мало кушает энергии и холодная, + памяти 4 гига. хотя 3 гига памяти за глаза , это с маштабными сценами
На сайте c 11.06.2009
Сообщений: 74
Хуст Украина
вот наши тесты! тут использовалась тест версия октан RC2.. она чуть медленее была. сейчас все отлично
Тут можно, увидеть разницу по времени.
Сцена:
Сцена для тестов (стендэлон + 3дмах интеграция)
Октан должен быть в миллиметрах!
PMC 16 отскоков
каустик блур 0.03
1280х720
вода с дисперсией
каустика
также есть портал! его можно подключить нодой , в интеграции он может быть скрыт
фильтр сайз 1.2

rusfolder.com/33416384 сцена ( включет стендэлн и 3д махинтеграцию)

(ИНФОРМАЦИЯ В ДОБАВОК, данный рендер выполнен не за то количество времени, что указано! тут семплов 2000 всего, тест проводился до 10 тысяч. Столько рендерить не пришлось, в октане присудствует функция расчета времени, показывает сколько понадобится на рендер к указанному семплингу, соответсвенно останавливаем пока не понравится


ТЕСТЫ: Standalone RC2 win 7 64x

GTX Palit 460 2Gb
336 Cuda Cores
0.57 семплов
4 часа 30 минут

GTX 580 3gb
512 Cuda Cores
1.07 семплов
2 часа 27 минут

GTX580 3 gb + 460 GTX 2 gb
848 Cuda Cores
1.64 семплов
1 час 38 минут

ТЕСТ кеплер :

OctaneRender® for 3ds max® v1.0 RC2
GTX 470 1280Mb
448 Cuda Cores
0.42 семплов
5 часа 55 минут

GTX 680 4gb
1536 Cuda Cores
0.66 семплов
3 часа 40 минут

GTX680 4gb + GTX 470 1280Mb
1984 Cuda Cores
1 семпл
2 час 21 минут

OctaneRender® Standalone RC2

Quadro 4000 2Gb
256 Cuda Cores
0.46 samples
5h 36m 18s

GTX 690 4Gb
3072 Cuda Cores
2.21 samples
1h 10m 12s

GTX 690 4Gb + Quadro 4000 2Gb
3072 + 256 Cuda Cores
2.61 samples
57m 18s

и старушка 480GTX

OctaneRender® Standalone RC2
GTX 480 1535Mb
480 Cuda Cores
0.92 семплов
2h 46min

3m_Vv_D4_Ux3_QY.jpg
На сайте c 04.04.2008
Сообщений: 67
Владивосток, сэконд ривер
2 Wolcheg - - урррррррррррррррра! То есть получаецца, что ПЕЧ 680 проиграла совсем-совсем немного (у меня 16 м, у вас 14), и 4 гига стали более важным преимуществом!!! Класс, можно считать, что НЕ купив 580 я не пролетел. 2 минуты фигня! И энергопотребление - вабще небо и земля, 580 жрет как не в себя, сужу по 480.

Товарищи!!!! Всем спасибо за участие, всем кто сделал тесты - особое Спасибо!!! Благодаря вам мы разобрались с мощностью ГПУ рендера Ферми и Кеплера, и каждый может сделать выводы, что ему важнее - память, скорость, или иное!!!


2 ElvisSuperStar - как видим по тестам на моей 680 и двум 580 - 6хх совсем не лохотрон, просто чуть медленнее, но опять же - они могли криво прокомпилять ирей в 2013, это легко может быть из-за кеплера и адаптации ирея под него. Исправят?!?!?!?
На сайте c 22.05.2010
Сообщений: 27
Quote:
2 ElvisSuperStar - как видим по тестам на моей 680 и двум 580 - 6хх совсем не лохотрон, просто чуть медленнее, но опять же - они могли криво прокомпилять ирей в 2013, это легко может быть из-за кеплера и адаптации ирея под него. Исправят?!?!?!?

Во вот "плохо прокомпилять".. давайте смотреть дальше тесты сцены с octane
На сайте c 04.04.2008
Сообщений: 67
Владивосток, сэконд ривер
Итак, корпорация нвидиа - "жалкая, ничтожная личность" (С), вот что я могу заявить. Пусть меня за это банят!
Короче, сделал я рендер на 680 одной сценки, время рендера 18 м. Потом думаю, дай-ка обновлю дровишки для карты, авось пошустрее станет. И вот те на те!!!!!!! На последних дровах с сайта нвидиа рендер стал 21 м!!!!!!!!!!!!!!Это как????? Делаю откат, на старый драйвер (301.ххххх - первый для кеплера) - снова рендер 18 м. Снова новый драйвер - снова 21м.!!!!!!!!! Короче, оставил старый драйвер, и сделал вывод - эти туземцы специально рубят драйверы чтобы мы не рассчитывали на быстрый рендер. Или я не понимаю ничего в развитии программ. Я думал, чем новее дрова, тем быстрее работа, наивный...

Кто сталкивался с подобным, или может протестить рендер ГПУ на разных дровах, отзовитесь!
На сайте c 11.06.2009
Сообщений: 74
Хуст Украина
Quote:
Итак, корпорация нвидиа - "жалкая, ничтожная личность" (С), вот что я могу заявить. Пусть меня за это банят!
Короче, сделал я рендер на 680 одной сценки, время рендера 18 м. Потом думаю, дай-ка обновлю дровишки для карты, авось пошустрее станет. И вот те на те!!!!!!! На последних дровах с сайта нвидиа рендер стал 21 м!!!!!!!!!!!!!!Это как????? Делаю откат, на старый драйвер (301.ххххх - первый для кеплера) - снова рендер 18 м. Снова новый драйвер - снова 21м.!!!!!!!!! Короче, оставил старый драйвер, и сделал вывод - эти туземцы специально рубят драйверы чтобы мы не рассчитывали на быстрый рендер. Или я не понимаю ничего в развитии программ. Я думал, чем новее дрова, тем быстрее работа, наивный...

Кто сталкивался с подобным, или может протестить рендер ГПУ на разных дровах, отзовитесь!

если я шас сюда скину очень интересную беседу по картам на форуме октан . вы все поймете!
На сайте c 11.06.2009
Сообщений: 74
Хуст Украина
Re: NVIDIA Quadro 6000
Когда-то давным давно nVidia была вполне честной компанией с огромным потенциалом. Стартанули отлично, развились, закрепились. Но как любая акула бизнеса, со временем компания озадачилась увеличением эффективности в вопросах получения прибыли. Только вот незадача - рядовые пользователи, к сожалению, ограничены в финансах, и далеко не все готовы платить за игровую видеокарту с каждым поколением всё больше и больше (да и игровые приставки поджимают эту планку сверху, т.к. при цене на видеокарту >600$ многие геймеры задумаются о покупке приставки). Поэтому руководители сказали «Ага! Любители жадничают, значит будем окучивать профессионалов. У них денег побольше». И недолго думая зарядили линейку Quadro по ценам превышающим аналогичные видеокарты игрового сегмента раза в 3-4. Представили её как нечто, обладающее кучей потрясающих фич для профессиональной деятельности в области компьютерного проектирования, моделирования, рисования. В реальности же железная база была фактически такой же как и у игровых карт, а все эти суперфичи были реализованы либо на программном уровне, либо на хардварном, но с софтовым обрезанием аналогичного функционала у игровых карт. Но народ этого не знал и сбыт профессиональных карт был успешно налажен. Кстати, в один прекрасный момент известный в узких кругах Алексей Николайчук, он же Unwinder, он же автор известной утилиты RivaTuner, занялся этим вопросом и успешно научился обманывать драйверы, после чего все желающие смогли разблокировать профессиональные функции на своих игровых видеокартах. Но nVidia достаточно быстро прикрыли эту лазейку, сначала на уровне драйверов (что тоже было обойдено), а затем и на хардварном уровне. Хотя лично мне кажется, что всё же на уровне биоса, но это не так важно. Главное что больше пока никто не смог повторить подобное. Но, тем не менее, это был реальный момент, когда было доказано, что «профессиональная» карта того времени ничем не отличалась от игровой, и вся разница между ними - это маркетинговые игры. Факт.
Прошло время, стало активно развиваться направление использования видеопроцессоров для физических вычислений. И конечно же nVidia не могли остаться в стороне, быстренько словили волну и вышли на рынок и в этом сегменте. Выпуск «профессиональных» версий для вычислений не заставил себя ждать. Привет, Тесла! Но, в отличии от профессиональных графических карт, у вычислительных карт практически нет никаких особенных уникальных фич – там преимуществом может быть только тупая производительность. Поэтому сразу встал вопрос, как сделать так чтобы карты игрового сегмента не конкурировали с «профессиональными»? Вариантов было немного: либо в рамках каждой линейки разрабатывать отдельный процессор специально под вычисления, либо взять тот же проц что и на игровые ставится, но при этом производительность игровых карт искусственно урезать. Конечно же пошли вторым путём. Оно и проще и дешевле и привычнее.

А теперь, чтобы всё вышесказанное не выглядело голословным, перейду к рассмотрению технических характеристик последних поколений процессоров nVidia - Fermi и Kepler. Думаю, будет достаточно рассмотрения производительности верхних моделей (GTX x60, x70, x80 и сравнения их с Tesla)

Fermi

GF100/110

16 потоковых мультипроцессоров (SM) по 32 ядра, обладающих возможностью выполнения одной FMA* операции с одинарной точностью (Single Precision - SP) за один такт, или с двойной точностью (Double Precision - DP) за 2 такта. Множитель шейдерного домена у этих чипов равен 2, поэтому ядра работают на удвоенной частоте. У игровых видеокарт базирующихся на этих чипах была искусственно урезана только производительность расчётов в DP в 4 раза (это они особо не скрывали).
*) FMA – это Fused multiply–add. Состоит по сути из двух операций с плавающей точкой a+b*c, поэтому не спрашивайте откуда у меня в вычислениях взялось «лишнее» умножение на 2.
Так же конечный результат буду делить на 1000, т.к. тактовые частоты буду подставлять в мегагерцах, а получать буду гигафлопы (и их я буду округлять до целого).

Вычислительная мощность видеокарт на этих чипах считается так:

Tesla C2070 (GF100)
14(SM)*32(cores)*575*2(MHz)*2/1000 = 1030 Gflops (SP)
14(SM)*32(cores)*575*2(MHz)*2/2/1000 = 515 Gflops (DP)

Tesla M2090 (GF110)
16(SM)*32(cores)*650*2(MHz)*2/1000 = 1331 Gflops (SP)
16(SM)*32(cores)*650*2(MHz)*2/2/1000 = 666 Gflops (DP)

GTX 480 (GF100)
15(SM)*32(cores)*700*2(MHz)*2/1000 = 1344 Gflops (SP)
15(SM)*32(cores)*700*2(MHz)*2/2/4/1000 = 168 Gflops (DP)

GTX 580 (GF110)
16(SM)*32(cores)*783*2(MHz)*2/1000 = 1604 Gflops (SP)
16(SM)*32(cores)*783*2(MHz)*2/2/4/1000 = 200 Gflops (DP)

Все расчёты сходятся с официальными (и не очень официальными) данными распространёнными по сети. Если не считать всем известной урезки DP, то с этими чипами всё более-менее честно.
Для остальных карт рассчитать мощность не сложно. Тактовые частоты и количество потоковых процессоров известны. Остальные цифры те же.

GF104/114

8 потоковых мультипроцессоров (SM), 48 ядер, FMA(SP) за такт, FMA(DP) за 2 такта. Множитель шейдерного домена x2. Производительность в DP зарезана в 2 раза.
А вот тут начинаются маленькие маркетинговые чудеса.
Для экономии площади кристалла, ядрам немного подрезали функционал на физическом уровне. Мало того что потоковых мультипроцессоров стало меньше вдвое, так ещё теперь каждое ядро не может выполнять и SP и DP операции. Очень похоже что они разделены так: 32 ядра - SP, 16 – DP. Из-за этого наблюдается очень заметное падение в расчётах относительно карт на GF100/110. Официально это нигде не сказано, в огромном количестве источников производительность рассчитывается исходя из 48 ядер, что даёт сильно завышенные результаты. В сторонних обзорах данная особенность почти нигде не упоминается, разве только видел один раз на anandtech вскользь, да и то только написано, что операции с DP могут выполнять только треть ядер, а про то, что эта треть не дружит с SP – нигде ни слова. Но мои наблюдения показывают, что прав всё же я.
Таким образом, получается:

GTX460 (GF104)
7(SM)*32(cores)*675*2(MHz)*2/1000 = 605 Gflops (SP)
7(SM)*16(cores)*675*2(MHz)*2/2/2/1000 = 76 Gflops (DP)

GTX560Ti (GF114)
8(SM)*32(cores)*822*2(MHz)*2/1000 = 842 Gflops (SP)
8(SM)*16(cores)*822*2(MHz)*2/2/2/1000 = 105 Gflops (DP)

А вот теперь начинается жесть как она есть

Kepler
Буду рассматривать сразу GK104 и GK110, но сначала «достоверные» официальные данные.

GK104
8 потоковых мультипроцессоров (SMX) по 192 ядра (FMA SP за такт). Шейдерный домен работает на базовой частоте.
GK110
16 потоковых мультипроцессоров (SMX) по 192 ядра (FMA SP за такт), плюс появившиеся мистические DP-Units (FMA DP за такт) в количестве 64 штук на SMX. Шейдерный домен работает на базовой частоте. Прочие «новые» фичи типа динамического параллелизма рассматривать сейчас не будем.

Отмечу, что и по моему мнению, и по мнению ряда более авторитетных источников, у GK104 и у GK110 упомянутые 192 ядра способны производить только SP вычисления. Но сразу возникает вопрос: а тогда каким образом GK104 выполняет DP расчёты при отсутствии DP-units?
Отвечаю: А они есть! (опять же, это не моя фантазия, в сети есть упоминания). Задействовано по 8 юнитов на SMX. Сколько их там реально – никто не знает. Что-то мне подсказывает, что те же самые 64.
Только nVidia об этом тихо молчит. Почему? А ответ простой: чтобы не показывать, что они стали и теслы тоже урезать из маркетинговых соображений. Зачем урезать? – всё просто: выкидывать на рынок не топовую карту которая разом бьёт по расчётам c SP и DP топовые карты на Fermi – глупо. Лучше выкинуть только чемпиона по SP. Кому надо – тот купит. А для тех кому нужны расчёты с двойной точностью пусть догребают карты предыдущих поколений, которых, судя по всему, осталось ещё прилично, либо пусть раскошеливаются на доргущий K20/K20X.
А теперь коварный замысел номер 2.
Вопрос: если у младшей модели Tesla урезана производительность в вычислениях с DP, то что надо сделать чтобы игровые карты не конкурировали с ней? Правильно! Зарезать у GTX ещё и SP!
У меня есть все основания считать, что у линейки GTX 6xx для расчётов с одинарной точностью используется только 112 ядер из 192 (касаться производительности в играх не буду, сейчас говорю только про физические вычисления). В сети подтверждений такому моему "дикому" предположению я нигде не нашёл, но косвенно всё на то указывает.
Согласно моей теории, для семейства карт на чипе Kepler производительность вычисляется так:

Tesla K10 (GK104)
2(процессора)*8(SMX)*192(cores)*745(MHz)*2/1000 = 4577 Gflops (SP)
2(процессора)*8(SMX)*8(cores)*745(MHz)*2/1000 = 191 Gflops (DP)

Tesla K20 (GK110)
13(SMX)*192(cores)*705(MHz)*2/1000 = 3519 Gflops (SP)
13(SMX)*64(cores)*705(MHz)*2/1000 = 1173 Gflops (DP)

GTX680 (GK104)
8(SMX)*112(cores)*1006(MHz)*2/1000 = 1803 Gflops (SP)
8(SMX)*8(cores)*1006(MHz)*2/1000 = 129 Gflops (DP)

GTX660Ti/670 (GK104)
7(SMX)*112(cores)*915(MHz)*2/1000 = 1435 Gflops (SP)
7(SMX)*8(cores)*915(MHz)*2/1000 = 102 Gflops (DP)

Хочу отметить, что похоже младшие модели, базирующиеся на GK106 (у него всего 5 мультипроцессорных блоков), зарезаны не больше чем топовые карты (куда уж больше . В этом есть ложка мёда на бочку дёгтя, т.к. получается что две 650Ti, имеющие по 4 SMX, будут равны по вычислительной мощности одной GTX680 (с 8 SMX) при условии одинаковых тактовых частот (теория не подтверждена).

Ещё раз коротко изложу свои размышления. Не воспринимайте их как истину в последней инстанции, пусть это и обоснованные, но всё же предположения:

- nVidia играет в грязные маркетинговые игры, и всё бы ничего, но они замалчивают нюансы, вводя пользователей в заблуждение насчёт реального быстродействия их карт.
- Раньше nVidia резали по вычислениям только игровые карты и только при расчётах с DP, теперь же они оборзели вконец и режут всё, включая младшие Tesla.
- Kepler получился колоссально мощным и энергоэффективным. Причём настолько, что nVidia решила дозированно выводить его на рынок и тем самым снять пенку несколько раз.
- GK104 и GK110 глобально отличаются только количеством SMX – 8 против 16.
- Задержка появления GK110 связана не с разработкой чего-то абсолютно нового, а с производственными проблемами (низкий процент выхода годной продукции). Всё же 16 SMX блоков такой плотности на новом техпроцессе это не шутки.
- Строение SMX у GK104 и GK110 либо одинаково, либо с незначительными мелкими доработками.
- Урезав мощность линейки GTX сейчас, nVidia имеет возможность перепродать в следующем году как новую линейку GTX7xx ту же карту, но работающую на полную мощность (или чуть менее урезанную).
- Спустя некоторое время выйдет карта Tesla K15(?) со всеми включенными DP-юнитами на чипе, которая окончательно заменит карты Tesla на Fermi. Но скорее всего номер чипу сменят, чтобы не палиться лишний раз.

P.S. Newman.. сейчас посмотрел всё что сам только что насчитал.. А ведь по моим формулам получается что в SP расчётах 670 быстрее чем 460-я в 2,37 раза Внезапно..


Last edited by S.Gonzalez on Tue Dec 04, 2012 8:01 pm, edited 1 time in total.
Читают эту тему: