на мной взгляд идея бредовая, если вы хотите создать железку для ускорения рендера, то вам потребуется оооооочень много денег и куча времени, а к тому моменту, когда создадите она будет уже неактуальна, ибо развитие процессоров идет по экспоненте, сейчас во всю продаются 10 ядерники, а года через 1.5-2 уже 20-40 ядерники могут появиться
на мной взгляд идея бредовая, если вы хотите создать железку для ускорения рендера, то вам потребуется оооооочень много денег и куча времени, а к тому моменту, когда создадите она будет уже неактуальна, ибо развитие процессоров идет по экспоненте, сейчас во всю продаются 10 ядерники, а года через 1.5-2 уже 20-40 ядерники могут появиться
CPU и GPU создают для других задач, решать миллион уравнений методом Монте-Карло можно гораздо проще.
вот когда вирей перепишут под эти железки, тогда и можно будет говорить о чем то, а пока одна такая железка стоит, как 2 неплохих ксеона e5
и эти железки для работы требуют сами по себе мощных дорогих процессоров и рамы, так что преимущество сомнительно, чисто с экономической точки зрения
Хотя сейчас пригляделся к фоткам, ну с ценами они загнули очень сильно.
Ну это первые попытки на западе, сейчас они самую дорогую за 995 баксов продают.
Чтобы такие железки были популярными - нужен хороший стабильный рендер или связь с ведущими производителями рендеров - чтобы они под такое железо свои рендеры затачивали.
А так, конечно у этих не понятно какой рендер за 99 баксов. На форуме практически никого нет. Не понятно кто такие штуки покупает...
Хотя сейчас пригляделся к фоткам, ну с ценами они загнули очень сильно.
Ну это первые попытки на западе, сейчас они самую дорогую за 995 баксов продают.
Чтобы такие железки были популярными - нужен хороший стабильный рендер или связь с ведущими производителями рендеров - чтобы они под такое железо свои рендеры затачивали.
А так, конечно у этих не понятно какой рендер за 99 баксов. На форуме практически никого нет. Не понятно кто такие штуки покупает...
По этому и начал с Vray, мне кажется он наиболее распространен. Нашел неожиданно книжку ту, буду сейчас изучать и делать симуляции. Если подтвердится все, сделаю презентацию для Chaos Group, думаю они очень заинтересуются.
мне так кажется, что если к ней прикрутят основные рендеры, то скорее всего технологию выкупит интел или нвидиа и сделает так, чтоб поддержка была только под ксеонами им же не захочется терять огромную долю рынка, ибо вычислительные системы на базе ксеонов покупают как раз для рендерферм крупные киностудии и не только
мне так кажется, что если к ней прикрутят основные рендеры, то скорее всего технологию выкупит интел или нвидиа и сделает так, чтоб поддержка была только под ксеонами им же не захочется терять огромную долю рынка, ибо вычислительные системы на базе ксеонов покупают как раз для рендерферм крупные киностудии и не только
Я Вам по секрету скажу, что компании уровня Intel/AMD/ATI/NVIDIA такое устройство за месяц соберут. Нет желания, да и спрос на готовые продукты не падает. Не думаю что они зачешутся даже когда пойдет бум таких дивайсов, рынок CPU и GPU они не пошатнут ни капельки.
А как обстоят дела с памятью у этих железяк?
В смысле, вот у меня в работе проект, там одних текстур наверно больше 10 гигов (пачки юдимов по 4К, диффузы, рафнесы, дисплейс, бамп, маски, мейты), плюс геометрия, плюс дисплейс этой геометрии. Если эта железяка не сможет это все сама в себе перемалывать, то хз какой там профит в этом. Вся скорость упадет в тот момент когда придется данные передавать из системной памяти к этой железяке.
Вот надисплейсил я каньон, сожрал рендер 40 с лишним гигов, потом эту геометрию надо лихо так передать в железяку, оттрейсить и вернуть обратно.
Единственный такой пример, этот тот же рендер Редшифт, в котором они заявили использование оперативной памяти, а просчет видеокарточкой, вот как-то хитро. И то большой вопрос, как оно будет работать когда ему такие пачки текстур будут скармливать, не подавится ли.
MpaKo6ec
ну да, особенно когда дело пойдет с проксями, экстерьер к примеру, там же только на всяких скаттерах миллиарды и миллиарды треугольников, пусть и инстансных, но все равно они есть и их надо трейсить
Ну с проксями не так страшно я думаю, они подгружаются когда луч баундинг бокс пересекает. А вот как геометрии задисплейсенной гигов на 30 перекинуть в карту для просчета, уже вопрос))
Сейчас у крупных компаний стойки хорошие, засетапленные рейндер пайплайны, в работе по сути 4 рендера: прман, арнольд, вирей, мантра. Ну и как бы хз к какому месту им ускорители эти прикручивать.
Я бы лучше наверно глянул в сторону геймдевовской ниши, вот там наверняка спрос можно поиметь, чтобы в игрухах рилтаймовые трейсы и ГИ шарашить. Сейчас уже движки на уровне графику выдают, крайтек уже сайнбокс выпустили, как софт для производства превизов, очень крутая штука. https://www.youtube.com/watch?v=XNm_44sY_ds
В общем как когда-то появился физикс как отдельная карта, для просчета физики, сейчас бы могла появиться карта для просчета скажем света и отражений. Я не силен конечно в этих технологиях, чтобы как-то глубоко рассуждать.
А как обстоят дела с памятью у этих железяк?
В смысле, вот у меня в работе проект, там одних текстур наверно больше 10 гигов (пачки юдимов по 4К, диффузы, рафнесы, дисплейс, бамп, маски, мейты), плюс геометрия, плюс дисплейс этой геометрии. Если эта железяка не сможет это все сама в себе перемалывать, то хз какой там профит в этом. Вся скорость упадет в тот момент когда придется данные передавать из системной памяти к этой железяке.
Вот надисплейсил я каньон, сожрал рендер 40 с лишним гигов, потом эту геометрию надо лихо так передать в железяку, оттрейсить и вернуть обратно.
Единственный такой пример, этот тот же рендер Редшифт, в котором они заявили использование оперативной памяти, а просчет видеокарточкой, вот как-то хитро. И то большой вопрос, как оно будет работать когда ему такие пачки текстур будут скармливать, не подавится ли.
On-board память не проблема, можно даже делать платы со слотами расширения оперативкой обычной. Да и не проблема гонять туда-сюда море инфы по PCI тоже, хотя изначально я планировал дивайс с USB интерфейсом для дома, а PCI все же для коммерческих решений. Хотя для USB 3.0 40gb не проблема.
Тут вопрос еще потребует ли имплеменация столько памяти. Сейчас мне видится такая схема: выгрузка всего в ОЗУ, CPU от туда все дергает и параллелит, ускоритель считает. Проблема то не в геометрии или памяти, проблема то в том что нужно решить миллионы многомерных интергральных уравнений методом Монте-Карло, а это значит итерации, а это значит триллионы действий (тактов) для CPU/GPU. Вот это на много серьезнее проблема.
задача очень глобальна конечно, но я все равно скептиком останусь. для тех же игр технология будет предполагать некий сторонниий девайс юсб для довольно сложных задач - рейтрейс в реальном времени. такое нужно склепать или воспользоваться референсным дизайном. и то и другое требует бабла. презентовать раскрученной конторе такое новшество довольно стремная идея. имхо. ну или как всегда идею девайса купит какая нить контора, которую потом выкупит интел или амд, или скорешатся на предмет оптимизации драйверов и получится опять таки спец девайс в разных вариантах по типу квадры и фх сери видях. цена будет запредельной. такое не продадут по нормальной цене.
я тут еще написал разное, но потом мне подумалось, что такое решение хардовое не приживется в играх, это хорошая идея поиметь денег с проф сектора пользователей. и вот все таки, проц всегда во всю пиарился как просчетная единица для этих задач, и с темпами развития технологий, как мне кажется, ведущим компаниям таки не будет проще закупить идею для развития, а все таки купить чтоб загнуть на корню. нафига менять то что есть это как биотопливо и нефть) китайцы вот смогут наверное такое раскрутить на внутреннем рынке, если уже не раскрутили
задача очень глобальна конечно, но я все равно скептиком останусь. для тех же игр технология будет предполагать некий сторонниий девайс юсб для довольно сложных задач - рейтрейс в реальном времени. такое нужно склепать или воспользоваться референсным дизайном. и то и другое требует бабла. презентовать раскрученной конторе такое новшество довольно стремная идея. имхо. ну или как всегда идею девайса купит какая нить контора, которую потом выкупит интел или амд, или скорешатся на предмет оптимизации драйверов и получится опять таки спец девайс в разных вариантах по типу квадры и фх сери видях. цена будет запредельной. такое не продадут по нормальной цене.
я тут еще написал разное, но потом мне подумалось, что такое решение хардовое не приживется в играх, это хорошая идея поиметь денег с проф сектора пользователей. и вот все таки, проц всегда во всю пиарился как просчетная единица для этих задач, и с темпами развития технологий, как мне кажется, ведущим компаниям таки не будет проще закупить идею для развития, а все таки купить чтоб загнуть на корню. нафига менять то что есть это как биотопливо и нефть) китайцы вот смогут наверное такое раскрутить на внутреннем рынке, если уже не раскрутили
USB я задумывал как "переносной" вариант, пока еще не ясно до конца реально ли сделать его с таким интерфейсом, но PCI всегда доступен. Да и применение в геймдеве подобных рендеров требует кучи подготовительной работы со всех сторон.
Это устройство будет лично под Vray. Хотя бы небольшой шаг в сторону от каноничного алгоритма и ускорят оно уже ничего не будет, хотя технологически возможно выпускать его с кучей прошивок под каждый рендер отдельно. Так же оно все равно не хило будет грузить CPU, все эти распараллельные вычисления сначала нужно будет раскидать по ядрам дивайса, потом собрать обратно, это тоже серьезная задача. О рейтрейсе в RT заикаться пока рано, пара таких чипов спокойно перегрузят своими вычислениями мощный CPU.
Никто пока особо не гонится за этой темой, кроме американцев о которых писали выше. Судя по тому что я о них прочитал, они пошли по пути интеграции в GPU (сделали свой рендер, свой ускоритель, свой открытый язык для ускорителя), т.е. собираются пройти путь AGEIA с её PhysX. Я, кстати, удивлен что они за 2 года показали 1 решение на FPGA чипах, имея на рука свой рендер, можно было бы собрать ASIC под него и значительно усилиться. Да и сама платформа FPGA позволяет масштабироваться не кисло, PCI платы с различными чипами от 300 до 6к уе, а у них всего 2 платы, причем вторая просто с двумя чипами. Странно это, может долго мучились с OpenRL и рендером своим.
Думаю Chaos и без меня прекрасно понимают в чем плюсы появления на рынке лично их ускорителя. Кто победит в этой гонке, тот и будет nextgen RT render. Я совсем не понимаю почему может быть стремно идти к ним с такой идей, тем более что уже есть готовый конкурент и нужно догонять.
Ну а по поводу CPU - это просто маркетинг. Как только к GPU стали добавлять большие массивы сопроцессоров, сразу задумались о переносе просчета туда. Потому что мегагерцы мегагерцами, а много ядер - это много ядер. Плюс не забываем о том, что ядро ядру рознь, и для расчетов рендера не нужны все эти SSE2-SSE3-5-10-100500, куда лучше будет специально заточенное под это дело ядро. Имей в виду что чип американцев работает на частоте 200-250mhz и скорее всего в несколько раз превосходит рабочую станцию по производительности, ну а два чипа вообще требуют сервака двухпроцессорного для обработки их вычислений.
Надеюсь больше ничего не захочу добавить, устал чет дописывать)
на мной взгляд идея бредовая, если вы хотите создать железку для ускорения рендера, то вам потребуется оооооочень много денег и куча времени, а к тому моменту, когда создадите она будет уже неактуальна, ибо развитие процессоров идет по экспоненте, сейчас во всю продаются 10 ядерники, а года через 1.5-2 уже 20-40 ядерники могут появиться
не соглашусь ... тк главное начало , а в начале тяжело - пусть делает пусть устареет опыт вещь не заменимая плюс потом созддаст уже полную версию железяки все когда то с чего то начиналось
Проблема в том, что человек не понимает что развитие идет во всех областях. Да CPU используют передовые тех. процессы, а вся остальная электроника "донашивает" технологии за старшим братом. Но и не всегда нужно иметь топологию 22нм. Не нужно все мерить только в нанометрах или количестве ядер. Нужно оценивать производительность при конкретной задаче, а она зависит от комплекса факторов. Условно говоря CPU сделаны чтобы решать весь спектр вычислительных проблем предлагаемых софтом, по этому они всегда будут проигрывать узко ориентированным решениям. Можно сравнить это с машинами. Вы можете купить себе жип для езды на каждый день и Вам будет все равно где ехать асфальт/грязь. Вы даже можете участвовать на нем в кольцевых гонках, но обязательно проиграете подготовленной для таких гонок машине.