«Самый большой прорыв в компьютерной графики со времён трассировки лучей». Nvidia представила технологию DLSS 5, которая кардинально меняет картинку
Компания Nvidia только что провела свою презентацию и представила то самое будущее рендеринга в реальном времени, о котором сегодня упоминала. И называется оно DLSS 5.
И нет, это вовсе не просто очередная итерация технологии. Сама Nvidia говорит, что это самый большой прорыв в компьютерной графике со времён появления трассировки лучей. И это тот самый нейронный рендеринг, который нам обещали.
Цитата:
DLSS 5 представляет собой модель нейронного рендеринга в реальном времени, которая наполняет пиксели фотореалистичным освещением и материалами. Преодолевая разрыв между рендерингом и реальностью, DLSS 5 позволяет разработчикам игр создавать новый уровень фотореалистичной компьютерной графики, ранее достижимый только в визуальных эффектах Голливуда.
Для начала нужно просто посмотреть на презентацию, чтобы понять, что создала Nvidia, так как словами это описать сложно.
Как можно видеть, DLSS 5 кардинально меняет картинку в играх. В Сети уже активно сравнивают эффект с бьюти-фильтрами в различных приложениях и камерах смартфонов, и тут сложно не согласиться.
Хотя сама Nvidia и говорит, что DLSS 5 оперирует лишь цветом и светом, но на демонстрации мы видим иное. Лицо Грейс из Resident Evil Requiem в целом становится просто другим. Конкретно в этом случае DLSS 5 явно увеличивает губы, дорисовывает на них трещинки, которых вообще нет в оригинале, и очень сильно обрабатывает глаза. Фактически у персонажа лицо становится совсем не таким, каким его создали дизайнеры, и это основной вопрос к технологии. Более того, Nvidia вообще ничего не говорит об аспкейле картинки. Судя по всему, DLSS 5 вообще не повышает разрешение. Вполне вероятно, что апскейлер в основе останется тем же, который сейчас есть в DLSS 4/4.5, а все новшества касаются исключительно красоты картинки. Благо, компания отмечает, что у разработчиков будет возможность настраивать интенсивность всех этих ИИ-фильтров.
Цитата:
Модель ИИ обучается сквозным методом для понимания сложной семантики сцены, такой как персонажи, волосы, ткань и полупрозрачная кожа, а также условий освещения окружающей среды, таких как фронтальное освещение, контровое освещение или пасмурная погода — и все это путем анализа одного кадра. Затем DLSS 5 использует свои глубокие знания для генерации визуально точных изображений, которые обрабатывают сложные элементы, такие как рассеяние света под поверхностью кожи, тонкий блеск ткани и взаимодействие света с материалом на волосах, сохраняя при этом структуру и семантику исходной сцены.
DLSS 5 предоставляет разработчикам игр детальные возможности управления интенсивностью, цветокоррекцией и маскированием, позволяя художникам определять, где и как применяются улучшения для сохранения уникальной эстетики каждой игры. Интеграция осуществляется без проблем, используя ту же платформу NVIDIA Streamline, что и существующие технологии DLSS и Reflex.
Известно, что DLSS 5 на первом этапе появится в таких играх, как AION 2, Assassin's Creed Shadows, Black State, Cinder City, Delta Force, Hogwarts Legacy, Justice, NARAKA: BLADEPOINT, NTE: Neverness to Everness, Phantom Blade Zero, Resident Evil Requiem, Sea of Remnants, Starfield, The Elder Scrolls IV: Oblivion Remastered, Where Winds Meet и многих других. Доступна она станет когда-то осенью и только на видеокартах GeForce RTX 50.
Выглядит как прикол на 1 апреля. На видео же видно что это фейк, все крайне ИИшно и не натурально. Если это действительно выпустила сама Nvidia, то это дно дна.
Нейрослоп в видео - фигня..
А вот в играх смотрится шикарно. Намного лучше оригинала.
Если будет без особых потерь, пусть. Ну или в тех играх где частота кадров/задержка не критична.
Доступна она станет когда-то осенью и только на видеокартах GeForce RTX 50.
В DLSS 5 FAQ написано что демо с DLSS 5 запускали на ДВУХ RTX 5090, соответственно уже сейчас можно сделать предположение что идет прогрев геймеров на то что для запуска DLSS 5 потребуется две видеокарты (по крайней мере для разрешения 4К и выше), а вот RTX 6080 потянет и одна. Скорее всего осенью будет анонс игровой RTX 60 на Rubin архитектуре и ускоренной обработкой DLSS 5.
идет прогрев геймеров на то что для запуска DLSS 5 потребуется две видеокарты
Интересно, каким образом? Последняя видеокарта с SLI выходила лет десять назад.
А по теме: охренеть, они, видимо, реально гордятся этим нейрослопом. У них апскейлер на глазах превращает 70-летнюю бабку в 90-летнюю, а они это прям в видео суют, мол, вона че могём.
Предварительная демонстрационная версия DLSS 5, показанная на GTC, работала на двух видеокартах GeForce RTX 5090. Одна RTX 5090 была выделена для рендеринга игры, а другая — для запуска модели DLSS 5.
По сути технология SLI и не нужна здесь (нет рендеринга экрана пополам или рендеринг четные/нечетные кадры). Сейчас и без SLI можно одну видеокарту отдать под графику, а вторую под PhysX.
Предварительная демонстрационная версия DLSS 5, показанная на GTC, работала на двух видеокартах GeForce RTX 5090. Одна RTX 5090 была выделена для рендеринга игры, а другая — для запуска модели DLSS 5.
Я читал это. Только там, вероятно, использовался серверный стенд на NVLink. Эта технология существует уже очень давно, но что-то как-то мы на двух картах не сидим. Видимо, потому что технология изначально не потребительская, поддерживают ее только топовые видеокарты, требует она специфического железа и используется для профессиональных задач, как раз, как в данном случае. Если бы Хуанг так хотел продавать всем по две видюхи, он бы просто сохранил поддержку потребительского SLI.
У RTX 5090 физически нет на плате порта NVLink для объединения двух видеокарт. Даже у более дорогой версии для профессионального использования RTX PRO 6000 Blackwell нет NVLink, потому что он здесь не требуется, взаимодействие между картами осуществляется через PCIe Gen 5. В тестовом стенде GTC одна видеокарта была задействована для CUDA ядер и RT ядер, а вторая задействовала тензорные ядра для DLSS 5, соответственно 1 видеокарта использовала 600W мощности для CUDA ядер и RT ядер, а вторая использовала 600W чисто для тензорных ядер. Соответственно не было деление общей мощности в 600W одной видеокарты между CUDA/RT/тензорными ядрами как обычно бывает.
В тестовом стенде GTC одна видеокарта была задействована для CUDA ядер и RT ядер, а вторая задействовала тензорные ядра для DLSS 5, соответственно 1 видеокарта использовала 600W мощности для CUDA ядер и RT ядер, а вторая использовала 600W чисто для тензорных ядер. Соответственно не было деление общей мощности в 600W одной видеокарты между CUDA/RT/тензорными ядрами как обычно бывает.
Выглядит, как крутая профессиональная сборка для демонстрации технологии, только я сильно сомневаюсь, что Хуанг настолько тупой, что ожидает, что это купят потребители хоть в сколь-нибудь значимых количествах. Я ж говорю: хотели бы продавать по две карты — оставили бы SLI. Идея с двумя картами не взлетела даже в куда более благополучные 00-10-е, а уж с нынешними ценами на память она звучит, как анекдот. Да и сама суть апскейлеров в том, что они бустят фреймрейт там, где карта не вытягивает, ценой определенного ухудшения изображения. Никто не будет брать две 5060, если этому кому-то и так не хватает на 5080.
Выглядит слишком уныло, слоп прям лезет из всех щелей. Натренировали нейронку на фотомоделях в студии и в играх все освещение просрали - просто гляньте на тени на бабке из хогвартса или студийное освещение на персах в старфилде.
- Я бы, во-первых, с ними не стал бы говорить просто. Они мне отвратительны! Я бы лучше говорил с жуками, с комарами, с клопами, с мышами, с крысами. Но только не с ними. Если им стыдно быть русским, хочется быть против своей страны то мне противно думать и отвратительно думать о них. Я не хочу употреблять никак
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете голосовать в опросах Вы не можете прикреплять файлы к сообщениям Вы не можете скачивать файлы