

- Комментарии
- Форум
-
Аналитики: Шансы Microsoft на покупку Activision Blizzard выросли с 50% до 70% после решения британских регуляторов
25 -
Тюр из God of War: Ragnarok еще может вернуться - актер дал намёк фанатам
15 -
DFC Intelligence: Xbox Series X|S не сможет потеснить PlayStation 5 с лидерских позиций в 2023 году
11 -
Датирована премьера триллера "Гипнотик" с Беном Аффлеком
8 -
Valve использует The Last of Us Part I для рекламы Steam Deck
9
На CES 2022 искусственный интеллект стал важной частью презентации NVIDIA, как и во всей работе компании. В cети появились слухи, что инженеры работают над драйверами, оптимизированными ИИ, а их выпуск должен состояться в первом квартале 2023 года.
Информатор CapFrameX утверждает, что новые драйверы способны увеличить производительность на 30%. Точная информация о том, какое поколение видеокарт получит данное обновление, отсутствует. Предполагается, что оно коснётся RTX 40 на базе Ada Lovelace и RTX 30.
Искусственный интеллект помогает NVIDIA во многих областях. Например, с технологией DLSS, обеспечивающей рост производительности в играх. Он также помогает в работе облачного сервиса GeForce NOW, который недавно был обновлён до GeForce RTX 4080.
Читайте также: Sony составила список главных игр 2023 года для PlayStation 5.
Подписывайтесь на наш Telegram канал, там мы публикуем то, что не попадает в новостную ленту, и следите за нами в сети:
Telegram канал Google Новости Яндекс Новости Яндекс Дзен- 26.03.2023 ПК-версия The Last of Us Part I стала доступна для предзагрузки в Steam — релиз уже во вторник
- 26.03.2023 "2020 — ?": Microsoft тизерит новую консоль Xbox после Xbox Series X|S
- 26.03.2023 Адвокат Джонатана Мейджерса: Актер невиновен и стал жертвой ссоры с женщиной
- 26.03.2023 Фильм "Джон Уик 4" побил рекорд франшизы по стартовым сборам
- 26.03.2023 Раскрыта информация о графических режимах Final Fantasy XVI для PlayStation 5
- 26.03.2023 Опубликованы новые кадры и датирована премьера сериала "Ходячие мертвецы: Город мертвых"
У меня все еще обида, что DLSS 3.0 нет на не 4000 RTX. И внятно так и не объяснили, из-за чего такие ограничения, ибо "тензорки не те" звучит как отговорка, а 3.0 - тупа маркетинговый ход. 3070 ti обходила по производительности в играх 2080 ti.
А 4070 Ti на одном уровне +- с 3080 Ti в голой производительности, прирост дает только DLSS 3.0.
На релизе 4000 кто то хвастал, что смог худо бедно запустить новый DLSS на 2070, с некоторыми костылями и проблемами, но прирост в кадрах был существенный. Опять же никаких пруфов не привел.
ИИ увеличивает скорость драйверов, что новые видюхи больше не нужны.
У 4070ti паритет с 3090ti, с видеокартой, которая была промежуточным этапом между 3000 и 4000 поколениями и явно не является аналогом 2080ti.
У 4070ti прекрасная производительность, даже без FG технологии. Соответствует ли эта производительность цене - вопрос дискуссионный, но одно наверняка - низких цен за такую производительность можно больше не ждать.
AMD: дровами подтягивает производительность старых видеокарт на 30-50% за пару лет.
NVIDIA: эксклюзивные драйверы для RTX 30- и 40-
Ну и зачем тебе длсс 3.0 этот?
@SnakeRman Мб для более высокого ФПС при более лучшей картинке?
Толи 50 кадров, толи 80. Есть разница?
ЫЫ прогревает видюху для большей скорости дров, вот так-то. ))
Если ты думаешь, что нарисованные кадры ощущают также, как и выглядят, то ты ошибаешься. Кадры в играх тебе делает процессор. Сгенерить их можно сколько угодно, но ощущаться они у тебя будут всё равно также как раньше, разве что выглядеть плавнее (как уплавнялка в теликах). Иными словами если твой проц не может вывезти больше 30 фпс в игре, то нарисованные 120 по инпуту и ощущениям будут ничегм не лучше этой тридцаточки. Я, конечно, утрирую, но я надеюсь, что саму мысль ты уловил. Халявные кадры это круто, но одно дело, когда они достигаются путём уменьшения нагрузки на видяху, когда у процессора еще большой запас, но когда у тебя видеоряд становится плавнее, как при помощи уплавнялок в телевизорах, без плавности и отзывчивости в управлении это совсем другое. Так долго играть ты не захочешь.
Я бы тоже так говорил, если бы купил 3080Ti аккурат перед выходом 4080)
какая связь? 4080 банально быстрее 3080ти и без всяких этих длсс 3.0
Да и купил ты 3080ти скорее всего не за 100+ тысяч рублей, а за куда меньшую сумму.
Помню, как 3080Ti стоила ~100К рублей и это было очень дёшего после спавшего бума майнинга. Но лично я ничего не покупал. Сижу на 2070 и норм. Играю не так много последнее время, а там где играю - хватает связки DLSS 2.0 + DLDSR. Постоянный апгрейд выматывает. Купишь карту, а через год она уже устарела. Жду времён, когда наступит эра литографического тупика и наращивать мощности придётся не увеличением кол-ва транзисторов, а качественными архитектурными улучшениями. В этом плане модульная архитектура AMD выглядит более перспективной, хотя мне такой подход и кажется проблемным (по сути что-то вроде SLI/CrossFire, но с меньшими проблемами).
@SnakeRman Чот ты навертел. Если выдается 80 кадров, то и ощущаются они как 80.
30 как 30. Какой инпут в 120 при 30, отработаных камнем? Если камнем 30 отработаны, то и 30 будет отображено, и не важно какой ГПУ. Или хочешь сказать, что DLSS мне просто в фреймрейте на балду + кадры рисует? Без dlss в анче4 у меня 80-90 кадров в среднем. С DLSS - 100-120. Разница ощутимая визуально и по ощущениям.
И при чем тут проц? Я изначально вообще говорил про DLSS. Если ты своим сумбуром пытался привести, что DLSS не выдаст больше кадров чем отработает проц - ну да. Но к чему ты это выдал, если я вообще про другое.
@WarlokIII ты не знаешь что такое ДЛСС3 и еще спорить пытаешься, молодец
с длсс2, которое разгружает видяху, а длсс3 генерит кадры лол, это даже не длсс, а просто назвали так, чтобы ты схавал. И походу успешно.
@zzzombie1989 Она сейчас стоит полтос, что вообще копейки, карта топовая даже сейчас. Что касается 4080, то это деньги на ветер, кроме 3090, при наличии 3080ти и выше, брать ничего другого смысла нет. Если у тебя 2к монитор, то точно.
ммммм, мыльцо)
Раз в год видяху воткнуть впадлу?) Да и 2070 уже 3 года, ты три года не менял видяху получается, если купил её не вчера условно. Так что тебя так могло вымотать?
ну жди, а ребята поиграют на ультрах в актуальные проекты)
Хотя главное, чтобы тебе нравилось)
@SnakeRman генерит кадры за счет ИИ и тензорок, ты мне про проц тютишь.
И технология эта юзает то, что уже было в старых RTX, просто более активно.
Я знаю как это все работает, и еще раз - разговор был не за это.
А за то что эта "новая" техна не доступна на старых RTX от слова "совсем", хотя возможность есть. Какой то левый тип без пруфов говорил, что удалось запустить на 2070. Сами nVidia говорили, что запустить возможно, но с меньшим плюсом, чем на 4000, но все же лучше чем с 2.0. С некоторыми багами лагами, но думаю - это лечимо.
Со всеми этими коммерческими трюками FSR выглядит привлекательнее, но только в перспективе. Выглядит она отвратно пока что.
@WarlokIII ты будь внимательнее, я тебе говорю ,что если у тебя будет 200 кадров сгенерировано, а проц в свою очередь может выдать лишь 100, то ты будешь ощущать 200 как 100. Визуально будет плавнее, но не по ощущениям.
@SnakeRman А я про что? Видеокарта - это рендер, генерит не генерит. Проц - это отрисовка (генерация) кадров. Но как бы если достойный проц, а я не думаю, что к условной 4090 будут вставлять условный FX, то он справится с генерацией оптического потока.
И думаю, пусть генерация будет меньше на старых RTX, но все же она превосходит производительность dlss 2. Вот кто бы не отказался от 10-20+ кадров при той же картинке? Владельцы 2060/3050 точно бы такому были бы рады.
@WarlokIII ну например 13700 выдаёт в пауке 200 кадров, а сгененрить там можно и все 300. 200 кадров это не мало, но сам факт как бы. У тебя упор в проц. И это 13700, он не у всех и каждого, ждаже кто с 4090 на борту.
Это я про что лалка ёпт
Вообще плевать на генерацию, это искусстевенные кадры, смысла в них практически нет.
Да блет, длсс это асолютно другая технология лалка ты
жесть ты клоун, как со стеной
у меня 150 кадров, на кой мне еще 20?
обе неактуальны даже на момент выхода, слабее 1080ти даже, в ртх не могут полноценно.
@SnakeRman
Еще я лалка и клоун. Если в игре кадры не залочены - проц может выдать столько сколько сможет. и 100 и 200 и 1000. То что видишь - это упор рендера карты в разрешение картинки. Если проц может выдать "200 кадров", а карта в заданном разрешении нет - на то эти приколы масштабирования и генерации и нужны.
Если ты дальше срешь со своей колокольни - это твое видение. А тем, у кого 40 кадров +10 кадров - значительный прирост. До нынешней карты сидел на 1050 ti, и знаешь,в кибербуле с FSR 45 кадров и без 30 - разница колосальная. Ну чуть мыла, и что. С такой донской картой изначально не на картинку расчитываешь, а лишь бы играбельно было
И дальше со своей колокольни. Не все, как ты нагребли себе 3090ti. Кому то (большинству) такие технологии пригодятся. В этом плане АМД поклон.