Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 18 lutego 2019 
    

Pracownik AMD krytykuje technikę Nvidia DLSS


Autor: Zbyszek | źródło: PCGamesN | 06:16
(16)
Firma AMD postanowiła odnieść się do wprowadzonej przez Nvidia techniki wygładzania krawędzi DLSS (Deep-learning Supersampling). Rozwiązanie bazuje na algorytmach uczenia maszynowego i sztucznej inteligencji, i za ich pomocą wygładza krawędzie wyświetlanych przedmiotów. Dzięki temu uzyskany obraz jest lepszej jakości, a sama gra działa płynniej niż w przypadku użycia klasycznej techniki wygładzania krawędzi. Do obliczeń zaprzęgane są rdzenie Tensor, które odciążają procesory strumieniowe (CUDA), co pozytywnie wpływa na ilość wyświetlanych klatek. Tymczasem technikę DLSS skrytykował Sasa Marinkovic, dyrektor marketingu w AMD.

W wywiadzie udzielonym serwisowi PCGamesN, stwierdził on, że DLSS nie gwarantuje zbyt dobrych efektów wygładzania krawędzi, i co więcej, uzyskane efekty są niewspółmierne do spadku wydajności powodowanego przez DLSS. Innymi słowy, według niego rozwiązanie mimo że powoduje trochę mniejszy spadek fps niż klasyczne techniki wygładzania krawędzi, to stosując klasyczne AA można uzyskać znacznie lepszą jakość wygładzani krawędzi przy niewielkiej różnicy w fps.

Jak dodał, AMD zamierza uświadamiać graczy prezentując bezpośrednie porównanie jakości wygładzania krawędzi techniką DLSS do jakości uzyskiwanej przy zastosowaniu SMAA (Subpixel Morphological Antialiasing) i TAA (Temporal Antialising). Dodatkowo mają być one nadal ulepszane przez AMD, w celu uzyskiwania lepszej wydajności bez spadku jakości.



 
    
K O M E N T A R Z E
    

  1. dlss (autor: Markizy | data: 18/02/19 | godz.: 09:27)
    potrafi sam ciąć detale co pokazano w metro :)

  2. oj no to (autor: pawel1207 | data: 18/02/19 | godz.: 10:40)
    znaczy ze amd nie ma odpowiedzi na dlss jak i na rt no i podnosl sie pisk.

  3. pawel1207 (autor: Markizy | data: 18/02/19 | godz.: 11:50)
    odpowiednik upscaling pod nazwą dlss, które potrafi siać artefaktami? Czy tak szeroko wykorzystywane RT które trafiło ledwie do dwóch tytułów pomimo szumnych zapowiedzi, i to tytułów które finalnie zostały chłodno przyjęte?

    Naprawdę ciężkie armatki zieloni wytoczyli przeciwko czerwonym.


  4. Całe to DLSS to generalnie pic na wodę (autor: kombajn4 | data: 18/02/19 | godz.: 14:10)
    fotomontaż jak na razie:
    https://www.youtube.com/...?v=3DOGA2_GETQ&t=2s


  5. @temat. (autor: Mariosti | data: 18/02/19 | godz.: 15:08)
    Jak tak się człowiek zastanowi jak sieci neuronowe działają to szczerze mówiąc to implementacja czegoś takiego w grze nie ma w ogóle sensu bo co oni trenują... każdy możliwy viewport? Z definicji gry gdzie mamy wolność ruchu, a świat jest renderowany na żywo, nie ma to zbyt wiele sensu.

    Użycie sieci neuronowych do kompresji obrazów statycznych, jak najbardziej. Użycie dynamicznych sieci do kompresji filmów, być może też możliwe. Ale wykorzystanie tego w grze brzmi jak bełkot. Mogą je uczyć 100 lat a i tak nie będzie to działać, ewentualnie sieć będzie tak dużych rozmiarów że potrzebne będą dedykowane akceleratory do jej obsługi...

    Szczerze, te tensore cores nadawały by się genialnie do po prostu obsługi lepszego AI w grach...

    Ale tak to jest jak robisz klienta w bambuko i potem starasz się go przekonać że 100% wyższe ceny wynikają z super rtx i dlss których to konkurencja nie ma... Lol, konkurencja nie ma raka no i czy to coś złego?


  6. byłoby dziwne (autor: Sony Vaio Zamiatajo | data: 18/02/19 | godz.: 19:39)
    aby pochawlili NVidie,przeciez sami nic takiego nie mają. Trzeba więc drzeć mordę na całęgo, tak jak było z dziurami Intela.

  7. czyli to po lewej (autor: Wyrzym | data: 18/02/19 | godz.: 20:54)
    niewyrazne, pomazane jest lepsze niz to po prawej wyrazne i ostre ... ?
    ja tu nic nie rozumiem ale ok :]


  8. Markizy (autor: pawel1207 | data: 18/02/19 | godz.: 23:02)
    technik upscalingu sa dziesiatki :D dlss ma ta zalete ze mozna go wytrnowac i w przyszlosci porawic zarowno od strony sprzetowej jak i programowej jesli nie rozumiesz czym sie rozni upscaling robiony przez ai typowy algorytm to poszukaj w google w niektorych przypadkach wyglada to super tak ze w przypadku dlss a jest szansa na poprawe i to znaczna ..

  9. @8. (autor: pwil2 | data: 19/02/19 | godz.: 00:20)
    Może kiedyś AI będzie potrafiło dodawać w Twoich wypowiedziach kropki i przecinki, by dało się to czytać ;-)

  10. pawel1207 (autor: Markizy | data: 19/02/19 | godz.: 07:32)
    wytrenujesz jak masz przewidywalną ścieżkę która leci za po sznurku. Przy dowolnym ruszaniu kamerą niestety to się nie uda i nie wytrenujesz.

    Wyrzym
    screeny pochodzą prawdopodobnie z benchmark a nie z gry. Przykład z gry metro
    https://images89.fotosik.pl/...bc0617ac19f848c.png
    i filmik z BF
    https://www.youtube.com/...?v=3DOGA2_GETQ&t=5s


  11. @5. (autor: Tomasz | data: 19/02/19 | godz.: 12:37)
    Można nauczyć AI aby zrobiło Real Time Defocus: https://youtu.be/Do_00r8NGMY

  12. Pracownik AMD krytykuje technikę Nvidia DLSS (autor: Marucins | data: 19/02/19 | godz.: 13:51)
    TAA i SMAA to świetne technologie - dużo lepsze odzwierciedlenie mają w jakości obrazu niż bełkot DLSS.
    Ci co widzieli w akcji DLSS wiedza że mija się to (KOLEJNY RAZ) z materiałami prezentowanymi przez nVidię! Cholerni ściemniacze.


  13. @11. (autor: Mariosti | data: 19/02/19 | godz.: 17:27)
    Absurdalnym wydaje mi się używanie AI do tego, skoro silnik graficzny ma te wszystkie informacje i nic nie musi dedukować tudzież aproksymować.

    W sensie silnik wie dokładnie jaki jest dystans od każdego viewportu do konkretnych trójkątów ponieważ jest to konieczne do w ogóle renderowania sceny.
    Dodatkowo "line of sight" dla wszystkich renderowanych obiektów jest i tak liczony przez silnik graficzny ponieważ jest to podstawowa optymalizacja we współczesnych silnikach graficznych.

    Także bardzo fajnie jeśli im się to udało bez wykorzystania wewnętrznych danych z silnika renderującego ale z definicji wygląda to na pracę naukową do zdobycia tytułu. W praktyce wykorzystanie AI do tego celu jest totalnie bez sensu i sugeruje braki elementarnej wiedzy.
    Dodatkowo sugerowanie że 20-50ms overhead na klatkę to dobry wynik dla tylko jednego efektu graficznego jest nieporozumieniem.
    Efekt ten zaimplementowany na poziomie silnika graficznego zapewne mieściłby się w ~5 ms (sam algorytm defocusu z uwzględnieniem źródeł światła pochłonie większość zasobów, może nawet więcej przy dobrej jakości).

    Ciekawe jest jakie dane wejściowe faktycznie wykorzystuje ten algorytm ai do wykrywania dystansu od obiektów, bo jeśli wykorzystuje tylko wynikowe obrazy w viewportach i poprawne mapy głębokości do uczenia, to na prawdę fajnie że to działa, ale jakoś wątpię aby było to choćby przeciętnie uniwersalne (w sensie najpewniej każda scena wymagałaby kilka zestawów uczenia kilku wersji sieci tak aby z dobrą dokładnością zadziałać w czasie robienia tego testu przy dowolnym ustawieniu viewportu w scenie. Czyli zasadniczo byłoby to coś podobnego do rozwiązania nvidii w tym sensie że jest zerowo uniwersalne i ogromnie zasobożerne w przygotowaniu.

    Dlaczego tak jest wg mnie? Bo człowieka w dedukcji wymiarów obiektów które zna da się banalnie łatwo oszukać i głębię dedukować można sensownie tylko widząc geometrię znanych figur, jak np prostokątów i mniej więcej znając ich rozmiar. Tak czy siak wzrok człowieka nic nie dedukuje tylko działa na bazie optyki co oznacza że zawsze działa jak należy w kontekście tego "defocusu" i nie da się go oszukać tak po prostu.
    Dla takiego AI wystarczy że wstawisz nową postać o innej kolorystyce, kształcie, itp i już nie będzie to działać.


  14. @13. (autor: Mariosti | data: 19/02/19 | godz.: 17:29)
    Także podsumowując, AI ma świetne zastosowanie w grach. To zastosowanie to AI.
    Szkoda że tyle energii idzie w zasadniczo bezsensowne siłowe zastosowania które nigdy nie powinny być czymś więcej niż demami technologicznymi.


  15. Heh (autor: Shamoth | data: 21/02/19 | godz.: 11:00)
    A nie mogli by w porozumieniu z developerami dopracować AA bazującego na wykrywaniu krawędzi. Potem jeszcze kwestia AA dla przeźroczystości i koniec pieśni. Nie znam się ale czasem podglądając "silniki" ile "warstw" ma renderowany obraz zastanawiam się czy naprawdę takim problemem byłoby dodanie warstwy która wspomagała by AA na krawędziach obiektów? Przecież z buffora Z wiadomo jakie obiekty są zasłonięte i nie będą renderowane. Można je wtedy poddać na szybko indeksowaniu i wyznaczyć miejsca "styku" w których należy przeprowadzić AA i jedynym ustawieniem byłoby czy wyjściowe 2 piksele mają być opracowane z 2, 4, 6, 8 czy ilu tam sąsiadujących...

  16. Great (autor: abbybrook598 | data: 28/02/19 | godz.: 07:45)
    This topic is so interesting. Thanks to this thread, I now know something from this topic. I also find the shared information very important. I look forward for more helpful information from this thread. https://games.lol/horror/


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.