TwojePC.pl © 2001 - 2024
|
|
Piątek 1 marca 2019 |
|
|
|
Nvidia chwali się usprawnionym NVENC i poprawkami w OBS Autor: Wedelek | źródło: Nvidia | 05:45 |
(28) | Streaming gier jest coraz popularniejszy i niestety z uwagi na coraz wyższe rozdzielczości monitorów wymaga więcej mocy obliczeniowej. Dlatego też profesjonaliści przechwytują obraz z gry przy pomocy drugiego PC wyposażonego w odpowiednią kartę do zgrywania obrazu. Równolegle producenci sprzętu i oprogramowania rozwijają algorytmy wykorzystujące moc karty graficznej do przechwytywania obrazu. Nvidia wraz z GPU Kepler wprowadziła do swoich kart sprzętowy dekoder nazwany NVENC. Jest on sukcesywnie ulepszany i obecnie zdaniem producent układ ten może w pełni wyręczyć dodatkowego PC podczas strumieniowania wideo bez zauważalnego spadku FPS w grze.
NVENC w nowych RTXach jest o 15% efektywniejszy niż jego poprzednik co oznacza, że ilość wyświetlanych klatek na sekundę podczas nagrywania spada właśnie o 15% mniej niż na GTXach z GPU Pascal.
Z jego zalet w pełni potrafi korzystać oprogramowanie OBS w wersji 23, które na tej samej konfiguracji potrzebuje znacznie mniej zasobów sprzętowych obciążając CPU w 1,5% zamiast 23% jak w starszej wersji. W rezultacie klatkaż w testowanych grach przy rozdzielczości 1080p spadł o zaledwie 4% (wartość uśredniona). Jednocześnie poprawie uległa jakość wyjściowego wideo, która jest wyższa niż w przypadku x.264 Fast. Zalety nowej wersji OBSa dostrzegą również posiadacze starszych kart Nvidii, ale będą to zmiany wyraźnie mniejsze niż w RTXach.
Wiadomość ta powinna ucieszyć w szczególności domorosłych streamerów, którzy nie chcą lub nie mogą wydać dodatkowych środków na drugiego PCta. Profesjonaliści natomiast zapewne nadal będą korzystać z dodatkowych maszyn, aby osiągnąć jak najlepszą jakość obrazu.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Może się myle (autor: kombajn4 | data: 1/03/19 | godz.: 07:21)
ale "profesjonaliści" to mają procesory 8 lub 16 rdzeniowe i nie muszą sobie zawracać głowy ułomnym kodowaniem na GPU tylko lecą na CPU nie przejmując się dodatkowym obciążeniem.
- Ludzie (autor: Marian30pl | data: 1/03/19 | godz.: 08:47)
kupujcie te RTXy, jak nie zwykli gracze to chociaż streamerzy. No ktoś musi chyba...
- Czyli za 5000,- cienie pod nogami mrówek będą mnie poklatkowane. (autor: Micky | data: 1/03/19 | godz.: 08:50)
jw.
- kombajn4 (autor: Markizy | data: 1/03/19 | godz.: 09:42)
nie zapominajmy o profesjonalnych kartach do streamowania
np Avermedia Live Gamer HD 2
- xxxx (autor: zakius | data: 1/03/19 | godz.: 12:33)
no a jak tam jakość, nadal trzeba trzykrotnie zawyżać bitrate żeby cokolwiek było widać? i to przy zrzucie na dysk, bo przy strumieniowaniu to i to nie pomaga?
- @2. (autor: pwil2 | data: 1/03/19 | godz.: 13:05)
Ten drugi obrazek to z DLSS? ;-)
Później się okaże, że ten pierwszy był kręcony smartfonem ;-)
- Ach nvidia... (autor: Atak_Snajpera | data: 1/03/19 | godz.: 14:54)
Każdy kto zajmuje się kompresją wideo i ma IQ powyżej 100 wie że wskaźnik PSNR (Peak signal-to-noise ratio) można sobie w pupe sadzić. Wyższy wynik PSNR ma się nijak do tego jak ludzki mózg postrzega detale w obrazie. W praktyce im wyższy PSNR to obraz wychodzi taki jakiś przesadnie rozmyty. Już pomijam fakt robienia screenshotów porównawczych gdzie można bardzo łatwo wybrać jedną klateczkę ,która ma niższą jakość.
- kalatkaż... Qrła, ręce opadają (autor: Duke Nukem PL | data: 1/03/19 | godz.: 17:13)
Czy komuś tu cukier zaszkodził?
- @7. (autor: pandy | data: 1/03/19 | godz.: 18:05)
I tak i nie... - nie napisałeś że nie istnieje obiektywny sposób pomiaru subiektywnej jakości.
PSNR jest wyznacznikiem obiektywności kodeka z matematycznego punktu widzenia w szczególnych, ściśle wyznaczonych granicach.
- do 9 (autor: Atak_Snajpera | data: 1/03/19 | godz.: 19:38)
Jak już koniecznie chcesz bawić się w magię liczb to zainteresuj się VMAF
https://github.com/Netflix/vmaf
- Jak kombajn4 napisal... (autor: gantrithor | data: 1/03/19 | godz.: 20:06)
wielu streamerow poprostu wymienilo 4 rdzeniowe procesory na 8 lub 16 rdzeniowe a drugi komp w zamysle uzywany do nagrywania filmow zostal sprzedany bo po co miec drugi jesli wszystko da sie zrobic na jednym bez zadnych spadkow fpsow...
Gpu jest batdziej efektywne jesli chodzi o kompresje video ale profesjonalni streamerzy polecaja kompresje cpu bo jest mniej rozmazana? ten sam bitrate i tej samej ilosci klatek , ta sama rozdzialka "tego nie czaje nie ma opcji kompresji identycznej?"
Ale skoro 4 rdzeniowy proc tak siebie radzi to 8 lub 16 juz nie ma problemu...
- Chyba nigdy nie robiliście strema (autor: digiter | data: 1/03/19 | godz.: 20:34)
Przy 1080 twitch daje bitrate do 7 Mbit i przy takim bitrate nie zobaczycie różnicy między kompresją cpu a gpu. Youtube daje przy 1080 60fps maksymalnie 9 Mbit ale realnie będzie to poniżej 8 Mbit. Możecie mieć neta z uploadem 100 Mbit i dać w OBS upload 30 Mbit ale i tak 8 Mbit nie przekroczycie bo youtube i twitch obniżą jakość. Ja już pomijam że sporo ludzi ogląda w telefonach na małym ekranie przez sieć komórkową w 480 albo 720.
Krótko mówiąc: lepiej w streamie kodować gpu niż cpu bo 99% ludzi i tak nie zauważy różnicy.
- @12. (autor: zakius | data: 2/03/19 | godz.: 00:17)
co piszą w dokumentacji to piszą, ale w rzeczywistości na twitcha możesz wypchnąć znacznie więcej, a jak nie masz z nimi kontraktu to puszczają tylko kopię twojego streama bez rekompresji (nie oferują innych jakości), a nawet jak masz to zawsze jest opcja "source"
- @10. (autor: pandy | data: 2/03/19 | godz.: 01:41)
Skoro proponujesz to rozumiem że wiesz czym różni się PSNR od VMAF i wiesz jakie VMAF ma ograniczenia?
Nie mówimy o magi liczb tylko o obiektywnych sposobach mierzenia pewnych parametrów w powtarzalny sposób.
- do 14 (autor: Atak_Snajpera | data: 2/03/19 | godz.: 13:57)
Dla mnie te magiczne sumaryczne wyniki jakości są w praktyce bez sensu. Zawsze ważnejsze jest dla mnie jak wideo wygląda gdy je oglądam. Np. taki x265 pomimo bunczucznych deklaracji 2x lepsza jakość niż x264 w praktyce jest max. ~1.3x. Bardzo często widzę te same porównania jak wychodzi nowy kodek. Pierwsze co robią spece od marketingu to robią test pod PSNR i pokazują jakie ich rozwiązanie jest zajebiste i niszczy x264 o kilka długości. Później robie normalny test porównawczy side-by-side i nagle wychodzi jak mocny deblocking jest używany i generalnie mamy efekt figur woskowych.
- @15. (autor: pandy | data: 2/03/19 | godz.: 18:02)
PSNR jest obiektywny matematycznie - Ty skupiasz się na subiektywnej jakości która nie ma obiektywnej i powtarzalnej miary.
Normalnie można użyć SSIM czy PEVQ ale dalej są one obarczone wadami. Co najważniejsze - PSNR czy SSIM operują na statycznych obrazach za to VMAF analizuje również jakość ruchu tyle problem z VMAF jest taki że nie bardzo radzi on sobie poza obszarem na którym został wytrenowany (myślę że VMAF byłby najlepszy gdyby zastosowano bardziej wszechstronny trening np VMAF ma kłopoty z rozdzielczościami np UHD i wyższymi bo został przygotowany pod HD). I już na koniec problem jest to że tak naprawdę nie mamy kompleksowego modelu ludzkiego zmysłu wzroku - z jednej strony oznacza to że nie umiemy zmierzyć jakości a z drugiej że dalej codec'i video kodują masę niepotrzebnej informacji i jednocześnie gubią potrzebną informacją.
- do 16 (autor: Atak_Snajpera | data: 2/03/19 | godz.: 18:22)
Znając NVIDIA to x264 nie był uruchomiony z przełącznikiem --tune psnr (alias dla -> --aq-mode 0 --no-psy) ...
Tak się akurat skłąda że w praktyce --aq-mode 0 --no-psy wygląda znacznie gorzej mimo że daje wyższy wyniki PSNR.
- PSNR (autor: pandy | data: 2/03/19 | godz.: 22:23)
opisuje jakość sygnału (z matematycznego punktu widzenia) a czym innym jest sygnał a czym innym obraz sygnał to funkcja matematyczna np 2-D DCT (lub inna transformata) w wypadku obrazu - subiektywna jakość obrazu to nie jest sygnał ale tekstury, krawędzie itd. PSNR jest użyteczny tylko opisuje coś co nie jest interesujące dla Ciebie.
Tyle chciałem napisać - zgadzam się z większością Twoich zastrzeżeń ale nie potępiam NVidi za używanie PSNR bo wszyscy dostawcy kodeków używają PSNR - tak jest na tym rynku, na rynku badan akademickich, naukowych - jeśli przejrzysz dokumenty to wszędzie używa się PSNR.
- do 18 (autor: Atak_Snajpera | data: 3/03/19 | godz.: 13:59)
Wiem że PSNR jest tym głupim standardem ,który się ma nijak do faktycznej zdolności kodeka do oszukiwania naszego mózgu.
Tak samo jest w kompresji dźwięku gdzie "blind test" jest ostatecznym potwierdzeniem efektywności algorytmów kompresji a nie jakieś wykresiki pokazujące czy całe spektrum jest zachowane.
- To są mity "audiofilskie" (autor: pandy | data: 4/03/19 | godz.: 11:16)
PSNR jest ważnym wskaźnikiem jakości w maszynowym przetwarzaniu obrazów które działa na innych zasadach niż ludzki mózg.
Co do audio znów powtarza się stary jak świat mit audiofilów z których większość ma ubytek słuchu...
Widmo (spektrum) i inne obiektywne wskaźniki jakości są nie mniej ważne niż subiektywna jakość - nie znam żadnego kodeka audio który dawałby kiepskie rezultaty obiektywne np "spektrum" i jednocześnie byłby subiektywnie lepszy. To obiektywne parametry są kluczem do dobrej bazy - dobry fundament nie zastąpi domu ale nie będzie dobrego domu bez dobrego fundamentu.
- Do 20 (autor: Atak_Snajpera | data: 4/03/19 | godz.: 15:14)
A ja znam przypadki gdzie kodek ,który był wstanie "zachować" pełne spectrum do 20KHz ,a mimio to w blind testach dostawach gorszy score niż kodek ,który ostro ciął na 16KHz.
Wracając do tego PSNR i jego praktycznej bezużyteczności
Powiedz mi ,która wersja wydaje się mieć więcej detali?
Veryslow 2-pass 5Mbps
https://www.mediafire.com/...ux09k/normal.mkv/file
Veryslow 2-pass 5Mbps + tune psnr
https://www.mediafire.com/...ds/Tune-PSNR.mkv/file
- Raz jeszcze (autor: pandy | data: 4/03/19 | godz.: 20:25)
PSNR to stosunek maksymalnej mocy sygnału do mocy szumu zakłócającego ten sygnał. PSNR nie adresuje charakterystyki szumu - stopnia i charakteru jego korelacji z sygnałem. Czym innym jest szum biały typu AWGN a czym innym skorelowane z sygnałem zniekształcenia. Kształtowanie zniekształceń tak by były subiektywnie mniej widoczne mimo ich wyższego poziomu nie jest niczym niezwykłym - np w technice audio powszechnie stosuje się dithering i noiseshaping z uwzględnieniem ATH.
Co do reszty - ja nie pisałem tylko i wyłącznie o widmie sygnału i na pewno nie chodziło mi o pasmo - to o czym pisałem to o obiektywnych parametrach sygnału które jeśli spełnione są z odpowiednim zapasem stanowią dobry punkt wyjścia do optymalizacji pod katem jakości subiektywnej. Nie musisz mnie przekonywać co do różnicy w kodowaniu z włączonym PSY i bez - rozpocząłem te dyskusje tylko po to by nie popełniać pochopnie błędu postponowania PSNR tylko dlatego ze nie daje dobrych z subiektywnego punktu widzenia rezultatów - jest dobry do syntetycznego porównywania kodeków.
Podziel się bardziej tym kodekiem audio który wypadał gorzej.
- do 23 (autor: Atak_Snajpera | data: 5/03/19 | godz.: 14:37)
Np. HE-AAC gdzie połowa spectrum jest automagicznie rekonstruowana. Na wykresiku wszystko wygląda cacy. WoW! pełne spektrum! Po odsłuchaniu od razu wychodzi "siarczystość" tych zrekonstruowanych wysokich częstotliwości. OPUS w tym samym bitracie pomimo przycinania brzmi mniej irytująco.
- Mylisz wiele rzeczy (autor: pandy | data: 5/03/19 | godz.: 16:36)
Po pierwsze HE-AAC używa SBR jako normalnej techniki kodowania (czyli nie jest to anomalia kodeka jak to sugerujesz ale normalny sposób w jaki redukuje się informacje) i nie, nie jest to prawda że widmo jest takie samo, kompleksowy sygnał, złożony, o dużej dynamice czasowej w naturalny sposób będzie upośledzony przy użyciu SBR. Potraktuj SBR jako trochę lepszy zabieg wzbogacania sygnału ale SBR jest kreatywne (na podstawie dolnej połówki oraz znacznie ograniczonej ilości danych z górnej połówki próbuje zsyntetyzować/wytworzyć tę brakującą górną połówkę).
Nie możesz ignorować tego że kodeki używają pewnego zestawu technik do redukcji danych i PSNR pozwala mierzyć efektywność używania tych technik. To o czym ty piszesz to jest drugi równie ważny blok a mianowicie blok kontrolujący w jaki sposób używa się tych technik kodowania tak by uzyskać większe współczynniki kompresji przy jednoczesnym utrzymaniu subiektywnej jakości.
Nie możesz mylić pewnych obiektywnych technik jak np transformaty, kodowanie różnicowe czy np skuteczność wykrywania ruchu z technikami kształtowania zniekształceń (czyli różnicy miedzy źródłem a skompresowanym video). Analogia z domem i fundamentami - PSNR służy do porównywania betonowych ścian z ceglanymi, a wystrój wnętrza po otynkowaniu nie ułatwia porównywania ścian. Czy możesz zignorować materiał ściany i zająć się porównywaniem mieszkań wyłącznie z perspektywy koloru ściany oraz zawieszonych na niej obrazków? A ponieważ nie ma uniwersalnej miary która pozwalałaby oceniać skuteczność kompresji to użycie PSNR jest OK pod warunkiem uwzględniania specyfiki PSNR ponieważ PSNR obarczone jest ograniczeniami.
A testy polegające na słuchaniu czy oglądaniu nie są uniwersalne i nie są powtarzalne i to jest ich największa wada - cechy osobnicze.
- Do 24 (autor: Atak_Snajpera | data: 5/03/19 | godz.: 18:29)
Odnoszę wrażenie że lubisz sobie wiele rzeczy dopowiadać sam. Czy ja pisałem coś że SBR jest anomalią? Dzięki SBR masz niby pełne 20KHz ,tylko co z tego jak OPUS używający innych technik daje lepsze wrażenia słuchowe pomimo przycinania do ~16KHz.
Nie musisz mi robić wywodu jak działa SBR bo to doskonale wiem. (użyte przeze mnie słowo "rekonstrukcja" pownino ci to uzmysłowić. Podobny myk robił mp3PRO)
Pytałeś się o kodek audio ,który teoretycznie lepiej wypada na wykresiku no to masz. Problem z PSNR (czy SSIM) jest również taki że próbuje się za pomocą jednej liczby ocenić jakość "pierdyliarda" klatek. Co z tego że będziesz mieć wysoki wynik jak w niektórych złożonych scenach będziesz mieć festiwal latających rozpaćkanych makrobloków. Bez tuningu przy pomocy społeczności użytkowników się nie obejdzie. Pamiętam jak x264 dostawał Adaptive Quantization i następnie Psychovisual optimization na forum.doom9.org i wszystko było tuningowane z uwzględnieniem obserwacji i sugestii tamtejszych użytkowników. Dlatego uważam że chwalanie się przez NVIDIA jaki ich kodek jest świetny w PSNR to czysty PR-bullshit bo wysoki PSNR ma się nijak do tego co oczekuje nasz mózg. Dla nas obraz zniekształcony (z perspektywy PSNR) jest bardziej naturalny niż klatka która wygląda jakby ktoś odpalił photoshopowy filtr surface blur.
- Nie masz pełnego 20kHz (autor: pandy | data: 7/03/19 | godz.: 01:30)
Masz 10kHz i na podstawie bardzo ograniczonej ilością danych (głownie średniej ilości energii - rodzaj obwiedni energii) oraz przy pomocy powielenia odpowiednio przetworzonej części spektrum od 0 do 10kHz masz sztucznie wytworzony zakres od 10 -20 kHz tak działa SBR - syntetyzuje na podstawie bardzo ograniczonej ilości danych usuniętą cześć widma ekstrapolując dane z dolnej połówki. To ty napisałeś o spektrum i to ty wciągasz teraz SBR chociaż SBR nie jest technika kompresji a technika postprocessingu która można stosować także do każdego innego sygnału. Ja zadałem pytanie czy możesz wskazać kodek który będzie upośledzał "spektrum" (przez które ja rozumiem szereg obiektywnych parametrów a nie tylko obecność jakiegoś sygnału powyżej 16kHz).
To czym napisałeś czyli "Adaptive Quantization i następnie Psychovisual optimization" nie są cechami kodeka tylko cechami implementacyjnymi - sposobem kształtowania zniekształceń tak by były one percepcyjnie jak najmniej dokuczliwe. To nie jest cześć standardu H.264 rzeczy tylko rozszerzenia funkcjonalne.
NVidia chwali się skutecznością wykorzystania składni kodeka (czyli efektywnością implementacji standardu) i ma do tego prawo.
Słusznie zwróciłeś uwagę że PSNR nie przekłada się na subiektywną jakość więc PSNR daje tylko fragmentaryczny opis implementacji. Tego wymaga rzetelność techniczna .
- dla zainteresowanych ciekawy blog: (autor: pandy | data: 9/03/19 | godz.: 12:35)
https://streaminglearningcenter.com
- . (autor: alvinrr | data: 13/03/19 | godz.: 12:39)
.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|