Crytek uruchamia Raytracing w czasie rzeczywistym @ Radeon
Autor: Zbyszek | źródło: Crytek | 13:49
(24)
Tuż przed organizowaną przez Nvidę konferencją GDC firma Crytek postanowiła zszokować nieco branżę GPU i zaprezentowała demo Neon Noir, prezentujące możliwości najnoszego silnika CryEngine 5.5 w Ray Tracingu. Dzięki wykorzystaniu techniki Total Illumination odpowiadającej za śledzenie promieni obliczanym w czasie rzeczywistym, możliwe było powierzenie takiej pracy karcie graficznej Radeon Vega 56, na której też uruchomiono demo Neon Noir. Co więcej, mimo wykorzystania karty graficznej nie posiadającej specjalistycznych jednostek RT, płynność była na bardzo wysokim poziomie. Przekaz wysłany przez Crytek jest jasny - nie potrzeba GeForce RTX, aby uzyskać świetnie efekty Ray Tracingu.
Nie znane są szczegóły w jaki sposób technika Total Illumination zaprzęga do pracy jednostki obliczeniowe kart Radeon Vega, aby uzyskać wysoką płynność.
Crytek zapowiada, że rozwiązanie zostanie udostępnione w tym roku dla wszystkich deweloperów opracowujących gry z silnikiem CryEngine.
K O M E N T A R Z E
Ooo... (autor: Seba78 | data: 18/03/19 | godz.: 15:51) A tyle kasy poszło w projekt i reklamę wyspecjalizowanych jednostek liczących LT u nVidii. Okaże się, że bez tych jednostek karty Radeon lepiej sobie z tym poradzą. Skok na kasę się nie udał.
dokładnie tak samo było z PhysX (autor: Mario2k | data: 18/03/19 | godz.: 16:36) Przed laty obiecywano zaawansowaną fizykę w grach ,potem wyszło jakieś demo gry obsługującej PhysX po małym wpisie w cfg chodziło płynnie na Core2Duo prawie tak samo jak na PhysX .
Panowie i Panie Lipa jest nam pociskana każdego dnia , otwórzcie myślenie.
Seba78 (autor: kombajn4 | data: 18/03/19 | godz.: 16:38) Lepiej jak lepiej to demo chodzi ponoć w 4K@30 fps. Trzeba by zobaczyć jak to wygląda w bezpośrednim porównaniu.
ogólnie z tego newsa wiadomo że (autor: Brian Chrzanik | data: 18/03/19 | godz.: 16:41) demo puszczona na Radeon Vega56 bez żadnych wodotryskow i że demo płynnie działa. To fakt ale nic poza tym. Nie powiedziano tylko ile Radeonów Vega zaprzegnieto do tego cuda, z jaka rozdziałka. To troche dziwnie pachnie. Taki Crytek przeskoczył inżynierię GPU w NVIDIA ?A skąd oni czerpali wiedzę, chyba że zostali cudownie namaszczeni przez Microsoft i AMD.Wkrotce sie dowiemy. Ale demko fajnie wygląda.
@4. (autor: Kenjiro | data: 18/03/19 | godz.: 21:05) A do tego, podobnież algorytm użyty przez Cryteka ma podbudowę w algorytmie RT od nVidii (whitepaper z algorytmem Voxel RT z 2011). Na ile to prawda, trudno powiedzieć, czas pokaże ;-).
@up (autor: Saturn64 | data: 18/03/19 | godz.: 21:06) To jakaś lipa Panowie. Zapuściłem ten filmik na moim starym kompie i RayTracing działa nawet na integrze Intela ;)) .....
u mnie działa na WinXP (autor: g5mark | data: 18/03/19 | godz.: 21:51) i Pentium z S3 Virge, Cevat Yerli pewnie od premiery FarCry pisał ręcznie na maszynowym
@2 Mario2k (autor: biuro74 | data: 18/03/19 | godz.: 22:10) lepiej uwazaj, co mowisz. Piszac "otworzcie myslenie" otwierasz we mnie cos dotychczas zamknietego i stlamszonego... taki mam z tego wybuch mocy, ze zauwazam, co piszesz wczesniej: "lipa jest nam pociskana kazdego dnia" i mysle, kogo tez mozesz miec na mysli... albo kogo ja mam teraz miec na mysli :)
nie ma w tym nic dziwnego (autor: Wyrzym | data: 18/03/19 | godz.: 22:38) RT zeby dzialal to trzeba policzyc, skoro gpu potrafi liczyc to... no sami wiecie ;]
@ Wyrzym (autor: Zbyszek.J | data: 18/03/19 | godz.: 23:14) zgadzam się. A w dodatku Vega ma na czym policzyć - apropo wysokiej wydajności w kopaniu BTC i innych podobnych
ogólnie Vega (autor: Zbyszek.J | data: 18/03/19 | godz.: 23:19) to niewykorzystany potencjał. Zaszyli w hardware coś, co przy tej samej liczbie jednostek (w porównaniu do Fiji) zwiększyło liczbę tranzystorów z 8,9 do 12,5 mld. I z wielu tych funkcji nie skorzystano, a pozostałe są używane w niewielkim stopniu: https://twojepc.pl/...nkcji-Primitive-Shaders.html
up.. (autor: g5mark | data: 18/03/19 | godz.: 23:43) oOo tak, Vega to niewykorzystany potencjał grzewczy...brakuje kaloryfera gratis do odporwadzania ciepła
wyglada super (autor: pawel1207 | data: 19/03/19 | godz.: 02:48) obiecujaca technika ale obok rt to nawet nie stalo !! brak wyspecjalizowanych jednostek oznacza ze grafika i animacja i wszystko co bedzie zwiazane z voxelami bedzie mocno uproszczone aby to uciagnac zreszta widac to po demie .jestem ciekawy jak urzycie tej techniki bedzie wygadalo z punktu widzenia developera . ale nie powiem jak sie za pierwszym razem oglada to robi b. dobre wrazenie . Zbyszek ogólnie Vega to katastrofa karta goraca zraca prad jak wsciekla przy prostych operacjach z 10 letnia architektora :D nawet aby nadawala sie do kopania to trzeb a ja zmodowac bo jest po prostu nieoplacalna jak by na to nie patrzec jesli nie napiszesz czegos specjalnie pod vege to wydajnosc jest fatalna podobnie bylo z buldorzerami wydajnosc byla na tyle kiepska ze amd musialo wprowadzic mantle ktory dla programisty byl po prostu koszmarem ale pozwalal odciazyc procesor w pewnych operacjach dzieki temu fxy jakos pod mantle dzialaly . problem w tym ze api ze wzgledu na swoja topornosc nie zdobylo jakos rynku .. wiec chcac nie chcac musieli zrezygnowac z koncepcji buldorzera i rozwinac skopiowac o ile to mozliwe rodzine core i w ryzenach im to wyszlo calkiem niezle ..
Ogólnie... (autor: Shamoth | data: 19/03/19 | godz.: 09:54) od czasu pierwszych GCN mam wrażenie że AMD zaszywa w tych kartach więcej niż nam mówi. Ładnie się starzeją i nie degradują tak mocno wydajności a dobrze oprogramowane potrafią pokazać pazura.
Podstawowy problem z tym co AMD nam oferuje to wspomniane wcześniej koszmarki, chociaż ja bym bardziej powiedział lenistwo ze strony dev's, programistów. W przeciwieństwie do tego co było 20 lat temu teraz piszą programy, gry na kolanie licząc na to że niedociągnięcia w optymalizacji i braku wykorzystania architektury w 100% pokryje konsument kupując najnowsze GPU, CPU które w sumie od kilku generacji można by powiedzieć że idą w GHz, surową moc bez innowacji, i niczym nie zaskakują co mogłoby przełożyć się na diametralny wzrost wydajności jeśli by je odpowiednio oprogramować.
Niestety musi jeszcze trochę wody upłynąć zanim pewne dobrodziejstwa będą wykorzystywane na co dzień, podobnie jak to było z VLIW, x64, ia64, początkiem T&L czy pierwszymi krotkami ATI z teselacją. O VR nie wspomnę bo to już chyba 3 podejście do tej technologii i nadal mam wrażenie że trochę siłowe. Przez najbliższe 2-3 generacje GPU jeszcze nie będzie miało racji zagościć w każdym domostwie. Albo i dłużej jeśli będą zagęszczać ilość pikseli na oko...
Na Benchmarku (autor: kombajn4 | data: 19/03/19 | godz.: 14:44) właśnie napisali że Nvidia wprowadzi obsługę RT w kartach od 1060 w górę. Pewnie wtedy pawel1207 również powie że to nawet nie leżało kolo RT. A nie sorry to będzie Nvidia to ok, to będzie prawdziwe RT pełną gębą.
@16. (autor: Shamoth | data: 19/03/19 | godz.: 15:15) Bo z tym RT to jest chyba tak, że shadery są na tyle elastyczne i programowalne że można na nich sporo puścić, kwestia chęci i umiejętności. A z tensorami od nV to raczej chodzi o to, że wyprodukowali jeden rodzaj chipa i upychają go w kartach pro, i customer ale już przycięte zostawiając trochę tensorów dla marketingowców żeby wyrwać dodatkowo 200$ pokazując kowalskiemu co te tensory potrafią, tak mocno na siłę... No może i potrafią ale magia tensorów jak i sieci neuronowych tkwi w ilości, komórek, węzłów bo w małej ilości to to głupsze jest od eniac'a...
Shamoth (autor: pawel1207 | data: 19/03/19 | godz.: 23:13) zgadza sie zaszywa taka ilosc niespelnionych obietnic ze glowa mala poza tym implementacja tych obietnic byla tak zalosna ze rece opadaly plus poziom sterownikow do tego tak cudowny ze open cl sie wywalalo co godzine przy niektorych operacjach a szanowne ati zamiast poprawic stery zwalalo wine na aplikacje spolecznosc itd... nie bez powodu nv zdominowala rynek kart graficznych..
@21. (autor: pwil2 | data: 20/03/19 | godz.: 15:28) A najgorzej na kartach nVidii było z obsługą kilku ekranów wysokiej rozdzielczości. Na którejś kolejnej wersji sterów wszystko ruszyło i działało poprawnie... do restartu, a po restarcie miazga. Do dziś temat olałem i podpiąłem jeden ekran pod zintegrowaną Intela.
c.d. (autor: pwil2 | data: 20/03/19 | godz.: 15:29) Do tego ciągłe problemy z wysypywaniem się przeglądarek. Na zintegrowanej iGPU Intela oraz na AMD wiele miesięcy bez problemów, stabilnie, a na nVidii co kilka dni przeglądarka wymaga restartu.
ja ci powiem tak (autor: pawel1207 | data: 22/03/19 | godz.: 21:13) ciesze sie ze jestes szzessliwy z amd :D pod winda faktycznie nie ma obecnie wiekszych problemow pod linuxem ha nawet ostatnio jest rtroche lepiej nawet zaczeto obslugiwac co niektore rozkazy opengla :D u mnie amd zawsze = problemy kupujesz nowiuska kart e okazuje sie ze jakas funkacja nie dziala ba naweet nie jest zaimplementowana piszesz do suuporu dzwonisz do supportu support c laskawie mowi poatrz sobie w dokumentajce i ma wyjebane u nv piszesz ze masz problem i okolo 200 ich kart przylatuje koles z nv i siedzi z toba aby rozwiazac problem. tojjest roznica w podejscu nv i amd przynajmniej na rynku pro ... nie wspomne o sytuacji gdzie karta wychodzi jest dostepna w sklepach kupujesz i okazuje sie ze czekasz ponad miesiac az amd laskawie wypusci stery obslugujace 2d do niej a na kaceleracje 3d czekasz az wyjada nowe po czym owa akceleracja wyglada tak ze twoja nowiuska hi end pro z amd i tak jest wolniejsza w wiekszosci przypadkow niz middle range nv ... nie twierdze ze amd robi strasznie zly sprzet co najwyzej obecnie mocno archaiczny ale cala otoczka support itd. soory to lezy i kwiczy niestety co niektorzy potrzebuja karty do czegos wiecej niz tylko grania i wtedy rozwiazania amd leza i kwicza ..
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.