Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 12 sierpnia 2019 
    

AMD szykuje GPU Navi 21 i Navi 23 - jeden z nich to "Nvidia killer"


Autor: Zbyszek | źródło: WccFTech | 10:35
(16)
Według najnowszych nieoficjalnych informacji AMD pracuje obecnie nad dwoma nowymi układami graficznymi z serii Navi. Mają to być układy o oznaczeniach Navi 21 oraz Navi 23, wytwarzane w procesie 7nm+ z EUV i korzystające z architektury RDNA drugiej generacji, z dodaną sprzętową obsługą Ray Tracingu oraz ze zmienioną organizacją wewnętrzną bloków CU (Compute Unit), które mają składać się z mniej niż 64 procesorów strumieniowych. Według przecieków mocniejszy z obu chipów otrzymał w AMD przydomek "Nvidia killer", a karty graficzne wykorzystujące ten układ będą posiadać pamięci HMB 2 trzeciej generacji od Samsunga.

Użycie dwóch takich kostek na karcie graficznej ma zapewniać przepustowość 819,2 GB/s, czyli prawie dwukrotnie większą niż wykorzystanie GDDR6 z 256-bitową magistralą (448 GB/s). Może to oznaczać że AMD celuje w stworzenie karty graficznej prawie dwukrotnie bardziej wydajnej od modelu Radeon RX 5700 i 5700XT.

Taka konstrukcja faktycznie może być w stanie pokonać GeForce RTX 2080 Ti, ale nie wiadomo czy jej wydajność będzie wystarczająca, aby konkurować z przyszłą generacją kart Nvidia, również wykorzystującą proces litograficzny 7nm+ z EUV.


 
    
K O M E N T A R Z E
    

  1. Zamiast zapowiadać (autor: ligand17 | data: 12/08/19 | godz.: 10:47)
    niech udowodnią gotowym produktem. I to najlepiej atrakcyjnie wycenionym.

  2. Hynix nie rezygnuje i chce pokazać , że nie jest gorszy od (autor: Mario1978 | data: 12/08/19 | godz.: 11:32)
    Samsunga.Właśnie zapowiedzieli HBM2E o przepustowości wyższej na stos o 50GB/s od tego co zademonstrował Samsung już w marcu tego roku.
    https://elchapuzasinformatico.com/...-hynix-hbm2e/
    W sam raz do RDNA nr2.


  3. liczę na mocną kartę od AMD (autor: Mario2k | data: 12/08/19 | godz.: 11:59)
    Mam nadzieję żę nas nie zawiodą .

  4. Coś czuję wycenę... (autor: Kenjiro | data: 12/08/19 | godz.: 12:11)
    Na poziomie 1000$ i wyżej.

    Obym się mylił...


  5. @1 "zamiast zapowiadać" (autor: josh | data: 12/08/19 | godz.: 12:21)
    Przeczytaj jeszcze raz pierwsze zdanie:

    Według najnowszych nieoficjalnych informacji [...]


  6. @josh (autor: ligand17 | data: 12/08/19 | godz.: 13:18)
    przecież slajd na dole artykułu jest oficjalny...

  7. No bedzie kiler.. (autor: MacLeod | data: 12/08/19 | godz.: 14:18)
    Numer boczny 7775 :D :D :D

  8. a pomidorki (autor: bajbusek | data: 12/08/19 | godz.: 16:47)
    twarde są ?

  9. ad8 (autor: MacLeod | data: 12/08/19 | godz.: 17:23)
    pomyslimy:)

  10. Wielkosc rdzenia... (autor: gantrithor | data: 12/08/19 | godz.: 18:45)
    radeona rx5700 to 251 mm² dla porownania rdzen rtx 2080ti to az 754 mm² czyli jesli amd faktycznie przy uzyciu rdna2 przeskoczylo sprzetowy limit 4096 shaderow to teoretycznie moglo by wyprodukowac uklad graficzny z 3 krotnie wieksza iloscia tranzystorow niz uklad w radeonie rx5700 i mogli by wykonac chip o wielkosci 753 mm². "3x251 mm²"

    Wedle nvidi chip gv100 (815 mm²) to praktyczny limit dzisiejszej technologi "mowa byla o 12nm w 2017 roku"
    Dzis na przelomie 2019/2020 roku i praktycznym przejsciu z 7nm duv do 7nm+ euv gdzie ten drugi proces posiada znacznie lepsza rozdzielczosc mozna by skonstruowac nawet wiekszy uklad ale nie o to chodzi bo glownym zalozeniem ma byc zmniejszenie zuzycia energi elektrycznej calego ukladu co wlasnie ma przyniesc 7nm+.

    Druga sprawa to McM o ktorym bylo glosno jakis czas temu a juz troszke przycichlo , amd ma juz w zasadzie opracowane szybkie polaczenia IF2 ktorych mogli by uzyc do polaczenia 2 ,3 lub nawet 4 gpu w jeden wiekszy.

    Pozostaje tez technologia waferscale badana i testowana w latach 1970-1980 ale upadla ze wzgladu na zbyt malo rozwinieta technologie litografi , dzis litografia jest o 11000 razy bardziej zaawansowana niz w tamtych czasach , ogolna idea tego rozwiazania miala na celu zadrukowanie calego wafla krzemowego wieloma ukladami gpu ktore sa ze soba sprzetowo polaczone i zoptymalizowane , w 2019 inzynierowie z uniwersytetu "Illinois Urbana-Champaign" oraz "uniwersystetu California Los Angeles" podeszli do pomuslu ponownie , wedle symulacji uklad skladajacy sie z 40 gpu ma 19 krotne wieksza moc obliczeniowa oraz 140 krotne mniejsze zuzycie energi elektrycznej w porownaniu ze stacja robocza z 40 kartami graficznymi... slowo klucz symulacja , praktyka jest trudniejsza bo trudno uzyskac 99.9% ukladow z jednego wafla wiec inzynierowie obeszli poniekad problem testujac pod katem sprawnosci kazdy z 40 ukladow a nastepnie montujac je jeden obok drugiego na specjalnie przygotowanym rusztowaniu dostarczajacym zasilanie oraz polaczenia logiczne.
    Udalo im sie zbudowac jedyny dzialajacy uklad w technologi wafer scale oraz "SiIF" "tkanina polaczen silikonowych".
    Wedle specjalistow najtrudniejszym nie jest zbudowanie tak duzego ukladu a stworzenie sieci polaczen o odpowiedniej wydajnosci.
    Ktos powie no dobra to jest dobre do serwerow ale czy pojdzie na tym crisis?
    Nie jest konieczne odrazu produkowanie takich ukladow z 40 gpu wystarcza na poczatek 2 , 3 lub nawet 4 , ba nawet sladem procesorow amd zen2 mozna isc smialo dalej i wykonac centralna jednostke IO oraz w oddzielnych ukladach dodrukowac jednostki wykonawcze tak aby kilka oddzielnych ukladow stanowilo jeden zoptymalizowany caly uklad w ten sposob mozna by ominac calkowicie limit ~815 mm².
    Dosc watpie aby takie rozwiazanie pojawilo sie zbyt predko ale coraz to nowsze i bardziej zaawansowane procesy litograficzne wraz z kosztem ich opracowania staja sie ogromna przeszkoda , popdrostu dobrze jest wiedziec ze jeszcze cos da sie z tym zrobic.


  11. szczerze (autor: piwo1 | data: 13/08/19 | godz.: 06:26)
    mam nadzieje ze fake i nie powstanie wiecej zadna karta do desktopow na hbm. bo po prostu bedzie za droga do mozliwosci, ze zbyt duzym opoznieniem wjedzie na rynek i zbyt malo sztuk bedzie produkowano. mam nadzieje ze wersja 23 to bedzie karta na rynek profi a 21 na rynek gamingowy i bedzie na gddr6+.


  12. HBM, Nvidia killer, 7nm+, EUV... (autor: Qjanusz | data: 13/08/19 | godz.: 09:02)
    idealny słowniczek na napisanie lepkiego newsa.

    "Nvidia killer" brzmi jak "Poor Volta", czyli ekipa aktualnie pracująca w Intelu. HBM również brzmi mało wiarygodnie w grafikach desktopowyh. Obstawiam że to kolejna plota po rzekomym wycofaniu się AMD ze sprzedaży referentów RX 5700.


  13. Do Pana/ Pani z komentarza nr 10 pt. "Wielkość rdzenia" (autor: Jejjju | data: 14/08/19 | godz.: 00:19)
    Coś Ci się popieprzyło. Bo jeżeli przy 40 wdrukowanych GPU w technologii waferscale, mamy 140 krotnie mniejsze zużycie energii niż przy 40 oddzielnych GPU, to znaczy, że mamy mniejsze zużycie energii niż przy 1 GPU (40/140 = 0,3). Także chyba Pan(i) coś źle przetłumaczył(a), tak? Mimo wszystko ciekawie opowiadasz...

  14. @13. (autor: Mariosti | data: 14/08/19 | godz.: 12:05)
    Biorąc pod uwagę fakt iż w dzisiejszych czasach układy zasilania mają sprawność grubo powyżej 90% niezależnie od tego czy zasilasz 50W gpu czy 300W gpu czy też 1000W gpu, to praktycznie rzecz biorąc jakiekolwiek zyski sugerowane przez wspomniane "wafer scale" są nierealne do uzyskania bo przeczą prawom fizyki.

    Tj. do uzyskania konkretnej wydajności muszą mieć to samo taktowanie i napięcie, a to oznacza to samo zużycie energii. Aby mieć tą samą wydajność muszą mieć dostępną analogiczną przepustowość/wydajność pamięci ram i interfejsu do procesora, co oznacza że tutaj też wielkiego zysku na zużyciu energii nie będzie (parę procent jest możliwe, ale nie jakaś znacząca wartość, ponieważ to wiązałoby się już z nieporównywalną wydajnością I/O gpu).

    Także ta technologia to zasadniczo bajdurzenie, chyba że chodzi o zużycie energii w stanie spoczynku, no to wtedy faktycznie może zużyć te 30-35x mniej energii niż 40 osobnych gpu z odpowiednimi mechanizmami zarządzania energią, ale to żadnego przełomu nam nie da.


  15. @13 wafer-scale to nie lamanie praw fizyki... (autor: gantrithor | data: 14/08/19 | godz.: 19:56)
    a zwyczajna matematyka i optymalizacja , 99% energi jest marnowane na przesylanie sygnalow elektrycznych miedzy roznymi kartami graficznymi w komputerze z crossfire czy sli , jesli wyeliminujesz zwielokrotnione pcb , zlacza pcie i umiescisz wszystkie uklady gpu na tym samym waflu krzemowym uzyskasz najnizsze mozliwe opoznienia w komunikacji miedzy ukladami gpu , zmniejszysz tez zuzycie energi elektrycznej.
    Zasada dzialania jest bardzo prosta i przypomina budowe procesora zen ccx skladajacy sie z 24 i 40 rdzeni graficznych.
    Istnieja juz 2 prototypy ktore maja wydajnosc energetyczna wyzsza o 2.5-5 razy niz taka sama ilosc ukladow graficznych w konwencjonalnej formie.

    https://techxplore.com/...gpu-news-waferscale.html

    https://www.extremetech.com/...formance-efficiency

    https://www.nextplatform.com/...sors-another-shot/

    https://weekly-geekly.github.io/...1996/index.html


  16. myślę...... (autor: Mario2k | data: 15/08/19 | godz.: 23:45)
    Że w przeciągu kilku następnych lat będą musieli ''kleić'' po kilka gpu tą metodą .

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.