Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Poniedziałek 11 października 2021 
    

Przyszle karty graficzne będą pobierać nawet 600W energii


Autor: Zbyszek | źródło: Igors Lab | 06:07
(9)
Flagowe karty graficzne w ciągu ostatniej dekady cechowały się poborem energii na poziomie około 250W, ewentualnie (np. w przypadku konstrukcji z dwoma GPU) było to 300W. Po raz pierwszy wyłamały się z tego debiutujące przed rokiem karty GeForce RTX 3000 z serii Ampere, których najbardziej wydajni przedstawiciele pobierają do 350W energii. Jak się okazuje, to tylko pierwszy krok w zwiększaniu wskaźnika TDP i poboru energii przez karty, a przyszłe generacje mogą cechować się poborem energii na poziomie nawet 600W. Pomoże w tym nowe 16-pinowe złącze zasilające, będące uzupełnieniem do specyfikacji PCI-Express 5.0.

Zdjęcia wtyczki opublikował serwis Igors Lab, dodając, że możne ona zostać użyta w pierwszych kartach już w 2022 roku. Nowe złącze wyglądem przypomina 12-pinowe wtyczki stosowane przez Nvidię w wersjach Founders Edition kart GeForce RTX 3000, ale posiada dodatkowe 4 płaskie piny zasilające umieszczone w trzecim rzędzie. Specyfikacja określa, że złącze jest w stanie dostarczyć do karty graficznej 600W energii.

Trudno ocenić jak szybko producenci kart graficznych wykorzystają pełnie możliwości nowej wtyczki zasilającej, ale trzeba pamiętać, że nie mieli z tym problemu w podobnych sytuacjach w przeszłości.

Pojawienie się nowego złącza zasilającego koreluje z wcześniejszymi informacjami, że najszybsze karty graficzne kolejnej generacji (debiut pod koniec 2022 roku) będą mieć wskaźnik TDP 400-450W. Jeśli następna generacja kart (2024 rok?) doda zwiększy zużycie energii o kolejne 100W, to możliwości 16-pinowej wtyczki zostaną praktycznie wykorzystane.

Oczywiście karta graficzna z TDP 500-600W będzie wymagała ewolucji w zakresie systemów chłodzenia, np. montowania fabrycznie w wersjach referencyjnych bloków wodnych i dodatkowej chłodnicy 120x240mm w celu skutecznego odprowadzenia dużej ilości wytworzonego ciepła.

W sytuacji, gdy obecnie wydobywanie kryptowalut przy pomocy GPU pochłania taką ilość energii, jaka zużywa średniej wielkości kraj, zachodzi pytanie, czy problemem zbyt wysokiego zużycia energii przez karty graficzne nie powinny zająć się odpowiednie organy. Za zwiększone zużycie energii płacimy wszyscy w postaci wyższych cen elektryczności. Komisja Europejska jakiś czas temu zmusiła producentów odkurzaczy do zmniejszenia zużycia energii przez produkowane przez nich urządzenia - czy nadszedł czas, aby stworzyć regulacje także dla kart graficznych?





 
    
K O M E N T A R Z E
    

  1. @news (autor: lcf | data: 11/10/21 | godz.: 08:27)
    W niektórych stanach USA już się takie regulacje pojawiły - tutaj kilka słów o wymogach CEC obowiązujących w Kalifornii:
    https://www.theregister.com/...26/dell_energy_pcs/
    i wyciąg ze standardu tutaj:
    https://energycodeace.com/...9.Standards.Computers

    i o ile dobrze czytam, to dla desktopów przewidziane maximum jest 690 W. Przepisy wchodzą w życie 9 grudnia 2021.


  2. @01, korekta (autor: lcf | data: 11/10/21 | godz.: 08:34)
    Nie 690 W, tylko 690 ES (expandibility score) - przeliczanie na W nie jest takie zupełnie proste, bo zależy jeszcze od ilości slotów i rodzajów komponentów - tutaj jakiś poradnik od Intela w tym zakresie:
    https://processormatch.intel.com/...0%20Public.pdf



  3. W czasach zbliżającej się drogiej energii jest to bez sensu (autor: rookie | data: 11/10/21 | godz.: 10:21)
    Jak to możliwe, że w przypadku CPU da się okiełznać zapotrzebowanie energetyczne (RYZEN 5950x ma TDP 105W, RYZEN 1800x miał TDP 95W), a w przypadku GPU chcą TDP do prawie 700W, zamiast zejść do niższego procesu technologicznego pochłaniajacego mniej energii?!
    Co na to UE, żarówki 40W nie można oficjalnie kupić, a kartę graficzną 700W to już będzie można mieć?


  4. ograniczenie mocy pojedynczej karty nie ma sensu (autor: bmiluch | data: 11/10/21 | godz.: 10:28)
    akurat kopanie dobrze skaluje się na wielu kartach
    nawet jeżeli jedna karta będzie pobierać 300W zamiast 600W i mieć 2 razy mniejszą wydajność, kopacz kupi po prostu 2 karty zamiast jednej


  5. @3 zgadzam się (autor: ziemowit | data: 11/10/21 | godz.: 13:06)
    to zapotrzebowanie nowych GPU i CPU na energię jest po prostu chore, a tę energie trzeba będzie dodatkowo wyprodukować.
    Odkurzacz 600W, żarówki LED, samochody silniczki 1.0T norma EURO 6, 7, hybrydy, elektryczne,
    a karta graficzna 600W, procek 250W.

    Tak, wiem "jak cię nie stać" - kup se lapka z prockiem U i daj se siana...


  6. 3-- (autor: Mario1978 | data: 11/10/21 | godz.: 14:50)
    Zwróć uwagę, że dostajemy co raz wyższą wydajność na Watt w wykonaniu AMD bo TSMC jednak stosuje bardziej zaawansowane litografie. U Intela trzeba poczekać na 'Intel 4' by coś istotnie zmieniło się na korzyść niższego zużycia energii. Ale TSMC też wie na czym zarabia się się pieniądze więc wspiera energooszczędność i właśnie HPC. Już wielokrotnie podkreślałem, że TSMC będzie po raz pierwszy w historii udostępniać dla rynku HPC najbardziej zaawansowaną litografię 'N5P' i jej atutem dla wielu właśnie nie jest maksymalna wydajność na Watt ale Maksymalna Wydajność. Do tej pory Intel tak dopracowywał swoje litografie, że oprócz Wydajności na Watt mogli korzystać też z maksymalnej wydajności a AMD nie miało tego atutu. Teraz to się zmieni. Dlatego Intel chce pierwszy korzystać z N3 bo dobrze płaci a rynek serwerów odbudowuje się latami więc bez pomocy TSMC są straceni. Nawet jak będą to małe ilości to jednak CPU z rdzeniami wykonanymi w N3 to będzie ogromny skok naprzód bo nawet 'Intel 4' im tego nie zapewni. Ale oni o połowy roku 2022 mają dostawać tylko 4 tysiące wafli w tej litografii bo TSMC więcej nie da rady. Jak widać dla USA Intel jest ważniejszy niż Apple dlatego pozostaje czekanie na nowe. Mam kilku znajomych co załapali się na 15 lat 'Darmowej' energii z paneli a teraz terminy oczekiwania to nawet pół roku. Trzeba szybko umowy podpisywać jak chcesz się załapać.

  7. @3. (autor: Mariosti | data: 11/10/21 | godz.: 22:04)
    No tak, to niezbyt eko, ale z drugiej strony tak trzeba żeby pograć w tetrisa w 8k bez dsr.

  8. kurna (autor: Mario2k | data: 13/10/21 | godz.: 16:55)
    Już dziś jak gram w BF5 to cały komp bierze 570Watt jako że w tej grze mam już nastukane 150godzi to na sam prąd poszło blisko 60zł tyle to co litr taniej gorzoły . Dużo czy mało ?

  9. @8. (autor: Mariosti | data: 14/10/21 | godz.: 09:36)
    Mniej więcej tyle co jedno naładowanie Tesli 3 LR potrzebne do przejechania ~500km... na pewno ten bf daje fun przez znacznie więcej czasu, a i przy stosownych komponentach zadowoliłby się na pewno około 400W przy wciąż bardzo wysokiej wydajności.
    Niemniej jednak to potwierdza jednak spory sens konsol do grania w nowe gry.


    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.