TwojePC.pl © 2001 - 2024
|
|
Piątek 19 listopada 2010 |
|
|
|
Pierwsze zdjęcia GeForce GTX 590 Autor: Zbyszek | źródło: Xtreme News | 23:50 |
(56) | Do sieci przedostały się zdjęcia przedstawiające najprawdopodobniej płytkę drukowaną nadchodzących dwuprocesorowych kart graficznych Nvidia GeForce GTX 590. Płytka zawiera dwa 40-nanometrowe układy GF110 połączone za pomocą mostka NF200. Każdy z układów otoczony jest 6 kostkami pamięci po jednej stronie, co w połączeniu z 6 kostkami z drugiej strony daje łącznie 2 x 1,5 GB pamięci na całą kartę. W górnej części płytki znajduje się jedno złącze SLI oraz miejsce na dwie 8-pinowe wtyczki zasilające. Specyfikacja techniczna nie jest jeszcze znana, jednak najprawdopodobniej układy będą dysponować pełna liczbą 512 procesorów strumieniowych.
Zużycie energii i wydzielane ciepła ma zostać utrzymane w „rozsądnych” granicach dzięki znacznemu obniżeniu zegarów i napięć zasilających (w porównaniu do kart jednoprocesorowych z układami GF110). Według spekulacji wydajność takiej karty miałaby być bliska wydajności dwóch GeForce GTX 570 połączonych w tryb SLI.
Nie wiadomo jeszcze czym Nvidia zamierza schłodzić swojego najnowszego dwuprocesorowego potwora. Przypuszczalnie wzorem GeForce GTX 580 do odbierania ciepła z układów GF110 wykorzystane zostaną komory parowe. Budowa płytki drukowanej wskazuje natomiast, ze miejsce na wentylator przewidziano na środku karty, pomiędzy układami graficznymi - w przeciwnym wypadku, tj. umieszczenia wirnika na końcu karty system chłodzenia musiałby wystawać poza i tak długą już płytkę drukowaną.
Więcej informacji poznamy zapewne wkrótce.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- ... (autor: trepcia | data: 20/11/10 | godz.: 13:04)
A zdjęcia pudełek gdzie?
- ... (autor: doxent | data: 20/11/10 | godz.: 13:37)
do zestawu mały agregat chłodniczy.
- Antilles ma mieć ponoć 300W TDP (autor: Jarek84 | data: 20/11/10 | godz.: 13:43)
Az sie boje pomyslec ile toto będzie żarło... Teraz już wiadomo dlaczego opracoeano wreszcie specyikację PCI-E v 3.0
- Na co to komu.... (autor: Grave | data: 20/11/10 | godz.: 13:53)
skoro pojedynczy GTX580 radzi sobie bez problemu ze wszystkimi grami....
- domena (autor: Krax | data: 20/11/10 | godz.: 14:14)
dwuprocesorowek zawsze byla szybkosc.... ale cos mi chyba umknelo...
"Zużycie energii i wydzielane ciepła ma zostać utrzymane w „rozsądnych” granicach dzięki znacznemu obniżeniu zegarów i napięć zasilających "
grave to sie zgodze...
- @Grave (autor: MateushGurdi | data: 20/11/10 | godz.: 14:30)
Juz GTX-460 albo Radeon 6850 czy 5830 radza sobie ze wszystkimi grami i tez sobie zadaje to pytanie, swoja droga producenci kart graficznych troche sie zagalopowali, kiedys wielkim halo bylo dodatkowe zlacze 6 pin i zwiazany z nim pobor mocy, a teraz sama karta graficzna zre tyle pradu ile moj komputer zbudowany 2 i pol roku temu (dajacy rade w rozdzialce full HD)
- to amd ma się (autor: Kris1st | data: 20/11/10 | godz.: 14:30)
czego bać bo ten mały potwór je zabije
- no i na co to komu (autor: mnemeth | data: 20/11/10 | godz.: 14:45)
skoro konsole uniemożliwiają zrobienia gier, które by wykorzystały to monstrum...
Btw 500W jak nic będzie to bydle żarło :-)
- @08 (autor: popierdulka1234 | data: 20/11/10 | godz.: 14:58)
eeeeeeeeeeee dadzą więcej stoperków, ty będzie sztuka dla sztuki żeby mieć najszybszą na ziemi kartę
- @09 (autor: mnemeth | data: 20/11/10 | godz.: 15:00)
może i tak w tej kategorii liczy się tylko to, kto jest numerem 1, a reszta schodzi na boczny tor...
- @MateushGurdi (autor: trepcia | data: 20/11/10 | godz.: 15:28)
Pierw na kartach było złącze ATX a nawet dwa razy ATX (GF 6800 Ultra).
Topowe modele to poprostu pokazówki technologiczne (tak jak najdroższe i super nie ekonomiczne modele samochodów danego producenta).
- @11 (autor: popierdulka1234 | data: 20/11/10 | godz.: 15:33)
moze o molex ci chodzi
- trepcia (autor: cyferluu | data: 20/11/10 | godz.: 16:11)
to jakiś dziwny ten 6800U mój ma 1 gniazdko zasilania. ale nie mam widocznie ultra :P mam *czerwonego* gainwarda pełne PS i VS 256bit :) normalnie demon :) q3 śmiga, ze miło :)
- zobaczcie jak (autor: emuX | data: 20/11/10 | godz.: 16:19)
dwa GTX580 gniotą dwa droższe HD5970:
http://www.benchmark.pl/...adeon_HD_5970-3389.html
AMD robi nieopłacalne karty graficzne.
- ... (autor: Zbyszek.J | data: 20/11/10 | godz.: 16:19)
75W (PCI x16) + 150W (8-pin) + 150W (8-pin) = 375W.
Dotychczas żadna karta nie przekraczała kombinacji PCI + 6-pin + 8-pin = 300W.
- @Zbyszek.J (autor: draconewt | data: 20/11/10 | godz.: 16:24)
Ta karta wymaga PCI-Express x16 w wersji 2.0 (czyli 150W) + 2x8pin (300W) a to daje łącznie 450W.
- @emuX (autor: draconewt | data: 20/11/10 | godz.: 16:28)
Zejdź na ziemię. Można śmiało założyć że większość użytkowników twojepc kupuje karty w przedziale 400-800zł. a w tym przedziale cenowym AMD jest bardziej konkurencyjne.
- @ draconewt (autor: Zbyszek.J | data: 20/11/10 | godz.: 16:39)
Racja. Dziękuje za poprawkę
- @draconewt (autor: emuX | data: 20/11/10 | godz.: 16:50)
AMD bardziej konkurencyjne? weźmy takiego GTX460 1GB po OC o wiele szybszy niż HD6850 a tańszy o 50zł, a do tego ma fizyks.
http://twojepc.pl/..._geforce_gtx_580&strona=2
zobacz sobie na testy, GTX460 1GB od nVidia często pokonuje droższego o 250zł HD6870, więc o jakiej ty opłacalności w zakresie 400-800 zł bredzisz?
- @emuX (autor: rainy | data: 20/11/10 | godz.: 17:05)
Jak chodzi o bredzenie, to nikt nie będzie Ci nawet próbował podskoczyć.
Rozumiem, iż HD 6850, który jest na podobnym poziomie cenowym jak GTX 460 (1 GB), nie można rzecz jasna podkręcić - dziwne, bo jakoś testującym udawało się podnieść zegar rdzenia o 20-25 procent.
- @up (autor: pebal | data: 20/11/10 | godz.: 17:09)
Zamiast wypisywać bzdury, poczytaj sobie jak prezentuje się wydajność tych kart w prawdziwych grach. Benchmarki są dla dzieci.
- @rainy (autor: draconewt | data: 20/11/10 | godz.: 17:22)
Emu nie udało się podkręcić pasywnego Radeona 5750 na tyle ile w testach i myśli, że wszystkie karty AMD mają tak samo ;) Zraził się do AMD już na zawsze, niektórzy tak mają i nie są w stanie zrozumieć że ktoś inny może nie podzielać jego zdania.
- ... (autor: pebal | data: 20/11/10 | godz.: 17:24)
21. jest do geniusza emuX.
- @draconewt (autor: emuX | data: 20/11/10 | godz.: 17:41)
widzę że liczy się tylko twoje zdanie, a jak jest wbrew faktom to gorzej dla nich.
Testy są na necie, a ceny można zobaczyć w sklepach. nV jest tańsze, ma fizyks i oferuje taki sam poziom wydajności. Więc opłacalność AMD jest zerowa.
http://nvision.pl/...87716604ranking_calkowity.png
- @pcb (autor: Mariosti | data: 20/11/10 | godz.: 17:41)
Nie zapomnieli czasem o trzeciej 8 pinowej wtyczce dodatkowego zasilania?
- Hmm.... (autor: antrax | data: 20/11/10 | godz.: 17:53)
jaka imponująca sekcja zasilania, chłodzenie to pewnie tylko woda, a pobór energii będzie oscylował koło 500W. Jak to wypuszczą to nikt normalny tego nie kupi
- @emuX (autor: lamik91 | data: 20/11/10 | godz.: 18:00)
Wiesz gdzie testy z Nvision możesz sobie wsadzić ? ;>
- antrax (autor: Mario2k | data: 20/11/10 | godz.: 19:55)
Normalny ??? czy moze masz na mysli przecietnie zarabiajacego ?
Pewniakiem kupia , ludzie co maja kase
przeciez jak bys zarabial ponad 20k na miesieac
i chcialbys dobrego wypasionego sprzeta zamowic to chyba nie z GF 460 w srodku ?
Wszystko kwestia zasobnosci w gotowke
- ... (autor: rookie | data: 20/11/10 | godz.: 20:47)
Niezły potwór ale pewnie znając fermi wymaga podłączenia specjalnego agregatu prądotwórczego :)
- @Mario2k (autor: AmigaPPC | data: 20/11/10 | godz.: 22:19)
mam kilku takich klientów, którzy (mówiąć kolokwialnie) srają szmalem i są oni najbardziej oszczędnymi z jakimi mam do czynienia.
Kupują sprzęt do wykonywania zadania XXX, a nie najszybszego (najmniej opłacalnego) potwora na rynku.
- @popierdulka1234 (autor: trepcia | data: 20/11/10 | godz.: 22:43)
Racja, chodziło mi o molex. Boże... nie wiem co się stało, że napisałem ATX. Starość nie radość chyba.
@cyferluu
Referencyjny model 6800 Ultra miał dwa molexy.
http://i.frazpc.pl/...ly/art262/foty/zasilanie.jpg
Ja miałem zwykłego 6800 ale udało mi się odblokować zablokowane potoki i vertexa i dobrze działał. Nawet kilka MHz mogłem na rdzeniu podkręcić ale to dosłownie kilka bo później gdzie niegdzie potrafiło artem sypnąć. A zamontowałem mu chłodzenie Arctic Cooling.
- AmigaPPC (autor: Mario2k | data: 20/11/10 | godz.: 22:44)
Znam kilku takich Burakow co sie kasy dorobili a szczedza na wszytkim , ale o czym to swiadczy ??
Ja uznaje zasade , jesli mnie stac na grafe za 500Funtow a lubie sobie pograc w max detalach to nie bede rozkminial czy oszczedzic 10-20% zeby kupic cos bardziej oplacalnego , czy to takie trudne do zrozumienia ?
Miec kase i zrec salceson tez mozna ,ale to trzeba byc z krwi i kosci chamem korzennym , raczej nie Warszawiakiem ;)
- @Mario2k (autor: trepcia | data: 20/11/10 | godz.: 22:47)
Co masz do salcesonu? Smaczny jest :-)
- GTX 595 (autor: adriankiller21101986 | data: 20/11/10 | godz.: 22:55)
to jest cos na co czekam obecnie posiadam
GTX 480 Oc 885-1770-2050mhz ale chetnie sie przesiade na to cudo ciekawe jakie bedzie taktowanie czy takie same jak w GTX 580 ??ale to bez ruznicy co dwa to nie jedno wiec czekam z niecierpliwieniem
- @emuX (autor: draconewt | data: 20/11/10 | godz.: 23:34)
Gdzie się podziały teksty o słynnych mikro przycięciach kart dwu chipowych. Czy karty NVIDII to nie dotyczy? ;)
- @draconewt (autor: DTOsman | data: 20/11/10 | godz.: 23:46)
595 to będzie wydajnosc której żadna 1 GPU karta dostarczyć nie może. W przypadku HD5970 jest GTX580, bez wad multigpu. Dlatego nie ma tekstów o mikroprzycięciach.
Swego czasu GTX 295 wygrywał z HD5870, o ile dobrze pamiętam wtedy fakt ze 5870 jest kartą z pojedynczym gpu był koronny, jak również DX11 i teselacja. Potem dopiero gdy okazało się, że GTX480 miażdzy w tej materii radeonki to okazało się ze teselacja DX11 jest zbędne, bo i tak mało jest gier to wykorzystujących hehe
- @Mario2k (autor: kosa23 | data: 21/11/10 | godz.: 00:14)
Zadam Ci zagadkę.
W restauracji czterech panów zamówiło obiady:
1. omlet
2. jajka sadzone
3. jajka na twardo
4. jajecznice
Który z nich jest inteligentem?
- @kosa23 (autor: trepcia | data: 21/11/10 | godz.: 00:35)
Kucharz?
- ;]... (autor: Mariosti | data: 21/11/10 | godz.: 03:55)
"trzeba byc z krwi i kosci chamem korzennym , raczej nie Warszawiakiem ;)"
Oksymoron jak mniemam ;]
- @DTOsman (autor: draconewt | data: 21/11/10 | godz.: 10:28)
HD5970 przez rok rówież nie miała konkurencji ze strony pojedynczego gpu. Jednak często pojawiał się temat mikro przycięć.
- No i fajnie! (autor: acd | data: 21/11/10 | godz.: 10:44)
Niech zrobią wersje z normalnymi zegarami iz fabrycznym blokiem wodnym i będzie gites morales. Będzie można pomyśleć o zmianie obecnej karty:)
- podstawowe pytanie... (autor: Ceki | data: 21/11/10 | godz.: 12:19)
...karta będzie potężna i zarazem prądożerna ale nie ma procesora który by ją w pełni wykorzystał, nawet i7 podkręcony nie da w 80% rady
- @Mario2k (autor: AmigaPPC | data: 21/11/10 | godz.: 13:15)
Ci, o których pisałem to nie są buraki tylko ludzie myślący.
Skoro mają to samo za 20% mniej to po co przepłacać.
Tak podchodzą do sprawy.
- dualiki (autor: morgi | data: 21/11/10 | godz.: 13:21)
do pieca i do kosza nadaja sie, skalowanko jak w totka raz jedziemy na wysokim frame, by potem upasc nisko nawet do slajdshowa, technologia do bicia rekordow w tdp i benchach, zenujace jak i cale sli/cfx.
- @morgi (autor: trepcia | data: 21/11/10 | godz.: 14:35)
Tak samo żenujące jak Larabee i układ złożony z wielu rdzeni.
- ludzie czemu wszyscy zaslaniaja sie (autor: Krax | data: 21/11/10 | godz.: 15:14)
nV jest 50 zl drozsze i ma bo ile gier tak naprawde to obsluguje 30? moze 40....
a ile gier do tej pory powstalo.... z czego znanych tytulow jest moze 10 do 15
ogarnijcie sie.... obsuga tej biblioteki nie powinna byc kluczowym elementem decydujacy o zakupie...
a to ze karty amd tej technologi nie obsluguja jest wina nv... bo przypomne ze stream jest starszy i niczym(prawie) sie nie rozni od cuda.... pozatym obie napisano przy uzyciu tej samej biblioteki
- Kolejna generacja (autor: _OskaR | data: 21/11/10 | godz.: 18:10)
dwugrafówek i dalej brak wspólnej pamięci - do rzyci z takimi kartami.
- cyrku ciąg dalszy (autor: Qjanusz | data: 21/11/10 | godz.: 20:21)
z jednej strony pakowanie na laminat dwóch najbardziej na świecie łakomych na energię GPU,
z drugiej natomiast obniżanie zegarów i V, po to tylko żeby urządzenie można było nazwać kartą graficzną i bez większych obaw wsadzić do kompa z TOPowym zasilaczem.
Chłodzenie raczej przekroczy dwa sloty.
To wszystko pokazuje w jak wielkiej defensywie jest nVidia. Nie ma konceptu na wydajniejszą architekturę, więc stosuje całkowicie wykluczające się metody siłowe (dodajemy GPU i obniżamy zegary).
Ciekaw jestem do czego doprowadzi taki rozmach w projekcie zielonych.
- PS. (autor: Qjanusz | data: 21/11/10 | godz.: 20:23)
dlaczego GTX 595, a nie np GTX680?
Skoro u goblinów seria ma się nijak do technologii, to przynajmniej w oczach dzieci byliby totalnie do przodu w porównaniu do konkurencji.
- Doczekaliśmy sie (autor: KPRT | data: 22/11/10 | godz.: 00:21)
No to się doczekaliśmy!! Nowy Geforce na układzie Cyrix 133 !! Po Fermi GF100 -> Cyrix 133!
- Taka karta nie ma racji bytu (autor: Muchomor | data: 22/11/10 | godz.: 10:37)
"Do GPGPU to tylko nvidia. Zaś do gier, to można uzasadnić że jest to inwestycja na lata. Ale za jakiś rok, ta wydajność będzie z jednego GPU, przy dużo mniejszym poborze prądu i cenie. Poza tym kto gra w 2500x1600 FD ? Największy sens istnienia tej karty to cele propagandowe."
... z premedytacją.
- ... (autor: Adex1234 | data: 22/11/10 | godz.: 12:21)
karta jest popisem podobnie jak 6990 i 5970...
- ... (autor: Adex1234 | data: 22/11/10 | godz.: 12:42)
wszyscy się czepiają urządzeń limitujących TDP w GTX580, a co to komu przeszkadza? Przecież i tak zawsze można to wyłączyć poza tym nie ma to znaczącego wpływu na gry.
- @up (autor: Qjanusz | data: 22/11/10 | godz.: 14:45)
a co na to gwarancja?
;-)
W zasadzie średni zasilacz też nie ma nic do komfortu grania. Do czasu...
- @Qjanusz (autor: Jolo | data: 22/11/10 | godz.: 16:25)
Tak jak zwykle... no ale cóż.
1. obniżenie zegara i wpakowanie dwóch rdzeni na kartę to normalne rozwiązanie dla kard z dwoma rdzeniami. Po pierwsze obniżenie zegara o 20-30% i jeszcze dodatkowo napięcia zasilania powoduje spadek wydzielanego ciepła do połowy, a właśnie o to chodzi - tak było robione wcześniej. Po drugie to doskonały sposób na sprzedanie układów które odmawiają pracy przy wysokich zegarach.
2. nazewnictwo - nVidia nie stosowała nazewnictwa jak podałeś (580->680). Karty z dwoma rdzeniami miały końcówkę GX2 albo właśnie tak jak tutaj (7900->7950). Wcześniej nie sięgam pamięcią.
- GTX power.. (autor: robotronik | data: 3/01/11 | godz.: 22:49)
Witam,nie ma obecnie zadnej karty ktora by uciagnela pewne gry na maks detalach i rozdzielczosci.. nawet pojedynczej z dwoma ukladami, GEFORCE 595 mam nadzieje ze bedzie mial lepszy potencjach od karty ktora posiadam,a zakupilem z tego wzgledu ze NVIDIA zaspala i byl to najszybszy z dostepnych pol roku temu ukladow, moze jak wyjdzie 595 to 2 takie wrzuce do komp i wtedy napisze jak sprawa wyglada przy obciazeniu, karty wcale nie sa wystarczajace.. ASUS RAMPAGE III, i7 980, 12 GB RAM 2000MHZ,Be Quiet 1200W,X-fi, Cooler Master HAF-932,SAPHIRE 5970 TOXIC, EYEFINITY- 7680-1440
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|