Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Wtorek 21 września 2010 
    

Nvidia Kepler - następca Fermi


Autor: Zbyszek | źródło: PC Perspective | 21:40
(61)
Podczas konferencji GPU Technology Conference prezes Nvidia Jen-Hsun Huang zaprezentował zaktualizowane plany firmy dotyczące kolejnych generacji układów graficznych. Nowa generacja, następca obecnej Fermi otrzyma nazwę Johannesa Kepler’a - niemieckiego matematyka, astronoma i astrologa i w porównaniu do Fermi ma zaoferować znaczącą poprawę pod względem wydajności obliczeń podwójnej prezycji w stosunku do pobieranej energii. Pierwsze układy graficzne z serii Kepler trafią na rynek pod koniec przyszłego roku, a do ich produkcji wykorzystany zostanie 28-nanometrowy wymiar technologiczny. W następnej kolejności w 2013 roku Nvidia zamierza wprowadzić na rynek kolejną generację układów o nazwie Maxwell.

Architektura Maxwell przyniesie dalszą 3-krotną poprawę wskaźnika wydajności obliczeń podwójnej prezycji na wat, a układy z niej korzystające będą produkowane w 20 lub 22-nanometrowym wymiarze technologicznym.


 
    
K O M E N T A R Z E
    

  1. ... (autor: AMD_Master | data: 21/09/10 | godz.: 22:10)
    Z takim tempem rozwoju to za 3lata ich karty będą 2x wolniejsze od AMD. Gratulacje dla Nvidi.

  2. cóż za "optymistyczne plany" (autor: Aamitoza | data: 21/09/10 | godz.: 22:12)
    Czyżby planowali robić małe i chłodne układy? ;]

  3. ... (autor: trepcia | data: 21/09/10 | godz.: 22:12)
    Czyli... Wynika z niego, że Kepler może być tak samo wydajny jak Fermi i pobierać ok 100W.

  4. Szkoda (autor: morgi | data: 21/09/10 | godz.: 22:13)
    ze CUDAcznosc ma male szanse przebic sie, z tym dpfp dzisiaj juz rzadza maja najwiecej na liczniku, ale troche duzo wattow, za te kilka lat bedzie tylko jeden gracz w tym temacie, no zobaczymy.

  5. ... (autor: RoXall | data: 21/09/10 | godz.: 22:14)
    o to sobie pokrzyczeli ;).

  6. :):) (autor: Mariusch1 | data: 21/09/10 | godz.: 22:29)
    No i to się nazywa dobra informacja. Już czekam na Keplera:D
    Może uda im się stworzyć jakąś konkurencję dla AMD(szkoda że już nie ATi:( )


  7. @morgi (autor: Promilus | data: 21/09/10 | godz.: 22:39)
    Kłamco, gdzie niby najwięcej na liczniku? To już przekroczyli 544 GFLOPS DP z Cypressa? Chyba w jakimś podkręconym GTX480 a teraz niespodzianka - cypress też się kręci.

  8. @up (autor: MateushGurdi | data: 21/09/10 | godz.: 22:40)
    Tez szkoda, zwlaszcza gdy patrze na nalepke ATI na budzie mojego PC-ta :( Swoja droga dobrze to podpisali "CUDA (...) roadmap" bo faktycznie istne cuda tam wypisuja. Ciekawe tylko czy zdaja sobie sprawe ze z keplerem wyjdzie Northern Island, czyli HD7xxx, potem 2012 ma byc HD8xxx (i koniec swiata wiec nvidia nie wyda maxwella:p), a w 2013 ma byc seria HD9xxx wg planow ATI, czyli na 2 serie ncidii przypadna 4 ATI, nie musze chyba mowic co znacza takie roznice, nawe jak kepler wyjdzie cycus glancus fajny to nie wydaje mi sie zeby po roku ATI go nie dogonilo kolejna seria i panowalo przez rok do maxwella. Do tego tempo wprowadzania ukladow w nvidii opstatnio sie pogorszylo

  9. kepler (autor: piobzo | data: 21/09/10 | godz.: 22:42)
    kojazy mi sie tylko z ruchem planetarnym
    next maxwell... potem einstein?

    paranoja jak u amd buldozer, spychacz....lol...


  10. Ciekawe.. (autor: ziemoone | data: 21/09/10 | godz.: 22:42)
    ..czy Maxwell bedzie miał cokolwiek wspólnego z istniejącym na rynku rendererem o tej samej nazwie jesli tak to nam wszytkim gacie spadną :) Nawet takim jak ja wrogom zielonego odsmarznego badziewia. Rewolucja by sie przydała :D

  11. trzymajcie kciuki oni naprawde tego potrzebuja (autor: Mario2k | data: 21/09/10 | godz.: 22:53)
    Bez przesadyzmy ,trzeba im zyczyc udanych planow inaczej monopola AMD oczysci nam zbytnio kieszenie .
    NVidia musi cos w koncu dobrze zaplanowac inaczej udzialowcy ich rozerwia na strzepy.


  12. @morgi (autor: Conan Barbarian | data: 21/09/10 | godz.: 22:55)
    Za kilka lat zbuk Intela będzie ON tylko w biurach... i to nie wszystkich. CUDA to przyszłość, której zbuk graficzny Intela nigdy nie doświadczy. Cieszę się, że nvidia ma perspektywy wybrnięcia z niewesołej sytuacji.

  13. A kiedy będzie Kopernik ? (autor: pomidor | data: 21/09/10 | godz.: 23:19)
    Może AMD się skusi. Chociaż oni zadowolą się tylko zrobieniem sterownika od OpenCL, i będą twierdzić że są pełną gębą w GPGPU

  14. Pomidor (autor: Aamitoza | data: 21/09/10 | godz.: 23:24)
    Bo GPGPU to niedługo już tylko open CL będzie. Na co komu cuda, skoro openCL odpalisz na wszystkim poczynając na ARM, poprzez Power i procesory x86, a na kartach graficznych kończąc.

  15. Nie ma Blyszczacego Czola ! (autor: adamakonto | data: 21/09/10 | godz.: 23:30)
    To jakis fake !

  16. ^up (autor: Conan Barbarian | data: 21/09/10 | godz.: 23:34)
    Ten gostek na zdjęciu to dokładnie p. Świecące Czoło. Tym razem wybrał slajdy, gdyż napisać można wiele.

  17. Koncert życzen czas zacząć. (autor: xernos | data: 21/09/10 | godz.: 23:40)
    AMD prezentacja nowych kadr z serii 6k, nVidia prezentacja następcy Fermini - po staremu ale niestety zieloni są już ostro wgniatani w ziemie i teraz się przypominają jak tak dalej pójdzie to będzie jak Mario2k napisał albo AMD albo GMA -pzdr.

  18. Po prostu w 28nm będzie zupełnie nowe rozdanie (autor: Grave | data: 21/09/10 | godz.: 23:52)
    Nvidia ma dokładnie takie same szanse w nim wygrać jak AMD.

    Obecna sytuacja w momencie wejścia nowej generacji nie będzie miała żadnego znaczenia. Teraz AMD ma lepsze GPU i zapewne zdoła utrzymać prowadzenie w 2011, ale kto wygra w 28nm niewiadomo.

    Chociaż jak czytam powyższe komentarze to odnoszę wrażenie że część fanów AMD skreśliła już Nvidię po wpadce z fermi i zakłada że jak AMD raz wygrało to już będzie tak na wieki. BŁĄD!!

    Nvidia miała swoje dołki, ATI też miało i obie firmy pokazały że potrafią z dołków wychodzić obronną ręką.

    Conan Barberian ---> IGP Intela nie potrzebne CUDA. Sprzętowe dekodery video w IGP Sandy Bridge + AVX i inne dedykowane zestawy instrukcji z powodzeniem poradzą sobie w najbardziej popularnych (dla ZWYKŁEGO użytkownika) zastosowaniach gdzie obecnie wykorzystywana jest CUDA.


  19. Grave (autor: Markizy | data: 22/09/10 | godz.: 00:02)
    możesz powiedzieć jakim sposobem wygra?
    jeśli chipy z serii HD5000 zmniejszy do 28nm to mogą je prawdopodobnie bardziej podkręcić niż nvidia swoje fermi, a dlaczego bo łatwiej dopracować mniejszy chip.

    Druga sprawa to AMD będzie miało ciągle znacznie mniejsze chipy niż nvidia.

    Pytaniem jest jak wypadnie seria hd6000 na tle obecnej i jak wyjdzie dopracowanie chipu.

    Intel wręcz będzie potrzebować coś na miarę cuda, bo wystarczy jakiś program który wykorzystuje openCL i już APU intela są na szarym kącie na tle Fusionów AMD.


  20. poprawka 19 (autor: Markizy | data: 22/09/10 | godz.: 00:03)
    "... już APU intela są na szarym końcu na tle Fusionów AMD."

  21. Markizy (autor: Grave | data: 22/09/10 | godz.: 00:08)
    Po prostu nowa generacja to nowa generacja nie można się w NAJMNIEJSZYM stopniu sugerować wynikiem poprzedniego starcia.

    Dokładnie tak samo mogę zapytać jakim sposobem po tragicznym HD 2900 (przeniesionym potem do niższego procesu ale bez zmiany wydajności) pojawił się 2x lepszy HD 4xx a po nim znowu 2x lepszy HD 5xx?

    Dlaczego zakładasz że Nvidia nie stworzy najlepszej karty i najlepszego GPU tylko dlatego że Fermi jej się nie udał?

    Gdyby było tak jak Ty rozumujesz to ATI mając HD 2900 powinno już na wieki wieków być za Nvidią, bo co nie poprawi czy przeniesie w inny proces to Nvidia zrobi to samo i dalej będzie z przodu.

    A jednak to nie takie proste, szkoda że o tym nie pamiętasz tylko myślisz bardzo prostolinijnie.


  22. A co do OpenCL (autor: Grave | data: 22/09/10 | godz.: 00:09)
    To wymień choć jeden program wykorzystujący OpenCL przydatny przeciętnemu użytkownikowi. Choć jeden...

  23. @Grave (autor: Conan Barbarian | data: 22/09/10 | godz.: 00:09)
    Mam nadzieję iż nikt nie "wygra" i następne kilka lat będą obfitować w bardzo dobre i dość tanie grafiki od AMD i nvidii.
    Niech zawsze będzie OFF dla graficznego zbuka od Intela.


  24. Conan Barbarian (autor: Grave | data: 22/09/10 | godz.: 00:12)
    A tak szczerze - co Ci ten "zbuk" przeszkadza? Istnieje sobie już od wielu lat sukcesywnie ulepszany, jak ktoś chce z niego korzystać korzysta, jak nie chce - nie musi. Nie podoba Ci się to nie korzystaj, ale że samo jego istnienie Ci przeszkadza to już zalatuje nieco fanatyzmem.... (bez urazy).

    Nie we wszystkich zastosowaniach wymagana jest super hiper wysoka wydajność przetwarzania grafiki 3D, i ten "zbuk" w małych lapkach czy bardzo tanich notebookach lub PC-tach sprawdza się bardzo dobrze. Przeszkadza Ci to w jakiś sposób?


  25. Fermi (autor: Conan Barbarian | data: 22/09/10 | godz.: 00:14)
    Nie powiem jak Grave, że Fermi się "nie udał". GTX460 jest znośny - a karta Gigabyte GV-N460OC-1GI bardzo udana. Nvidia dokonała karkołomnego skoku w architekturze i jedynie przeliczyła się z możliwościami procesu 40nm, ale za dwa lata to może być rewelacja.

  26. Grave (autor: Conan Barbarian | data: 22/09/10 | godz.: 00:16)
    Jeśli Intel rzeczywiście zaimplementuje w SB opcję automatycznego OFF, to przestanie mi przeszkadzać i kupię minimum Core i5 2500.

  27. >>> (autor: tompo75 | data: 22/09/10 | godz.: 00:35)
    a świstak siedzi i dalej zawija w te sreberka..
    ot zwykly rozwoj kompow ktore maja podwajac swoją wydajność w określonym czasie... wszystko patykiem na piasku jak na razie, bo juz 145GHz procesory też mialy byc dawno temu.
    Pozyjemy (dozyjemy) zobaczymy.


  28. poczekamy, zobaczymy (autor: Lolo64_EX1_rev2.0 | data: 22/09/10 | godz.: 00:54)
    Nazwiska rzucają mocne, ale marketing to za mało. S.a ciency jak wypłata z Biedronki.

  29. może w końcu coś wyjdzie z tego (autor: mоrgi | data: 22/09/10 | godz.: 01:23)
    niech się wezmą do roboty....

  30. @Grave (autor: ligand17 | data: 22/09/10 | godz.: 09:05)
    Znowu p...lisz głupoty. Nie będzie żadnego "nowego rozdania", bo punktem odniesienia jest zawsze starsza generacja.
    A co do IGP - co mi przeszkadza to:
    - niedopracowane sterowniki - od 10 lat Intel nie potrafi zrobić porządnych sterów do swoich chipów
    - kiepska wydajność - mając służbowego laptopa z tym szitem nie jestem w stanie uruchomić w rozsądnej rozdzielczości żadnej gry wydanej w przeciągu ostatnich 3-4 lat, nie mówiąc już o poziomie detali
    - obligatoryjna obecność - nawet jak nie chcę posiadać tej karty to Intel i tak mi ją wciska (oczywiście za obowiązkową dodatkową opłatą)
    - niemożliwość wyłączenia - nawet, jak mam zewnętrzną grafikę, to IGP jest włąćzone i żre energię czy sobie tego życzę, czy nie. W stacjonarnym komputerze to jakoś strasznie nie przeszkadza, ale w laptopie - owszem.


  31. Kepler (autor: buceek | data: 22/09/10 | godz.: 09:20)
    Oby tylko nie zaliczył takiego opóźnienia jak Fermi. Nie wiem jak wy ale ja dobrze pamiętam ich problemy z 45nm a tu porywają się na 28nm. Co prawda za rok ale to jednak rok. Bez odświeżenia Fermi w 28nm nie poradzą sobie z nowym układem w nowym wymiarze technologicznym.

  32. @Grave (autor: trepcia | data: 22/09/10 | godz.: 09:21)
    Kepler będzie nową generacją ale nie nową architekturą więc będzie oparty na fermi.

  33. jesteście trochę narwani i durnowaci :) (autor: ff1-ff1 | data: 22/09/10 | godz.: 10:00)
    tak na prawdę dla nas wszystkich liczy się jedno-aby były wydajne,ciche,pobierające stosunkowo mało prądu i w miarę tanie karty.Czyż nie? Skoro tak to:
    -lepiej by było by jednak nvidii udało się pod koniec 2011 roku dokopać ati (amd). Dlaczego?Bo jeśli ktoś ma więcej niż 15 lat to pamięta jak ati się zachowywało z cenami gdy tłukło swoje rage.
    -konkurencja ma to do siebie że zmusza do myślenia. Ati odbije się po latach posuchy jednak bez nv przestaną się rozwijać (jak nv gdy ati nie mogło nic ciekawego wypuścić- kotlety...)
    - z powyższych powodów teraz trzeba dopingować nv by trendy w postaci integracji cpu z gpu nie wyrządziły jej zbyt dużych szkód finansowych a nam dużych szkód w postaci małej konkurencji na rynku.
    Więc proszę przestańcie paprać głupoty, bierzcie plecaczki i do szkółki...
    -


  34. ligand17 (autor: Grave | data: 22/09/10 | godz.: 10:29)
    Tak w przypadku HD 4xx punktem wyjścia była seria HD 3xxx i skok wydajności był ~200%.

    I tak w serii HD 3xx ATI dostawało równo w tyłek od Nvidii, w serii HD 4xx już była równorzędna walka, a w HD 5xxx ATI wyszło na prowadzenie.

    WSZYSTKO SIĘ MOŻE ZMIENIĆ w kwestii prowadzenia w wyścigu wydajności. Zakładanie że Nvidia po jednej wpadce będzie już zawsze do tyłu jest GŁUPOTĄ.

    To że AMD teraz prowadzi w najmniejszym stopniu nie oznacza że w kolejnej generacji też tak będzie. Równie dobrze to Nvidia i jej Keppler mogą okazać się wydajniejsze a AMD spadnie na drugie miejsce.

    G80 u Nvidii też jak się pojawił wszystko miażdżył od ATI, a jednak z czasem ATI się pozbierało i zdołało stworzyć lepsze GPU czego efekty mamy teraz.

    Jak będzie z Kepplerem vs "HD 7xxx" (czy jak go tam AMD nazwie) nie wiadomo. AMD może (ale nie musi) utrzymać prowadzenie, rónie dobrze Nvidia może wypuścić wydajniejszy układ i pokonać nowość od AMD.


  35. trepcia (autor: Grave | data: 22/09/10 | godz.: 10:32)
    ale za to HD 7xx ma być nową architekturą AMD. A przy takich gruntownych zmianach zawsze może pójść coś nie tak (vide GeForce FX, vide HD 2900XT, vide... Fermi).

  36. Nvidia zapowiedziała kolejną kartę (autor: Sony Vaio | data: 22/09/10 | godz.: 10:34)
    Nadchodzi wielki sukces i ponowne zwiększenie sprzedaży jak było z Fermi. To będzie hit! Jeszcze szybsza od Fermi (a to już była mega moc), o amd nie muszę nawet wspominać. Moc, świetne stery, zjadliwa cena. Do tego dołożymy SB i mamy zestaw marzenie.

  37. @Grave (autor: Marek1981 | data: 22/09/10 | godz.: 11:26)
    Czy ty myślisz czy nadal będziesz pierdolił głupoty???
    hd2xxx(dx10)->hd3xxx (10.1) ->hd 4xxx(dx10.1) -> hd5xxx (dx11)
    8xxx(dx10)-> 9xxx(dx10)-> 2xx(dx10)
    widzisz różnicę w podejściu do ulepszania swoich produktów???


  38. @Grave (autor: draconewt | data: 22/09/10 | godz.: 11:38)
    Zapominasz że ATI wydaje nową serie kart każdego roku. A więc po wpadce ATI ma dołek trwający 1 rok natomiast u NVIDIA ten dołek trwa 2 lata.

  39. @draconewt (autor: Wujofefer | data: 22/09/10 | godz.: 12:21)
    Ja zauważyłem, że początki tego dołka sięgają czasów serii GF8. Wtedy to zapadały dalekosiężne decyzje, które doprowadziły do obecnej sytuacji, w której to Nvidia dostaje po 4 literach a ATI (obecnie AMD) idzie jak burza.
    Mimo, że GF8 był udany a ATI dała wtedy ciała to właśnie czerwoni wyciągnęli odpowiednie wnioski i zaczęli pracować nad zmniejszeniem układu przy zachowaniu jego odpowiednio wysokiej wydajności tymczasem inżynierowie w Nvidii ślepo gonili za mocą i nie przejmowali się wielkością układu, jego apetytem na prąd i wydzielanym przez niego ciepłem.
    Do tego można zauważyć, że do serii GF8 Nvidia prezentowała co roku nowe grafiki (2001 GF3, 2002 GF4, 2003 GF FX, 2004 GF6, 2005 GF7 i 2006 GF8) natomiast po 2006 roku mamy napływ kotletów od zielonych i prawdziwie nowe grafiki co 2 lata (choć nie zawsze udane).

    U Nvidii wszystko fajnie wygląda na wykresach, Fermi miało być wspaniałe i niedoścignione a tu jednak GTX480 jest wersją beta prawdziwego Fermi i to jeszcze spóźnioną o przynajmniej 6 miesięcy względem konkurencji.
    Jak to będzie wyglądało w przypadku Keplera tego nikt z nas nie wie i oby tym razem im wyszło, bo brak konkurencji zaszkodzi nam wszystkim.


  40. Ktos tu nie kuma (autor: morgi | data: 22/09/10 | godz.: 12:28)
    Nvidia jest liderem gflops zwlaszcza dpfp i nikt nie ma kontroferty w tej kwestii gdzie jest rywal Fermi w stacjach typu Tesla, nie ma nic jakies stare wyplosze, a w sumie identyfikuja sie one pustymi cyferkami w testach nieosiagalnymi.

  41. Grave (autor: Aamitoza | data: 22/09/10 | godz.: 12:38)
    Jak zwykle naciągasz fakty tak aby pasowały do Twoich bzdur.

    "Tak w przypadku HD 4xx punktem wyjścia była seria HD 3xxx i skok wydajności był ~200%. "

    A może od razu miliard? Skok wydajności był 70 do 100% w przypadku użycia wysokich wartości AA.

    Dodatkowo w serii 5xxx wzrost wydajności wynosił około 60%.

    Różnica między 8800GTX, a GTX280 również wynosiłą około 70%, a w przypadku GTX480 wzrost wynosił również między 60 a 80% (z wysokim AA) a taka tendencja tzn 60-100%) powtarza się co nową serię kart. Owszem, jest możliwy spadek TDP i wzrost wydajności przy małej ilości wzrostu tranzystoró, ale wątpliwym jest to, że będzie aż taki jak na wykresie.


  42. Aamitoza (autor: morgi | data: 22/09/10 | godz.: 12:38)
    Nie CUDAcznosc jest liderem, a inne zenady jak openy sa po prostu proba skopiowania ich rozwiazan, podrzednym api szczegolnie pod gpu, na procu SSE ciagle idzie do przodu.
    Taka fizyka moglaby byc liczona w grach na compute shaderach, ale oczywiscie z racji os tylko na DC, z czym ma wyjsc jako pierwsze 3dmark zawieszajac kontrowersje psiksowe.


  43. morgi (autor: Markizy | data: 22/09/10 | godz.: 12:43)
    a można poprosić po polsku ?

  44. @morgi (autor: Promilus | data: 22/09/10 | godz.: 12:49)
    "Nvidia jest liderem gflops zwlaszcza dpfp"
    Nie rób sobie jaj, chyba w dupie aj waj...


  45. Morgi (autor: Aamitoza | data: 22/09/10 | godz.: 12:55)
    Powiedź mi tylko. Co będzie lepsze implementacja x86 dla cuda w wykonaniu nvidia, czy implementacja openCL dla procesorów intela w wykonaniu intela? Lub implementacja openCL dla procesorów AMD w wykonaniu AMD? ;) Śmiem twierdzić, że to intel i AMD znają lepiej swoje architektury i potrafią stworzyć lepszą implementację. Wszystko rozbija się właśnie o to w jaki sposób dale API zostanie zaimplementowane - przykładem jest openGL. Jeżeli tylko producent się przyłoży i wykona porządną implementację, to działa ona równie dobrze, co dopieszczony DX. Podobnie może być z implementacją openCL na kartach AMD i Nvidia. Wtedy cuda straci sens, bo każdy producent dopieści implementację openCL na swoim sprzęcie i będzie to działać równie efektywnie co cuda, a dodatkowo na ogromnej gamie sprzętu - będzie można napisać jeden program i nie użerać się oddzielnie z wersją na ARM, na Power, na x86, czy na GPU.

  46. ... (autor: Aamitoza | data: 22/09/10 | godz.: 13:00)
    Do tego GPU jednego lub drugiego producenta. - bo odpali na każdym. Nie jak obecnie - napisz coś w cuda, a potem jeszcze raz z użyciem stream SDK... a potem jeszcze na x86 z wykorzystaniem najnowszych SSE AVX. (nie biorę pod uwagę cuda x86, bo coś wątpię w efektywność tego rozwiązania).

  47. Aamitoza (autor: Dzban | data: 22/09/10 | godz.: 13:01)
    Widocznie nvidia będzie robić mniejsze ukłądy wtedy wydajność na wat wzrośnie. I może majadobry pomysł jak zwiększyć wydajność DP przy małym koszcie powierzchni chipa.

  48. @Zu all (autor: Mariosti | data: 22/09/10 | godz.: 13:02)
    Ciekaw jestem w jakim stopniu zysk tej energooszczędności wynika z przewidywanych możliwości kolejnych procesów technologicznych a w jakim stopniu od faktycznego zwiększania efektywności samej architektury.

    Co do całego jadu który można znaleźć powyżej... po co dyskutować kto będzie lepszy od kogo, kto będzie miał gorszy dołek, kto zniszczy kogo... dla nas, konsumentów liczy się tylko to aby ati i nvidia były równorzędnymi konkurentami najlepiej zawsze i wszędzie, bo tylko wtedy nie będą przeginać z marżami na nowych produktach... osobiście ceny hd58xx są dla mnie ogromnym rozczarowaniem, a kolejnym, fakt iż gtx400 nic w tej kwestii nie zmieniły...


  49. a ja napiszę tak (autor: Qjanusz | data: 22/09/10 | godz.: 13:24)
    trzymam kciuki za nVidię. Niech odzyskają w końcu pewność siebie i tracący rynek.

    @Grave
    znów głupoty wypisujesz.
    Weź idź lepiej odpal sobie IE9 na shaderach w GMA, wróć i napisz jak było.


  50. Qjanusz (autor: Aamitoza | data: 22/09/10 | godz.: 13:25)
    Na nowych sterownikach całkiem nieźle. ;]

  51. nVididia (autor: Pararocker | data: 22/09/10 | godz.: 15:00)
    To jest postęp. Juz są technologicznie lata switlne przed AMD, a niedlugo kolejna architektura, gry AMD zaserwuje nam po raz kolejny odgrzewane kotlety.

  52. No optymiśći z szefów nV... (autor: Marcel | data: 22/09/10 | godz.: 15:54)
    nie ma co. Na ich wykresie Fermi udało im się wydać w 2009r... Może ktoś im powinien kalendarz w biurze wymienić na właściwy?

  53. @Marcel (autor: Wujofefer | data: 22/09/10 | godz.: 16:19)
    Bez kitu, nie zwróciłem na to uwagi. Wychodzi na to, że te plany to są dla prezentacji, właściwych układów powinniśmy się spodziewać później. Myślę, że jak dodamy do każdej daty 1 to będzie data premiery :D
    Czyli Kepler wyjdzie w 2012 a Maxwell w 2014 xD


  54. @morgi (autor: Conan Barbarian | data: 22/09/10 | godz.: 16:54)
    Liderem jest Intel.

  55. @up (autor: Qjanusz | data: 22/09/10 | godz.: 16:56)
    czytać trzeba się nauczyć...

    Atrapa Fermi była zaprezentowana w 2009 roku.
    natomiast sama karta sporo później po plejadzie pudełek, które to były bohaterami newsów w połowie 2010r.

    Czyli atrapa Keplera będzie w 2011, następnie pudełeczka, ploteczki, przecieki i sama karta w 2013 roku. Wielki face lifting gorącego Fermi ;-)


  56. @55 (autor: Marcel | data: 22/09/10 | godz.: 18:22)
    No wiesz, dyr nV chyba nie chciał mówić o prezentacji układów które dopiero projektują. Nie przez przypadek w newsie mamy "układy graficzne z serii Kepler trafią na rynek" Chyba jednak chodziło mu o prezentację działających choćby sampli (chyba że atrapa to dla nV też działający sampel)

  57. Marcel (autor: morgi | data: 22/09/10 | godz.: 18:53)
    Zaprojektowac mozna, ale kiedy nie ma sie faba, a w dodatku nie ma sie pojecia z jakim procesem przyjdzie sie zmierzyc, to wtedy trzeba tlumaczyc sie przesunieciem terminow i obcinaniem specyfikacji, przez wsype TSMC. Szef Nvidii nie ma wplywu na kondycje fabu, bo jak znowu uwali sie 28 nm w TSMC, to bedziemy miec kolejny sezon tlumaczen z opoznien, ze slabej dostepnosci i wysokich cen.

  58. .... (autor: Aamitoza | data: 22/09/10 | godz.: 19:04)
    Morgi to taki dziwny przypadek. Jeżeli chodzi o porównanie fabów intela do TSMC, to TSMC staje się jednym wielkim gównem, które coągle ma opóźnienia i w ogóle prawie nic nie produkuje w porównaniu do intela. Gdy jednak przyjdzie mówić o Globalu to nagle TSMC staje się cudowne, klepią masę zaawansowanych układów, opóźnień brak, rozwijają się jak burza... ;)

    Nic tylko pozazdrościć punktu widzenia. ;) Najlepsze jest to, że to jednak global będzie miał jako pierwszy z tej trójki SOI HKMG, co postawi ich technologicznie na bardziej zaawansowanym poziomie niż intel. - owszem na co najwyżej pół roku do roku, bo potem intel będzie już dysponował 22nm (Global dopiero gdzieś pod koniec 2012), ale jednak będzie przewaga ;]


  59. @57 (autor: Marcel | data: 22/09/10 | godz.: 20:36)
    No wiesz, jak fab raz czy drugi zawala sprawę to się zmienia fab... (wiem, łatwo powiedzieć) Nie zmienia to jednak faktu że z Fermim w 2009 to lekko przesadzili bo i podać tam 2010 to już naginanie prawdy - raczej winno być 2010/2011 lub Q2 2010. Dla zdrowej konkurencji miejmy jednak nadzieję ze zarówno z Keplerem jak i CUDA dla X86 jakoś im się uda.

  60. NV pokazuje slajdy... (autor: Jarek84 | data: 22/09/10 | godz.: 23:57)
    a Intel i AMD produkty, ot takie mamienie jak z Fermii - ale mam nadzieję że się zieloni trochę od dna odbiją.

  61. Marcel (autor: morgi | data: 23/09/10 | godz.: 12:29)
    No podobno juz zagaili z globalikiem, ale oni moga byc jeszcze gorsi, narazie z duzej chmury papki medialnej zero deszczu chipow.

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.