Twoje PC  
Zarejestruj się na Twoje PC
TwojePC.pl | PC | Komputery, nowe technologie, recenzje, testy
M E N U
  0
 » Nowości
0
 » Archiwum
0
 » Recenzje / Testy
0
 » Board
0
 » Rejestracja
0
0
 
Szukaj @ TwojePC
 

w Newsach i na Boardzie
 
TwojePC.pl © 2001 - 2024
Piątek 13 marca 2009 
    

Sprzedaż GeForce GTX 260 przynosi straty?


Autor: Zbyszek | źródło: TheInquirer | 14:19
(37)
Jak donosi znany z sensacji TheInquirer, po ostatniej obniżce cen sprzedaż GeForce GTX 260 przestała być opłacalna. Wszystko przez wysokie koszty produkcji kart. Podstawą dla GTX 260 są układy GT200b produkowane w 55nm procesie technologicznym przez TSMC - koszt ich zakupu w przeliczeniu na jeden egzemplarz wynosi 80 USD. Do tego należy doliczyć cenę 14 kości pamięci DDR3, która wynosi aktualnie około 21 dolarów. Inne elementy elektroniczne niezbędne do działania karty to wydatek minimum 15 USD. Ale na tym nie koniec - niezbędna jest odpowiednia płytka PCB (około 10 USD) na której można zamontować wszystkie podzespoły, a także system chłodzenia, który kosztuje również około 10 dolarów. Razem 135 USD. Do tego dochodzą jeszcze koszty transportu, pakowania i dodatków do kart.

Cena końcowa kart zawiera podatek VAT, oraz marże dla sprzedawców i dystrybutorów. Wszystko to sprawia, że karty muszą opuszczać producentów po cenie niższej od 130 USD, aby ich cena końcowa mogła wynosić 170-180 dolarów.

Według analizy TheInquirer'a aktualnie do każdej wyprodukowanej karty GeForce GTX 260 producenci dopłacają 10-15 USD. Wyjątkiem są jednak wersje fabryczne podkręcone, których cena sklepowa wynosi około 200 dolarów i więcej, co sprawia, że ich sprzedaż nie przynosi strat.

Warto dodać, że karty już wcześniej przeszły dwa zabiegi zmniejszające ich koszty produkcji. W styczniu wprowadzone zostały wersje z układami GT200 produkowanymi w wymiarze 55-nanometrów, zamiast 65nm jak wcześniej. Dzięki temu powierzchnia chipów zmniejszyła się z 576 mm2 do 470 mm2, a koszty produkcji w przeliczeniu na egzemplarz z 110 dolarów do około 80 USD.
W lutym wprowadzone zostały nowe, składające się z mniejszej ilości elementów płytki drukowane, co pozwoliło zmniejszyć koszty produkcji o około 10-15 USD.


W znacznie lepszej sytuacji jest natomiast firma AMD, która dzięki niskim kosztom produkcji wciąż zarabia na sprzedaży kart Radeon HD 4850 i 4870. Koszty produkcji tych kart w przeliczeniu na jeden egzemplarz szacowane są na około 70 USD, z czego około 30 dolarów ma stanowić koszt zakupu RV770. W efekcie granicą opłacalności sprzedaży kart jest cena sklepowa na poziomie około 110 USD.


Informacje spokrewnione:

9.2.2009 | 13:40 | Nvidia odchudza GeForce GTX 260
30.5.2008 | 14:33 | Nvidia przyśpiesza GT200b

 
    
K O M E N T A R Z E
    

  1. Tak przynosi straty (autor: morgi | data: 13/03/09 | godz.: 14:42)
    a popelnili ostatnio przynajmniej 2 przypadki oszczednosci, amputowane pcb i mniejszy rdzen, w dodatku gddr3 jest w smieciowych cenach w porownaniu z gddr5, ale zrodlo popelnilo juz wiele gaf z plotkami i wiele premier wirtualnych kart.

  2. idioci (autor: bezrobotnydarek | data: 13/03/09 | godz.: 14:42)
    to po co produkują?

  3. Jak to po co? (autor: El Vis | data: 13/03/09 | godz.: 14:48)
    Wolą stracić trochę kasy niż oddać rynek ATI.

  4. Plotka, nic więcej. (autor: Blazakov | data: 13/03/09 | godz.: 14:58)
    Ciekawe skąd oni te dane wzięli. Pewnie z "dobrze poinformowanych źródeł" w nV. Komuś widać zależało na "poprawie" wizerunku nV na giełdzie.

  5. El Vis (autor: morgi | data: 13/03/09 | godz.: 15:11)
    Gdyby tak bylo, to mogliby przeciez ustalic cene promocyjna 1 PLN przez powiedzmy miesiac, wtedy nie tylko nie oddaliby ale zyskali, przeciez nie o to w tym chodzi, by zyskac czy stracic rynek, ale zeby zarobic na tym co sie robi.

  6. ... (autor: reev | data: 13/03/09 | godz.: 15:22)
    morgi z ciebie taki ekonomista, że Ci się portale chyba popieprzyły...

  7. Nie jestem ekonomistą... (autor: agnus | data: 13/03/09 | godz.: 15:47)
    by oceniać opłacalność produkcji kart ale skoro produkują - z jakiegoś powodu się to opłaca. Nie zawsze chodzi o pieniądze. Czasem jak to zostało napisane wyżej zachowanie udziału w rynku, przeczekanie do nast. generacji itd. Inna sprawa że jeśli to prawda - taki stan raczej długo trwać nie będzie.

  8. reev (autor: morgi | data: 13/03/09 | godz.: 15:54)
    Taaa, jasne lepiej napelniac mozgownice bredniami pewnego dziennikarza, chorego z niecheci do Nvidii, ten typ tak ma i wypisuje to od lat, wystarczy zajrzec co pisal w archiwach o Nvidii i ati, a co stalo sie faktem.

  9. morgi... (autor: Simon89 | data: 13/03/09 | godz.: 16:17)
    wystarczy popatrzeć na liczby, a one nie kłamią. Procesor GTX260 ma 576mm2, GTX260 55nm 400mm2 (około), 4870 ma 256mm2... i jak sądzisz, zakup którego z tych procesorów jest tańszy? (AMD i nVidia kupuje procesory GPU). Dodam że chipy 55nm od nVidii stanowią narazie bardzo mały procent spżedaży. AMD również wprowadza pomniejszone płytki drukowane dla swoich kart. Może i zakup pamięci jest większy ale zauważ że nowe technologie cały czas tanieją i gddr5 też jest coraz bardziej opłacalne bo więcej fabryk zaczyna je produkować. Coś jeszcze wyjaśnić?

  10. może jest to i prawda (autor: Marek1981 | data: 13/03/09 | godz.: 17:57)
    stąd wersja GTX275 kosztująca znacznie więcej, z tym że to podkręcony GTX260.

  11. ... (autor: power | data: 13/03/09 | godz.: 18:28)
    nvidia juz miala swoje "5 minut" teraz kolej na amd, a pozniej moze intel nas czyms zaskoczy?

  12. simon89 (autor: morgi | data: 13/03/09 | godz.: 19:03)
    Tylko, ze gddr5 produkowane przez niedawna Qimonde zaopatrujaca amd w kostki dla 4870 skonczy sie bo firma wykorkowala na kryzysie, a do highend wypada ladowac juz tylko 1gb standard.

  13. no tak (autor: Simon89 | data: 13/03/09 | godz.: 19:18)
    Zapomniałem dodać jeszcze jednej bardzo ważnej sprawy. Karty Ati mają szynę 256bit, karty nVidii mają szynę 512bit i 448bit. Jak wiadomo dwukrotnie większa szyna pamięci kosztuje dwa razy więcej (większa ilość połączeń, ścieżek, większe skomplikowanie płytki). Więc nie wiem czy wypuszczenie gddr5 z 256bit jest droższe niż gddr3 z 512bit. Jak wiadomo Ati ma wypuścić kartę niskobudżetową na rdzeniu rv740. Magistrala 128bit (czyli bardzo tania), proces 40nm (obniżone koszty, mniejsze wydzielanie ciepła i mniejsza powierzchnia). Jeszcze co do przyszłych kart Ati... namieszało się strasznie więc już sam nie wiem czym ma być HD4890 (jaki proces w końcu bo są sprzeczne informacje, jaki procesor)... trzeba poczekać do premiery i wszystko się wyjaśni a nie spekulować teraz i kłócić się kto będzie lepszy. O kotletach nic nie napiszę bo każdy wie jak jest (no prawie każdy przyjmuje to do siebie). :)

  14. o jesteś :) (autor: Simon89 | data: 13/03/09 | godz.: 19:23)
    tak, zgadza się, ale czy istnieje tylko jeden producent? (i zapasy pozostawione przez Qimonde powinny na jakiś czas wystarczyć, a firma z tego co wiem dalej coś tam produkuje) Dla Twojej informacji podam Ci że niedawno samsung ogłosił masową produkcję kości gddr5. Była też informacja że to właśnie samsung ma zaopatrywać przyszłe karty w gddr5. I niejasne stało się jasne...

  15. @morgi (autor: rainy | data: 13/03/09 | godz.: 23:40)
    "Taaa, jasne lepiej napelniac mozgownice bredniami pewnego dziennikarza, chorego z niecheci do Nvidii, ten typ tak ma i wypisuje to od lat, wystarczy zajrzec co pisal w archiwach o Nvidii i ati, a co stalo sie faktem."

    Przyganiał kocioł garnkowi...


  16. Marketingu ciag Dalszy (autor: Mario2k | data: 13/03/09 | godz.: 23:45)
    Trzeba jakos szarych ludzikow przygotowac
    na informacje ze dalszych obnizek kochana NVidia nie moze zrobic bo juz doplaca do kart ;)

    lipa
    lipe pogania


  17. @morgi (autor: MarcinN | data: 14/03/09 | godz.: 09:10)
    Myślisz, że tej firmie ktoś da upaść? Szejk od AMD zapewne chciałby to kupić ;P
    GDDR5 produkuje od niedawna samsung i AMD chce nawiązać z nimi współpracę.


  18. Simon89 (autor: morgi | data: 14/03/09 | godz.: 11:52)
    Istnieje kilku, ale w masowej produkcji i uzyciu dla ati byla Qimonda, a ta od wrzesnia prawnie juz zapina pasy bezpieczenstwa i skacze w przepasc upadlosciowa.

  19. A jak Quimonda oglosi upadlosc finansowa to co? (autor: Gregorio | data: 14/03/09 | godz.: 12:58)
    ot tak zamkna fabryki i przestana pamieci produkowac? Zostanie wykupiona i fabryki dalej beda tlukly kosci.

  20. też mam takiego kolegę... (autor: Simon89 | data: 14/03/09 | godz.: 15:11)
    Żebym nie wiem co mówił, przekonywał, tłumaczył, dawał rzeczywiste przykłady on i tak nie zrozumie... dlaczego? Bo nie zna świata i nie przyjmuje wszystkiego jako realne, wierzy tylko w swoje przekonania, często zresztą nieuzasadnione... ot tak po prostu tak mu się wydaje i do winy też mu się trudno przyznać. Wszystko już napisałem co powinieneś wiedzieć i o tych kościach koledzy już dopowiedzieli...

  21. tak się zastanawiałem... (autor: Simon89 | data: 14/03/09 | godz.: 15:25)
    Myślałem że nVidia posiada lepsze technologie tworzenia GPU. Ale znów popatrzyłem na liczby. GTX280 posiada 1.4mld (1400mln) tranzystorów, 4870 posiada 0.956mld (956mln). I to mnie dziwi jakim cudem może konkurować karta Ati z kartą nVidii. Widać chłopaki znają się na tym. Nie chce myśleć co by powstało gdyby ci sami ludzie zrobili GPU z liczbą tranzystorów większą o te 450mln... przepraszam... już kończę gdybać :).

  22. @Simon89 (autor: Kosiarz | data: 14/03/09 | godz.: 16:03)
    Co by nie mowic jednak 28x sa wydajniejsze troche od 4870. Pozatym kiedys gdzies bylo wspomniane (nawet chyba na TPC) ze ATI przy serii 5000 zamierza sprobowac 4gpu na jednej karcie. Jak widac lepsze efekty przynosi trzaskanie mniejszych chipow...

  23. no tak (autor: Simon89 | data: 14/03/09 | godz.: 17:40)
    zgodzę się bo Ati wciąż nie dorównuje nVidii wydajnościowo. Ale odnoszę wrażenie że to nie karty highend'owe sprzedają się najlepiej. Może seria 5000 coś zmieni wydajnościowo... nie wiadomo. To na razie plotki (było też coś wspomniane że ma być jeden główny GPU i kilka pomocniczych) ale nie jest sprawdzone czy to prawda. | Ale pewnym jest że nVidia ponosi większe straty jeżeli chodzi o ilość wadliwych procesorów GPU. Większe skomplikowanie układu musi wiązać się z większymi odpadami, chyba że w przypadku GPU uszkodzenie nie musi mieć takich konsekwencji jak w CPU.

  24. @ Simon89 (autor: Zbyszek.J | data: 14/03/09 | godz.: 19:42)
    Statystycznie liczba defektów w przeliczeniu na jeden wafel jest stała.

    Oznacz to, że im większa powierzchnia chipa, tym większe prawdopodobieństwo, że w jego obszarze będzie defekt struktury krystalicznej.

    Inaczej mówiąc (przykładowo) spośród układów o powierzchni 200 mm^2 tylko 15% jest uszkodzonych, natomiast spośród układów o powierzchni 500 mm^2 już 35% będzie zawierać defekt struktury krystalicznej.

    Reasumując masz rację - większa powierzchnia układu musi wiązać się z większymi odpadami. Racją jest więc, że nVidia ponosi większe straty jeżeli chodzi o ilość wadliwych GPU.

    Dodatkowo, nie dość, że RV770 ma o prawie połowę mniejszą powierzchnię, to jest jeszcze jeden istotny szczegół.

    Otóż ponad połowę powierzchni RV770 stanowią procesory strumieniowe, których fizycznie jest nie 800, a 900. Oznacza to, że nawet defekt struktury krystalicznej nie oznacza, że dany chip nadaje się do kosza - jeżeli defekt wystąpił w obszarze jednostek SP, to wadliwe bloki SP można zastąpić nadmiarowymi/zapasowymi.


  25. @Zbyszek.J (autor: Kosiarz | data: 14/03/09 | godz.: 23:15)
    Mozna tez sprzedac to jako serie value.

  26. Kosiarz (autor: morgi | data: 15/03/09 | godz.: 10:04)
    Lepsze efekty, ciekawe w czym, bo dla niedzielnego gracza dualik to cudo, a zawodowy nie podchodzi bez kija, bo wie, ze nic by nie zarobil na tym. Skoro Nvidia tlucze duze chipy na przekor wszelkim domyslom i dyrdymalom gloszonym przez amd to ma w tym jakis cel i jej sie to oplaca, bo juz to robi od prawie 3 lat.

  27. Gregorio (autor: morgi | data: 15/03/09 | godz.: 10:16)
    Oglosila juz upadlosc, a produkcja idzie w dol, redukuja i tna brzytwa co sie da, bo trwaja negocjacje z inwestorami i wierzycielami.
    http://www.xbitlabs.com/...ons_with_Investors.html


  28. tak... (autor: Simon89 | data: 15/03/09 | godz.: 11:40)
    morgi... a wyszła seria 5000? Skąd wiesz że seria 5000 nie ominie wszystkich problemów związanych z multi-GPU? Teraz zgodzę się że to nVidia ma najlepsze karty, ale nie wiadomo jak to będzie. Dzisiejsze karty złożone z kilku GPU są jednak nie za bardzo opłacalne i nie skalują się aż tak dobrze. Opłaca się produkowanie takich dużych GPU? A patrzyłeś pod jakim newsem są te komentarze? Chciałeś napisać: opłacało się. Z tymi pamięciami przecież wszyscy napisali jak jest to nie wiem po co się jeszcze produkujesz...

  29. Simon89 (autor: morgi | data: 15/03/09 | godz.: 14:01)
    Jakim newsem, chyba bzdurospekulacja jak kazdy news ze zrodlem z tego serwisu, a produkcja oplaca sie, w koncu wielkosc chipu GT200 osiagnela pulap G80 i jak ktos nie pamieta, to G80 w roznych odmianach bylo sprzedawane jeszcze taniej. Z pamieciami jak jest wole poczytaj wiarygodne zrodla, ktore mowia wprost Qimonda za 2 tygodnie zapodaje pelna stojke i tyle.

  30. kończe już morgi bo to przestaje mieć sens. (autor: Simon89 | data: 15/03/09 | godz.: 15:24)
    Czytanie ze zrozumieniem, trzeba też troszkę pomyśleć. Taniej? Czyli co? Cena wynosząca ponad 1000zł to jeszcze taniej? Pokaż mi kartę która na procesorze G80 kosztowała mniej. 8800GTX? 8800GTS? sory, nie rozumiem, Taniej ich wychodzi produkcja GT200 od G80? 1.4mld vs 0.68mld tranzystorów? Co prawda to inny proces technologiczny. Ale G80 miał powierzchnię 480mm2... GT200 576mm2. Może chodzi Ci o to wydanie 55nm, ale zauważ że i one osiągają dopiero 400mm2. RV770 miał od początku 256mm2. Nie widać różnicy? Radzę ruszyć głową.

  31. Simon89 (autor: morgi | data: 16/03/09 | godz.: 13:58)
    G80 bylo jeszcze bardziej pociete, wersja GS, a te oscylowaly wokol 100$ za sztuke i oplacalo sie? Rozmiary ukladu, a ilosc tranzystorow nie maja zwiazku, w tym wypadku mozna wlozyc wiecej dzieki przejsciu z 90 na 55 nm. GT200b ma nawet nieco mniejsza powierzchnie niz G80, a te wersje wlasnie wchodza na obnizke.

  32. dalej swoje... (autor: Simon89 | data: 16/03/09 | godz.: 15:57)
    zdecyduj się czy piszesz o G80 czy G92. Dokładniej G92-150, a to jest wersja obcięta ze wszystkiego względem G80, tyle że w 65nm. Brak słów. Dlatego jest tańsza bo to są okrojone wersje, rozumiesz? Wtedy się opłaca bo nie da się tego wypuścić jako pełnowartościowego układu bo jest zepsuty w jakimś tam miejscu i muszą jakoś upchnąć resztki.

  33. a... (autor: Simon89 | data: 16/03/09 | godz.: 15:59)
    nVidia dopiero przechodzi na 55nm i ciężko zdobyć taką kartę.

  34. Simon89 (autor: morgi | data: 16/03/09 | godz.: 20:35)
    8800GS dokladnie wpadal w segment cen na ktory wchodzi teraz 260 i oplacalo sie obnizyc cene do 100$ na sztuke, a 260 po ciecia to samo, a myslisz, ze 55 nm to ciezko zdobyc w sklepach to oznaka, ze produkuja jeszcze 65 czy 55 nm, bo mysle ze tylko te 2.

  35. sad (autor: Simon89 | data: 16/03/09 | godz.: 21:16)
    już nic nie napisze bo zaczynasz majaczyć...

  36. Simon89 (autor: morgi | data: 17/03/09 | godz.: 10:18)
    Jak to nie napiszesz dlaczego ludzie zastanawiali sie czy brac 8800GTS czy 8800GS bo bylo w tej samej cenie? highend Nvidii stopnial cenami nawet do 100$, a teraz jest po 2x tyle, podobnie jak konkurencji co sie takiego stalo, zeby wrocic do tych praktyk?

  37. heh... (autor: Simon89 | data: 17/03/09 | godz.: 17:23)
    zapominasz od czego zaczęły się obniżki cen kart... Sory ale highend u ATI kosztuje 4850: 550zł, 4870: 850zł ;]. U nVidii GTX280: 1250zł, GTX285: 1500zł, GTX260: 850zł. Ceny w $ mało mają wspólnego cenami w Polsce... A kiedyś ile kosztowały... zauważ że nieznacznie zmienił się kurs dolara...

    
D O D A J   K O M E N T A R Z
    

Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.