TwojePC.pl © 2001 - 2024
|
|
Środa 25 października 2006 |
|
|
|
Kolejne zdjęcia GeForce 8800 Autor: Adam | źródło: W2S | 08:56 |
(48) | W sieci pojawiła się obszerna porcja zdjęć karty firmy nVidia, tworzącej nową serię GeForce 8800. Zdjęcia przedstawiają wersję GeForce 8800 GTX, korzystającą z czarnego PCB - prawdopodobnie jest to wersja wyprodukowana przez Asusa. Karta korzysta z dwóch złączy zasilających PCI-Express (przejściówki zamieniają je na 4 Molexy), a chłodzenie zapewnia masywny, dwuslotowy radiator z wentylatorem. Z dostępnych informacji wynika także, że wersja GeForce 8800 GTS jest zdecydowanie krótsza, i korzysta z jednego dodatkowego złącza zasilającego. Zgodnie z wcześniejszymi informacjami premiera tych kart spodziewana jest 8 listopada. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- powalilo ich kompletnie (autor: Chucky | data: 25/10/06 | godz.: 11:15)
mogli by pojsc w kierunku C2D czyli kilka rdzeni w fizycznie 1 ukladzie GPU, moze takie rozwiazanie by sie mniej grzalo i mniej konsumowalo pradu...
- Nie tedy droga moim zdaniem.... (autor: cris22 | data: 25/10/06 | godz.: 11:30)
To tak jak bylo z Pentium 4. Intel przez kilka lat tylko podbijal zegary i zwiekszal pradazernosc i grzanie sie ukladu nie zwiekszajac za bardzo samej wydajnosci. C2D pokazuje ze jak sie chce to mozna- wieksza wydajnosc, nizszy zegar, nizsza pradozernosc. Dlatego jak dla mnie taka karta to slepa uliczka nvidi. Po pierwsze wielkosc samej karty (moze z czasem bedzie mniejsza) ale jak dla mnie jest spora. Po drugie i najwazniejsze to jej pradozernosc (przejsciowki na 4 molexy - dobre). Trzeba zainwestowac przy takiej karcie w high-endowy zasilacz (tak z 500-600W minimum). O rachunkach za prad nie wspomne.
- Hmm... (autor: Andrius | data: 25/10/06 | godz.: 11:46)
Jak już stosują dodatkowe zasilanie, to nie można było użyć jednego złącza?
Takie rozwiązanie może okazać się zbawienne, przy użyciu 2 słabszych zasilaczy (~300w).
Gdy mamy jeden mocny zasilacz (~600w), to mimo wszystko od zasilacza będziemy zmuszeni użyć rozdzielacza (nie będzie wystarczającej liczby wyprowadzeń).
Znając życie, to blaszaki do których trfią te gorące potwory, w zdecydowanej większości będą korzystać z jednego (mocnego) zasilacza, wię użycie dwóch złącz poczytałbym jako wadę.
Mam tylko nadzieję, że klony już nie będą tak gorące :)
- Złacza... (autor: Larus | data: 25/10/06 | godz.: 12:01)
No wiesz, tyle [A] jednym kabelkiem ? Stopiłoby się :D
- Hmm.. (autor: KaszeL | data: 25/10/06 | godz.: 12:21)
O ile dobrza pamietam specyfikacje, to gniazdo PCI-E x16 dostarcza 75W, kazda z wtyczek kolejne 75W. Zatem taka karta powinna dysponowac moca 225W. Zakladajac, ze kazde ze zrodel jest obciazone na maksa. To moleksami plynie minimym 12.5A. Troszke sporo jak na jeden cieniutki kabelek :)
- Wątpi, czy by się stopiło... (autor: Andrius | data: 25/10/06 | godz.: 12:59)
Używałem kiedyś kabla telefonicznego jako przedłużacza (a raczej brachol, bo ja byłem obserwatorem), do zasilania spawarki elektrycznej (pod 220V) i jakoś się nie stopił. Jedynie na szpuli, gdzie było go więcej nawiniętego był lekko ciepły. Gdzie karta graficzna do spawarki...?
- @Andrius (autor: VANT | data: 25/10/06 | godz.: 13:41)
przestań opowiadać głupoty i wróć się do szkoły na podstawy elektryki....poznasz wzory itp......a brednie o spawarce na kablu telefonicznym zostaw dzieciom na dobranoc....
Co do porównań G80 do P4 to są opne conajmniej smieszne....G80 to nei tylko zwiększenie zegara a przedewszystki zwiększenie i zunifikowanie jednostek wykonawczych. w GTX ma być ich aż 128!!!! więc stwierdzanie ze nie tędy droga itp. są z lekka śmieszne i świadczą o braku wiedzy w temacie....
- i jeszcze jedno (autor: VANT | data: 25/10/06 | godz.: 13:45)
Przecież G80 bedzie miał niższe taktowanie niż 7900GTX więc pitolenie że nie tędy droga i porównania do intela i P4 są żałosne....to kieruje do panów z 2 pierwszych wątków....weżcie troche poczytajcie a potem piszcie.....
- Vant (autor: Andrius | data: 25/10/06 | godz.: 14:12)
sam się wróc do podstawówki... Dlaczego im bardziej złożony mikroprocesor, tym bardziej się grzeje?
Dobrze wiadomo, że w takim Pentium4, czy G80 są kilometry miedzianych ścieżek, do tego o bardzo małym przekroju.
Im dłuższy przewodnik, tym opór jest większy, a im większe pole jego przekroju tym jest mniejszy.
Ostatnio nawet na wykładzie doktorek wspominał, dlaczego taki P4 jest takim piecem.
Niech taki kabel telefoniczny ma 0,5mm grubości i 100 m długości. To wyobraź sobie ile razy ma mniejszy opór od kilkuset kilometrów przewodnika o gróbości 90 nm, upchanego w tak małym obszarze.
- no dokładnie VANT (autor: Luk | data: 25/10/06 | godz.: 14:14)
też śmiać mi się chce, gdy czytam takie "mądrości" - "Nie tedy droga..." wiadomo, że lepiej jest osiągnąć wyższą wydajność zmieniając architekturę, najlepiej obniżając przy tym częstotliwości i napięcie, tyle tylko że najpierw ją trzeba opracować, co niestety jest największą trudnością; gdyby to było takie proste to nie czekalibyśmy tyle lat na Core2Duo Intala; mimo, że P4 nie była zbyt udana o czym było wiadomo, nie potrafili jej poprawić - myślicie, że by tego nie zrobili gdyby to było takie proste? a tak OT, to nikt wam nie każe kupować tej karty;
- @Andrius (autor: VANT | data: 25/10/06 | godz.: 14:17)
a zdajesz sobie sprawę jakie prądy występują w spawarkach?? czy może tylko słyszałeś??
"Porównanie g80 i p4" to nie było do ciebie....a chodziło mi tylko o to że niektózy stwierdzają że nV poszła w MHz.....co jak pokazałem później jest czystym brakiem wiedzy.
- do VANT (autor: Chucky | data: 25/10/06 | godz.: 14:18)
a tedy droga? GF7 1 dodatkowe zlacze pcie - 1 molex, GF8 2 PCIE - 4 molexy, no sory ale w takim tempie to za 2-3 latka to grafa bedzie kupowana z oddzielna obudowa i osobnym zasilaczem 500W...
- Pomysl (autor: Kosiarz | data: 25/10/06 | godz.: 14:18)
Zastanawiam sie czy gniazdo PCIx16 (ew nowsze jak beda) i AGP maja jeszcze przyszlosc, wydaje mi sie ze jest to slaba droga na przestrzenne umieszczenie karty graficznej w nadchodzacych czasach... przeciez taka karta poprostu zajmuje ZA DUZO MIEJSCA !!!
IMHO powinni wymyslec zupelnie inny sposob na polaczenie karty i plyty... moze cos takiego jak karta graficzna pod CD romem :) albo gdzies w okolicach dysku. ew zupelnie nowy pomysl na obudowe i ew nowy standart plyt glownych (jezeli chodzi o rozmieszczenie podzespolow)
- Moze bez oddzielnej obudowy (autor: Kosiarz | data: 25/10/06 | godz.: 14:21)
"no sory ale w takim tempie to za 2-3 latka to grafa bedzie kupowana z oddzielna obudowa i osobnym zasilaczem 500W.."
ale zasilacz to mysle ze nadchodzi nieuchronnie
- @Chucky (autor: VANT | data: 25/10/06 | godz.: 14:25)
a co myślałeś że fotorealistyczną grafikę wygeneruje ci riva128??.....wysoka wydajność ma swoją cenę, [pozatym cały czas obniżane są procesy technologiczne i już w przyszłym roku pojawią się układy w węższym wymiarze i mniejszym zapotrzebowaniem na energię...
@Kosiarz
PCI-E czy AGP to nie gniazda zasilające to są szyny komunikacyjne a to że kiedyś wystarczyły do zasilania karty to inna bajka....powiedz mi dla czego drukarki na usb mają swoje zasilacze....?? może usb też nie ma sensu??
- Nie tedy droga (autor: komisarz | data: 25/10/06 | godz.: 14:26)
bo za wysokie wydzielanie ciepla i zapotrzebowanie na moc - i to akurat cecha wspolna z p4. Co do samej technologii to owszem, to przyszlosc. Z tym, ze ktos ja za wczesnie chce wprowadzic.
- @komisarz (autor: VANT | data: 25/10/06 | godz.: 14:29)
to jest cena postępu...jak by robili tak jak piszesz to dalej grałbyś na rivie 128 w kwadratowe gry..........
- @VANT (autor: Kosiarz | data: 25/10/06 | godz.: 14:31)
Akurat tutaj mi nie chodzilo o zasilanie tylko rozmieszczenie przestrzenne - czytaj dokladniej...
Poprostu wydaje mi sie ze karta graficzna w obecnych czasach powinna sobie znalesc inne miejsce w obudowie, wygodniejsze dla niej i dajace wiecej przestrzeni na chlodzenie stad pomysl z umieszczeniem jej gdzies pod napedami a do plyty tylko kabelkiem, ale to z kolei moze powodowac opoznienia wiec konieczne by bylo wprowadzenie jakiegos nastepcy ATX :)
- Andrius ... (autor: muerte | data: 25/10/06 | godz.: 14:48)
Kabel telefoniczny do zasilania spawarki? ROTFL tego stulecia !! Ty już lepiej nic nie mów...... Spawarke toś ty chyba na obrazku za szybą wystawową widział, przez lornetkę, z pędzącego pociągu we mgle....
Jeśli chodzi o procesory.... straty są głównie powodowane przez tranzystory w momencie ich otwierania i zamykania, stąd wzrost wydzialanego ciepła tym wiekszy, im wieksza częstotliwość przełączania. Dochodzą pojemności pasożytnicze, i konieczność ich rozładowywania..... Problemy znane od lat....
A teraz weź to wydrukuj i zanieś swojemu doktorowi który coś tam na wykładach wspominał, niech sobie przemyśli...
Ale za tą spawarkę, to masz u mnie Złote Usta, jak nic....
- Andrius ... (autor: muerte | data: 25/10/06 | godz.: 14:56)
1. Jak już stosują dodatkowe zasilanie, to nie można było użyć jednego złącza?
Nie można, ze względu na prąd jaki ma takim złączem płynąc...
2. Takie rozwiązanie może okazać się zbawienne, przy użyciu 2 słabszych zasilaczy (~300w).
Bzdura, nowe zasilacze mają już 2 takie złącza na kablach, już od 350W.... Pomijam tutaj wydajność.
3. Gdy mamy jeden mocny zasilacz (~600w), to mimo wszystko od zasilacza będziemy zmuszeni użyć rozdzielacza (nie będzie wystarczającej liczby wyprowadzeń).
Bzdura, patrz p.2. Nowe zasilacze mają już dwa złacza PCI-E dla takich kart. Przelotki są potrzebne do starszych modeli...
4. Znając życie, to blaszaki do których trfią te gorące potwory, w zdecydowanej większości będą korzystać z jednego (mocnego) zasilacza, wię użycie dwóch złącz poczytałbym jako wadę.
Bzdura. Patrz p 2 i 3 i dodatkowo wyjaśnienie w p.1. Zaleta, nie wada....
- @Vant (autor: Andrius | data: 25/10/06 | godz.: 15:03)
"a zdajesz sobie sprawę jakie prądy występują w spawarkach?? czy może tylko słyszałeś??"
Zdaję sobie sprawę, co nie zmienia faktu, że kabel wytrzymał, a płaskownik do dzisiaj się trzyma.
Użyłem tego porównania, aby uświadomić Cię, że jedna wtyczka nie stopi się przy 200w, które pobiera karta graficzna.
Spawarka na elekrodzie użyskuje taką energię termiczną ze zwarcia ładunków, a kable uzyskują energię termiczną z oporu prądu w przewodniku.
Nosensem jest stwierdzenie, że użyto tu dwóch wtyczek, bo jedna by się stopiła. Zapewniam cię, że nie stopiłaby się.
- muerte (autor: Andrius | data: 25/10/06 | godz.: 15:15)
Dzięki za nominację do "złotych ust" :D
Dam kiedyś bracholowi link z archiwum TPC, niech sobie chłopaczyna poczyta, ajk eksperci stwierdzają jego poczynania za niemożliwe. Niech chłopaczyna trochę się pośmieje, pomimo iż z kompów jest zielony...
- Może to była spawarka impulsowa (autor: sebtar | data: 25/10/06 | godz.: 17:18)
a nie transformatorowa.
- To już (autor: trepcia | data: 25/10/06 | godz.: 17:40)
nie jest High-End ale eXtreme-End <lol2> :P
- hmm (autor: 0r8 | data: 25/10/06 | godz.: 19:28)
a co do osobnych obudow - nvidia juz od dawna wypuszcza grafiki "profesjonalne" w osobnych obudowach z wlasnymi zasilaczami.
np. http://www.nvidia.com/page/quadroplex.html
- Wypada poczekać na odpowiedź ATI (autor: Grave | data: 25/10/06 | godz.: 20:39)
nowy Ge-Force w wersji przedstawionej na screenach bardziej odrzuca niż zachęca do zakupu. Rozumiem, że Nvidii przyświecał cel "wydajność za WSZELKĄ cenę, ale warto też pomyśleć o karcie całościowo, a nie jedynie pod kątem mocy obliczeniowej.
Karta jest ogromna, brzydka, wymaga wielkiego układu chłodzenia (co by wskazywało na znaczne nagrzewanie się GPU podczas pracy) i co najważniejsze - pożera zdecydowanie ZA DUŻO energii.
Nie wsadziłbym czegoś takiego do mojego komputera.
Jeżeli Nvidia nie jest w stanie wyprodukować tego chipa w takim procesie technologicznym który umożliwi uzyskanie układu o rozsądnym zapotrzebowaniu na prąd to nie powinna w ogóle nowej karty przedstawiać. To jest chore po prostu.
Zapewne fani najszybszego sprzętu w ogóle się nie przejmują innymi aspektami poza wydajnością i będą piać peany na cześć nowej karty, ale dla mnie to jest porażka. Jeżeli tak by podchodzić do projektowania nowych GPU to niedługo będzie potrzeba zasilaczy o mocach liczonych w kilowatach - absurd. Oczywiście znowu fani sprzętu kupią i będą się zachwycać wydajnością, ale nie tylko ona się liczy!
Intel się opamiętał i projektując C2D miał na względzie nie tylko wydajność. Nvidia jak widać po udanej serii 7xx powraca do polityki z okresu GF 6800 ULTRA - czyli wpakować jak najwięcej potoków, shaderów, jednostek teksturujących, dołożyć monstrualnej wielkości chłodzenie i wypuścić na rynek produkt przy którym większość zaislaczy nadaje się do kosza....
- poczytalem sobie kilka forums jak chlopaki nie moga sie doczekac tej karty (autor: speed | data: 25/10/06 | godz.: 23:22)
a tu jak zwykle tylko marudzenie . Ludzie czy zazdrosc przyslania wam rozum?????????
Jak nie urok to sraczka , jak nie zasilacz to co innego az flaki sie przewracaja od tego biadolenia zamiast cieszyc sie ze co jakis czas jest cos nowego to nie ,wszyscy idioci tylko my polaczki najmadrzejsi :))))))))
Tacy dobrzy jestescie to prosze bardzo zrobic dobra karte a nie biadolic i biadolic.
- @speed (autor: Thomolus | data: 26/10/06 | godz.: 09:01)
A z czego tu się cieszyć? Wypuszczenie takiej karty możnaby porównać do wyprodukowania przez jakiś koncern samochodowy sportowego auta o rewelacyjnych osiągach, które pali 100l benzyny/100km.
- speed (autor: beef | data: 26/10/06 | godz.: 09:33)
mam dokladnie takie samo wrażenie jak Ty. Jeśli kiedyś wyjadę z tego kraju, to przyczyną nie będą ani dziury w drogach, ani brak kasy (bo ona jest, tylko trzeba chcieć), tylko mentalność moich ziomków. Nie pierwszy raz mam wrażenie, że ja tu jestem przez pomylkę. Typowa polska mentalność to dla mnie nieodgadniona zagadka. "Życzliwych", pytających "co ty tu jeszcze robisz" i życzących mi szczęśliwej drogi, pozdrawiam i sugeruję, żeby walili się na ryj.
Thomolus: każe Ci ją ktoś kupować? No powiedz, każe??? Jakby mnie bylo stać na zajebisty samochód, co pali 100/100, to bym sobie go kupil, a jak mnie by nie bylo stać, to siedzialbym cicho i nie robil z siebie durnia. 90% "technicznych" wypowiedzi powyżej, jakieś porównania do C2D, śmichy-chichy, to belkot dyletantów dorabiających ideologię do swoich codziennych frustracji. Jaka szkoda, że nasz kraj nie może się pochwalić osiągnięciami dokladnie w żadnej dziedzinie. A nie, Papieża mieliśmy. Świetnie, będziemy uzdrawiać świat swoimi żelaznymi zasadami moralnymi.
Pisalem już, dlaczego takie porównania nie mają sensu, więc nie będę się powtarzal. Co to ma za znaczenie, czy ta karta pobiera 200 czy 300 wat. To jest HIGH-END DLA FANÓW ZROBIONY PO TO, BY WYGRAĆ NA CHWILĘ WYŚCIG WYDAJNOŚCI I NIKT NIE KAŻE GO WAM KUPOWAĆ. koniec tematu. Jest MILIARD innych kart, które pobierają 50W i mniej, dziesiątki modeli z pasywnym chlodzeniem itd. Nikt jakoś z ich produkcji nie rezygnuje, więc raczcie zwrócić uwagę na ten segment rynku. Ale nie, każdy woli zamarudzić i pochwalić się swoim brakiem wiedzy i myleniem pojęć, nie omieszkając przy tym poradzić nVidii, jak należy robić karty. Nie wiem, czy to bardziej śmieszne czy straszne, wziąwszy pod uwagę, że Polacy mają tak zawsze.
- Żeby nie być goloslownym (autor: beef | data: 26/10/06 | godz.: 09:52)
"nowy Ge-Force w wersji przedstawionej na screenach bardziej odrzuca niż zachęca do zakupu"
Czyli jeśli ktoś kupi to masochista. Ale ok, zboczenia się zdarzają :)
"Nie wsadziłbym czegoś takiego do mojego komputera."
Jedyne sensowne zdanie. W sumie wypowiedź mogla by się zakończyć, ale Autor ma gest i udzieli jeszcze kilka rad:
"Jeżeli Nvidia nie jest w stanie wyprodukować tego chipa w takim procesie technologicznym (..bla, bla..) to nie powinna w ogóle nowej karty przedstawiać"
Autor ma oczywiście MBA i pisal doktorat o rynku kart graficznych. Biedna nVidia nic o tym nie wie i nadal popelnia same blędy, a to, że jest liderem na rynku to spisek ukladu.
"Jeżeli tak by podchodzić do projektowania nowych GPU to niedługo będzie potrzeba zasilaczy o mocach liczonych w kilowatach - absurd."
Idealny argument: "To jest absurd", ale dlaczego, to już się nie dowiemy. Troska o lasy zwrotnikowe? Możemy tylko zgadywać.
"Intel się opamiętał i projektując C2D miał na względzie nie tylko wydajność."
Tylko szkoda, że ten "super-innowacyjny" projekt to tylko trochę podrasowane Centrino znane od lat, a karty graficzne to nie CPU i żądzą się zupelnie innymi prawami.
"(...)na względzie nie tylko wydajność"
A to ciekawe, bo C2D jest najwydajniejszą jak na razie platformą desktopową na rynku. Pomylka Intela?
"Nvidia jak widać po udanej serii 7xx powraca do polityki z okresu GF 6800 ULTRA - czyli wpakować jak najwięcej potoków, shaderów, jednostek teksturujących"
Jest wg autora niewątpliwie ślepa uliczka produkcji GPU, któremu wcale nie potrzeba dużej ilości shaderów, potoków i jednostek, jednak zapomnial nas poinformować o swoim pomyśle na alternatywne rozwiązanie.
- yep, erratum (autor: beef | data: 26/10/06 | godz.: 09:57)
jest: "żądzą", winno być "rządzą". Pomylilo mi się oczywiście z żadzą wladzy obecnej ekipy rządzącej.
- @speed (autor: Thomolus | data: 26/10/06 | godz.: 10:38)
"każe Ci ją ktoś kupować? No powiedz, każe???"
Nikt całe szczęście nie każe i dlatego nie kupuję takich potworków :-) Wolę grać w mniej sprzętożerne gry na swoim laptopie, który zadowala się maksymalnym poborem mocy na poziomie 90W. W nowej stacjonarce, którą będę składał również wylądują komponenty o możliwie najmniejszym zużyciu energii elektrycznej (nie to żeby mnie nie było stać na opłacenie rachunku za prąd, widocznie mam takie zboczenie :-)
- beef (autor: Grave | data: 26/10/06 | godz.: 11:19)
"Jest wg autora niewątpliwie ślepa uliczka produkcji GPU, któremu wcale nie potrzeba dużej ilości shaderów, potoków i jednostek, jednak zapomnial nas poinformować o swoim pomyśle na alternatywne rozwiązanie."
Nigdzie NIE NAPISAŁEM że karty nie potrzebują dużej ilości potoków czy shaderów. Ale nie można patrzeć tylko na to!
Zresztą nie ma o czym mówić - chcesz kupować taką kartę - nikt nie broni. Fanów Nvidii którzy jak mogą to kupią każą topową kartę tego producenta bez względu na wszystko nie brak, więc z takimi poglądami nie ma właściwie jak polemizować....
A co do ślepej uliczki - skoro uważasz że taka droga jest słuszna to ciekaw jestem jak sobie wyobrażasz np. dalsze zwiększanie wydajności graficznej w notebookach.....
Skoro w laptopach się da i szybciej i oszczędnie to znaczy że w PC-tach także. I nie wnikam tutaj w szczegóły techniczne.
Jestem przekonany że kolejny GPU Nvidii będzie zdecydowanie mniej prądążerny niż G80.
Jeżeli natomiast producent wypuszcza kartę niedopracowaną to nie widzę powodu aby tego nie komentować. Skoro można pisać pochlebnie to można i krytykować - to normalne. Speed najwyraźniej zamknąłby się wśród miłośników Nvidii i tam "nakręcał" się na zakup nowych GPU. Świetny pomysł - zlikwidować wszelką krytykę i jedynie wsłuchiwać się w marketingowy bełkot.
- @Thomolus (autor: beef | data: 26/10/06 | godz.: 11:20)
To nie speed, to ja :) Widzisz, ja też śmigam sobie w giery na lapie, który na bateriach dziala 3godz, więc karta w nim ile może pobierać - 20W? A ma wydajność, że prądożerne monstra sprzed paru lat mogą pozazdrościć (GF7300). Cenię sobie ciszę, na granie za dużo czasu nie mam, więc w piecyki się nie laduję. Mam przecież wybór. Tym niemniej mam również na tyle poczucia rzeczywistości, żeby nie pouczać zatrudniającej setki inżynierów i marketingowców firmy, jak robić karty graficzne. Tym bardziej, nie mając podstawowej wiedzy w temacie, jak większość dyskutantów tutaj. Każdemu może się produkt nie podobać, pewnie, gusta i potrzeby są różne, a buble też się trafiają. Ale tu widzę, że najwyraźniej jeśli każdy produkt nie jest przeznaczony DLA MNIE (albo mnie nie stać, po prostu :), to jego producent idiota i kretyn, a sam sprzęt szajs i badziewie. Doszlo do tego, że rodaków na targach za granicą poznaje się nie po języku czy stroju, ale po wszechogarniającym "umniejszactwie" i krytykanctwie w oparciu o argumenty z dupy wzięte. No, może jeszcze po "wczorajszym" zapachu przetrawionego piwka, to zawsze dziala. Innymi slowy - "mam kompleksy i się tego nie wstydzę", oto dewiza godna prawdziwego Wszechpolaka i, niestety, części komentatorów na TwojePC.
- @Grave (autor: beef | data: 26/10/06 | godz.: 11:50)
"jak sobie wyobrażasz np. dalsze zwiększanie wydajności graficznej w notebookach"
Tak jak do tej pory? Poczekanie na nowy proces technologiczny, zmniejszanie częstotliwości taktowania przy pracy na baterii i mamy laptopową kartę. Za 2 lata będziesz mial tą kartę w laptopach bez żadnej rewolucji, tak jak ja mam GF7300, a na karcie o takiej wydajności można bylo jajka kiedyś smażyć.
"Skoro w laptopach się da i szybciej i oszczędnie to znaczy że w PC-tach także"
Fajnie, tylko że laptopy z topowymi kartami nie są w żadnym razie komputerami przenośnymi i pobierają masę prądu.
"I nie wnikam tutaj w szczegóły techniczne."
Bo nie masz o nich pojęcia.
"Jeżeli natomiast producent wypuszcza kartę niedopracowaną to nie widzę powodu aby tego nie komentować"
Produkt jest niedopracowany, jeśli nie spelnia swoich funkcji i nie znajduje nabywców, a nie, jeśli Grave nie zamierza go kupić.
"Świetny pomysł - zlikwidować wszelką krytykę i jedynie wsłuchiwać się w marketingowy bełkot."
Świetny pomysl - marketingowemu belkotowi przeciwstawmy dyletanckie, smętne, polskie, dekonstruktywne marudnictwo. Żeby krytykować, a nie marudzić, należy mieć wiedzę w temacie. O kant dupy taką "szlachetną" kontestację, która nic nie wnosi oprócz tego, że - nie wątpię - jest bezinteresowna.
Ja wiem, że zwiększanie zapotrzebowania na energię JEST problemem. Jest to problem techniczny, z którym borykają się producenci chipów, i chcąc się utrzymac na rynku, dla wlasnego dobra sobie z nim poradzą, tak jak z każdym technicznym problemem do tej pory. Ludzie, którzy sie na tym nie znają, mają problemy techniczne w dupie i cieszą się, że im gierki fajnie chodzą. Nie dotyczy to tych, którzy są chorzy, jeśli nie dzielą wlosa na czworo przy każdej nadarzającej się okazji.
Ja nie kupię tej katry, jest nie dla mnie, mam ją w nosie. Posądzanie mnie o bycie fanem nVidii czy czegokolwiek mogę zbyć tylko jednym wielkim "pffff", ale widocznie tylko w takich kategoriach potrafisz kombinować. Najwyraźniej wg Ciebie świat dzieli się na fanów i antyfanów, na ślepo poddających się
"marketingowemu belkotowi" i porażających swoją mądrością totalnych sceptyków. Trudno. Bo dla mnie świat dzieli się z grubsza na potrafiących korzystać ze zdrowego rozsądku i nie potrafiących.
- Kolejne zdjęcia GeForce 8800 (autor: Tomaszochyd | data: 26/10/06 | godz.: 12:27)
Łał jestem w szoku, nie sądziłem, że zapowiadana premiera nowej karty graficznej może wzbudzić tyle niezdrowych emocji. Zgadzam się z formułowiczami, którzy twierdzą, iż ten kogo będzie stać na kupno tej karty nie będzie rozpaczał nad opłatami za energię elektryczną. Mnie zastanawia tylko jedno, z wiadomości wynika, że karta ta będzie miała przepustowość pamięci rzędu 86 gb/s i co z tego, jak to się będzie odzwierciedlać w wydajności w grach, pomijam testy syntetyczne. Weźmy np. wysłużone 6600gt, które miało przepustowość pamięci na poziomie 15 GB/s i szynę 128 bitową i przez jaki czas było hiciorem na naszym rynku. Nie ma co się przedwcześnie podniecać. Osobiście nie włożyłbym 2 czy 2,5 kafla na zakup karty obojętnie czy to ze stajni ATIAMD czy NVIDIA, żeby móc cieszyć się kilkoma fpsami więcej w F.E.A.R. czy w jakieś innej grze.
- @beef (autor: Grave | data: 26/10/06 | godz.: 14:28)
"Fajnie, tylko że laptopy z topowymi kartami nie są w żadnym razie komputerami przenośnymi i pobierają masę prądu."
ale znacznie mniej niż pc-ty....
"Bo nie masz o nich pojęcia."
i nie muszę mieć. Tak jak żeby oceniać książke nie muszę być doktorem hab. polonistyki, tak aby oceniać kartę graficzną nie muszę być inżynierem. Wystarczy dobra znajomość produktów. Przez 10 lat można naprawdę bez doktoratu zauważyć co jest możliwe w tej branży a co nie oraz to że niewypałów nie brakowało i nawet "wielka" Nvidia przy przykładowo GF-FX musiała przyznać że był to produkt nieudany. A też spełniał swoje zadanie świetnie - naprawdę o tym czy karta jest dobra czy zła nie decyduje tylko to że jest w stanie spełniać swoją podstawową rolę - przetwarzać obraz. Ale jak widzę do Ciebie to nie trafia....
"Świetny pomysl - marketingowemu belkotowi przeciwstawmy dyletanckie, smętne, polskie, dekonstruktywne marudnictwo."
Toż argument wysunąłeś.... Każda krytyka osoby która nie jest wybitnym specjalistą w danej dziedzinie = destruktywne narzekanie. Chyba zapomniałeś że to reakcja klientów (WSZYSTKICH nie tylko tych którzy budowę układów elektronicznych mają w małym palcu) decyduje o powodzeniu produktu.
"Jest to problem techniczny, z którym borykają się producenci chipów, i chcąc się utrzymac na rynku, dla wlasnego dobra sobie z nim poradzą, tak jak z każdym technicznym problemem do tej pory."
Poradzą sobie, ale zanim to zrobią (np przejście na produkcje w nowym procesie technologicznym) wcisną klientom kilka energożernych produktów).
Bo skoro ludzie to biorą to po co się wysilać?
Idąc Twoim tokiem rozumowania WSZELKA krytyka jest bezsadna. Jak krytykuje = produkt nie dla mnie czyli nie powinienem się odzywać. Odzywać się mogą jak widzę tylko Ci których opinie są pochlebne. Gratuluje naprawdę sposobu myślenia.
I jeszcze jedno - styl ironiczny masz opanowany świetnie, ale zapewniam Cię że tak pisać wiele osób potrafi (ja także). Daruje sobie odpowiedź w ten sam sposób, bo to po prostu prymitywne. Nadmienię tylko że sam ŻADNYCH arugmentów merytorycznych nie przytoczyłeś....:>
- panowie nie chodzi o to czy ktos komu kaze czy nie kupowac (autor: speed | data: 26/10/06 | godz.: 18:27)
sposob wyrazania swojego niezadowolenia jest po prostu smieszny. Poczytajcie sobie co pisz i jak pisza wasi rowiesnicy z innych krajow .
Osobiscie wole aby mlodzi ludzie wydawali (nie male pieniadze ) na takie zabawki niz na wodke czy dragi. 2-3 tygodniowe zarobki tych mlodych ludzi widocznie wydane na taka karte nie sa az taka strata jak cala masa ludzi nie moze sie doczekac aby sprawic sobie taka zabawke.
jestem pewny ze jezeli cena tej karty byla by 500zl to piali bysce z zachwytu a ze praktycznie malo kogo bedzie stac na wydanie 2-3 tys na karte graficzna to marudzicie z przyslowiowej zazdrosci. Czy karta bedzie brala 200W czy 250W to malo kogo to obchodzi bo za top .o.l trzeba isc na kompromis . identycznie jak z samochodami
Wiekszosc z was ma auta ,kto z was jezdzi tak jak chce a nie tak aby malo palil?? na pewno malo ludzi . Swoim podworkiem nie mozna ograniczac rynku ktory jest setki tysiecy wiekszy od waszego .Wyjdzie GTX a pozniej wyjda inne modele po przystepniejszych cenach i kazdy znajdzie cos dla siebie.
Wracajac do samochodow szczegolnie w europie zobaczymy jak beda spiewac wszycy ktorzy tak zachwycaja sie diselkami jak za litr przyjdzie im placic 2-3 razy wiecej niz za litr benzyny. Mnie tez powiedziano ze kupujac hybrydowy samochod trzeba byc idiota bo disel jest oszczedniejszy ale jak ktos nigdy w zyciu nie poczol na swojej dupie co to jest -40 czy -50 st C to wyglasza takie sady a po drugie to nie jego interas czy ktos kupi hybryde czy rower ale wlasnie metalnosc polakow jest taka ze wszytko musza krytykowac i wybrzydzac bo tak juz maja w genach.( o tych genach to stwierdzenie jednega z bordowiczow) :))Tak ze panowie relax i wiecej pogody ducha , w ten sposob zycie uplywa znacznie przyjemniej.
- @speed (autor: Grave | data: 26/10/06 | godz.: 20:00)
"Osobiscie wole aby mlodzi ludzie wydawali (nie male pieniadze ) na takie zabawki niz na wodke czy dragi."
Jak rozumiem kartami graficznymi jest zainteresowana głównie patologiczna młodzież, dresiarze, narkomani i alkoholicy..... A gdzie miejsce dla normalnych ludzi którzy nie piją nie palą, nie biją i biorą prochów? Oni kart nie kupują?....:>
"Poczytajcie sobie co pisz i jak pisza wasi rowiesnicy z innych krajow"
To że za granicą pieją z zachwytu wcale nie znaczy że produkt jest dobry. Większość nie zawsze ma racje....
- Grave nic dodac nic ujac po prostu po polsku:)) (autor: speed | data: 26/10/06 | godz.: 21:19)
___________
- Grave (autor: komisarz | data: 26/10/06 | godz.: 22:49)
zgadzam sie w zupelnosci. Technologia jest zbyt niedopracowana, zeby wypuszczac ja na rynek. Po prostu technologia jeszcze do tego nie dorosla - niektorzy zapominaja, ze High End to nie tylko szybkosc wypelniania i ilosc shaderow, ale tez jakosc uzytkowania czy zuzycie energii...
- BEEF.... A JEDNAK KIEDYŚ MIAŁEM RACJĘ... (autor: Seba78 | data: 27/10/06 | godz.: 21:15)
spierałem się kiedyś z tobą i czułem, że jesteś nadętym dupkiem, ale nie byłem pewien czy nie patrzę na to obiektywnie. A teraz po roku czy może już po dwóch wchodzę i przypatruję się jakiejś kłótni o nic i co widzę? siedzi ten sam beef dojrzały, zaradny, człowiek sukcesu, jak zwykle majacy w pogardzie innych i się kłuci z dziećmi:)))) w jednym chyba sukcesu nie odniosłeś… musisz mieć zajebiście smutne życie:)))) a może z żoną coś nie tak w nocy?:)
przepraszam wszystkich za ten wpis nie na temat i w sumie godny pożałowania, ale nie mogłem się powstrzymać:)
- HA HA HA :DDDD (autor: beef | data: 27/10/06 | godz.: 22:47)
Wprawdzie samej wymiany ciosów sobie nie przypominam, ale musialo wtedy boleć - normalnie glaszczesz sadystyczną część mojego ego ;) A czy jesteś godny pożalowania? Po zastanowaniu stwierdzam, że jednak nie, niekoniecznie. Na pewno dasz sobie radę, trzymaj się.
- So sweet :P (autor: GregorP-Redakcja | data: 28/10/06 | godz.: 10:34)
Dowcip polega na tym, że karta wcale nie
musi być dopracowana pod każdym kątem,
by rynek ją przyjął. Grunt, że bedzie posiadać
cechy, które pozwolą jej znaleźć nabywców
(wydajność, niski pobór energii, obsługiwane
standardy, kompaktowe rozmiary, cena, fakt
bycia świeżyzną - nieważne jakie).
Klientela kupuje (produkt udany, lub nie) = dochód firmy rośnie (zasłużenie, lub nie) = są pieniądze dla działów projektowych = sztab inżyniejros pracuje nad kolejnym produktem (bardziej, lub mniej dopracowanym, ale zawsze 'nowym' i 'kolejnym')...
Sprawa jest prosta. Nie ma o co się pieklić.
- gf8800 (autor: Behemoth35 | data: 28/10/06 | godz.: 11:26)
a ja mam prondożerny 7800 GTX Extreme i jak wyjdzie to kupie prondożerny i brzydki 8800
- gf8800 (autor: Behemoth35 | data: 28/10/06 | godz.: 11:48)
dokladnie prondo
- a tak (autor: Behemoth35 | data: 28/10/06 | godz.: 11:54)
pozatym to Andrius ma racje jak by kosztowała 500 to było by ok ładna i super wydajna a tak negatyw. Co prawda ja na nią bede pracował 9 dni ale to itak niczego nie zmienia jak ktoś chce to kupi. A granie na max detalach to wcale nie bzdura bo poto ktoś to zrobił aby to zobaczyć!!!!! a nie graćna 800-640
- TO? (autor: Behemoth35 | data: 28/10/06 | godz.: 11:57)
może tetris?
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|