TwojePC.pl © 2001 - 2024
|
|
Środa 19 sierpnia 2009 |
|
|
|
Pierwsze informacje o wydajności nowych kart graficznych AMD Autor: Zbyszek | 07:28 |
(61) | W sieci pojawiły się pierwsze informacje na temat wydajności nadchodzących kart graficznych ATI Radeon, zgodnych z najnowszymi bibliotekami DirectX 11. Najbardziej zaawansowane akceleratory, bazujące na układzie o nazwie kodowej RV870 mają osiągać rezultat około 18 000 punktów w benchmarku 3DMark Vantage w trybie Performance. Jest to wynik blisko dwukrotnie większy od uzyskiwanego przez karty Radeon HD 4870. Kolejne z kart, z układami RV840 mają osiągać wynik o połowę mniejszy, wynoszący około 9500 punktów. Najmniej, bo około 4600 punktów uzyskiwać mają akceleratory z układami RV830. Na potwierdzenie powyższych rewelacji niestety musimy poczekać do 10 września, kiedy to odbędzie się oficjalna premiera nowych kart. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- no to ciekawie się zapowiada (autor: Marek1981 | data: 19/08/09 | godz.: 09:11)
Pożyjemy zobaczymy
- Może być bardzo ciekawie (autor: Wedelek | data: 19/08/09 | godz.: 09:41)
aż się nie mogę doczekać 10 września :P
- ... (autor: doxent | data: 19/08/09 | godz.: 10:14)
i ceny spadną zapewne. Nadejdą czasy tanich kotletów dzięki konkurencji.
- @doxent (autor: Marek1981 | data: 19/08/09 | godz.: 10:17)
Można by rzec że kotlety nie będą w cenie:)
Mnie raczej zastanawia co się stanie z Nvidią, gdy się to potwierdzi to nie będzie wielu chętnych na ich produkty, a już teraz generują pokaźny minus.
- a mnie ciekawi jaką część przychodów AMD (autor: acd | data: 19/08/09 | godz.: 10:23)
generują układy graficzne, a jaką procesory i gdzie mają większe zyski/mniejsze straty.
- super rewelacja (autor: chris_gd | data: 19/08/09 | godz.: 10:45)
pewnie bedzie kosztac ponad 1500zl. a i tak GTA4 bedzie ledwo chodzilo
no ale jaki wynik w 3d smarku
- Akurat (autor: shadowxxz | data: 19/08/09 | godz.: 11:02)
ten 3dmark dość dobrze odzwierciedla stosunki wydajności kart graficznych
- @chris_gd (autor: Drow | data: 19/08/09 | godz.: 11:05)
A teraz zastanow sie czy ja to wina, karty graficznej [dobre parokrotnie potezniejszej od tej z x360 na przyklad], czy patalachow z Rockstar?
Tak, pytanie retoryczne.
- To, że GTA4 słabo chodzi to nie wina producentów kart graficznych (autor: Borat | data: 19/08/09 | godz.: 11:06)
Wina leży po stronie tylko programistów Rockstar Games, którzy się nie popisali. Wydali grę, która "wywala" się na każdym kroku.
- ... (autor: kubaswielgus | data: 19/08/09 | godz.: 11:31)
Ciekawe tylko czy te " najbardziej zaawansowane akceleratory" - nie są czasem konstrukcjami 2-procesorowymi. Oznaczałoby to, że przyrost mocy jest 50%. Jakoś nie przypominam sobie, żeby w świecie kart graficznych między kolejnymi generacjami był dwukrotny przyrost mocy.
- GTA 4 (autor: doxent | data: 19/08/09 | godz.: 11:39)
mi na 8800GT z Q9400/4GB DDR3 chodzi prawidłowo bez schodzenia poniżej 25 klatek. Quad to w zasadzie podstawa w GTA 4 i bez niego nie ma co zaczynać. Z tym, że próbowałem już wielu sterowników z najnowszymi włącznie i dopiero na 181.22 można pograć bez przycinania podczas jazdy czy łażenia. Widać, że nowsze sterowniki dużo gorzej sobie z tym radzą i przycinki są nagminne. Oczywiście wszystkie ustawienia na medium za wyjątkiem cieni na very high. Odległość i detale na 50 a ilość samochodów na 10 by nie robić sobie kłopotów z jazdą, jakość cieni na max. Swoją drogą jakością powala gra Prototype. Świetnie zrobiony silnik zero przycinek i tam gdzie GTA4 by wysiadło silnik Titanium działa dużo lepiej. Wystarczy porównać ilość pojazdów czy ludzi, tam są normalnie tłumy a w GTA4 to pustynia.
- @doxent (autor: MariuschM | data: 19/08/09 | godz.: 11:59)
racja gra Prototype ma dobry silnik i się nie przycina tak jak GTA4 ale jest taka różnica że w tej grze tylko postać jest super a pozostałe postacie i budynku itp. są beznadziejne... z 5 osób z mojej klasy było na tą grę napalone a jak w nią już zagrali to każdego kogo spytałem gadał że gra jest beznadziejna...
- przeciez protoype to bieda z nedza (autor: komisarz | data: 19/08/09 | godz.: 12:17)
szczegolnie grafika - zero szczegolow, biedne tekstury, klonowanie budynkow i ludzi. Jedyne co jako tako wyglada to efekty, ale generalnie to gry sprzed 4 lat wygladaja lepiej.
- ale przy 25 klatkach nie gra się rewelacyjnie. (autor: Borat | data: 19/08/09 | godz.: 12:21)
Gdy kiedyś za czasów Rivy TNT2 i pierwszych GeForceów rypało się w Quake 3. Dobrze się grało gdy fps utrzymywał się w granicach 60-80 klatek. Jak spadał poniżej 40 to już było niezbyt dobrze bo spadała prędkość i dynamika poruszania się postaci. W granicach 25-30 nie dało się normalnie grać.
- Czy to ładnie kopać leżącego? (autor: geordie | data: 19/08/09 | godz.: 12:38)
Może trzeba zacząć kibicować zielonym?
http://www.fudzilla.com/content/view/15086/1/
- @geordie (autor: MariuschM | data: 19/08/09 | godz.: 12:44)
kibicować zielonym?? za co?? za kotlety?? oj nie..
- @Borat (autor: power | data: 19/08/09 | godz.: 12:44)
w quake 3 nie da sie grac w 60-80fps, w tej grze musisz miec stabilne 125fps by grac komfortowo.
kto chce niech sprawdzi przy ilu fps w quake 3 da rade wskoczyc po megahealth w mapie q3dm13.
komenda w konsoli do zmiany fps to
\com_maxfps 125
- Do wyników w 3D Mark należy podchodzić bardzo ostrożnie (autor: Grave | data: 19/08/09 | godz.: 13:19)
gdyż często nie odzwierciedlają dobrze wydajności w realnych grach.
Ale widać, że na pewno skok wydajności spory będzie.
Gdyby udało im się rzeczywiście uzyskać w pojedynczym RV870 wydajność circa 2x wyższą niż w RV780 to Nvidia może mieć spore problemy zważywszy na to że pakowane do kolejnych generacji GeForce-ów tony SPU, TMU i ROP skalują się coraz słabiej.....
- -> Borat (autor: sid67 | data: 19/08/09 | godz.: 14:06)
ale GTA4 to nie Q3, tam nie robisz rocketjumpów i nie musisz trafić z railguna, powyżej 25FPS można grać całkiem komfortowo w gry które nie są online-owymi FPSami. A co do samego GTA4 to wiadomo że silnik jest mało dopracowany i z tego co czytałem to i na konsolach nie zawsze daje radę a tam działa w dużo niższej rodzielczości. Kolejna zprawa że po przesiadce z C2D@ na którym grać się ledwo dawało na C2Q można już grać normalnie.
- ....... (autor: Marek1981 | data: 19/08/09 | godz.: 14:24)
Ja poczekam na test nowej grafy, teraz to same spekulacje. Nawet gdyby był skok wydajności o 50% to wynik i tak bardzo zadowalający.
- czekajcie dalej na testy, (autor: Vetch | data: 19/08/09 | godz.: 15:04)
ja tymczasem zagram :D
- Marek1981 (autor: Grave | data: 19/08/09 | godz.: 15:04)
3D MARK najczęściej pokazuje najlepszy możliwy scenariusz zwykle nieosiągalny w normalnych grach. Ale wszystko wskazuje na to, że ATI tanio skóry nie sprzeda i naprawdę serio zamierza powalczyć we wszystkich segmentach rynku z Nvidią łącznie z segmentem Hi-end.
Nawet pojedynczy RV870 powinien być najszybszym GPU na rynku do czasu pojawienia się GT300, a jeszcze przecież pozostaje wersja X2.
Liczę też na to, że tym razem uda się ATI jeszcze bardziej poprawić skalowalność cross fire na karcie dwuprocesorowej. DX11 ma w tym teoretycznie pomóc, więc może nie będzie źle.
Żeby jeszcze obciążenie CPU nie było tak duże przy CF. Bo w co bardziej wymagających mocy CPU grach, nawet najszybszy Phenom II 3,4GHz po włączeniu Cross Fire może się ostro ksztusić ;/
Bo poza tym to byłaby ładna platforma "all by AMD" - Phenom II 3,4 + R800 + 790FX :)
- Chociaż zawsze można tego Phenoma (autor: Grave | data: 19/08/09 | godz.: 15:06)
przetaktować na 4GHz i już się robi ciekawie :)
- Grave - znowu sam sie napedzasz (autor: komisarz | data: 19/08/09 | godz.: 15:49)
3,4 nie da rady, 4 robi sie ciekawie - czyli niby 600mhz, 17% oc (z trudem - podnosimy napiecie, kupujemy azot i cieszymy sie, jezeli mamy stabilnosc na 64bitach) daje nam taki niesamowity skok?
Poza tym poczytaj sobie (jezeli chcesz)
http://anandtech.com/...howdoc.aspx?i=3619&p=9
- ....... (autor: Marek1981 | data: 19/08/09 | godz.: 15:59)
@Vetch - jak będę chciał to też sobie kupie, na razie 4870 mnie starcza w zupełności.
@Grave - ja mam całą platformę amd i nie narzekam:))
Co do GT300 może być różnie, czekamy czekamy bo to jeszcze większa zagadka od R800. Potwór, który może zdziałać wiele i nic.
Im dłużej nvidia będzie się spóźniać z premierą ( i dostępnąścią) względem ati tym większe tarapaty finansowe ją czekają.
Czyżby karty się odwróciły (rywalizacja gf 8800 i hd2900)
- komisarz (autor: Grave | data: 19/08/09 | godz.: 16:20)
1. Phenom II osiąga 4GHz bez pomocy LN2 czy LHe, wystarczy zwykłe chłodzenie powietrzem i podniesienie napięcia zasilającego.
2. Przy fabrycznym taktowaniu >3GHz 17,6% OC to sporo.
- Grave (autor: Markizy | data: 19/08/09 | godz.: 17:59)
ale myślę ze na obecnej rewizji jest to mało opłacalne bo procesor będzie się znacznie grzał, miejmy nadzieje że kolejna poprawi ten problem. A jak się bawić w o OC na 4GHz to czemu mamy nie wykorzystać wody do chłodzenia i będzie do tego jeszcze ciszej :)
Co do karty ATI to zapowiada sie dość ciekawie :) do września nie daleko to zobaczymy ile w tym prawdy, a później będziemy czekać na to co pokarze Nvidia :)
- Markizy (autor: Grave | data: 19/08/09 | godz.: 18:30)
Tyle, że nikt nie wie kiedy AMD wprowadzi nową rewizję (C3) Phenoma II. Mówi się o 4 kwartale 2009, mniej więcej tym samym czasie kiedy zaplanowano premierę nowych chipsetów serii 8.
A jak te domysły wypadną w starciu z rzeczywistością - czas pokaże.
11 listopada AMD organizuje swój tegoroczny Analyst Day, wtedy też poznamy oficjalne stanowisko i plany firmy na najbliższe miesiące jak i kolejne parę lat.
- Grave (autor: Markizy | data: 19/08/09 | godz.: 19:20)
dobrze wiedzieć :)
ale dość czasu jeszcze do tego listopada jest ,mogli by coś wcześniej powiedzieć, choć trochę :)
- no niezle (autor: piobzo | data: 19/08/09 | godz.: 19:37)
ale problemem dalej jest rynek mobilny w którym nie wiedzieć czemu dobrze radzi sobie intel:/
- piobzo (autor: Markizy | data: 19/08/09 | godz.: 19:56)
bo producenci netbookow biorą chipset intela a w nim gratisem otrzymują GMA, który jest dla nich najtańszym rozwiązaniem, dodatkowa karta podnosi koszty produkcji.
- piobzo (autor: morgi | data: 19/08/09 | godz.: 21:06)
Wszyscy to wiedza i tak zostac musi, Intel jest liderem w technologiach mobilnych, osiaga to ciezka praca, wiec minimalna przewaga Intela na tej samej baterii to 20%, co potem mozna spozytkowac np. na wieksza wydajnosc, a nie wciskanie kiczu quasimobilnego.
- @Grave (autor: ligand17 | data: 19/08/09 | godz.: 21:07)
To co powiesz na mojego E8200, który na BOXowym chłodzeniu działa z taktowaniem 4GHz? I to bez żadnych cudów, zero nakładu pracy: uruchamiam AISuite, ustawiam FSB 500MHz, restart i mam 4GHz... Płyta sama dopasowuje resztę. Na "dzień dobry" O/C 50%.
- @piobzo (autor: ligand17 | data: 19/08/09 | godz.: 21:10)
Bo Intel ma monopol na chipsety do swoich procesorów mobilnych i układ z grafiką daje gratis. A do tego certyfikat "Centrino" dostajesz tylko, jak weźmiesz komplet od Intela. Tego AMD nijak nie jest w stanie przebić, nie mając miażdżącej przewagi wydajnościowej.
- Mimo wszystko zaczyna się robić (autor: Wedelek | data: 19/08/09 | godz.: 21:15)
całkiem ciekawie. AMD dostało kopa i nie ma zamiaru odpuszczać intelowi. http://pclab.pl/news38258.html
- Hmm... (autor: Dadexix | data: 19/08/09 | godz.: 21:29)
Z jednej strony sie ciesze, bo nie stac mnie na super grafe, ale jak aktualne grafiki beda "kiczem" w porownaniu z nowymi, to ceny ladnie spadna...
Ale z innej, czy jest sie o co cieszyc? Jesli[hipotetycznie;)] hd5xxx bedzie bic na glowe nvidie, a potem hd6 tak samo[co teoretycznie, mozliwe, bo widac ze po prostu umieja robic dobrze, i robia, coraz lepiej z kazda genracja], to.. wytworzy sie kolejny monopol... Chodz z innej strony, dalo by to kase, a kasa mocno pomogla by w walce z intelem w prockach... ale, to tylko hipotezy;]
- @ligand17 (autor: Marek1981 | data: 19/08/09 | godz.: 21:54)
" Tego AMD nijak nie jest w stanie przebić, nie mając miażdżącej przewagi wydajnościowej"
I tu się mylisz bo AMD nie może się przebić mając ogromną przewagę na Intelem i to wydajnościowo oraz posiadając lepsze stery.
W kwestii zintegrowanego GPU nie spotkałem się jeszcze z żadnym problemem u ATI, na GF są czasami a na intelu co drugi PC wariuje.
- ligand17 (autor: Grave | data: 19/08/09 | godz.: 22:16)
No masz OC "50%" ale nie dlatego, że Core2Duo jako takie kręci się lepiej od Phenoma II a jedynie dlatego, że wybrany przez Ciebie model jest fabrycznie dużo niżej taktowany.
Układy dla segmentu low end i hi-end często są dokładnie takie same różnią się tylko fabrycznie narzuconymi ustawieniami. Możliwości OC wszystkich modeli masz podobne, więc jeżeli weźmiesz model najniżej taktowany to będziesz mógł się pochwalić "najwyższym % OC"
To po pierwsze.
A po 2 - Phenom II jest układem 4 rdzeniowym i jako takiego nie możesz porównywać jego OC do OC układu dwurdzeniowego jakim jest Core2Duo. Chociaż i tak Phenom nawet jak na układ 4 rdzeniowy wypada więcej niż dobrze pod kątem OC.
- @ power - za czasów Rivy TNT2 (autor: Borat | data: 19/08/09 | godz.: 22:54)
125 fps w q3 było nieosiągalne
- A po MH na q3dm13 (autor: Borat | data: 19/08/09 | godz.: 22:55)
da się wskoczyć i przy 80 fps
- @Marek1981 (autor: ligand17 | data: 20/08/09 | godz.: 09:01)
Ale AMD ma jedynie przewagę w GPU, które aż tak bardzo się w tym segmencie nie liczy. Gdyby zrobiło CPU, który pobiera tyle energii, co Centrino2 a ma 2x większą wydajność, to by mogło zawalczyć. Ale nie ma, więc jest skazane na marginalizację.
- ligand17 (autor: Grave | data: 20/08/09 | godz.: 09:49)
<<dyby zrobiło CPU, który pobiera tyle energii, co Centrino2 a ma 2x większą wydajność, to by mogło zawalczyć.>>
Chyba coś masz z głową - szkoda że nie 10x wyższa wydajność przy tym samym TDP. Nawet Core2Duo nie jest 2x wydajniejsze od Athlona przy tym samym TDP!!
Wystarczyłaby JAKAKOLWIEK przewaga przy tym samym TDP i AMD byłoby górą. Nawet 10%, ba nawet 5%. Tak to się zwykle odbywało i nic się nie zmieniło. Nie ważne o ile wygrasz, ważne że wygrasz.
- W CPU też pocinają (autor: Wedelek | data: 20/08/09 | godz.: 09:57)
swoimi Phenomami II. Niestety, to nadal zbyt mała część rynku:/ No ale AMD idzie w dobrą stronę. Jeżeli trend się utrzyma, to Phenomy III będą już super.
Natomiast po malutku odwraca sie proporcja przydatności CPU i GPU. DX11 da już możliwosci do wykorzystania GPU i jeżeli programiści nie nawalą, to drogie CPU staną sie marginesem. Nawet intel to wie. Jak myślicie. Dlaczego tak usilnie pracują nad labree właśnie w takiej architekturze, a nie zaczynają od słabszych układów GPU?? Odpowiedź jest prosta. Nie chcą zostać z ręką w nocniku. A postęp jest nieubłagany.
- No ale czy larabee będzie ok?? (autor: Wedelek | data: 20/08/09 | godz.: 11:18)
Tego nikt nie wie. Ale wygląda na to, że mimo podsycania napięcia intel sam nie jest zadowolony z tego, co mu wyszło http://www.fudzilla.com/content/view/15098/34/
- ...... (autor: Marek1981 | data: 20/08/09 | godz.: 11:57)
@Wedelek - były plotki że larrabee jest mało wydajny i nie przebija wydajnością gtx280.
A wiadomo jak u nich wygląda ze sterami i w dodatku premiera za x czasu.
- @marek (autor: Wedelek | data: 20/08/09 | godz.: 13:52)
z tych ploteczek, to można wywnioskować, że ta cała premiera jest bardzo kontrowersyjna i jak tak dalej pójdzie, to wogóle może nie dojść do skutku. Intel czeka na 32nm, ale nie zapominajmy, że ATI i N-vidia przecież tez to planują. Larabee nie radzi sobie z grafikami z55nm produkcji, a niedługo 40nm. A wiadomo, że im niższy proces produkcji, tym trudniej go opanować (w dużym uproszczeniu)
- a tu jakies ploty (autor: qwertix | data: 20/08/09 | godz.: 18:07)
ze amd ma ponad 50% udzialu w gpu dla notebokow :) http://www.in4.pl/..._w_GPU_dla_laptopów,19141.htm
- chodzi oczywiscie o udzialy w rynku ;) (autor: qwertix | data: 20/08/09 | godz.: 18:08)
123
- @Grave (autor: ligand17 | data: 20/08/09 | godz.: 19:08)
U mnie z głową wszystko OK. I faktycznie, szkoda, że nie 10x. Ale jak się nie ma, co się lubi...
- ligand17 (autor: Grave | data: 20/08/09 | godz.: 19:16)
Jeżeli uważasz, że żeby być konkurencyjne AMD musi być 2x od Intela przy tym samym TDP podczas gdy sam Intel NIGDY takiej przewagi nie miał to sorry, ale jest to zwykłe p***e , bo dobrze wiesz że:
1) do wygranej w wyścigu wydajności nie potrzeba zwycięstwa o 200% wystarczy o 5% i najczęściej z taką sytuacją właśnie mieliśmy do czynienia
2) podany przez Ciebie "wymóg konkurencyjności" nie dość że wzięty z sufitu, jest kompletnie nierealny i można go zapisać jedynie na liście pobożnych życzeń. I to zarówno pobożnych życzeń AMD jak i Intela, bo Intelowi też ta sztuka się NIGDY nie udała i nic nie zapowiada żeby miała się w najbliższym czasie udać.
- @Grave (autor: ligand17 | data: 20/08/09 | godz.: 20:36)
Ale zapominasz o jednym - Intel ma gotową platformę własnego pomysłu, własnego projektu i na swoich własnych komponentach. I to platformę sprawdzoną i o uznanej marce. I dzięki tej platformie ma taki właśnie udział w rynku.
Nawet gdyby AMD miało powalczyć, to nie ma czym - jej kolejne próby stworzenia mocnej platformy spełzają na niczym - nie jest w stanie się przebić.
Oczywiście, że kryterium "2x większa wydajność" jest wzięte z głowy i nie poparte żadnymi wywodami. Jest to wartość przykładowa.
- No i sa pierwsze zdjęcia najsłabszej (autor: Wedelek | data: 20/08/09 | godz.: 21:08)
Juniper z DX11:D
http://pclab.pl/news38277.html
- ligand17 (autor: piobzo | data: 21/08/09 | godz.: 22:31)
"I to platformę sprawdzoną i o uznanej marce." nie platforme tylko procesory:P... bo tak na dobrą sprawę tylko one są dobre.. pozatym nie słyszałem nigdy o pamięciach operacyjnych firmy intel, natomiast słyszałem o lodówkach daewoo:P...
wracając to intela jego mocnym atutem były i są tylko i wyłącznie cpu reszta jest dość przeciętna, a gpu wręcz mierne nawet jak na rynek mobilny... mam lapka z intelem na ich chipsecie to jest porażka.. jedyne co tam jest dobre to proc.. i grafa oczywiście gf
- @piobzo (autor: Marek1981 | data: 22/08/09 | godz.: 01:46)
nie słyszałeś o pamięciach intela?????
- ... (autor: trepcia | data: 22/08/09 | godz.: 08:16)
Intel z Micronem ma romans :-)
- piobzo (autor: morgi | data: 22/08/09 | godz.: 11:25)
Idz po rozum do glowy, Centrino to tak mocna marka, ze przerasta konkurencje o lata swietlne, produkt kompletny. Do blacharek i serwerow mamy to samo, jedynie gracze moga takie bzdury opowiadac, bo bez swojej karcioszki nie ma napinki.
- ........ (autor: Marek1981 | data: 22/08/09 | godz.: 12:01)
pamięci intela dosyć że drogie w jas.... to jeszcze pobierające bardzo ale to bardzo dużo prądu i w dodatku te chipsety.
Więc pomimo że same procki intela brały dużo mniej prądu to cała platforma była miała spory apetyt na prąd.
Dlaczego nowy procek serwerowy intele jest dobry, ano bo nie ma już intelowkich pamięci, są ddr3.
- Trepcia (autor: Gladzio | data: 22/08/09 | godz.: 18:11)
Wyobrażasz sobie, co będzie owocem tego romasnu...?
- Gladzio (autor: Sajron | data: 22/08/09 | godz.: 20:15)
jako że mam ich dysk to może powiem co? SSD G2 320GB :P już niedługo kupie sobie to cacuszko.
- @piobzo (autor: ligand17 | data: 22/08/09 | godz.: 23:03)
Wiem, co piszę - platforma. CPU + chipset (NB+SB) + WLAN -> to dopiero jest pełne Centrino. I taki znaczek na laptopie to już ponad 50% sukcesu.
- @morgi (autor: Wedelek | data: 23/08/09 | godz.: 11:08)
No i tu się mylisz. Nie tylko gracze narzekają. Narzekają praktycznie wszyscy na tę grafikę. Procesory są OK, ale grafikę skopali konkretnie. Co do gier, to ta obsrana GMA nawet leciwego AoE 2 nie potrafi płynnie miejscami wyświetlić u kumpla. Mój słaby HD3200 nie ma większych problemów z Devil may Cry4. no wybaczcie, ale gro ludzi nie wymaga wielkiej wydajności, aczkolwiek jakaś mimo wszystko powinna być. Nawet jeśli ktoś ne gra w gry często, to czasami go najdzie i są berety. Pomijam takich, cochcą grać na tym jak na desktopie. GMA nie radzi sobie też ze zwykłym wyświetlaniem filmu na zewnętrznym monitorze. Tnie niemiłosiernie:/
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|