TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 7 grudnia 2020 |
|
|
|
Apple pracuje nad GPU oraz 8, 16 i 32-rdzeniowymi wersjami swojego CPU M1 Autor: Zbyszek | źródło: Bloomberg | 15:19 |
(43) | Przed miesiącem firma Apple oficjalnie zaprezentowała swoje nowe komputery przenośne i tablety - pierwsze w historii wyposażone we własny autorski procesor Apple M1, który zastąpił stosowane do tej pory CPU Intela. Wkrótce potem pojawiły się informacje, że Apple szykuje jeszcze drugi procesor dla swoich komputerów - M1X, o wyższej wydajności niż M1 i dedykowany komputerom stacjonarnym Apple. Miałby on otrzymać 8 wydajnych rdzeni i 4 energooszczędne, podczas gdy laptopowy M1 posiada 4 wydajne rdzenie i 4 energooszczędne.
Tymczasem według agencji Bloomberg, która słynie z podawania sprawdzających się informacji, Apple ma planować w sumie trzy wersje procesorów M1X. Będą one mieć 8, 16 albo 32 wydajne rdzenie. Wszystkie trzy modele mają być wytwarzane w 5nm litografii przez TSMC i otrzymają tez 4 energooszczędne rdzenie.
Według Bloomberga Apple zamierza także opracować własne samodzielne karty graficzne dla swoich Maców. Będą one bazować na budowie IGP stosowanego w procesorach M1, z tą różnicą, że zamiast 8 rdzeni GPU, liczba rdzeni GPU ma wynosić do 128, co teoretyczne daje wydajność 16-krotnie wyższą niż IGP stosowany w procesorach M1. |
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- @news (autor: Promilus | data: 7/12/20 | godz.: 15:50)
No i fajnie, ale 32 rdzeniowy monolit będzie drogi w pi... ;) Apple sra na to, bo kto będzie chciał to przepłaci :) Ale miło, niech cisną... intel z amd będą musieli przestać odcinać kupony i grubo ruszyć z modyfikacją x86, która jest long overdue.
- @Promilus (autor: rainy | data: 7/12/20 | godz.: 16:04)
Chyba pomyliłeś cokolwiek adres: to Intel przez ładnych parę lat odcinał kupony, ponieważ AMD było w dużych tarapatach z powodu wypuszczenia nieudanej architektury, jaką okazał się Bulldozer.
Od 2017 roku AMD ma bardzo dobre tempo i de facto, to oni ciągną do przodu wózek nazywający się x86.
Btw, mają w odwodzie K12, choć nie wiem, jak wyglądałby on w 2020 roku.
- Apple i jego ceny... (autor: ekspert_IT | data: 7/12/20 | godz.: 16:06)
Niestety obawiam się, że nadzieja na wydajne procesory na ARM pozostanie jedynie nadzieją. Cóż z tego, że Apple podrasuje parametry architektury ARM do granic możliwości i zrówna się a intelem jak będzie to cholernie drogie, obawiam się znacznie droższe od procków intela.
Ceny Apple są z kosmosu, co potwierdza poniższy news:
''Apple rozpoczęło sprzedaż kółek do Macka Pro w cenie 700 USD (3499 zł) za komplet. ''
Nadzieją byłoby gdyby inni jak Qualcomm, Mediatek, Samsung czy pozostali zaczęli produkować niemal tak szybkie procesory ARM co Apple. Wtedy Intel musiałby kupić pełną linię produkcyjną do 5nm nawet przepłacając 5-10 krotnie aby nie stracić całego rynku....
- @rainy (autor: Promilus | data: 7/12/20 | godz.: 16:35)
A po co 16 i 32 bitowe instrukcje x86 w nowych CPU? A po co dziwne tryby adresacji obecnie niestosowane? A po co 15 bajtowe instrukcje, dla których trudno znaleźć zastosowanie, a muszą być obsłużone? A po co dalej MMX gdy AVX robi to samo, a lepiej? Kto pierwszy się odetnie od grubej warstwy pleśni ten będzie mógł rzeczywiście skutecznie nowości implementować. Zwróć uwagę jak wielką wagę AMD musiało (tak, musiało!) przyłożyć do rozmiaru i prędkości cache by udało się osiągnąć rozsądne IPC w Zen. Zen nie było przełomem, co najwyżej dociągnięciem do poziomu intela i skoro intel przez tyle lat odcinał kupony tak AMD po dorównaniu do jego poziomu jednak kontynuuje tą tradycję. Przez 3 generacje Zen tylko doszlifowywano konstrukcję, bez jakichkolwiek diametralnych zabiegów. Tak, to jest odcinanie kuponów.
"Cóż z tego, że Apple podrasuje parametry architektury ARM do granic możliwości i zrówna się a intelem jak będzie to cholernie drogie" układ jest dość duży mimo lepszego procesu niż ma AMD. Owszem, pobiera mniej prądu (choć podejrzewam, że te wersje 8 wydajnych rdzeni nie będą znacznie mniej niż 8C16T Zen3) ale jeśli chodzi o koszt materiałowy to nie wygląda to specjalnie lepiej. Jakiś niby mądry gdzieś pisał (już nie chce mi się szukać, ale trochę pojechał) że RISC pozwala poszerzać jednostki wykonawcze znacznie lepiej niż CISC z uops. Może i tak, ale RISCowy POWER jakoś tego nie potrafił wykorzystać choć przez pewien czas x86 lał jak chciał. Wg mnie AMD i Intel specjalnie nakładali chomąto na nowe procesory x86 by nie musieć jeszcze obcinać kompatybilności wstecznej (taka ich karta przetargowa, która jednak ma coraz mniejsze znaczenie). W momencie zagrożenia zaczną jednak usuwać archaizmy i zwalniać zasoby, co z jednej strony uprości dekodery, a z drugiej obniży zużycie energii. A dzięki uproszczeniom można będzie lepiej wykorzystać jednostki przetwarzania (np. głębiej przewidywać tok wykonywania programu i przesuwać kolejność wykonywania instrukcji oraz pobierać skuteczniej nowe instrukcje i dane). Innymi słowy x86-64 z hamulcem w postaci starych trybów jeszcze nawet dobrze nie pokazało na co go stać ;)
- @Promilus (autor: rainy | data: 7/12/20 | godz.: 16:58)
Przyznam, iż masz "trochę" wygórowane oczekiwania: dlaczego to dużo mniejsza firma, z udziałami rynkowymi na poziomie nieco ponad 20 procent, miałaby dokonywać radykalnych zmian w architekturze x86?
A gdzie jest lider tego rynku czyli Intel?
Tak przy okazji, masz całą masę naleciałości ze starszych wersji Windows w 10, które są pokłosiem wstecznej kompatybilności, podobnie jest z x86.
Btw, nazywanie ponad 35 procent wzrostu IPC w trzech generacjach Zena szlifowaniem, brzmi cokolwiek zabawnie.
- @Promilus (autor: ekspert_IT | data: 7/12/20 | godz.: 17:08)
Zaszłości też trzeba ciąć 'z głową' bo jedną z przewag PC nad konsolami jest to, że mając nawet 3070TI i Ryzena 3800, możesz sobie odpalić takie Diablo2 czy UT3 albo starą wersję Photoshopa kupioną 12 lat temu, a która przeleżała się na półce...
- ... (autor: pwil2 | data: 7/12/20 | godz.: 17:09)
Haha, już widzę jak Adobe optymalizuje swój soft pod wiele rdzeni...
- @@3 (autor: hokr | data: 7/12/20 | godz.: 17:16)
ten news potwierdza tylko tyle, że znają się na sprzedaży. Obecnie kółka kosztuję 2 000 zł, jeżeli patrzysz wyłącznie na te kółka, to ok jest drogo, ale Mac Pro w podstawowej wersji to 28k PLN + dedykowany monitor 24k PLN. Myślisz, że komuś robi większą różnicę czy wyda 52k czy 54k? Poza tym, jest to gadżet, całe życie mam obudowę bez kółek, czy nawet nóżek i żyję :)
- @6. (autor: pwil2 | data: 7/12/20 | godz.: 17:16)
Dokładnie. Już nieraz MS poległ na tym, że chciał robić rewolucję. Jeśli któryś z producentów (szczególnie AMD) by się wychylił pierwszy i usunął rozszerzenia MMX, zaraz by była nagonka, że nie jest 100% kompatybilny z x86.
- c.d. (autor: pwil2 | data: 7/12/20 | godz.: 17:17)
Japko ma o tyle przewagę, że jego użytkownicy są naprawdę mało wymagający. FB ma działać + pakiet Adobe i 99% użytkowników zadowolonych ;-)
- @rainy (autor: Promilus | data: 7/12/20 | godz.: 17:32)
"dlaczego to dużo mniejsza firma, z udziałami rynkowymi na poziomie nieco ponad 20 procent, miałaby dokonywać radykalnych zmian w architekturze x86"
Serio? A wprowadzenie 64bit to było ot pierdnięcie? Dali radę? Dali. W międzyczasie wprowadzono przy okazji wiele rozszerzeń instrukcji i nie wszystkie w postaci nowych SIMD. Trzeba ten burdel po prostu ogarnąć. AMD to potrafi, intel to potrafi. Do tej pory nie musieli. Teraz muszą. Tyle w temacie.
"masz całą masę naleciałości ze starszych wersji Windows w 10" - nie, nie masz... możesz mieć, ale w syswow64. Właśnie dlatego, że nie masz to nie odpalisz wielu aplikacji, które na win7 działały. I tak samo - na win7 nie odpalisz aplikacji, które na winxp działały (np. tomb raider)
"nazywanie ponad 35 procent wzrostu IPC w trzech generacjach Zena szlifowaniem" jeśli wskażesz konkretne zmiany w samej architekturze to może to nazwę inaczej. Ale nie wskażesz więc nie wiem o co się rzucasz. Nawet AMD na slajdach tylko Zen1 określiło jako "leapfrogging" - a kolejne miejsca to tylko optymalizacje wydajności i zużycia energii. I tak - od Zen1 fundamentalnie nic się nie zmieniło. A wzrosty wydajności? To porównaj excavator kontra bulldozer. I tu zmieniało się fundamentalnie mniej więcej tyle samo. Wzrosty IPC były ze względu na doszlifowanie architektury. I były równie imponujące jak u Zen.
@expert_IT
niby tak, ale jak bardzo tego potrzebujesz, że nie mógłbyś przeboleć tego odpalonego z jakąś tam emulacją JIT? Czy diablo 2 skorzysta z 4 GHz ? No nie. A z 32GB RAM? No też nie. Więc nawet jeśli z emulacją działałoby jak 2GHz pentium III to i tak byłoby bardziej niż wystarczające dla kogoś kto zdecydowanie potrzebuje odpalać starsze aplikacje. A podejrzewam (patrząc na to co wyczynia Apple z rosettą 2) że tak czy inaczej byłoby zdecydowanie szybciej niż 2GHz Pentium III... zatem nie, wydaje mi się, że obsługa dziwnych rozkazów i trybów w obecnym x86 jest zupełnie zbędna, a sprawę może załatwić VM w systemie z JITem dla starych apps.
- @Promilus (autor: rainy | data: 7/12/20 | godz.: 17:47)
64-bitowe rozszerzenie AMD, jak sama nazwa wskazuje, było roszerzeniem listy instrukcji, natomiast Ty oczekujesz radykalnego, a co najmniej znaczącego odchudzenia, co nie jest możliwe bez zgody Intela.
Czy naprawdę muszę Ci przypominać, jak Microsoft ich szantażował, że nie będzie dwóch wersji Windows, jeśli Intel nie zaakceptuje x86-64?
Btw, jednym z głównych/najważniejszych powodów sukcesu x86 była wsteczna kompatybilności, więc ewentualne cięcia muszą być robione z głową.
- @10 (autor: arra | data: 7/12/20 | godz.: 17:58)
Piszesz o czymś o czym nie masz bladego pojęcia, a japko widziałeś może przystawiając nos do salonu ispota.
Na pewno kadra menadżerska ma małe wymagania, ja p....
Ludzie, których godzina pracy jest więcej warta niż Twoja roczna wypłata, już dawno przestali się babrać gównem zwanym Windows.
- @11. (autor: pwil2 | data: 7/12/20 | godz.: 18:02)
Tak naprawdę to te naleciałości nie zajmują zbyt wiele miejsca w krzemie. Masz dekoder, który rozbija rozkazy CISC na wewnętrzną architekturę RISC to jednostki i rozbudowane predyktory zajmują coraz więcej miejsca.
Można by pójść w kierunku większej ilości małych rdzeni, zamiast cisnąć w wyższe IPC, ale dobrze widać jaki będzie efekt. Ryzen 1700 miał świetne Perf/Watt i ogólną większą wydajność od Skylake w pierwszym wydaniu (pod nazwą Skylake), ale zaraz były narzekania, bo jeden wątek był wolniejszy.
- apple ma ceny adekwatne (autor: Mario2k | data: 7/12/20 | godz.: 18:20)
Do swoich klientów ;)
- @13. (autor: pwil2 | data: 7/12/20 | godz.: 18:29)
A no tak. Jeszcze dochodzi Office. Możesz sobie porównywać do swojej wypłaty i może tyle właśnie zarabiasz. Widzę wokół czego używa kadra menedżerska, dyrektorska i prezesowska w wielu firmach od dekad. Nawet osoby posiadajace własny samolot nie mają szszeczególnych wymagań wobec kompa. Wręcz przeciwnie.
- @rainy (autor: Promilus | data: 7/12/20 | godz.: 18:30)
To nie jest "tylko" rozszerzeniem listy instrukcji. To jest także ... 2x szersze GPR, 2x więcej GPR, 2x szersze datapath, a to tylko wierzchołek góry lodowej. Od strony samego ISA to prosta zmiana, ale od strony architektury jest to drastyczna i fundamentalna. Tak mi się wydaje, że nie do końca rozumiesz jak procesor jest zbudowany i jak działa.
"co nie jest możliwe bez zgody Intela" wszystko jest możliwe bez zgody intela. Tak jak było możliwe 3DNow!, AMD64 właśnie, SSE4A czy CVT16 i XOP. Różnica jest taka, że jeśli intel tego nie zaakceptuje, nie zaimplementuje w icc i w swoich procesorach to AMD braknie siły przebicia. Chyba... chyba, że byłoby to zarąbiście dobre. SSE4A nie było. A na 3DNow! intel dał odpowiedź z SSE
"Czy naprawdę muszę Ci przypominać, jak Microsoft ich szantażował, że nie będzie dwóch wersji Windows" nie wiem w czym MS szantażował intela, ale Windows XP miał wersję 32bit (x86), 64bit (x86-64) ORAZ 64bit (IA64). Wersja dla Itanium była na Win2k3 i zniknęła razem z supportem HP dla Itanium. A teraz MS goni w piętkę z wersjami ARMowymi. Więc ten szantaż taki słaby strasznie biorąc pod uwagę, że już się MS wącha i próbuje ugrać rynek ARM, tylko mu to strasznie słabo idzie.
"głównych/najważniejszych powodów sukcesu x86 była wsteczna kompatybilności" - była to jest słowo klucz...
"Masz dekoder, który rozbija rozkazy CISC na wewnętrzną architekturę RISC to jednostki i rozbudowane predyktory zajmują coraz więcej miejsca" - tak, tak, ale przewidujesz rozkazy x86, a nie mikroinstrukcje. Łatwiej przewidzieć co się będzie działo mając rozkazy 2-4 bajtowe niż 1-15. Łatwiej ogarnąć kolejkę. A to jest główna blokada tego by dać szersze jednostki wykonawcze jak właśnie jest w ARM, który ma dokładnie 4 bajtowe rozkazy i 32, i 64bit (a ostatecznie ma mieć tylko 64bit czyli zupełnie olać podstawową listę rozkazów jaką ma od 30 lat!) Czyli da się! I kompatybilność wsteczna nie jest takim problemem dla klientów.
- wracając to newsa (autor: myszon | data: 7/12/20 | godz.: 21:40)
to ciekawe jest co zrobią z RAM-em. W tej chwili mają CPU+GPU+RAM w jednym opakowaniu. Robiąc 32C muszą zwiększyć ilość RAMu bo raczej nie dadzą 32C do 32GB RAMu. Min 64G albo 128G by się przydało. Ciekawe czy zrezygnują z jednego pudełka i czy zrezygnują ze współdzielonego RAMu. Możliwe że zrobią architekturę z wieloma oddzielnymi blokami CPU+RAM jakoś pospinanymi razem.
- @myszon (autor: Promilus | data: 7/12/20 | godz.: 21:47)
Właśnie raczej nie... istotą rozwiązań Apple jest głębokie "fusion" ... rozdzielanie na osobne układy z osobnymi pamięciami kłóci się z tą ideą. Apple robi dobrze to co od dekady zapowiadało AMD i nie potrafiło dostarczyć w tej formie w jakiej zapowiadało "rewolucję".
- wersje dla desktopów (autor: OBoloG | data: 7/12/20 | godz.: 21:51)
mogą obsługiwać zewnętrzny ram w postaci modułów tylko pytanie jakich? czy tradycyjnych jak w PeCetach czy dedykowane dla APPLE. Ja osobiście poczekam na M1X i zdecyduje czy spróbować tego jabłka na poważnie.
- Już w 2017 (autor: PCCPU | data: 7/12/20 | godz.: 23:59)
Były przecieki że Intel pracuje nad nowym rdzeniem x86 w którym zostanie usunięta większość starych i nieużywanych instrukcji jak i natywnego trybu x86 16 i 32 bit. x86-64 przez ponad 15 lat na tyle się zakorzenił że spokojnie można się odciąć od MMX, SSE, 16 i 32 bity a sam rdzeń x86 mógłby wykonywać je za pomocą mikrokodu w jednostkach AVX i rejestrach 64 bit. Zwolnione miejsce możnaby poświęcić na optymalizację trybu x86-64 i nowych instrukcji tym samym odchudzić dekoder x86. Plotki były o OceanCove a nie były potwierdzone. Może GoldenCove to ten nowy rdzeń x86 ;)
- @OBoloG (autor: Promilus | data: 8/12/20 | godz.: 04:15)
RAM nie ma wewnątrz M1 (rdzenia), jest wbudowane na laminat na którym jest rdzeń. Jest bez różnicy czy będzie to w ten sposób, czy kostki byłyby na płycie wlutowane na stałe, bo de facto nie przynosi to żadnych konkretnych korzyści (a ma od strony użytkownika trochę wad). Raczej naturalne że tam gdzie potrzebna będzie elastyczność w konfiguracji RAM będzie w slotach. Tylko niewiele to w ogólnym rozrachunku zmienia. NPU jest on-die, GPU jest on-die, CPU jest on-die. Taka jest koncepcja Apple. Ale przy 32 rdzeniach wydajnych, nawet w 5nm raczej trudna do utrzymania. Szybką szynę mają, ale w obrębie jednej kostki krzemowej.
- @artykul... (autor: gantrithor | data: 8/12/20 | godz.: 05:09)
"Według Bloomberga Apple zamierza także opracować własne samodzielne karty graficzne dla swoich Maców. Będą one bazować na budowie IGP stosowanego w procesorach M1, z tą różnicą, że zamiast 8 rdzeni GPU, liczba rdzeni GPU ma wynosić do 128, co teoretyczne daje wydajność 16-krotnie wyższą niż IGP stosowany w procesorach M1."
Tyle ze gpu apple nie jest tak wydajne jak amd czy nvidia a tu apple bedzie mialo spory orzech do zgryzienia bo jesli chodzi o arm vs x86 to arm wykouje proste instrukcje i wykorzystuje do tego mniej cykli zegara inaczej ma sie sprawa z gpu tu instrukcje sa uproszczone do granic mozliwosci na dodatek bardzo czesto dzialaja na nisko poziomowym api wiec samo dodanie wysokowydajnego gpu podniesie zuzycie energi drastycznie nawet adreno osiaga lepsze wyniki niz uklad gpu apple w tym samym procesie litograficznym.
- @23. (autor: pwil2 | data: 8/12/20 | godz.: 09:27)
GPU nie musi być najszybsze, jeśli mają konkurować praktycznie sami ze sobą. Sam fakt produkcji z najniższym dostępnym procesie produkcji im będzie pomagał, by nie byli na szarym końcu za Intelem i tak. Priorytetem jest niedzielenie się marżą i tyle.
- c.d. (autor: pwil2 | data: 8/12/20 | godz.: 09:31)
Pamiętam jak swego czasu kupowało się topowe 2-procesorowe (2xXeon) Maki Pro wyłącznie pod ProTools/AVID i przez całe dnie chodziły mieląc na jednym wątku.
Coś tam przyśpieszy na 32c, a reszta będzie bardziej Pro na 32c ;-)
- @Prolimus (autor: Mariosti | data: 8/12/20 | godz.: 12:06)
Zen jest definitywnie rewolucyjny dla AMD bo przyniósł im skok IPC rzędu 50% w pierwszej generacji.
Kolejne generacje to bardzo szybki postęp, a nie odcinanie kuponów. W 3 lata zwiększyli IPC o 20%, a dodatkowo o 25% zwiększyli uzyskiwane maksymalne taktowanie.
To jest mniej więcej tyle ile intel zrobił przez ostatnie 10 lat.
Co do wstecznej kompatybilności to zajmuje ona na krzemie coraz mniej i mniej przestrzeni w nowych procesorach x86 i w porównaniu do chociażby obsługi AVX w FPU, krzem do obsługi starych instrukcji x86 jest pomijalnie mały.
- @Mariosti (autor: Promilus | data: 8/12/20 | godz.: 15:15)
"Zen jest definitywnie rewolucyjny dla AMD" - ale mnie nie interesuje perspektywa AMD tylko perspektywa rynkowa.
"Kolejne generacje to bardzo szybki postęp, a nie odcinanie kuponów" - kolejne generacje to minimalne zmiany architektury i poszerzanie istniejących wąskich gardeł, żadna rewolucja. A IPC rośnie w określonych sytuacjach, a nie zawsze. Zresztą przedstawiłem jako przykład wzrost między BD a Excavatorem... jest tak samo wielki. To jak realnie wygląda IPC Zen3 trzeba by przetestować przy stałym zegarze. I takie testy przeprowadzono na techspot dla procesorów ustawionych sztywno na 4GHz. I tak Cinebench R20 - 11% Zen3 vs Zen2 i 35% vs Zen1. Blender 5% Zen3 vs Zen2 i 21% vs Zen1. DaVinci - 7% i 16%. To są solidne wzrosty, ale nie rewolucyjne. Pierwszy zasadniczy wzrost między zen a zen2 wynikał właśnie z usunięcia wad i ograniczeń, które były jasne już od prezentacji zen. Czyli m.in. bardzo niejednorodny dostęp do cache i ram (obsługiwanego przez różne ccx) oraz m.in. wąski AVX. Między Zen2 a Zen3 różnice nie są aż tak drastyczne. Poza tym o co ci dokładnie chodzi? Chcesz mi wmówić, że AMD dało z siebie wszystko co mogło prezentując kolejne klocki z tej serii? Że nie dało się wyciągnąć nic więcej? Czy może oczywiste jest, że się dało, ale AMD nie byłoby to na rękę, bo raz że konkuruje (konkurowało*) samo ze sobą, a dwa że wymagałoby to opóźnień w prezentacji kolejnych wersji co mogłoby dać czas intelowi na zareagowanie i przełamanie złej passy. Nie kolego. Dostajesz tyle i TYLKO TYLE żebyś był zadowolony.
"krzem do obsługi starych instrukcji x86 jest pomijalnie mały." na jakiej konkretnej podstawie tak sądzisz?
To, że SIMD rośnie nie oznacza absolutnie nic. To przynosi korzyści tam gdzie się mieli dane. Tylko tam. Natomiast całe sterowanie tym strumieniem danych jest robione na instrukcjach stricte x86 (te które trafiają po zdekodowaniu do ALU). Z perspektywy softu gdzie trzeba mielić duże ilości danych jest zupełnie bez znaczenia, czy będzie AVX, czy SVE, czy Altivec, czy x86, ARM, czy POWER. Będzie się liczyło jak szerokie wektory i jak szybko przeliczone. x86 to nadal CISC od strony ISA. I póki tak będzie to każda nadmiarowa instrukcja BĘDZIE oczywistym obciążeniem dla dekodera i BPU. Więc jeśli będziemy mieli POWER z 6ALU i 4FPU, ARM z 7ALU i 4FPU 128bit i x86 z 4ALU i 2FPU (256bit) to nie zdziw się, że RISC wyjdą na prowadzenie. A wdrożenie 5 ALU w CISCu może być problematyczne... tak jak do tej pory było. 3ALU były już w K7. ARM w ciągu dekady przeskoczył z 2 (A7) do 4 (X1) (a w przypadku Apple podobno i więcej) i z 1x64bit NEON na 4x128bit (albo i więcej z SVE). Jak dla mnie to dobitnie wykazuje presję jaka jest wywierana na firmy produkujące x86. I uprzedzając dalsze dywagacje - tak, da się CISC wykastrować w RISC. Tak właśnie postąpiono z zestawem instrukcje motoroli 68k gdzie z ostatniej serii (68060) utworzono zredukowaną listę dla nowego tworu czyli Coldfire. Coldfire to seria mikrokontrolerów RISC z rozkazami 2, 4, 6 bajtowymi. Ostatnie serie były nawet superskalarne i całkiem wydajne (jak na tamte czasy). I jest to kierunek, który x86 będzie musiało rozważyć, albo zginąć.
- @Promilus (autor: rainy | data: 8/12/20 | godz.: 18:48)
Nie wiem dlaczego, starasz się wyraźnie się bagatelizować osiągnięcia AMD - przypominam Ci, iż jest to firma, która 5 lat temu stała na krawędzi bankructwa, więc to co udało im się osiągnąć z Zenem jest niewątpliwie imponujące.
Poza tym, wyraźnie przykładasz jednakową miarę do AMD jak Intela czy Apple, kiedy dwa ostatnie firmy są nie tylko dużo większe ale mają nieporównywalnie większe
- @Promilus (autor: rainy | data: 8/12/20 | godz.: 18:53)
możliwości finansowe. Przykładowo, Apple już korzysta z 5nm, kiedy AMD zwyczajnie na to nie stać i będą go używać nie wcześniej niż w 2022 roku.
- @rainy (autor: Promilus | data: 8/12/20 | godz.: 20:12)
Nie wiem czemu się starasz wyolbrzymiać sukcesy AMD. Jeśli patrzysz z punktu widzenia użytkownika komputera klasy IBM PC to może ciebie odrobienie strat do lidera i przejęcie pałeczki na tym rynku aż tak bardzo raduje. Owszem, kudos dla AMD za to, że im się to udało. Ale gdyby spojrzeć nieco szerzej to okazuje się, że rozwój x86 nie nadąża za bardzo, bardzo gwałtownym rozwojem innych układów jak ARM i RISC-V. To jest łatwe do zauważenia dla każdego, kto potrafi spojrzeć szerzej i obiektywnie. Nie jest to pierwsze zagrożenie, jakie x86 napotykało na swojej drodze. Było też 68k na samym początku, zdecydowanie bardziej elegancki design, ale nie uległ dużej popularyzacji (co nie znaczy, że nie był popularny wcale) głównie ze względu na dość wysoką cenę i opóźnienie w rozwoju kolejnych wersji (i znów - ich dość wysoką cenę). Takie 68040 robiło co chciało z 486, ale... wyszło później i było droższe. A stosowane było w militarystyce, przemyśle (PLC, komputery przemysłowe), telekomunikacji, w drukarkach czy wreszcie amigach ;) (A4000). W późniejszym okresie dużą konkurencją mogło być PowerPC (ale nie było). ARM się od lat 90tych gdzieś pałętał, nawet intel przejął StrongARM po inżynierach z DEC/Alpha i wykorzystał w swoich XScale. Technologię zdaje się później sprzedał bo miał to w d... A mimo to ARM sobie nabierał tempa i patrz gdzie jest teraz. Jeśli już komuś przyklaskiwać to właśnie im.
- Myślę że (autor: PCCPU | data: 8/12/20 | godz.: 20:29)
Myślę że o x86 przesądzi GoldenCove i Zen4. To te mikroarchitektury a raczej postęp w nich poczyniony przesądzi o x86 czy odskąoczą(o ile to możliwe w obecnej formie x86) czy zaczną być coraz bardziej w tyle.
- Edit: (autor: PCCPU | data: 8/12/20 | godz.: 20:31)
Jestem przekonany że zarówno Intel jak i AMD od lat są świadomi zagrożenia ze strony ARM itp.
- @PCCPU (autor: Promilus | data: 8/12/20 | godz.: 20:39)
Też jestem tego samego zdania, obie firmy są świadome zagrożenia, ale od premiery M1 stało się ono "namacalne". Wiedzą, że zegarem się nie da na długą metę już ugrać. Konieczne są konkretne zmiany w architekturze. Zmiany których do tej pory nie było w Zen widać. Dlatego pisałem o doszlifowywaniu arch. bo żadnych przełomowych zmian od zen1 nie było.
- Edit2 (autor: PCCPU | data: 8/12/20 | godz.: 20:44)
Taka sytuacja wyjdzie nam na dobre ponieważ producenci będą musieli pokazać więcej niż do tej pory dafkowali a jeśli któryś odpadnie? Trudno. Nie ma tego złego co by na dobre nie wyszło :)
- @Promilus (autor: rainy | data: 8/12/20 | godz.: 20:52)
Bynajmniej niczego nie wyolbrzymiam, być może po prostu nie masz świadomości w jak złej kondycji było AMD pod koniec pierwszej połowy tej dekady.
W 2015 roku wydali na R&D zaledwie 941 mln dolarów, kiedy w 2020 będzie to prawdopodobnie circa 1.9 mld czyli praktycznie 2x tyle.
https://www.macrotrends.net/...evelopment-expenses
Różnica pomiędzy modelem ARM a x86 jest zasadnicza: ARM Holdings rozwija architekturę, a firmy zainteresowane korzystaniem z niej kupują licencję i mają również opcję modyfikacji, tak jak to robi Apple.
Intel nigdy nie był zainteresowany konkurencją na swoim rynku, starał się ją zawsze ograniczyć do minimum, a czasami wręcz próbował ją niszczyć (tak jak AMD).
Więc pozostaje zasadnicze pytanie: czy Intel zmieni swoje podejście i zacznie traktować AMD raczej jako partnera/sojusznika czy tak jak dotychczas konkurenta albo nawet wroga?
Samo AMD z najprawdopodobniej nie będzie w stanie obronić pozycji x86 na rynku.
- Obecnie (autor: PCCPU | data: 8/12/20 | godz.: 20:58)
Intel zachowuje się z Sunny i WillowCove jak za czasów przed Conroe.
- @PCCPU (autor: Promilus | data: 8/12/20 | godz.: 20:58)
Przypomnę, że w czasach 486 i pentium procesory x86 produkował Intel, AMD, IBM, Cyrix (w fabach Texas Instruments zdaje się), może NEC. Możliwe że ktoś jeszcze. W każdym razie jasne jest, że w tamtych czasach było "do wyboru, do koloru". Po jakimś czasie został Intel, AMD, VIA i Transmeta. Transmeta odpadła, via odpadła. Został intel i amd. Słabo. Owszem, teraz Chińczycy niby mają x86 dzięki joint venture z VIA, ale jak do tej pory wydajność pozostawia wiele do życzenia. IBM chce ratować POWER przez openPOWER tylko chętnych niewiele. Spodziewam się, że jeśli ARM będzie szerzej dostępne z wydajnością w pobliżu najlepszych x86 per core to intel będzie musiał rozważyć otwarcie się na innych producentów i licencjonowanie rozwiązań szerzej. Z 1 powodu - by utrzymać dominację w desktopie i 2 powodu - by nagrabić kasy na rozwój.
- @Promilus (autor: PCCPU | data: 8/12/20 | godz.: 23:15)
Wcale nie byłby to głupi pomysł i na pewno sporo by się działo. Już się dzieje i będzie bardzo ciekawie obserwować w jakim kierunku to pójdzie i jak mocno rozwój przyspieszy.
- @Prolimus (autor: Mariosti | data: 9/12/20 | godz.: 11:42)
Jestem stosunkowo pewny że nie pracowałeś nigdy w poważnej firmie nad jakimkolwiek sporym projektem skoro uważasz że jakakolwiek firma na świecie mogłaby robić co roku rewolucje w jakiejkolwiek dziedzinie i że dokonanie w 3 lata postępu porównywalnego z 10 letnim postępem konkurencyjnej firmy z 10x większym budżetem R&Dn nie uznajesz za rewelacyjne.
To tak jakbyś narzekał że VW głupio EA211 klepie już 15 lat i po co kolejne generacje wypuszcza skoro jedyne co poprawił to praktycznie wszystkie wady i usterki, a wciąż nie generuje nagle ponad 200KM z Litra.
- @Mariosti (autor: Promilus | data: 9/12/20 | godz.: 12:23)
Jestem stosunkowo pewien, że nie potrafisz czytać ze zrozumieniem tylko rozemocjowany idziesz w zaparte.
"że dokonanie w 3 lata postępu porównywalnego z 10 letnim postępem konkurencyjnej firmy z 10x większym budżetem R&Dn nie uznajesz za rewelacyjne" - widzisz, ty porównujesz tylko do intela, ja patrzę szerzej i to jest właśnie ta różnica której nie potrafisz ogarnąć.
- @40. (autor: Mariosti | data: 9/12/20 | godz.: 14:58)
Jest tutaj zero emocji z mojej strony.
Pracuję w dużej firmie i wiem ile czasu i wysiłku pochłaniają takie projekty.
Twoje oczekiwania "rewolucji" co roku są zupełnie nierealne i dziecięce wręcz w swojej naiwności.
- @Mariosti (autor: Promilus | data: 9/12/20 | godz.: 17:14)
"Pracuję w dużej firmie i wiem ile czasu i wysiłku pochłaniają takie projekty." to fajnie, tam się nauczyłeś czytać bez zrozumienia?
"Twoje oczekiwania "rewolucji" co roku" a gdzie takie wyraziłem?
"są zupełnie nierealne i dziecięce wręcz w swojej naiwności" no to będę dziecinny oczekując, że intel z amd odpowiedzą na wyzwanie rzucone przez Apple. Ok. Ty będziesz dojrzały oczekując, że nie dadzą się sprowokować. Niech będzie po twojemu...
- @37. (autor: pwil2 | data: 19/01/21 | godz.: 11:39)
Było jeszcze UMC, które miało udany procesor z rodziny 486, ale później jakoś znikło...
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|