Phil Rogers, az AMD veteránja, az HSA elnöke elhagyja az Nvidia cégét

Phil Rogers, az AMD huszonegy éves veteránja és az HSA (heterogén rendszerarchitektúra) elnöke levált az AMD-ről és csatlakozik az Nvidia-hoz. Rogers az Nvidia Compute Server részlegének vezető szoftverépítészévé lép, amikor a Team Green olyan szolgáltatásokat vezet be, mint az NVLink, és folytatja saját terveivel a CPU és a GPU kiszámíthatóságát. Miután a HSA 1.0 elkészült, vitathatod, hogy Rogers vesz egy oldalt Jim Keller könyvéből, és most folytatja, miután befejezte munkáját.

Ez lehetséges - de őszintén kétlem. Jim Keller régóta ismeri a problémamegoldó hírnevét, és csak néhány évet töltött el egy adott társaságnál. Pályafutása során a DEC, az AMD, a SiByte / Broadcom, a PA Semi, az Apple és az AMD (ismét) munkatársa volt. Rogers ezzel szemben az AMD régóta alkalmazottja volt, és az egész HSA-kezdeményezés nagyon nyilvános arca volt. A probléma az, hogy az AMD képessége, hogy valóban létrehozzon egy ökoszisztémát a HSA képességei körül, rendkívül korlátozott.

HSA: Remek ötlet, de silány, rövid távú stratégia

Amikor az AMD még 2006-ban megvette az ATI-t, a termékcsaládok „fúziójáról” beszélt, amely szinergiát teremtene a két vállalat között. Eleinte ez jobban integrált grafikát jelentett az asztali és mobil processzorok számára, de az AMD valami sokkal nagyszerűbbet tartott szem előtt. A GPU közvetlen integrálása a CPU-ba óriási technikai eredmény volt, de a Fusion (későbbi HSA) valódi célja egy olyan programozási modell biztosítása volt, amely lehetővé tette a fejlesztők számára, hogy olyan kódot írjanak, amely zökkenőmentesen futtatható azon a processzorblokkon, amelyik a legjobban képes végrehajtani azt .



AMD

Az AMD eredeti HSA ütemterve

Egy dolgot szeretnék hangsúlyozni, hogy a HSA a nagy ötlet. Van egy oka annak, hogy az olyan vállalatok, mint a Qualcomm, az ARM, a TI és a Samsung, mind aláírták a HSA Alapítványt, és miért ezek a vállalatok tovább fejlesztik saját megoldásaik heterogén számítási képességét. A Föld minden nagyobb félvezető vállalata lépéseket tett a heterogén számítás felé, a Qualcomm Snapdragon 820-tól és annak CPU - GPU - DSP triádjától kezdve az Intelig és a Xeon Phi-ig. A megfelelő terhelés és a megfelelő processzor összehangolásának ötlete erőteljes, és az AMD nem tévedett, amikor felismerte, hogy a sokmagos heterogén architektúrák kritikus fontosságúak lesznek a hosszú távú teljesítményjavítások szempontjából.

De a műszaki kiválóság és a korai tervezési vezetés nem mindig jelent megnövekedett piaci részesedést. A HSA-val az a probléma, hogy az AMD-nek teljesen hiányoztak az erőforrásai ahhoz, hogy a piac egészét az elfogadás felé mozdítsa el. A Kaveri OpenCL-teljesítménye számos szempontból javult a Richland-nél, amint azt dokumentáltuk, amikor a lapka elindult, de 18 hónappal a Kaveri piacra dobása után gyakorlatilag nincs HSA szoftver a piacon.

Nem ez az első eset, hogy az AMD vezet a műszaki fejlődésben, de más vállalatoktól függ, hogy végül ösztönözzék az alkalmazást. A vállalat két korábbi technológiája, a HyperTransport és az x86-64 hasonló utat járt be. A különbség azonban az, hogy az AMD képes volt jelentős mértékben felhasználni a HT-t a saját hardverében - ez hajtotta azt a „fénytelen” architektúrát, amely az Opteron szervereket olyan vonzóvá tette az Xeon alternatívákkal szemben a 4P térben még 2003-tól 2005-ig.

Ami az x86-64-et illeti, az AMD nem csak hatalmas elismerést kapott az Intel menetének ellopásáért, hanem arra kényszerítette az Intel-t, hogy fogadja el saját szabványát az x86-os CPU-k 64 bites jövőjére nézve. A HSA nem volt önmagában hasznos az AMD APU-k számára jelentős szoftveres támogatás nélkül, és az AMD-nek egyszerűen hiányzott az alapok és a fejlesztési erőforrások a széles körű átvételhez. Az AMD APU-i 'elég jóak' lehetnek a piac hatalmas részeihez, de ez nem akadályozta meg a vállalat eladásainak összeomlását. Az „elég jó” nem váltja ki a fantáziát, és nem izgatja a fejlesztőket abban, hogy az Ön platformján dolgozzanak. És bár igaz, hogy a GPU teljesítménye sok éven át kiemelte az AMD APU-jait, a nagy grafikai teljesítmény (a piaci szegmenshez viszonyítva) elsősorban nem igényelt HSA funkciókat.

Meg kell jegyezni, hogy ezek a problémák egyáltalán nem egyedülállóak az AMD-vel. Miután rövid ideig kacérkodott a fogyasztói szintű CUDA-alkalmazásokkal, például a Badaboom médiakódolóval, az Nvidia nagyrészt elhagyta a helyet. Az biztos, hogy továbbra is megtalálhatja a GPU támogatással rendelkező médiakódolókat, de nem volt semmi erőfeszítés a GPU gyorsításának az alkalmi tartalomhoz történő bevezetésére vagy az OpenCL széles körű kihasználására a mindennapi alkalmazásokban. A GPU-gyorsítás továbbra is a munkaállomás-osztályú szoftverek tartománya marad.

Miért érdemes az Nvidia-ra költözni? Mivel a szuperszámítógép / HSA tér sokkal termékenyebb terepet kínál a heterogén számítás által kínált fejlesztések számára. A CUDA már jól megalapozott, az AMD-nek úgy tűnik, nincsenek komoly tervei a piac megtámadására a közeljövőben, és Rogers valószínűleg azt akarja, hogy az általa tervezett fejlesztések meghozzák gyümölcsét a tényleges szállítási szoftverekben. A HPC térben az új szoftveres képességek kiépítése a hardver kiaknázása érdekében része a munkának, és bár az Nvidia az Intel és a Xeon Phi jóvoltából saját szembeszéllel néz szembe ezen a piacon, az összességében még mindig sokkal jobb.

Nem hiszem, hogy az AMD tovább fogja dobni a HSA-t vagy a heterogén számítást, de az AMD marketing anyagai manapság nem igazán erre összpontosítanak. Ez valószínűleg bölcs. Az alapvető CPU-teljesítmény és az energiahatékonyság sokkal kritikusabb a vállalat jövője szempontjából, mint bármilyen fejlesztés, amelyet beépíthet a heterogén számításba. A Nail Zen bemutatkozása és a jövőbeli APU megjelenése, a HSA kérdésével pedig később foglalkozhatunk.

Copyright © Minden Jog Fenntartva | 2007es.com