Az első Directx8-as bajnokok

Az első Directx8-as bajnokok

Ebben a tesztemben 2 VGA kártyát szeretnék nektek tesztekkel bemutatni! Kíváncsi voltam, hogy amikor megjelent a tesztben szereplő 2 legendás kártya, a Radeon 8500, és a Geforce 3 TI500, a későbbi, kiforrott driverek után hogy viszonyulnak egymáshoz. Amikor ezek a kártyák kijöttek, és újnak számítottak, az akkori driverek, és játékokban az jött le, hogy nagyjából tényleg egy szinten van a két kártya, viszont arról is sokat lehetett olvasni, hogy a driverek kiforrásával a Radeon 8500-as ATI szépen, egyre jobban erőre kapott, és későbbiekben már a Geforce 4 Titanium kártyákkal is felvette a versenyt…

Aztán ahogy teltek a hónapok, és eljött egy újabb év, már az akkori, legújabb kártyákra helyeződött a hangsúly, és a 8500-as ATI, és a Geforce 3 TI500-as kártyák a háttérbe szorultak, pedig friss driverek még jó pár évvel később is jöttek hozzájuk, továbbá mivel abszolút csúcs kártyák voltak ezek, még a megjelenésük után 3-4 évvel későbbi játékokat is remekül vitték. De hogy a későbbi driverek segítségével, az újabb játékokkal hogy boldogultak ezek a kártyák, illetve, hogy viszonyultak egymáshoz, már nem szóltak a tesztek… Erre szeretnék most kitérni.

Természetesen a tesztek előtt ismerkedjünk meg a kártyákkal!

ATI Radeon 8500:

Az ATI 8500-as Radeon-t 2001-ben mutatta be, és ez volt az első Radeon, ami már támogatta a Microsoft Diretctx8.1-es API-ját. A kártya GPU-ja az R200-as kódnévre hallgat, s 150 nanométeres csíkszélességgel készült. Összesen 4 Pixel Shader, és 2 Vertex árnyaló található a GPU-ban, továbbá 8 textúrázó egység kapott még helyet.  A GPU a 64 vagy 128MB-nyi össz kapacitású memóriával 128 bites buszon tud kommunikálni. A GPU órajele 275MHz, míg a memória órajele effektív 550MHz-en jár (natív 275MHz) Természetesen ezek a kártyák még masszívan AGP foglalatba passzoltak, abból is a 4X-es mód volt támogatott.

ATI Radeon 8500

A tesztben szereplő Ati Radeon 8500-as egy Club3D gyártmányú, és teljesen a referencia felépítést használja, azaz a GPU egy picike aktív hűtést kapott, míg a memóriákon semmiféle hőleadó nincs, bár ebben az időben ez még annyira nem is volt jellemző.

Bekapcsolás után mikor megnéztem a GPU-Z segítségével kiíratott információkat:

Radeon 8500 GPU-Z

Egyből feltűnt, hogy a kártya „csak” a 8500 LE órajelein jár, azaz a GPU 250MHz-en, míg a memória 500MHz-en járt. Érdekes, mert a kártya dobozos kiszerelésben van meg nekem, és hogy egy LE példányról lenne szó, az sem a dobozon, sem pedig a kézikönyvében nem volt feltüntetve, mindenhol „sima” 8500-as kártyaként van feltűntetve. Persze ez nem egy túl nagy gond, mert a jó öreg Rivatuner segítségével majd feljebb pöckölöm a referencia 8500-as Radeon órajeleire. A másik, ami viszont már zavaróbb volt, hogy a GPU-Z, és az Aida64 szerint is csak 1 Vertex árnyalót tartalmaz a GPU. Az interneten utánajárva mindenhol azt írják, hogy az R200-as GPU-ban 2 Vertex árnyaló van, attól függetlenül, hogy a kártya Radeon 8500-as vagy az enyhén vissza fogott 8500LE példányról van szó. Ez után még további 3db 8500-as Radeont raktam a gépbe, és mindegyikhez 1 Vertex árnyaló volt feltűntetve. GPU-Z-ből is 3 verziót próbáltam, de mindegyiknél ugyanaz volt…

Aki tudja a tényleges igazságot, ne tartsa magába, nagyon kíváncsi vagyok, hogy most ilyenkor mi van!

Nvidia Geforce3 TI500:

Az Nvidia Geforce3-as családja volt az első, ami támogatta a Directx8.0-t. Nem, ez nem elírás, míg az ATI 8500-as a Directx8.1-et támogatta, addig az Nvidia megoldása csak a 8.0-t, de ez a felhasználás szempontjából nem jelentett túl nagy különbséget. Valójában a 8.1-es Directx grafikus API könnyebben volt programozható, megjelenítésben nem volt semmi különbség a 8.1, és a 8.0 között.

A Geforce3-as család legerősebb tagja a Ti500-as volt, ami 2001 októberében jelent meg, cirka 2 hónappal később, mint az ATI Radeon 8500-asa, és az Nvidia ezt a kártyáját is küldte az ATI Radeon 8500-as ellen. Az összes Geforce3 az NV20-as GPU-t kapta, amely mint az R200, szintén 150nanométeres csíkszélességgel készült. 4 Pixel Shadert és itt ténylegesen 1 Vertex árnyaló volt jelen a GPU-ban, továbbá itt is 8 textúrázó egységgel gazdálkodhatott a GPU. Ezek a kártyák is 64 vagy 128MB-nyi DDR memóriát kaptak, ami 128bites memóriabuszon kommunikált a GPU-val. A Kártya GPU-jának a Geforce3 TI500-as esetében 240MHz-re lett beállítva, míg a memória kerek 500MHz-re (natív 250MHz) lettek hitelesítve.

A tesztben szereplő Geforce3 TI500-as példány 64MB-nyi memóriát kapott, és a Creative gyártó készítette. Ennél a kártyánál már a memóriák is kaptak hűtőbordát, ami amúgy jellemző volt a Geforce3-as szériában. A kártya csatlakozója szintén a 4X-es AGP szabványt támogatja.

Nvidia Geforce3 TI500

Itt is az volt az első, hogy megnéztem a kártya paramétereit a GPU-Z-ben:

Geforce 3 TI500 GPU-Z

Ami feltűnt, hogy SD memóriának érzékelte a program a kártya memóriáját. Ez hibás felismerés, a kártya ténylegesen DDR memóriával van szerelve. Továbbá, hogy a gyártóhoz MSI-t detektált a program. Valószínűleg a kártya korábban kapott egy BIOS frissítést, és az MSI Geforce3 TI500-as kártya BIOS-át kapta meg. Ez teljesítménybeli különbséget nem eredményez, igaziból számunkra ennek nincs jelentősége.

HA átfutjuk a két gyártó kártyájának paramétereit, látható, hogy az ATI Radeon kissé előnyben van az elméletileg 2 Vertex árnyalója miatt, illetve az órajelei is némileg magasabbak, de majd meglátjuk, hogy a valóságban hogy szerepelnek a kártyák!

Lássuk a tesztkonfigot:

Abit IC7-MAX3 alaplap

Intel Pentium4 3,4GHz@3915MHz

2X1GB Geil Ultra 400MHz@460MHz memória

ATI Radeon 8500 és Nvidia Geforce3 TI500 VGA kártya

Samsung 160GB SATA HDD

Windows XP SP3 oprendszer

Az ATI Radeon 8500-as kártya esetében a 6.11-es Catalyst-ot használtam, míg a Geforce3 TI500-as kártyánál a 93.71-es Forceware-t, ezek voltak az utolsó hivatalos driverek amik, még támogatták ezeket, a kártyákat. Végülis a kártyák megjelenése után cirka 5 évvel későbbi driverek ezek, tehát volt bőven idő, hogy minden csepp tartalék ki legyen csikarva a kártyákból

Természetesen ezúttal is szintetikus tesztekkel kezdtem a kártyákat kimérni, és már indult is a 3Dmark2001SE:

Radeon 8500 3Dmark2001

Geforce 3 TI500 3Dmark2001

Meglepődve láttam, hogy mindegyik kártya 10ezer pont fölött kapott a 3Dmark2001-ben. Ez szerintem igen jó eredmény. A 8500-as cirka 7-8%-al gyorsabbnak tűnt ebben a tesztprogramban.

Lássuk a már inkább Directx9-re alapozó 3Dmark2003-at:

Radeon 8500 3Dmark2003

Geforce 3 TI500 3Dmark2003

Természetesen itt voltak tesztek, amik le sem futottak a kártyákon, mert nem tudták a Directx9-es effekteket megjeleníteni. A pontszám ezért is ilyen kevés, mint amennyit kaptak!

Itt viszont, igaz ,csak egy nagyon minimális különbséggel, de az Nvidia Geforce3-asa tűnt gyorsabbnak.

Ez után arra voltam kíváncsi, hogy a kártyák mennyire bírják a túlhajtást, és úgy hogy viszonyulnak egymáshoz!

A Radeon 8500-as GPU-ját kerek 300MHz-ig bírtam emelni, míg a memóriák órajelét már csak alig tudtam feljebb rakni, 570MHz-ig mentek (natív 285MHz)

Ez a túlhajtás a GPU-nál 25MHz-et míg a memóriáknál csak elhanyagolható 10MHz-et jelent pluszban.

A Geforce3 TI500-as kártya 240MHz-es GPU-ját 265MHz-re tudtam emelni, ami szintén 25MHz, viszont a memóriák egészen 570MHz-ig bírták, ami pontosan ugyanakkora órajelet jelent, mint a 8500-as Radeon esetében.

Csak viszont ne felejtsük el, hogy ezen a kártyán a memóriák hivatalosan csak 500MHz-re lettek hitelesítve… Bár ha úgy vesszük, akkor a Radeon 8500-asán is, mert a gyári órajele a memóriáknak annál is 500MHz, csak a teszt kedvéért kapásból 550Mhz-re lett emelve.

Nahh szóval lássuk a 3Dmark2001-et így:

Radeon 8500 3Dmark2001 300/570-en

Geforce 3 TI500 3Dmark2001  265/570-en

Ezúttal is a 8500-as Radeon nyert, ám az a kicsi különbség még kisebbre faragódott le.

És akkor most lássuk a játékokat!

Első körben a Far Cry-al játszottam, 1024X768-as felbontásban, és közepes részletesség mellett:

FarCry

Far Cry

Látható, hogy a két kártya szinte fej-fej mellett teljesített, talán egy hajszállal a Geforce3 volt az erősebb, de ez a minimális különbség akár mérési hibának is betudható.

Ezután a Need For Speed Carbon-al teszteltem, most is 1024X768-as felbontásban, és közepes részletességgel:

NFSC

NFS Carbon

NA itt viszont teljesen más a helyzet, mint korábban! A Radeon 8500-as közel dupla akkora teljesítményre volt képes ebben a játékban, mint az Nvidia társa. Talán itt jött ki a dupla Vertex árnyaló előnye? És akkor tényleg ott van a 2 Vertex árnyaló a 8500-asban, csak a programok nem megfelelően ismerték fel?

A tesztet a Flatout 2 nevű roncsderbi-s játékkal folytattam, ami ezúttal is 1024X768-ban, és közepes részletesség mellett futott:

flatout2

Flatout 2

A különbség a két kártya között ezúttal nem lett olyan hatalmas, ám az Ati Radeon 8500-ason érezhetőbben jobban ment a játék, bár még sokszor a 8500-ason is eléggé döcögős volt a játékmenet, azaz ez a játék már kifogott ezeken, a kártyákon, talán még alacsony részletesség mellett jól futott volna…

A tesztelést a legendás Call Of Duty 2-vel folytattam! A felbontás most is 1024X768-ra lett állítva, a kép renderelés Directx7-es módra lett kapcsolva, a részletesség pedig extrára:

CoD2

COD2

A játék még ilyen magas részletesség mellett is gyönyörűen futott mindegyik kártyán, ám ezúttal is hatalmas szakadék lett a két kártya között, és szintén a Radeon javára.

Utolsó játék, amivel teszteltem, az a Counter Strike Source, illetve a beépített benchmarkal teszteltem! A felbontás a szokásos 1024X768-ra lett állítva, míg a részletesség High-ra:

CS source

CS source

Sajnos csak az ATI kártya eredményeit tudom megmutatni, mert az Nvidia kártyával néhány textúra hibásan jelent meg, vagy fehérek voltak bizonyos objektumok, vagy szimplán eltorzult formában jelentek meg, s igaz lefutott a beépített benchmark, és még eredményt is adott, mégsem vettem be a tesztbe.

Természetesen a játék rohant a jó öreg Radeonon.

Végezetül elmondható, hogy a két kártya teljesítménye tényleg elég közel áll egymáshoz, ám az 5 tesztelt játékból 2-nél is óriási különbség volt az ATI javára, ami valószínűleg mégis csak annak tudható be, hogy 2 Vertex árnyalója van a 8500-asnak, míg a Geforce3-nak csak 1 szem. Természetesen ennek ellenére a Geforce 3 TI500-as kártya is bitang erős a maga kategóriájában. De én mégis inkább a Radeon 8500-ast választanám régi retro játékos gépbe, arról nem is beszélve, hogy míg a 8500-as Radeonok még elég gyakran előfordulnak a használt piacon, addig a Geforce3 TI500-as kártyák nagyon-nagyon ritkák.

About bacsis

22 hozzászólás

  1. Nem is gondoltam hogy a 8500-as ilyen bika volt.Jó teszt de egy QuakeIII is jó lett volna, én ahhoz jobban tudok viszonyítani.

  2. A Quake 3 motorja közel sem tudja kiaknázni már ezeknek a kártyáknak a hardveres tudását, többek között ezért sem került bele a tesztbe :-) Igyekeztem direkt olyan játékokkal tesztelni ahol Directx8 hardveres renderelés garantált

  3. Persze, de én csak az izomból teljesítmény miatt szoktam nézni a Quaket.

  4. Izomból tellejsítény miatt ezekhez a kártyákhoz már inkább a Far Cry kell.. az is piszok jól skálázódik…

  5. Radeon 4ever..

    „Az Nvidia Geforce3-as családja volt az első, ami támogatta a Directx8.0-t. Nem, ez nem elírás, míg az ATI 8500-as a Directx8.1-et támogatta, addig az Nvidia megoldása csak a 8.0-t, de ez a felhasználás szempontjából nem jelentett túl nagy különbséget”

    Később is elfordult már ez HD3000 vs. GF8000 (DX10.1 vs. DX10)
    Vagy most is ugye.. (DX11.1 vs. DX11) :)

  6. Bacsis! Nagyon jó lett a teszt! Mit ne mondjak, igazán meglepődtem a 8500-as Radeon-on. Kellemesen csalódtam benne! Ez a teszt egy jó terelés volt, mert terveztem venni egy GF3-ast a közeljövőben. Valószínűleg majd inkább egy ilyen Radeon-t szerzek a gyűjteménybe. Anno volt nekem egy GF3 Ti-200, 64 MB-os változat, az MX400 után. Jobbnak jobb volt, de túl sokáig sem volt élvezhető. Egy Celeron 1700 mellett, a legendás NFS Underground-ot elég siralmasan vitte. Talán egy jobb procival (P4), meg több memóriával lett volna benne még kicsavarni való. Csak ugye, akkoriban a P4-es prociknak elég borsós áruk volt. Ezért is váltottam 2800+ Barcira :)

  7. jó teszt de azt nem értem, hogy az nem baj hogy az egyik kártya 64 míg a másik 128mb-os ez nem hoz neki valami előnyt?

  8. Szép teszt lett, grat :)

    Amin leginkább meglepődök, hogy egy mai laptop-vga (4330 80SP) is simán hozza ezen régi vasaknak az erejét. igaz 60M tranyó helyett 242M…

  9. Max! A Memória többletkapacitás mindíg is „parasztvakítás” volt… Jó persze azért ne akarjunk 64MB VRAM-al fulHD-be játszani, de 1024X768-as felbontáshoz bőven elég a 64MB VRAM is, mint láthatod, volt hogy így is kcisivel gyorsabb volt a Geforce3 TI500 itt-ott, pedig csak fele annyi memóriája volt :-) Szóval a memória mérete SOHA nem határozza meg egy VGA kártya nyers erejét ;-)

  10. Pontosan :)

    Lásd HD 7850 1Gb vs. 2GB… sokak szerint gyorsabb a 2Gb-os, szerintem meg nem, csak szimplán több vram van mellépakolva :)

  11. talán EGYETLEN EGY!!!!! esetbe láttam oylant hogy a Vram menynisége korlátozta magának a kártyának az össztelljesítményét, amikor kijött a 256MB-os Geforce 8800GT ill. HD3850, ezeknél HA!!!! nagyobb, értsd 1680-as felbontásba játszottál, ELŐFORDULTAK!!!! NÉHA!!! belassulások, mert kevés volt a VRAM, de kisebb azaz 1280 vagy 1440-es felbontásban még ha cinkesen is, de még oda elég votl a 256MB Vram, ezeket a kártyákat leszámítva egy esetben nem találkoztam iylennel, hogy kevés lett volna a Vram mennyiséáge…

  12. Gratula a teszthez!

    A Creative kártyát azért ismerte fel MSI-ként a GPU-Z, mert az MSI gyártott nagyon sok Creative kártyát, így kaphatott MSI BIOS-t a Creative kártya.

  13. Lehet hogy mégse’ azért!
    Most elkezdtem tesztelni egy Geforce 4 TI4600-as kártyát, és szintén ezzel a 93.71-es forceware-t raktam fel hozzá… ez egy PNY gyártmányú kártya lenne, de szintén MSI-nek ismeri fel a GPU-Z… valszeg a driverben van „valami” ami miatt így látja a GPU-Z… pedig a driver az Nvidia oldaláról van…

  14. Jó kis teszt a régi idők emlékére :D

    Ezeken a kártyákon a San Andreas elindul még?

  15. sziasztok!

    tudom hogy nem ide tartozik de az én laptopomban (asus x53br)
    egy radeon 7470m van de a farcry3 csak 10-15fps-sel fut low-on! :-(
    ez normális ennél a kártyánál?
    mert a gépigény.hu szerint bőven elég kell hogy legyen a gép…
    ha valaki tudja mi a baj az légyszives írjon.

  16. ud00: Persze hogy megy… anno én még egy GMA950-es „csodával” ismertem meg azt a GTA részt.. és azzal is ment /épphogy/, attól meg bőven erősebbek ezek.
    (COD2-nek is magasabb a gépigénye :) )

  17. robee: Azaz oldal nem nézi pontosan hogy mi van a gépben.. a teszteket nézd, de szerintem sajnos elég reálisnak tűnik ez az eredmény

  18. köszi a választ
    kicsit szomoru vagyok…
    nem baj :-)
    majd a farcry1 mennifog XD
    amúgy meg jó a teszt!
    rég volt 286,386,486 konfig túlhajtás!

  19. Hiába 7ezres sorozatú a kártyád, de a legalsó kategóriában foglal helyet, erre utal a 400-as szám.. ráadásul mobil, lapitopi verzió…
    Far Cry 2 még talán el döcögne kellemesen, de ott is csak iylen alcsony felbontással…

  20. Jó kis teszt grat! Anno MX440-el ilyen kártyákról csak álmodoztam :)

    bacsis: azonban az nem teljesen igaz, hogy a memória soha nem határozza meg a teljesítményt (itt nem a gyártók parasztvakításaira gondolok).
    Nekem egy 512MB-os GF GTS450-em van + 8GB ram a gépben. A Planetside 2 bizony 1680-ban médium-on durván meg-megakad a amikor nekivágok a bszottnagy térképnek egy repcsivel (egyébként a játék tökéletesen játszható rajta). A kártya tudna többet (high-on is simán fut ha nem vágok neki a nagyvilágnak) de a ram, erősen korlátozza ebben az esetben (másik játék a CoD Black Ops, ott is maxon be-be laggol, pedig bőven 30-40 között lenne egyébként az fps. Aida szerint is mindkét esetben a VRAM teljesen el van fogyasztva a játékok által :)

  21. Tehát aki GTS 450-et vagy ilyen szintű kártyát akar venni, annak erősen ajánlott az 1GB-os verzió.

  22. A videomemóriáról annyit, hogy amíg belefér minden ami kell addig mindegy, viszont ha elfogy akkor hatalmas lassulások lehetnek. Manapság a játékokban nem szoktak akkora textúrák lennni, hogy ez gond legyen(a konzolok miatt…), de például ha a Skyrimhez felteszel néhány HD textúra modot(2k és 4k textúrák), akkor FullHD mellett simán el tud fogyni 1GB VRAM és akkor van az, hogy be-beszaggat, vadon ugrál az FPS, főleg ha hirtelen megfordulsz.

Leave a Reply