Bildbearbeiung... Grafikkarte

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Anzeigen
Die GPU ist eigentlich wurscht. Achte auf DVI-Ausgänge. Fertig.
(Ja, dass ist in ganz groben Zügen, aber für 99 % der Anwender reicht diese Antwort! :D)
 
Kommentar
Wenn du nichts renderst, neuere Computerspiele spielst, oder 2 Bildschirmen arbeitest, ists vollkommen egal. Ich würde eine Karte um die ATI HD 2600 kaufen, währ meine defekt bei oben genannten Optionen.
 
Kommentar
stehe vor der selben frage, habe damals 320€ für ATI 9700PRO saphire bezalt nun ist sie kaputt:heul:

dachte bis jetzt das die karte große rolle spiellt bei grafik bearbeitung.

also DVI und genug eigenen spieicher und das reicht?
das ist beruhigend:up: denn die sind nicht mehr soo teuer mehr

von ATI habe ich die nase voll .... hat jemand einen anderen vorschlag? und welche z.b.
 
Kommentar
dachte bis jetzt das die karte große rolle spiellt bei grafik bearbeitung.

Nicht bei 2D!

also DVI und genug eigenen spieicher und das reicht?
das ist beruhigend:up: denn die sind nicht mehr soo teuer mehr

Du kannst auch Shared-Memory verwenden, wenn Dein Rechner selbst genug RAM hat. DVI ist wichtig.

von ATI habe ich die nase voll .... hat jemand einen anderen vorschlag? und welche z.b.

Wenn Du ATI nicht willst, nimm doch AMD! :lachen:
Im Ernst: ich habe eine Sapphire 9600 und ohne Probleme. Viele Hersteller gibt es nicht. AMD (die sich ATI einverleibt haben), NVDIA und zu guter letzt noch Matrox. Matrox hat einen sehr sehr guten Ruf im Graphics-Bereich (insbesondere mehrere Bildschirme), ist aber inzwischen im Consumer-Bereich ein Nischenprodukt.

http://www.matrox.com/graphics/en/corpo/products/home.php

Vor allem die Parhelia's sind ein Traum! :D Vier Monitore im DVI-Betrieb! :fahne:
 
Kommentar
Wenn Deine alte Karte wegen eines defekten Lüfters gehimmelt wurde - liegt ein Benutzerfehler vor. :rolleyes:

GPU's werden unter Last sehr heiß. Allerdings ist Bildbearbeitung keine Last aus Sicht der GPU (CAD ect. gelten nicht als Bildbearbeitung! :))

Passive Kühlungen setzen ein sonst ausgereiftes Kühlsystem voraus.
 
Kommentar
Hallo!

Noch ein Hinweis: Wenn der Monitor auch Großformatiges liefern soll,
z. B. 1920 x 1200, dann muss die Karte zumindest einen DVI-Ausgang
als Dual-Link haben, sonst ist damit nichts, also unbedingt darauf
achten; es gibt durchaus gute Grafikkarten, die das nicht haben...

Schönen Abend noch...

HG Paßen
 
Kommentar
1920x1200 geht noch ohne Dual-Link, erst bei noch höherer Auflösung wird Dual-Link benötigt.

Ich habe eine billige (<100€) und passiv gekühlte Nvidia-Karte im Dual-Monitor Einsatz.
Für Spiele ist so eine Karte nicht geeignet, für Bildbearbeitung völlig ausreichend.

Ein wichtiger Preis-Unterschied ist noch die Speichergröße [256 oder 512 MB],
zu Vor- und Nachteilen dazu habe ich aber zu wenig Erfahrung.

Matrox hatte ich früher im Einsatz, da sie sehr gute Windows2000 Treiber hatte,
und 2 gleichwertige DVI-Ausgänge, die damals bei Consumerkarten nicht Standard waren.

ATI-Karten können den Monitor nur mit seiner nativen Auflösung ansteuern.
Das könnte bei Vollformat Fernsehbetrieb ein Nachteil sein, im normalen PC Alltag benötigt man dieses Feature jedoch nicht.

Walter
 
Kommentar
Nicht bei 2D!



Du kannst auch Shared-Memory verwenden, wenn Dein Rechner selbst genug RAM hat. DVI ist wichtig.



Wenn Du ATI nicht willst, nimm doch AMD! :lachen:
Im Ernst: ich habe eine Sapphire 9600 und ohne Probleme. Viele Hersteller gibt es nicht. AMD (die sich ATI einverleibt haben), NVDIA und zu guter letzt noch Matrox. Matrox hat einen sehr sehr guten Ruf im Graphics-Bereich (insbesondere mehrere Bildschirme), ist aber inzwischen im Consumer-Bereich ein Nischenprodukt.

http://www.matrox.com/graphics/en/corpo/products/home.php

Vor allem die Parhelia's sind ein Traum! :D Vier Monitore im DVI-Betrieb! :fahne:


hm... gestern habe ich eine nvidia 6610xl von bekanten bekommen und mich voll gefreut bis ich festgestellt habe das das PCI karte ist :confused:

eine nacht drüber geschlaffen und ....

neues board von gigabyte + 2 gb pc800 ram + AMD 64bit X2 dual core 6000+ CPU gekauft :fahne:

jetzt passt die grafikkarte:D

hm... :p

:dizzy:

mfg. Tomek
 
Kommentar
Zu scw2wi: 1920er Auflösung auch ohne Dual Link?

Kann es sein, dass das auch monitorabhängig ist?
Mein Dell 24er Monitor verlangte jedenfalls - laut Datenblatt -
zumindest bei digitaler Ansteuerung - und eine andere macht
natürlich kaum Sinn bei der Größe - man sieht den Unterschied
nämlich deutlich! - eine Dual-Link-Karte, eine andere, die
ich noch installiert hatte, blockte bei digital ab....
Und ich glaube auch gelesen zu haben, weiß aber nicht mehr wo,
dass digital ab 1920er Auflösung durchaus Duallink braucht...

Als Karte habe ich eine Geforce 9600, passiv, zwei DVIs, auf zwei
Monitore, einer 22, einer 24 Zoll, beides digital.

Schönen dritten Advent an alle

HG Paßen
 
Kommentar
Hallo,

es ist Monitor- und Grafikkartenabhängig. Bei Wikipedia (und in dem Fall ist der Artikel gut), kann man nachlesen, dass bei 60 Hz eigentlich bei 1600 x 1200 Schluss ist für einen Single Link.
Damit 1920 x 1200 funktionieren, müssen beide Geräte das sogenannte Reduced Blanking beherrschen. Standard ist das aber nicht.

Grüße, Holger
 
Kommentar
@Holger

Ich habe mir im Herbst einen neuen PC zugelegt und seit kurzem noch einen tollen Bildschirm dazu. Ich wollte einfach mehr darstellbare Fläche in guter Qualität.
Der Anschluss läuft über DVI und gemäß Desktopanzeige mit 1920x1200 (nativ) bei 60 Hz. Scheint zu funktionieren - über das 'REDUCED BLANKING' habe ich mir noch keine Gedanken gemacht; läuft das dann automatisch oder kann/muss ich etwas einstellen?

Gruß

Frieder
 
Kommentar
Hallo Frieder,

du hast dir keine Gedanken drum gemacht und es läuft? Glückwunsch! Glück gehabt. Es ist an dieser Stelle wahrscheinlich so, dass in deinem Fall der Monitor automatisch das Reduced Blnking aktiviert und die Grafikkarte davon "weiß".

Freu dich drüber, wenn mal was automatisch funktioniert.

Es ist aber halt so, dass der DVI-Standard genau dieses Verhalten nicht spezifiziert. Man kann also nicht davon ausgehen, dass es bei jeder Kombination aus Betriebssystem + Grafikkarte + Monitor funktioniert.

Grüße, Holger
 
Kommentar
Hallo Holger

Sorry für die späte Reaktion . . .

Danke für Deine Antwort - und nochmal eine Frage: Ist über irgendwelche Statusabfragen erkennbar, ob das 'REDUCED BLANKING' aktiv ist, bzw. welche Folgen hätte es, dieses ein- oder auszuschalten?

Gruß

Frieder


P.S.: Hardware: Mainboard Gigabyte P35 DS3 mit Intel 6850 · RAM 2GB PC800 · Grafik Gigabyte mit Nvidia 8600GT passiv · Monitor Eizo S2411W
 
Kommentar
Die neuen Chipsätze von nvidia sind noch schneller, daher meine Empfehlung: GeForce 8800 GTS (G92), 512MB GDDR3, 2x DVI, TV-out, PCIe
Unbedingt auf die (G92) Bezeichnung achten. (65nm Technologie=>weniger Verbrauch, mehr Leistung)

ATi möchte ich nicht empfehlen, denn da hatte ich dauernd Probleme mit der Leistung und dem deinstallieren der ATi Treiber.
 
Kommentar
Sorry für die späte Reaktion . . .

Danke für Deine Antwort - und nochmal eine Frage: Ist über irgendwelche Statusabfragen erkennbar, ob das 'REDUCED BLANKING' aktiv ist, bzw. welche Folgen hätte es, dieses ein- oder auszuschalten?

Kein Problem - keine Reaktion heißt erstmal, Problem erledigt.

Ob du den Status des 'Reduced Blanking' irgendwo einsehen kannst? :nixweiss: Da musst du mal in der Dokumentation von Monitor und Grafikkarte nachschauen.

Es auf "aus" zu zwingen würde wohl bedeuten, dass die gewünschte Auflösung bei der gewünschten Frequenz nicht mehr funktioniert.

Ich verstehe aber dein Problem nicht so richtig. Du hast den Kram zusammengesteckt, eingeschaltet und es geht. So what?

Grüße, Holger
 
Kommentar
Hallo Holger

Nein, ich habe kein Problem - ich möchte nur manchmal wissen und verstehen, wie und was da in meiner Kiste alles läuft.

Danke und Gruß

Frieder


@blader: Da ich kein Spielefreak bin, gehe ich davon aus, dass meine 8600GT locker reicht (z.B. für Capture NX), d.h. im Moment kein Bedarf nach mehr.
 
Kommentar
-Anzeige-
Zurück
Oben Unten