Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
Quel couple processeur / carte graphique pour DT?
#31
Salut,
par expérience : j'ai changé l'écran de mon portable 17pouces 1920x1080 -> 4k, avec une usage modéré, avant il était silencieux, après les ventilo tournent au minimum en permanence, c'est pas génant mais ça prouve bien la conso de puissance en plus (j'ai une carte graphique nvidia dédiée).
L'avantage est que je suis plus rapide au tri et au dévelopement des photos, car je n'ai plus souvent besoin de zoomer pour controler la qualité et faire ma sélection. Donc à mon sens, c'est mieux 4k, car l'affichage est efficient en permanence et évite des manipulations supplémentaires qui sollicitent à chaque fois un coup de processeur.
par contre, je viens de m'acheter un « ultra book», suite à cette expérience, j'ai pas pris un 4k pour avoir un pc silencieux
Répondre
#32
(20-06-20, 12:42)Pierre04 a écrit : Un essai de réponse en attendant les spécialistes :
- Pour l'exportation des images développées vers un fichier, ça ne devrait pas jouer.
- Par contre pour le rendu en cours de développement (et en imaginant que le rendu n'est fait que sur les pixels affichés, ce qu'un développer confirmera sans doute ?) effectivement on peut imaginer que la montée en résolution donne plus de travail de calcul.
Passer de FullHD à 4K multiplie par 4 les pixels à afficher, ça va donc sans doute demander au moins deux fois plus de puissance de calcul. J'imagine que ça veut dire plus de cœurs mais pas forcément plus de Go.

Bonjour Pierre
Du coup, en partant des conseils d’Aurélien, pour un écran en 4k, il faudrait une carte de 6Go et 1024 cœurs ?
Aurélien parle des cartes de calculs, on parle des cartes quadro? qu'apportent elles de plus ? ou une GTX serait tout aussi efficace?
Répondre
#33
(20-06-20, 11:40)burpolo a écrit :
(22-05-20, 11:20)aurelienpierre a écrit : C'est un peu inquiétant que le sujet tourne seulement autour du prix de la carte graphique, et pas de ses spécifications. En électronique, le prix au kg n'a pas de sens.

Pour darktable, il faudrait une carte graphique avec 4 Go de RAM, et au moins 1024 cœurs si tu veux que ça commence à faire une différence. Sous Linux, le drivers libre AMD a des gros bugs (notamment avec le module contraste local), mais si c'est pour Windows, avec le driver non libre, ça devrait aller.

Un processeur puissant ne garantit en rien que son GPU intégré soit aussi plus puissant. Le GPU est séparé de toute façon. Les GPU intégrés sont prévus pour décoder de la vidéo HD et afficher sur deux écrans, pas pour le calcul.

Le principal problème est que le GPU intégré a une mémoire graphique dédiée de 256 à 512 Mo, ce qui oblige à faire des allers-retours permanents entre la RAM et la vRAM (RAM vidéo) pour copier les pixels. Ce sont ces copies qui sont coûteuses et qui dégradent les performances au point que OpenCL sur le GPU intégré n'apporte pas de bénéfice significatif.

Donc il faut aussi regarder la vitesses des I/O (entrées sorties) mémoire du GPU. Sur des GPU dédiés au jeu, ce paramètre est moins important car l'image est construite entièrement sur la mémoire vidéo et n'en bouge pas. Sur des GPU dédiés au calcul, il faut copier les données de la RAM vers la vRAM, et c'est souvent plus long que le calcul en lui-même.

Dans cet esprit, c'est un GPU dédié au rendu 3D/calcul/intelligence artificielle qu'il faudrait choisir. Un truc gonflé pour le jeu en temps-réel n'est pas pertinent.

Bonjour Aurelien et bonjour à Tous. Qu'en est il pour un ecran 4k ? faut -il d'avantage de Go et d'avantage de coeurs?

Re bonjour Aurélien un GPU dédié au rendu 3D/calcul/intelligence artificielle  c'est quoi comme type de carte : les quadro? ou autre. merci pour le retour .
Répondre
#34
Les Quadro, oui, après je ne connais pas toute la gamme Nvidia donc peut-être qu'il y a d'autres options. Une carte "jeu" marchera aussi, mais sera peut-être un poil moins efficace.

Plus la résolution augmente, plus on doit augmenter la mémoire vidéo (donc les Go). Après, au dessus de 4 Go, on est quand même assez tranquille même en 4K. En prévisualisation plein écran à 4 K, darktable me prend un peu moins de 2 Go de mémoire. Évidemment, ça dépend des modules utilisés.
Aurélien, photographe portraitiste, spécialiste calcul.
Développeur de filmique, égaliseur de tons, balance couleur, etc.
darktable est mon métier, pensez à m'aider :
[Image: 2FAd4rc]
Répondre
#35
Oui enfin, vu les spécificités des Quadro par rapport aux GeForce et vu le prix, je ne pense pas que ce soit une solution.
Mémoire ECC et meilleure précision en virgule flottante ont sans aucun doute leur intérêt en calculs financiers ou simulations scientifiques, mais est-ce le cas pour darktable ?
Tout en sachant que derrière, les GPU utilisés sont strictement les mêmes entre GeForce et Quadro.

Le premier prix Quadro en 4 GB de VRAM c'est 500€ : https://www.ldlc.com/fiche/PB00321774.html (avec 640 coeurs CUDA)
La même chose en GeForce c'est 170€ : https://www.ldlc.com/fiche/PB00321641.html (avec 896 coeurs CUDA)
Et si on veut rester sur une base de 170€ en Quadro, on a 2 GB de VRAM et 256 coeurs CUDA : https://www.ldlc.com/fiche/PB00321765.html

On n'en est pas à ergoter sur 5-10€ mais un facteur 3.
Mon avis est que cet argent serait mieux dépensé dans un bel objectif photo.
Répondre
#36
Merci pour vos retours, mais du coup je suis un peu perdu. C'est vrai que comme le dit Nel, la différence de prix n'est pas négligeable et je ne sais pas si ca vaut le coup.
a vrai dire je ne sais pas ce qu'apporte ces cartes de plus. Je ne parle meme pas des gammes volta qui sont à des prix inaccessibles.

En fait, je cherche une carte alaise en 4k avec d’édition des photos de 25Mo dans Darktable.
Répondre
#37
Bonjour,

Je vais mettre celle-ci sur mon nouveau pc
https://www.gigabyte.com/Graphics-Card/G...SOC-6GD#kf
Répondre


Atteindre :


Utilisateur(s) parcourant ce sujet : 3 visiteur(s)