Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
Découverte de Lua
#1
Bonjour,
Je découvre Darktable depuis peu, et vient de faire la connaissance de Lua. En tant que développeur de métier, je n’ai pas trop résisté à l’envie de bricoler un peu ? (d'autant plus que le traitement photo me fait peur et m'est inconnu, je m'échappe vers ce que je connais, dommage !)

J’ai donc lancé un petit projet personnel, assez expérimental, et je me suis dit que ça pouvait être intéressant de le partager ici pour avoir des retours.

L’idée est de créer un outil d’aide au tri des photos, intégré à Darktable via Lua, qui attribue une note de “qualité” à une image pour aider à décider lesquelles garder et lesquelles jeter.
Le but n’est pas de juger l’aspect artistique, mais plutôt d’aider à trier des rafales, repérer les images techniquement exploitables, et éliminer celles qui sont clairement ratées (flou, bruit trop important, exposition vraiment compliquée, etc.).
Concrètement, Darktable (via Lua) appelle un script Python externe qui analyse l’image selon plusieurs critères (netteté, bruit, exposition, métriques de qualité type BRISQUE/NIQE/PIQE, un score esthétique type NIMA, et parfois une détection de sujet) J'utilise pour ça pyiqa et Yolo.
Le score final est ensuite écrit dans les “Notes” de l’image, ce qui permet de filtrer ou trier ensuite dans Darktable.

Là où j'en suis, mes questionnements :
D’abord, l’analyse se fait sur le fichier RAW lui-même, développé de manière neutre côté Python, donc sans le traitement de base de Darktable, sans AgX, sans exposition automatique, etc.
C’est cohérent pour une analyse “avant retouche”, mais en même temps je trouve ça un peu dommage de ne pas analyser l’image telle qu’on la voit par défaut dans Darktable.
Ensuite, les performances. Ça fonctionne correctement, mais c’est encore un peu lent, et il y a clairement de la marge pour optimiser.

Du coup, je me pose pas mal de questions sur la pertinence globale de ce que je fais. Pour être honnête, le projet a été fait assez rapidement, un peu en mode exploration, sans réflexion très poussée au départ. Peut-on imaginer automatiser la notation de photo brut sans un minimum de traitement qui permettrait de voir la photo tel que vue par le photographe. Est-ce vraiment une aide ou finalement un gadget qui n'aide pas l'amateur de photographie à exercer son œil critique...
Si vous avez des avis, des remarques, des critiques, ou même juste des pistes de réflexion, je suis preneur.


Et plus largement, si vous avez des idées de petits modules ou outils Lua qui pourraient être utiles dans Darktable, n’hésitez pas à les partager.
Si une idée me parle, j’essaierai peut-être de la mettre en place, ne serait-ce que pour apprendre. Et ça me fera un échappatoire pour ne pas me confronter au traitement d'image qui me semble une montagne.
Répondre
#2
Bonjour,

Merci pour ta sympathique proposition.
Mais comme tu dis : " je m'échappe vers ce que je connais, dommage !"
Je pense que tu devrais plutôt profiter de ce qui existe déjà et qui est au top pour te régaler avec la chambre noire.
Ainsi tu seras plus à même de voir les points faibles.
Pour trier, j'utilise le raccourci clavier "r" pour les photos à rejeter.
Sinon pour un tri plus approfondi, il y a déjà les étoiles et les couleurs.
Après si tu sais faire un script pour faire des glisser-déposer avec la souris dans la table lumineuse, je suis preneur.
Répondre
#3
Bonjour, ce que tu proposes mérite d'être un peu plus explicite et documenté. Je pense que peu d'utilisateurs savent ce :
métriques de qualité type BRISQUE/NIQE/PIQE ;
score esthétique type NIMA
et/ou utilise pour ça pyiqa et Yolo ?
J'ai fait une recherche sur le Net et je doit dire que les résultats ne sont pas vraiment clairs. Peut-être une I.A. m'aurait aidé à comprendre.
Je pense qu''il serait bien de mettre des explications précises et où trouver une bibliographie !
Répondre
#4
Smile 
Bonjour,

Effectivement, je me rend compte que ce n'est pas très compréhensible.

Pour essayer de faire simple :
BRISQUE / NIQE / PIQE sont des métriques qui essaient d’évaluer la qualité perçue d’une image (bruit, artefacts, textures, régularité…). L’idée est de répondre à la question : “est-ce que cette image a l’air propre ou pas ?”. Propre et pas "belle". On donne une image, des calculs mathématiques sont fait pour estimer la quantité de bruit... et une note est retourné. Pour en savoir plus sur IQA: Article wikipedia

NIMA, c’est différent : c’est un modèle entraîné sur des milliers de photos notées par des humains, qui donne une estimation “esthétique” globale (lumière, composition, impression générale), sur une note de 1 à 10. Ce n’est évidemment pas un jugement artistique, mais plutôt une tendance statistique. Du coup, d'avantage pertinent pour juger une photo après retouche car là on est plutôt sur "belle" que "prore".  Nima est donc une IA qui, entrainé par des milliers de photos, va donner une note à l'image qu'on lui donne. Pour en savoir plus sur NIMA: Article sur Lense.fr

Pour la partie technique, j’utilise :
pyiqa, une librairie écrit en langage Python qui fournit tous ces outils d'analyse d'image.
YOLO, est également une "IA" type deep learning" qui permet de detecter des objects sur une image. Dans mon cas, je l'utilise pour détecter les oiseaux dans mes photos. L'idée étant d'éviter de noter l’arrière-plan en se concentrant sur la partie de l'oiseau. Pour en savoir plus : Article de la revue IA

Normalement je n'ai pas dis trop de bêtise, mais je précise que je ne suis pas du tout spécialiste du sujet.
Répondre
#5
Je regarde tes liens et on verra si je peux suivre !
Répondre


Atteindre :


Utilisateur(s) parcourant ce sujet : 1 visiteur(s)