MaxLebled, je ne sais pas si tu as fait des tests, mais c'est normal qu'on obtienne des fichiers plus petits quand on encode une image (originellement en 8 bit / canal) en 10 ou 12 bit / canal ?
J'ai lu que pour la vidéo "Il est plus sûr de faire un codage final 10 bits que 8 bits, même si vous convertissez une vidéo source 8 bits en un résultat 10 bits. Il y aura presque toujours moins d'anomalies avec un codage final 10 bits. Le codec passe à une précision de 10 bits, ce qui signifie que les erreurs d'arrondi dans le codec seront moins visibles / non visibles."
Je n'ai jamais fait de tests concernant ça moi-même pour la photo, mais a priori, oui, en effet, alors même que cela semble complètement contre-intuitif, le fait d'utiliser le mode 10-bit permettrait, selon les dires de beaucoup, de baisser la taille à qualité équivalente par rapport au mode 8-bit, et ce même si la source est en 8-bit.
https://old.reddit.com/r/handbrake/comments/13r4apr/why_do_people_say_10bit_files_are_smaller_than/Et un PDF venant d'Ateme :
https://yukisubs.wordpress.com/wp-content/uploads/2016/10/why_does_10bit_save_bandwidth_-_ateme.pdf (répliqué en pièce jointe, au cas où)
Pourquoi un encodeur AVC/H.264 10 bits est-il plus performant qu'un 8 bits ?
Lors de l'encodage avec l'outil 10 bits, le processus de compression est effectué avec une précision d'au moins 10 bits, contre seulement 8 bits dans le cas contraire. au moins 10 bits, contre seulement 8 bits autrement. Il y a donc moins d'erreurs de troncature, en particulier dans l'étape de compensation du mouvement, ce qui augmente l'efficacité de la compression de compensation de mouvement, ce qui augmente l'efficacité des outils de compression. Par conséquent, il est moins nécessaire de quantifier pour obtenir une
de quantifier pour atteindre un débit binaire donné. Le résultat net est une meilleure qualité pour le même débit binaire ou, inversement, un débit binaire moindre pour la même qualité : entre 5% et 20% sur des sources typiques.
La spec AV1 stipule que le décodage matériel 10-bit fait partie du profil principal. Mais alors pourquoi YouTube font-ils quand même du 8-bit ? (Trop de bugs de décodage matériel dans la nature ?)
Pour ce qui est du mode 12-bit, par contre, c'est facultatif, et je ne m'y aventurerais personnellement pas.
Issue ouverte pour que GIMP rajoute cet encodeur AVIF : https://gitlab.gnome.org/GNOME/gimp/-/issues/12961
Bien vu !
Malheureusement, c'est comme le WebP ; ce qui fait que ce format est principalement délaissé (et souvent haï par les utilisateurs lambda), c'est le manque d'intégration en dehors des navigateurs...