L'utilisation du nutri-score parait bien saugrenue ici
Avec toutes ses couleurs ça brouille le message selon moi, et rend le tableau bordélique.
Une simple liste d'étoiles serait plus lisible.
AV1 ⭐⭐⭐⭐⭐
H264 ⭐⭐⭐
Le logo nutri-score est probablement réservé, donc je devais refaire l'image, un nombre d'étoiles est pas moins lisible qu'un A B C D E ?
⭐⭐⭐⭐⭐ et ⭐⭐⭐⭐ vs A et B
Comparer des codecs qui n'ont rien à voir n'a aucun sens selon moi.
Oui, l'efficacité des codecs est est principalemet lié à sa date de sortie.
Il y a des exceptions avec les premiers codecs libres de droits qui étaient clairement moins bon que les codecs sous licence.
Theora a été spécifié après H.264 main, et il a toujours été reconnu qu'il était bien moins performant que H.264. Ce qui était révolutionnaire, c'est que la première fois, il était possible d'avoir de la vidéo sans payer de licence. Cela permettait l'intégration de la vidéo dans HTML5.
VP8 est sorti 3 ans après H.264 High et il est moins performant. À cette époque, il était encore sous licence. Il a fallu attendre 2010 (5 ans après H.264 High) pour que Google acheté les droits et le rendre libre de droits.
Bref, une information sur la performance du codec semble pertinente, c'est un des critère de choix avec d'autres.
Les 4 critères de choix d'un codec :
- 1/ L'efficacité de la compression
- 2/ Le support par les terminaux clients (ce que j'ai appelé dans mon tableau "Prise en charge par les navigateurs web"
- 3/ La consommation d'énergie sur le terminal (lié à l'introduction matérielle GPU)
- 4/ La licence qui peut être restrictive