C'est pas la faute de Twitch !
Malheureusement je peux pas te rendre disponible le cours (il soumit au copyright du prof et je n'ai que des slides sans explication).
Mais je peux te donner l’algorithme de H.264 et une petite explication.
Quand tu donnes des paramètres à ton encodeur tu choisis un mode (base, mainline, high pour H.264), ce mode c'est la boîte à outils qu'il utilise pour encoder.
Et dans ces outils il y a un GoP (Group of pictures), composé d'image I (qui font s'encode sur elles-mêmes), d'image P (qui s'encode sur l'image I ou P d'avant) et des images B (qui s'encode sur les images I ou P qui sont devant ou derrière elles).
Tout ces outils ont besoin d'être contrôlé par un facteur que l'utilisateur encode, le bitrate en CBR dans ce cas-ci, qui donne une ligne directrice. Mais en fonction de l'image et du "sens" de l'encodage des images l'algorithme va faire des choix (même si il vise toujours 8Mbit/s). Et parce qu'il doit changer pour une image un des paramètres qui lui permette d'encoder il va choisir d'augmenter ou diminuer le débit ne serais-ce que pour une image.
Par exemple, pour un GoP du genre IPPBPPI, il va écrire 8,2Mbit/s pour les images I, exactement 8Mbit/s pour les P et 7Mbit/s pour les B.
Le principe même de l'encodeur H.264 (les tables de Huffman et de quantification) font aussi que un encodeur CBR parfait est difficile à atteindre car ils laissent des résidus de données.
Voilà voilà j'ai essayé d'expliquer du mieux que j'ai pu mais ça demanderais 16h de cours pour être complet (et pas avec moi je suis loin d'être rôdé).
Je te laisse quelques liens wikipedia
https://fr.wikipedia.org/wiki/Group_of_pictureshttps://en.wikipedia.org/wiki/Advanced_Video_Codinghttps://en.wikipedia.org/wiki/Bit_ratehttps://en.wikipedia.org/wiki/Constant_bitratehttps://en.wikipedia.org/wiki/Huffman_coding