OK, limiter les vannes à l'extérieur limite le flux à l'intérieur, OK. Et je pense que l'idée, c'est que comme Google, Amazon, Netfix et Co n'ont pas payé, Free n'a pas dimensionné son réseau interne en conséquence.
Mais je pense que si Free n'avait pas raisonnablement dimensionné son réseau dès le départ (ou en cours de route d'ailleurs, avec l'arrivée du VDSL, du FTTH...), cela se serait vu. Pas seulement sur les speedtests, mais aussi sur le P2P (qu'il n'a pas franchement découragé), aussi quand il a commencé à héberger des serveurs cache Google sur son réseau...
Je pense qu'il suit quand même de bonnes pratiques en manière d'architecture réseau, même si cela coûte un peu plus cher et n'est pas forcèment nécessaire dans un premier temps. Mais non seulement faire trop juste, cela finit toujours par se voir, mais aussi tout reprendre dans un deuxième temps non seulement prend beaucoup de temps (et un an comme dit Hugues c'est peut-être encore pas assez), mais aussi coûte encore plus cher. Que se serait-il passé si Google/Netflix/Amazon avait tous décidé de payer en quelques mois ?
Par exemple, quand on installe un switch avec des ports 1 Gb/s, on met un lien en 10 Gb/s. Vu le prix des liens en 10 Gb/s, pas raison de se priver. Quand on fait converger plusieurs liens 10 Gb/s vers un backbone, on met du 40 ou 100 Gb/s (là, cela commence à être plus cher, donc Free a peut-être mis dans un premier temps du 40 Gb/s).
Ce que l'on sait de manière sûre, c'est que la capacité des liens de transit de Free était limitée. Dire que la capacité interne du réseau Free ne permettait pas d'encaisser plus, c'est de la spéculation, il n'y a aucune preuve de cela. Maintenant, qu'il faille adapter ici ou là (liens 100 ou n*40 ou n*100 ici ou là), très probablement.
Je pense que Free, au moins pour le FTTH, a dû un minimum dimensionner son réseau...