On peut envisagé un avenir ou l'IA va tirer la demande en bande passante local pour télécharger des modeles localement et ce meme en domestique.
Si l'IA a un avenir c'est:
- des grands datacenters remplis de GPU pour entrainer les modeles
- des GPU locaux au plus près de utilisateurs pour de l'inférence. On a déjà des PC 'IA' pouvant accueillir des modeles de 70Go (a base d'AMD Strix Halo par exemple) et voir plus donc dans l'avenir.
Ca veut dire transferer d'énormes flux , les modèles calculés dans les DC vers les PC des utilisateurs et ce assez vite pour que la maj d'un modèle ne prennent pas des heures. Donc peut-etre qu'un débit de 25Gbps voir plus aura son utilité meme en grand public.
Pour référence télécharger un modele de 70G sur un ligne actuelle de 8Gbps ca prend quand meme 1minute 15secs (quand le maillon lent est la connexion Internet ce qui n'est pas toujours le cas (testé a l'instant, un modele de 65Gb ca passe "qu'a" 6Gbps sur ma ligne a 8 Gbps).
Bon après c'est hautement spéculatif, l'avenir de l'IA si y'en a un c'est peut-être pas avec de l'inférence local mais du full cloud comme maintenant (j'en doute quand meme si tout les humains veulent faire de l'inférence faudra bien 'localiser' l'inférence...) ou bien l'IA dans sa forme actuelle n'a pas d'avenir du tout

Le plus gros problème de débit actuellement c'est surtout le "bufferbloat". https://en.wikipedia.org/wiki/Bufferbloat
le bufferbloat c'est un probleme du passé du temps de l'ADSL ...