C’est ce qu’une étude commandée par AMD, et menée par l’université de Stanford a fait resortir.
La consommation électrique due aux datacenters a doublé entre les années 2000 et 2005, pour atteindre 45 millards de kWh en 2005.

Cette augmentation est non seulement due à l’augmentation des services (VoIP, vidéo, jeux, etc.), mais également au doublement du nombre de serveurs bas de gamme.

A noter :

  • la consommation électrique totale destinée aux serveurs et à leurs équipements équivaut à ~ 1 % de la consommation mondiale,
  • les 450 000 serveurs de Google n’ont pas été inclus dans l’étude.

Vous pouvez d’ailleurs trouver un papier très intéressant chez Google Labs, qui s’intitule High-efficiency power supplies for home computers and servers.
L’auteur indique que Google travaille de concert avec Intel et d’autres constructeurs pour définir un nouveau standard d’alimentation. Ce nouveau standard permettrait d’économiser une quantité astronomique de puissance électrique.

[...]we estimate that if deployed in 100 million PCs running for an average of eight hours per day, this new standard would save 40 billion kilowatt-hours over three years[...]

Je rappelle que 100 millions de PC ne représentent que 1/10 du parc mondial (source).

Source : Indexel, et 20 minutes.