L'affichage à partir d'aujourd'hui de nouveaux indices d'efficacité énergétique et de durabilité des smartphones et tablettes a conduit Apple à publier une longue critique de ce systÚme qu'elle soutient sur le fond, mais beaucoup moins sur la forme.
Comme ses concurrents, Apple a dĂ©sormais une astreinte Ă afficher sur ses sites europĂ©ens des indices d'efficacitĂ© Ă©nergĂ©tique et d'Ă©coconception. Les grandes enseignes de vente font de mĂȘme, comme on le voit depuis des annĂ©es pour les produits d'Ă©lectromĂ©nager. L'objectif est de donner des clefs aux consommateurs qui ne sont pas mariĂ©s pour la vie Ă un Ă©cosystĂšme pour comparer des appareils sur des points tels que leur rĂ©parabilitĂ©, l'optimisation de leur consommation Ă©lectrique, leur rĂ©sistance Ă la chute, etc.
Les étiquettes de l'iPhone 16e et de l'iPad Pro M4 11". Source EPREL.
Ces scores et indices sont Ă©tablis Ă partir de tests standardisĂ©s rĂ©alisĂ©s par les fabricants eux-mĂȘmes. Ce sont donc eux qui vont attribuer les rĂ©sultats Ă leurs produits Ă l'issue de leurs tests. Dans un long livre blanc publiĂ© en mĂȘme temps que cette nouvelle rĂ©glementation entre en vigueur, Apple dĂ©taille les raisons pour lesquelles cette mĂ©thode lui paraĂźt bancale. En prĂ©ambule, la Pomme dit adhĂ©rer au principe de rĂ©gulations destinĂ©es Ă encourager l'innovation pour amĂ©liorer le fonctionnement et la durĂ©e de vie des smartphones et tablettes.
L'étiquette d'efficacité énergétique et d'écoconception apparait chez Apple et les autres vendeurs
Mais si l'objectif est louable et Ă soutenir, la mise en Ćuvre n'est pas sans dĂ©fauts importants, poursuit Apple, qui dĂ©clare :
Le nouveau rĂšglement de lâUE [âŠ] prĂ©voit plusieurs mĂ©thodes dâessai provisoires dont le libellĂ© est flou. En consĂ©quence, certaines donnĂ©es figurant sur lâĂ©tiquette Ă©nergĂ©tique sont influencĂ©es par les choix faits par les fabricants et les laboratoires dâessai dans leur interprĂ©tation du rĂšglement.
Dans son document, Apple reprend chacun des tests requis et en souligne les lacunes qui peuvent conduire à des scores fonciÚrement différents selon la maniÚre dont un fabricant ou un laboratoire indépendant aura appliqué les consignes :
Nous avons constatĂ© des cas oĂč ces mĂ©thodes dâessai comportent des paramĂštres non dĂ©finis, mal dĂ©finis ou contradictoires. En consĂ©quence, certaines des donnĂ©es prĂ©sentĂ©es sur lâĂ©tiquette Ă©nergĂ©tique sont affectĂ©es par les choix de paramĂštres effectuĂ©s par les fabricants ou les laboratoires dâessai lorsquâils interprĂštent la mĂ©thode dâessai. Cela peut entraĂźner des rĂ©sultats incohĂ©rents et des comparaisons trompeuses entre les produits.
Dans certains cas, mĂȘme en sâefforçant de coller au plus prĂšs des explications, Apple a notĂ© que le test de chute de l'appareil pouvait donner 3 scores diffĂ©rents. Lorsque les tests Ă©taient suffisamment clairs et prĂ©cis, Apple s'est appliquĂ©e Ă les suivre, lorsqu'il y avait des ambiguĂŻtĂ©s ou des points sujets Ă interprĂ©tation, Apple dit avoir favorisĂ© un scĂ©nario au plus proche d'une utilisation jugĂ©e rĂ©aliste.
Sur le test de l'autonomie, Apple pose ainsi la question de l'utilisation du FRA, pour Full Resource Allocation. Entre deux simulations de communication en 4G (dans un environnement trÚs contrÎlé avec un réseau dédié), si le FRA est désactivé, le téléphone cesse de communiquer et voit ainsi sa dépense énergétique réduite.
image Apple.
Dans le cas contraire, avec le FRA activĂ©, le tĂ©lĂ©phone continue de tirer sur sa connexion cellulaire mĂȘme si cela n'a aucune utilitĂ©. FRA ou pas FRA ? Le protocole de test de la Commission europĂ©enne n'en parle pas. Apple a donc choisi de le dĂ©sactiver puisque de tout façon, un utilisateur lambda ne peut accĂ©der lui-mĂȘme Ă ce rĂ©glage. Mais il y a des laboratoires qui activent le FRA lors de leurs Ă©valuations de matĂ©riels.
Le rĂ©glage du volume du haut-parleur est ensuite pris en exemple avec d'autres lacunes mises en exergue : la nature de la piĂšce (les matĂ©riaux dont elle est faite, si ce doit ĂȘtre ou non une chambre anĂ©choĂŻque), le type de contenu Ă jouer pour calibrer le volume, la position du haut-parleur⊠de nombreux dĂ©tails manquent pour parvenir Ă une mĂ©thode applicable Ă l'identique chez tout le monde et qui ne soit pas non plus tributaire du design du tĂ©lĂ©phone.
Cette litanie de questions sur la maniĂšre de conduire ces tests se poursuit Ă propos des antennes cellulaires, du matĂ©riel Ă utiliser pour simuler la chute des appareils au sol ou du type prĂ©cis de matĂ©riaux Ă sĂ©lectionner pour la surface (au-delĂ de dire qu'il doit ĂȘtre en bois ou en mĂ©tal et de telle Ă©paisseur). Toujours dans le test de chute, 26 orientations distinctes de la tablette sont Ă©noncĂ©es, mais il n'y a rien sur les angles de position de la tablette, indique Apple. Et cela peut avoir des consĂ©quences. LĂ encore elle a optĂ© pour un scĂ©nario considĂ©rĂ© comme cohĂ©rent avec ce qu'elle a observĂ© sur le terrain, mais pas forcĂ©ment favorable Ă la tablette.
L'équipement utilisé pour tester la chute d'un smartphone. Image Apple.
Au vu des tests de rĂ©sistance qu'elle mĂšne elle-mĂȘme en interne de maniĂšre habituelle, Apple voit dans la mĂ©thode europĂ©enne une volontĂ© comprĂ©hensible de proposer une approche simple et accessible Ă des constructeurs de toutes tailles. Mais elle considĂšre ses protocoles comme plus proches de la rĂ©alitĂ© des accidents constatĂ©s au quotidien :
Notre vaste expĂ©rience montre que les mĂ©thodes dâessai prescrites par le rĂšglement sont tout simplement inadĂ©quates pour mesurer la rĂ©sistance aux chutes. Par consĂ©quent, nous ne pensons pas que les scores finaux que nous avons rapportĂ©s Ă partir des tests prescrits par lâUE reflĂštent rĂ©ellement la durabilitĂ© des iPhone et des iPad.
Au bout du bout, Apple dit avoir abaissĂ© d'autoritĂ© ses scores de durabilitĂ© et d'efficacitĂ© Ă©nergĂ©tique de maniĂšre à « prendre en compte les ambiguĂŻtĂ©s et les variations des mĂ©thodes dâessai » :
Par exemple, les indices dâefficacitĂ© Ă©nergĂ©tique des modĂšles dâiPhone sur le marchĂ© europĂ©en en juin 2025 correspondaient tous Ă la meilleure note « A », mais Apple a choisi de rĂ©trograder volontairement ces scores Ă la note « B » afin de minimiser le risque quâun testeur tiers, interprĂ©tant le rĂšglement diffĂ©remment, obtienne une note infĂ©rieure. Nous avons Ă©galement abaissĂ© les scores de la classe de fiabilitĂ© aux chutes rĂ©pĂ©tĂ©es pour la mĂȘme raison.
En conclusion, Apple répÚte son soutien à de telles réglementations, mais elle déplore les zones de flou qui laissent chaque fabricant face à différentes possibilités d'interprétation et des résultats qui peuvent varier tout autant. Avec le risque, in fine, ne pas apporter une information fiable aux consommateurs.
Ces tests qui servent de rĂ©fĂ©rence aux fabricants ont Ă©tĂ© mis au point en Bretagne par la sociĂ©tĂ© SmartViser. Dans un entretien avec Frandroid, Xavier Frere, le dirigeant de cette sociĂ©tĂ© de conseil qui a Ă©paulĂ© la Commission â et qu'Apple a Ă©galement consultĂ© â a dĂ©taillĂ© le protocole utilisĂ©, celui-ci devant ĂȘtre reproduit Ă l'identique par chaque fabricant. Cela semble relever d'une gageure car beaucoup de petites choses peuvent influer sur les rĂ©sultats et certaines dĂ©cisions techniques, Ă des fins de simplification du protocole, Ă©loignent les tests de la rĂ©alitĂ© d'usage. Sans oublier l'une des principales critiques, celle que chaque fabricant exĂ©cute lui-mĂȘme ses tests et peut orienter les rĂ©sultats Ă son avantage.