Das ist nur die halbe Wahrheit.
Richtig ist, dass für Messung die gleichen 1005 Pixel verwendet werden. Diese liefern aber nur die Daten. Die
Auswertung dieser Daten folgt aber ganz anderen Verfahren als die Belichtungsmessung - die über generische Muster tatsächlich "intelligent" sein
kann. Für die Farberkennung müssen aber andere Erkenntnisse herangezogen werden - denn tatsächlich kann eine Szene mit gleicher Helligkeitsverteilung einmal rot und ein anderes Mal blau beleuchtet sein.
Wenn man ein wenig drüber nachdenkt, wird schnell klar, dass in einer Szene ein weißes Objekt
immer das Hellste ist. Dieser Schluss ist leider nicht umkehrbar: Nicht immer ist das hellste Objekt weiß. Aber ein weißes Objekt ist immer das Hellste. Denn nichts reflektiert so viele Farben wie eine weiße Fläche, da ja alle anderen Flächen einen Teil der sie erreichenden Farben absorbieren. Sie wären sonst ja weiß. Dieser Umstand fließt als wesentlicher (aber nicht als einziger) Faktor in den Weißabgleich ein.
Und auch wenn Nikon, Canon, Sony et.al. unterschiedliche Verfahren nutzen: Die Auswertung der hellsten Bildpartien als Hinweis darauf, dass
alles andere nicht weiß sein kann, ist elementar für die Feststellung der Farben.
Hier findet sich
noch etwas mehr zum Thema.