Die Einschränkung der Mehrfachbelichtung auf JPG ist schon verständlich.
Die Mehrfachbelichtung der Spiegelreflexen war recht einfach gehalten. Im Prinzip hätte es genügt, wenn die Kamera nach dem ersten Bild den Sensor weder ausgelesen noch gelöscht hätte, sondern erst nach dem zweiten Bild. Ich nehme an, dass es es nicht so gemacht worden ist, sondern der Sensor wurde wohl nach jedem Bild ausgelesen, denn sonst hätte man zu viel Rauschen, helle Punkte etc., aber die Rechenoperation zur Verknüpfung war ziemlich simpel und konnte problemlos auf den Raw-Daten vorgenommen werden.
Bei der Z sieht das anders aus. Da muss jedes Teilbild getrennt entwickelt werden, um es mit in den Sucher einspielen zu können (sonst hätte man keine korrekten Farben). Ich halte es für möglich, dass einige der neuen Verknüpfungen (d. h. Zusammenfügen der Bilder) nur auf entwickelten Bildern, d. h. mit Kenntnis der echten Farben, in maximaler Qualität möglich sind. Wenn man dann wieder Raw-Dateien möchte, bräuchte man eine Funktion zum Zurückentwickeln, d. h. farbige Bilder in Raw.
Wozu der ganze Aufwand für eine Funktion, die eigentlich an der Stelle unsinnig ist, da man sie viel besser in der Bildbearbeitung am Rechner macht statt in der Kamera? In Gimp, Affinity, Photoshop etc. hat man viel mehr Möglichkeiten, mehrere Bilder zu einem zusammenzufügen.
Ich denke, der Grund, dass die Dslr überhaupt eine Mehrfachbelichtung angeboten haben, ist einfach nur Tradition. Die meisten anderen Möglichkeiten zur Bildmanipulation gibt es erst mit der Digitalfotografie am Rechner, Mehrfachbelichtungen hingegen gibt es, seit der erste Fotograf mit der Ordnung seiner Fotoplatten durcheinander gekommen ist.
Übrigens, Canon Dslr konnten Mehrfachbelichtungen seit jeher nur als JPG.