Ich schaue mir bisher zwar keine Bilder am TV an, aber ich möchte dennoch ein paar grundsätzliche Überlegungen einwerfen.
1. Das Herunterrechnen auf die Ausgabegröße kann ein spezialisiertes Programm wie PS oder LR oder was es da auch sonst immer gibt (ich habe aus historischen Gründen PS CS5) wesentlich besser erledigen als die Elektronik im TV. Wenn man das 3:2-Format auf einen 4K Bildschirm umrechnet, dann so, dass rechts und links ein schwarzer Rand bleibt, d.h. die Bildhöhe ist maßgeblich. Nach Definition sind das 2160 Pixel. Wenn der TV ein paar Randpixel mit dem Rahmen verdeckt (was z.B. meine Uralt-FullHD-Glotze von Samsung macht), dann verkleinert man eben auf 2100 (oder was eben passt). Dadurch umgeht man das Scaling in der Glotze.
2. Die wenigsten Computer haben einen HDMI 2.0-Ausgang, die wenigsten Glotzen können HDMI 2.0 an allen Eingängen. Für die volle 4K-Auflösung braucht man aber HDMI 2.0, HDMI 1.2 kann nur FullHD ordentlich übertragen, 1.4 kann zwar 4K, aber nur mit eine flimmernden Bildwiederholrate von 24Hz. Manche Grafikkartenhersteller beschreiben ihren HDMI 1.2-Port zwar als 4K-tauglich (bei flimmernden 30Hz), aber das liegt außerhalb der Spezifikation des Standards und kann deshalb zu Inkompatibiltäten zwischen HDMI-Sender und -Empfänger führen.
3. HDMI 1.2 beherrscht nur den RGB-Farbraum. Wenn man die Bilder skaliert, sollte man auch eine Farbraumanpassung im Bildbearbeitungsprogramm vornehmen. Sonst kämpft man mit unsauberen Farben und Verlaufsabrissen. Erst HDMI 1.4 (und höher) beherrscht den AdobeRGB-Farbraum. Hier lohnt sich ein Blick in die Spezifikationen der Glotze, welchen Farbraum sie darstellen kann. Auf diesen Farbraum rechnen man die Bilder sinnvollerweise um, um die volle Darstellungsmöglichkeit der Glotze auszunutzen und unverfälschte Farben zu erhalten. Wer die Möglichkeit hat, kann die Glotze am Computer kalibrieren.
Einfach die Kamera anschließen und OOC-JPEGs via HDMI auf die Glotze ausgeben, wird höchstens per Zufall zu einer ordentlichen Darstellung führen.