Warum sind deutsche Filme/Serien so schlecht?
Nun, die Deutschen behandeln einen Film bei seiner Schaffung wie ein Produkt, wollen ihn dann aber als große Kunst verkaufen.
Warum sind amerikanische Filme/Serien (oft) so viel besser?
Amerikaner behandeln einen Film bei seiner Schaffung wie große Kunst und verkaufen ihn als Produkt.