Dokumentarfilm (der)

Documentaire (le)



   

Definition

Der Dokumentarfilm ist ein Werk, das versucht die Realität aus der Sicht des Autors (seines Blickwinkels) zu vermitteln. Er kann ein didaktisches, analytisches oder politisches Ziel verfolgen, verfügt jedoch ebenfalls über eine künstlerische Dimension. Nicht zu verwechseln mit der Reportage.

Image   Image
Logo Niedersachen logo logo


Logo OFAJ Logo Film Fest Image Image Image