05.12.2011, 13:48
Ich kann mich nicht enthalten zu fragen, wobei sich das Christentum reformiert hat?
Was sich reformiert hat sind die Gesellschaften in denen das Christentum vorherrschende Religion war. Damit hat sich die Stellung des Christentums innerhalb der Gesellschaft und damit seine Bedeutung und seine Handlungsspielräume geändert. Das Christentum selbst hat sich nicht ein bischen reformiert.
Nimm z.B. einen Weißen Hai. Solange er im Wasser ist, ist er ein imposanter und gefährlicher Räuber. Auf dem Land hingegen ist er nur ein bemitleidenswertes Stück Standgut. Und dabei ist es der selbe Hai, er hat sich nicht "reformiert" als er an Land gespült wurde. Nur seine Umgebung hat sich verändert.
Was sich reformiert hat sind die Gesellschaften in denen das Christentum vorherrschende Religion war. Damit hat sich die Stellung des Christentums innerhalb der Gesellschaft und damit seine Bedeutung und seine Handlungsspielräume geändert. Das Christentum selbst hat sich nicht ein bischen reformiert.
Nimm z.B. einen Weißen Hai. Solange er im Wasser ist, ist er ein imposanter und gefährlicher Räuber. Auf dem Land hingegen ist er nur ein bemitleidenswertes Stück Standgut. Und dabei ist es der selbe Hai, er hat sich nicht "reformiert" als er an Land gespült wurde. Nur seine Umgebung hat sich verändert.