Le naturisme reste un phénomène encore très peu compris du grand public. Si vous aussi, vous vous posez certaines questions sur ce mode de vie, ce qui suit devrait vous intéresser.

Les origines du naturisme

Le naturisme, comme on le connaît aujourd’hui, est né à la fin du 19e siècle en France, à travers des associations naturistes. La création de ces groupes était motivée surtout par une logique hygiéniste. Certains y voyaient également un moyen pour faciliter le contact entre être humain.

Cependant, la pensée dominante était que le naturisme  était une sorte de thérapie pour guérir le corps humain. Pour appuyer ce point de vue, de nombreux théoriciens du naturisme mettaient en avant, le contact avec les rayons du soleil (vitamine D) et avec les éléments naturels dans leur ensemble. Parmi ces théoriciens, on retrouve des médecins comme les frères Durville. Ces derniers sont à l’origine d’un des tout premiers centres de naturisme de France.

Le naturisme, un art de vivre !

Pour la plupart des naturistes, le naturisme est un art de vivre, une philosophie. Ils ne se déshabillent pas pour s’exhiber. Non, ils sont nus pour pouvoir se sentir en harmonie avec leur environnement. D’ailleurs, vous remarquerez que les naturistes sont généralement de fervents défenseurs de l’écologie et de la cause animale.

Les naturistes sont également des personnes qui prônent une relation pacifique. En effet, ces derniers ne font pas de leur mode de vie, une obsession. L’extrémisme est une doctrine qui n’est pas en adéquation avec le naturisme

Le raisonnement des naturistes est plutôt simple : l’homme est né nu, vivre ainsi est donc le meilleur moyen de communiquer avec son environnement. Pour communier, l’homme doit se débarrasser des sentiments négatifs comme la vanité ou l’hypocrisie. Il doit s’accepter physiquement comme il est et accepter ses semblables également.

Le naturiste se met volontairement en position de vulnérabilité, afin de montrer à son entourage qu’il n’y a rien à craindre de lui. C’est seulement lorsque le naturiste arrive à s’accepter tel qu’il est, qu’il peut commencer par communier avec la nature.

Il existe une école de pensée naturiste, les naturistes hédonistes qui mettent plus l’accent sur la liberté et le plaisir. Pour eux, le naturisme permet de se défaire des chaînes de la société moderne, de s’émanciper. Les hédonistes mettent beaucoup l’accent sur l’entretien du corps humain, à travers une alimentation saine et une pratique sportive rigoureuse. Pour les hédonistes, pour être heureux, il faut vivre dans un corps sain.

Où pratiquer le naturisme en France ?

La France est la première destination naturiste au monde. Des dizaines d’emplacements sont prévus spécialement pour accueillir les adeptes du naturisme.

En période de vacances, les campings sont les lieux de prédilection des naturistes. Il s’agit d’espaces exclusivement réservés à ces deniers, où ils peuvent se loger dans des mobil-home, se détendre et s’amuser comme dans n’importe quel camping.

Des plages de nudiste sont également répandues sur le littoral, surtout en Aquitaine. Aujourd’hui, de nombreux établissements de vacances proposent également des espaces réservés uniquement aux naturistes.

Depuis quelques années, le nudisme est de plus en plus toléré. C’est pourquoi, certains clubs de nudistes organisent des virées hors des lieux qui leur sont réservés. Il s’agit cependant, d’un phénomène encore très embryonnaire.