Français
Le terme « naturisme » renvoie à une variété de courants prônant, sous diverses formes, un retour à la nature. Issu du vocabulaire médical, il a tout d’abord désigné des pratiques thérapeutiques alternatives, fondées sur l’utilisation des éléments naturels. À la fin du xixe siècle, il est progressivement associé à la revendication d’une hygiène de vie plus conforme à la nature puis, à l’aube du xxe siècle, à la pratique de la nudité collective et mixte pendant les temps de loisirs. Initié en Allemagne, dans des cercles relativement restreints, cette pratique s’étend en Europe occidentale dans l’entre-deux-guerres. Elle se démocratise après la Seconde Guerre mondiale et intègre l’économie du tourisme de masse. Si la dimension hédoniste de la nudité prend souvent le pas sur le projet initial de réforme naturiste des modes de vie, le nudisme reste néanmoins associé, pour la plupart de ses adeptes, à un idéal de retour à la nature.





