Véganisme - Définition

Mai 2017


Définition


Également appelé végétalisme intégral, le véganisme désigne une manière de vivre basée sur le refus de la souffrance animale. En plus de l'adoption d'un régime végétalien, le véganisme interdit la consommation de produits ayant un rapport plus ou moins éloigné avec la cause animale. Ainsi, les vêtements produits à partir de fourrure animale sont bannis. Les cosmétiques ayant été testés sur des animaux sont interdits. Ce choix de vie intègre également une dimension politique, un engagement militant de la part de ses adeptes que l'on nomme des végans.

A voir également


Publi-information
Publié par Jeff.
Ce document intitulé « Véganisme - Définition » issu de Journal des Femmes Santé (sante-medecine.journaldesfemmes.com) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite. Sante-Medecine.net adhère aux principes de la charte « Health On the Net » (HONcode) destinée aux sites Web médicaux et de santé. Vérifiez ici.