Hernie - Définition

Janvier 2017


Définition

Une hernie est un morceau d'organe qui sort de son emplacement habituel pour se placer ailleurs. Une hernie peut sortir par une cavité naturelle ou artificiellement créée. En général, une hernie est causée par une faiblesse au niveau d'un tissu qui ne résiste pas à la pression de l'organe. La plupart des hernies sont localisées au niveau abdominal ou vertébral. La hernie n'est pas forcément douloureuse. Elle peut être traitée par chirurgie, en replaçant l'organe et en renforçant la paroi qui l'entoure.

A voir également


Publi-information
Publié par Jeff. Dernière mise à jour le 4 novembre 2016 à 10:25 par Jeff.
Ce document intitulé « Hernie - Définition » issu de Journal des Femmes Santé (sante-medecine.journaldesfemmes.com) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite. Sante-Medecine.net adhère aux principes de la charte « Health On the Net » (HONcode) destinée aux sites Web médicaux et de santé. Vérifiez ici.