Anatomie - Définition

Avril 2017


Définition

L'anatomie est une science destinée à l'étude des différentes parties composant des organismes vivants, de types animal ou végétal. Par la dissection ou d'autres moyens, elle étudie la dimension, la structure et les rapports des éléments structurant un corps, une plante, etc. On distingue l'anatomie générale - qui prend également en compte l'analyse de la physiologie - de l'anatomie descriptive - qui s'attache aux volumes, emplacements, etc. L'anatomie dite chirurgicale a pour particularité d'étudier une région précise de l'organisme.

Schéma

A voir également


Publi-information
Publié par Jeff.
Ce document intitulé « Anatomie - Définition » issu de Journal des Femmes Santé (sante-medecine.journaldesfemmes.com) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite. Sante-Medecine.net adhère aux principes de la charte « Health On the Net » (HONcode) destinée aux sites Web médicaux et de santé. Vérifiez ici.