Biologie - Définition

Juin 2017


Définition

La biologie est une discipline scientifique. La biologie est l'étude de tout être vivant, qu'il soit humain, végétal ou animal. La biologie couvre aussi l'étude de l'environnement dans lequel les différents organismes évoluent. La discipline concerne aussi bien les organismes contemporains que les organismes qui ont existé par le passé. Enfin, l'évolution et la mutation des organismes font aussi partie de la biologie. La discipline est enseignée dès le primaire. C'est l'une des matières principales dans les formations médicales et paramédicales.

A voir également


Publi-information
Publié par Jeff.
Ce document intitulé « Biologie - Définition » issu de Journal des Femmes Santé (sante-medecine.journaldesfemmes.com) est soumis au droit d'auteur. Toute reproduction ou représentation totale ou partielle de ce site par quelque procédé que ce soit, sans autorisation expresse, est interdite. Sante-Medecine.net adhère aux principes de la charte « Health On the Net » (HONcode) destinée aux sites Web médicaux et de santé. Vérifiez ici.