Accueil | Articles | La carie dentaire

La carie dentaire


La carie est une maladie des tissus durs de la dent qui évolue vers l’intérieur en formant une cavité et en entraînant la destruction progressive de l’émail. Lorsque la carie est profonde, elle peut atteindre la pulpe dentaire, là où se trouvent le nerf de la dent et les vaisseaux sanguins. Une alimentation riche en sucre, notamment, et une mauvaise hygiène buccodentaire favorisent l’apparition de la carie.


Catégories : Maladies