l' re des technologies de l'information, les documents textuels se multiplient spontan ment sur l'internet, les courriels, les pages web, les rapports hors ligne et en ligne, les journaux, les articles et sont stock s dans des bases de donn es lectroniques. Des millions de nouveaux fichiers texte sont cr s chaque jour, et faute de classification, les gens passent c t de nombreuses informations qui sont utiles plusieurs gards. Il est tr s difficile de maintenir et d'acc der ces documents sans une classification ad quate et lorsqu'il y a une classification sans aucune information, on parle de clustering. Pour surmonter ces difficult s, K-means et d'autres algorithmes de regroupement anciens sont inaptes fournir ce que l'on peut attendre des langues naturelles. En raison de la haute dimensionnalit des textes, de la pr sence d'indices de structure logique dans les textes et des nouvelles techniques de segmentation, on a tir parti des progr s des algorithmes de mod lisation g n rative des sujets, sp cialement con us pour rep rer les questions dans les intervalles entre les textes et les distributions de sujets de mots cod s. Compte tenu de ces limites, l'algorithme de regroupement conceptuel COBWEB a t appliqu aux donn es pr trait es. Pour garantir la pr cision des grappes, les m thodes de mesure de la pr cision f-measure ont t s lectionn es pour valuer les grappes.