Dites, un p'tit up pour vous demander si vous pensez vraiment que le fond de teint abîme la peau. Je croyais que c'était une légende (j'avais lu quelque part que c'était vrai seulement autrefois, mais que maintenant les fonds de teint n'étaient pas du tout mauvais), mais depuis le début des vacances, je ne mets plus du tout le mien (Accord parfait, de L'Oréal), et objectivement, ma peau n'a jamais été aussi belle.
J'ai toujours bu beaucoup d'eau, mis de la crème hydratante le matin, puis mon fond de teint après ; mais en général, même si ça ne se voit pas beaucoup et que je n'ai jamais eu d'acné, j'ai quelques minuscules boutons sur le menton et la peau qui pèle légèrement sur le front. Or en ce moment, je me contente de mettre de la crème solaire que je fais pénètrer dans la peau, et je ne me maquille plus, et depuis plus de 2 semaines que je suis en vacances, je n'ai encore eu aucun bouton, ma peau ne pèle plus, rien ...
C'est dingue comme ça change tout, je trouve, rien que de voir ça, j'ai l'impression d'être et je me trouve beaucoup plus belle ; mais j'ai envie d'utiliser mon fond de teint, parce que ça donne un effet plus uni, plus poupée, que j'aime beaucoup.
Vous pensez que les quelques (rares) boutons et peaux mortes que j'avais étaient dûes au fond de teint ?