F
Faulkner
Guest
Y'en a-t-il parmi vous qui ont payé une école (voire une université, à l'étranger) pendant leurs études ? En êtes-vous contentes, et pensez-vous que vous auriez pu avoir la même formation et/ou les mêmes débouchés si vous aviez fait des études "gratuites" ? Pensez-vous qu'il y a des domaines d'études où il est vraiment nécessaire de faire une formation payante ?
Pour celles qui sont issues d'une formation universitaire, vous sentez-vous en compétition dans le monde du travail par rapport à celles qui sortent des écoles ?
Je me pose la question car j'arrive à un stade mes études (je suis en M1 à l'université) où la plupart des gens me conseillent d'entrer en école (payante, donc, vu le petit nombre d'écoles publiques qui existent, et leur sélectivité effarante) si je veux trouver du travail. Et honnêtement, je ne sais pas du tout si ça vaut le coup, en termes de débouchés et de salaire à la sortie, que je m'endette.
Merci d'avance pour vos témoignages/avis
Pour celles qui sont issues d'une formation universitaire, vous sentez-vous en compétition dans le monde du travail par rapport à celles qui sortent des écoles ?
Je me pose la question car j'arrive à un stade mes études (je suis en M1 à l'université) où la plupart des gens me conseillent d'entrer en école (payante, donc, vu le petit nombre d'écoles publiques qui existent, et leur sélectivité effarante) si je veux trouver du travail. Et honnêtement, je ne sais pas du tout si ça vaut le coup, en termes de débouchés et de salaire à la sortie, que je m'endette.
Merci d'avance pour vos témoignages/avis