Quel est le socle technique non négociable ?
Si votre site carrière est un musée en JavaScript qui nécessite l'exécution de scripts lourds, vous perdez. Les crawlers veulent de l'efficacité.
Accessibilité & Rendu
Pas de contenu caché derrière un login. Assurez un rendu serveur (SSR) pour que le HTML soit lisible immédiatement par les bots.
Canonicalisation
Une offre = Une URL unique. Évitez les paramètres de tracking infinis qui diluent votre autorité.
Fraîcheur des offres
Une offre pourvue depuis 6 mois est du spam. Supprimez-la ou utilisez la balise validThrough dans le passé.
Indexation Rapide
Utilisez l'Indexing API de Google plutôt que d'attendre le passage aléatoire des crawlers.
Pourquoi les données structurées sont-elles indispensables ?
Le standard JobPosting de Schema.org n'est pas une option. C'est le langage commun pour apparaître dans les agrégateurs et les interfaces enrichies.
-
Propriétés obligatoires :
title,description(complète),hiringOrganization,jobLocation,datePosted. -
Propriétés recommandées (le "game changer") :
baseSalary: Les utilisateurs (et les algos) préfèrent la transparence salariale.employmentType: CDI, Freelance, Télétravail.skills: Compétences techniques précises.
Quel contenu faut-il créer pour être cité ?
Le blabla RH est un poison pour le GEO. Une IA cherche des blocs d'information fiables, pas de la poésie. Créez des pages stratégiques :
Page "Process de recrutement"
Étapes numérotées, délais moyens, critères d'évaluation. L'IA doit pouvoir répondre à : "Combien d'entretiens chez [Votre Boîte] ?".
Page "Télétravail & Avantages"
Règles précises (nombre de jours, éligibilité), liste factuelle des avantages (mutuelle, RTT, primes). Soyez binaire : oui/non, combien, quand.
Page "Rôles et Métiers"
Décrivez la stack technique réelle et les rituels (Scrum, Code reviews). Pas de "vous serez au cœur de l'innovation", mais "vous déploierez sur AWS".
Pourquoi le fichier /llms.txt est-il un atout stratégique ?
Le nouveau standard
Le standard llms.txt est une "table des matières" pour les modèles de langage. Il permet de guider l'IA vers vos pages clés sans qu'elle se perde dans le bruit de votre site.
Astuce : Proposez des versions Markdown (.md) de vos pages clés, car le HTML moderne est souvent une "soupe" difficile à digérer pour un modèle.
Comment gérer les accès via robots.txt ?
OpenAI distingue le bot OAI-SearchBot (pour la recherche avec citation) du bot GPTBot (pour l'entraînement).
Stratégie recommandée : Autorisez OAI-SearchBot pour être visible auprès des candidats qui utilisent ChatGPT comme moteur de recherche. Bloquer tout par précaution, c'est choisir l'invisibilité.
Quel est le plan d'action sur 30 jours ?
-
Semaine 1 : Nettoyage. Supprimez les offres expirées, débloquez les bons bots dans robots.txt.
-
Semaine 2 : Données structurées. Implémentez JobPosting partout. Testez avec l'outil Rich Results de Google.
-
Semaine 3 : Contenu "Factuel". Refondez vos pages process et avantages en mode "base de connaissances".
-
Semaine 4 : Exposition IA. Créez votre fichier
/llms.txtet testez votre visibilité sur Perplexity.
Conclusion
Votre site carrière est un produit de données.
La question n'est plus "est-ce qu'on a besoin d'un site carrière", mais "mérite-t-il d'être cité par une IA quand un talent pose une question sur nous ?".