En surface, la mission du crawler paraît simple : récupérer toutes les annonces du marché, pour alerter en temps réel 4 millions d’utilisateurs.
Mais sous le capot, c’est une vraie machine de guerre : scrapers dopés au LLM, algos de matching costauds, détection de doublons et de scams, catégorisation avec nos modèles IA.
En rejoignant une équipe petite mais redoutablement efficace, tu plongeras au cœur de tous les défis nécessaires pour rendre la recherche immobilière toujours plus simple, plus rapide, plus intelligente.
Produit : mobile, web, dashboard agence, crm. (4p.)
Crawler : scrapers, algo de filtrage/matching, devops, scalabilité. (4p.) + TOI !!!
Dans l’équipe Crawler, tu interviens sur nos 3 piliers fondamentaux
La couverture (Toutes les annonces) : Ajouter de nouvelles sources; Fiabiliser les flux existants ; Maintenir les flows IA qui écrivent et corrigent les parsers.
La fraîcheur (En temps réel) : Analyser les retards ; Améliorer les perf ; Industrialiser les pipelines.
La qualité (Le contenu de l’annonce) : Extraction ; Classification ; Détection d’arnaques, d’annonces expirées mais toujours en ligne, de prix incohérents… Un mélange de regex, d’heuristiques et de LLM.
On cherche un Ingénieur qui aime analyser avant de builder. Chez nous, ton approche compte autant que ton code :
Data first : Face à une anomalie, ton premier réflexe est de faire une requête pour mesurer l’impact, pas de balancer un commit à l’aveugle.
Tu aimes les défis techniques : Affronter le web tel qu’il est vraiment ne te fait pas peur. Rate limiting, anti-bots, pages dynamiques ou encodages éclatés.
Le pragmatisme avant tout : Pour toi, une bonne regex pondue aujourd’hui qui règle 80% d’un problème vaut mille fois mieux qu’un modèle ML parfait dans 6 mois.
Autonomie : Tu es capable de mener un sujet de bout en bout. On a peu de process : on discute, on décide, on livre — et on ajuste quand c’est utile, pas par principe.
Prod-Ready : Chez Jinka, tu mets en prod dès la première semaine. Pas de features qui dorment. L’infra & le Devops ne te font pas peur. Tu appuies sur le bouton, tu surveilles tes métriques, tu écoutes le Sentry.
AI-Augmented : Claude, Copilot ou Cursor sont tes alliés du quotidien pour itérer plus vite. L’IA est ton accélérateur, mais c’est toi qui restes le pilote.
💻La stack technique :
Crawler : Typescript (en cours de migration), BullMQ, Inngest, Runpod, Puppeteer, FTP, MySQL
Matching : Typescript, ElasticSearch, MySQL.
Infra : Kubernetes
⚒️ Les outils & process :
Gitlab CI/CD : pipelines de déploiement automatisés.
VSCode devcontainer : un environnement de dev prêt à l’emploi, identique pour tout le monde.
les dernières IA pour t’aider à avancer. Copilot, Claude, Droid, Codex.
👨💻Au quotidien :
On regarde les metrics, les bugs, quick wins, la roadmap.
On échange, on priorise dans Fibery (notre Trello/Notion).
On ship la feature (Kubernetes).
On surveille : logs (Signoz), métriques (Grafana/Prometheus), erreurs (Sentry), retours utilisateurs.
📍Le lieu :
C’est toi qui choisis ! Télétravail total, ou bureau à Paris quand ça t’arrange.
Envoie ton CV à julien@jinka.fr avec comme subject “Prêt·e à crawler⚡”, comme body ta motivation à nous rejoindre, tes projets persos, ou tout autre élément que tu juges utile pour appuyer ta candidature.
Entretien avec Julien le CTO, pour le fit tech
Entretien avec ta future team, pour le fit humain
Entretien avec Marc le CEO fondateur, pour le fit Jinka
Rencontrez Damien, CTO
Rencontrez Marc, CEO
Ces entreprises recrutent aussi au poste de “Développement de logiciels et de sites Web”.