Infrastructure and data
Data Platform Engineer
This role owns the data layer that the product depends on: ingestion, storage, transformation, and query performance. You will design systems that handle high-volume AI output reliably and give the product the data quality it needs to report with confidence.
Sintesi del ruolo
Build and maintain the data infrastructure that makes AI visibility analysis reliable, fast, and scalable as prompt volume and reporting complexity grow.
Perché questo ruolo esiste
Data volume is increasing faster than the current infrastructure was designed for. We need someone to build a platform that can grow with the product without becoming a constant maintenance burden.
Primi 90 giorni
Map the current data flow end to end and identify the top three reliability or performance gaps.
Perché questo ruolo esiste
Data volume is increasing faster than the current infrastructure was designed for. We need someone to build a platform that can grow with the product without becoming a constant maintenance burden.
Su cosa lavorerai
- Design and operate data pipelines from AI prompt execution through to query-ready reporting tables.
- Own storage, schema design, and query optimization for high-volume, time-series AI output data.
- Build internal tooling that helps the research and product teams explore and validate data quality.
- Establish data observability practices so problems are caught before they reach the product.
Com'è un forte fit
- Strong experience designing data pipelines and schemas for analytical workloads.
- Comfort with time-series data, partitioning strategies, and query performance at volume.
- Experience building and operating pipelines that handle partial failures, late data, and schema evolution.
- A product mindset: you understand that bad data leads to bad product decisions.
Cosa ti entusiasmerà qui
- Building the data foundation for a product category that does not have an established playbook yet.
- Owning the full data platform, not just one pipeline.
- Working on infrastructure where quality directly determines whether the product can be trusted.
Primi 90 giorni
- 01Map the current data flow end to end and identify the top three reliability or performance gaps.
- 02Ship at least one pipeline improvement that reduces latency or error rate on a core data path.
- 03Establish basic data observability so the team has visibility into pipeline health.
Processo di hiring
Il processo è volutamente corto, diretto e ancorato al lavoro reale.
- 1
Candidatura
Mandaci il tuo percorso, il lavoro rilevante e perché questo ruolo ha senso per te.
- 2
Conversazione iniziale
Una conversazione focalizzata sul tuo lavoro, sul tuo giudizio e sul ruolo.
- 3
Approfondimento specifico del ruolo
Una discussione o un esercizio che assomiglia più al lavoro reale che a un loop generico di colloqui.
- 4
Conversazione con il founder
Un confronto finale su standard, ambizione e su come apparirebbe il successo qui.
- 5
Decisione
Chiudiamo il loop con chiarezza e ci muoviamo velocemente quando c'è convinzione.
Hai bisogno di contesto prima di candidarti? [email protected]
Data Platform Engineer
Il ruolo è già visibile sul sito. Le candidature si aprono non appena il job corrispondente su Dover è attivo.
Le candidature restano chiuse finché il job corrispondente su Dover non viene attivato. Nel frattempo puoi scrivere a [email protected].