Big Data Analytics Engineer

Locatie
Driebergen, Netherlands

Omschrijving

Voor een relatie van ons in de veiligheidsketen zijn wij momenteel op zoek naar een Big Data Analytics Engineer.

Binnen de organisatie wordt momenteel een modern en robuust Intelligence platform gerealiseerd in een private cloud die de informatievoorziening van de organisatie vernieuwt en verbetert. De productlijn Cloud, Big Data, Internet realiseert onder meer deze private cloud, meerdere big data infrastructuren, de tooling en werkt tevens aan een aantal specifieke toepassingen.

De productlijn Cloud, Big Data, Internet bij Team Hosting bestaat momenteel uit 5 DevOps teams en realiseert onder meer een private Cloud en meerdere Big Data omgevingen voor de operationele praktijk. Ons qua omvang voor Nederland uniek Big Data platform bevat alle noodzakelijke componenten op het gebied van hardware, Big Data technologie, extractie en tools voor eindgebruikers voor Data Science, analyse, interpretatie en visualisatie. De productlijn maakt hiervoor gebruik van open source software. Onze data komt uit een groot aantal in- en externe bronnen, die verwerkt worden in een state-of-the-art gedistribueerde en functioneel modulaire omgeving. De toekomstige omgeving wordt daarmee de nieuwe landelijke bron van informatievoorziening voor de gehele organisatie, die zal doorgroeien naar een grootschalige omgeving in termen van gebruikers, gebruik en volume aan data.

Binnen de organisatie is door een toename van de werkzaamheden behoefte aan uitbreiding van de al aanwezige DevOps teams. Onderdeel van de opdracht is bereidheid om piketdiensten (stand-by) te draaien buiten kantoortijden (maximaal 7 weken per jaar).

Doelstelling

Wij zijn op zoek naar gedreven en deskundige (senior) Big Data Analytics engineers die het mogelijk maken dat diverse doelgroepen voor ons ADS NextGen platform zoals data scientists, analisten en digitaal- en crimescript specialisten probleemloos met de beschikbare data kunnen werken en hun resultaten snel operationeel zijn. Hierbij werk je nauw samen met de Big Data Platform engineers in je team die zich primair richten op het opzetten, ontwikkelen en technisch beheren van de analytics omgeving die o.a. gebruik maakt van GPU hardware, Deep Learning frameworks, data ontwikkelomgevingen, data stores, data visualisatie en diverse programmeertalen ondersteunt.

Verantwoordelijkheden

Je wordt verantwoordelijk voor de kwaliteit van de data en de data pipelines ten behoeve van het analytics platform. Wij verwachten actuele kennis en ervaring met het opzetten, ontwikkelen en technisch beheren van een diversiteit aan data stores en data pipelines. Je kent de ETL principes en bent vaardig in SQL, NoSQL, Python, data cleansing en data configuraties. Gedistribueerde opbject storage en graph databases zijn gesneden koek voor je en bent in staat mee te denken over een standaard ontologie en deze te implementeren. Verder kun je resultaten die voortkomen uit data science (zoals algoritmes) via automation snel en schaalbaar deployen en operationeel houden.

Daarnaast:

  • Ben je niet snel uit het veld geslagen ook al weet je niet meteen hoe alles precies in elkaar steekt.
    ● Heb je een passie voor open source software en experimenteert hier graag mee.
    ● Blijf je op de hoogte van relevante ontwikkelingen en doe je proactief voorstellen ter verbetering van het technisch beheer.
    ● Draag je kennis over naar collega's over relevante expertise binnen het eigen vakgebied.
    ● Ben je binnen het eigen vakgebied in staat adviserend op te treden bij incidenten, problemen, changes en projecten.
    ● Neem je deel aan piketdiensten (stand-by) en participeert iedere dag in ontwikkeltrajecten.

Vakmatige taken

Als Big Data Analytics engineer werk je in je eigen DevOps team nauw samen met teams van ontwikkelaars, data scientists, grafische vormgevers en Cloud- en Big Data system engineers en ben je snel enthousiast om samen met je collega’s te werken aan nieuwe uitdagingen. Je weet om te gaan met onzekerheden, daarvoor toon je in je werk een passende houding en gedrag. Je hebt een passie voor het werken met data i.c.m. open source software en experimenteert hier graag mee. Je staat open voor nieuwe zaken en je bent van nature nieuwsgierig en leergierig. Werken in een dynamische en soms hectische omgeving past bij jou als persoon.

Als senior Big Data Analytics  engineer ben je in staat om een rol te kunnen vervullen als technische lead op een traject. Je bent een vraagbaak voor je collega’s, je stimuleert, motiveert en coacht hen om zichzelf naar een hoger niveau door te ontwikkelen. Daarnaast ben je in staat bruggen te slaan naar de andere teams binnen én buiten de productlijn en heb je een adviserende rol richting de product owner en de productlijnmanager. Je vindt het geen probleem om deel te nemen aan piketdiensten (stand-by) en participeert iedere dag in ontwikkeltrajecten.

Leidinggevende taken

Voor deze rol hoef je geen leidinggevende taken te vervullen.

Contacten

Intern met eindgebruikers en collega's van de Dienst ICT, extern met leveranciers en andere overheden. Contacten zijn vak- en/ of dienstverlening inhoudelijk.

Opleiding

  • Minimaal in het bezit van een HBO diploma (BSc.) op het gebied van ICT, bij voorkeur een MSc.

Werkervaring

  • Minimaal 1 jaar werkervaring met Open source big data technologie stacks, zoals Amazon AWS, Google Cloud, Microsoft Azure of gelijkwaardig.
  • In de afgelopen 4 jaar, minimaal 2 jaar werkervaring (voor senior functie: in de afgelopen 6 jaar 3 jaar werkervaring) als Big Data Analytics engineer.
  • Minimaal 2 jaar werkervaring met het opzetten-, ontwikkelen- en technisch beheren van data in een Big Data platform, met een diversiteit aan data stores, formats en data pipelines, ETL principes en specifiek gericht op analyse & analytics. Je bent hierbij vaardig in het gebruik van SQL, NoSQL, Python, data cleansing en data configuraties, gedistribueerde object storage en graph databases en in staat een gemeenschappelijke ontologie op te zetten en deze te implementeren.
  • Minimaal 2 jaar werkervaring met Agile werken, Continuous Delivery en DevOps.
  • Minimaal 2 jaar werkervaring met resultaten die voortkomen uit data science (zoals algoritmes) via automation snel en schaalbaar kunnen deployen en operationeel houden.

Eisen

  • Minimaal in het bezit van een HBO diploma (BSc.) op het gebied van ICT, bij voorkeur een MSc.
  • Minimaal 1 jaar werkervaring met Open source big data technologie stacks, zoals Amazon AWS, Google Cloud, Microsoft Azure of gelijkwaardig.
  • In de afgelopen 4 jaar, minimaal 2 jaar werkervaring (voor senior functie: in de afgelopen 6 jaar 3 jaar werkervaring) als Big Data Analytics engineer.
  • Onderdeel van de opdracht is bereidheid om piketdiensten (stand-by) te draaien buiten kantoortijden (maximaal 7 weken per jaar).
  • Minimaal 2 jaar werkervaring met het opzetten-, ontwikkelen- en technisch beheren van data in een Big Data platform, met een diversiteit aan data stores, formats en data pipelines, ETL principes en specifiek gericht op analyse & analytics.
  • Je bent hierbij vaardig in het gebruik van SQL, NoSQL, Python, data cleansing en data configuraties, gedistribueerde object storage en graph databases en in staat een gemeenschappelijke ontologie op te zetten en deze te implementeren.
  • Minimaal 2 jaar werkervaring met Agile werken, Continuous Delivery en DevOps.
  • Minimaal 2 jaar werkervaring met resultaten die voortkomen uit data science (zoals algoritmes) via automation snel en schaalbaar kunnen deployen en operationeel houden.

Wensen

  • Aantoonbare werkervaring met een analytics platform in een Private cloud-omgevingen zoals OpenStack, waarbij je verantwoordelijk was voor de ontwikkeling-, configuratie-, deployment- en monitoring van analytics werk- en ontwikkelomgevingen.
  • Ervaring met kwaliteit van data en data pipelines ten behoeve van een analytics platform.
  • Actuele kennis en ervaring met het opzetten, ontwikkelen en technisch beheren van een diversiteit aan data stores en data pipelines.
  • Kennis van ETL principes en vaardig in SQL, NoSQL, Python, data cleansing en data configuraties.
  • Ervaring met gedistribueerde object storage, graph databases en opzetten van een standaard ontologie. Resultaten die voortkomen uit data science (zoals algoritmes) via automation snel en schaalbaar deployen en operationeel houden.
  • Werkervaring met programmeren, zoals Bash, Python, Java of Go en met data ontwikkelomgevingen als R-Studio, Jupyter, Notebook IDE’s.
  • Minimaal 1 jaar werkervaring met DevOps toolings Git, Jenkins en/of Sonar.
  • Minimaal 1 jaar werkervaring met cloud (management) producten Terraform, Nomad, Vault, Consul, Docker en/of OpenStack.

Competenties

  • Probleemanalyse
  • Overtuigingskracht
  • Initiatief
  • Klantgerichtheid
  • Leervermogen
  • Samenwerken
Toepassen
Drop files here browse files ...

Verwante resultaten

top
Are you sure you want to delete this file?
/