Florian Hein
Persönliche Daten
Deutsch (Muttersprache)
English (Fließend)
Spanisch (Grundkenntnisse)
Beschreibung
Referenzen
Data Scientist, Data Engineer, Data Analyst
Schulungsleiter
Berater, Data Scientist, BI Entwickler
Data Scientist, Data Engineer
Data Engineer
Data Engineer, Data Analyst
Data Scientist, Data Engineer
Data Engineer, Data Analyst
Projektleiter, Data Warehouse Designer, Data Scientist
Anlagen
Profile
I am a mathematician and have specialized in probability theory and statistics during
my studies. Especially I dealt with the basics for machine learning and statistical
simulation models. In my professional career I have further deepened these special
fields. In my work as an IT consultant and later as a freelance data scientist, I have
gained experience in various projects in the field of Business Intelligence and Data
Science. In various technical contexts I have been responsible for data warehouse
development, statistical analysis and the development of simulation and prediction
models. The following section gives an overview of my previous projects and the
activities I have been involved in. In the last section you will find a list of my
professional career and my professional skills.
Project Experiences
VOLKSWAGEN / UMI – 8/2019 BIS 3/2020
Urban Mobility International (UMI) is a fully owned subsidiary of Volkswagen and
operates the purely electric car sharing service WeShare. The company started
operations in Berlin in summer 2019 and is now expanding the service to more and
more cities throughout Europe. The exclusive use of electric vehicles and the resulting
increased maintenance times create additional challenges for the operation of the
vehicle fleet. These were also reflected in the technical requirements in the data
department.
As part of the data team, my tasks included designing the data warehouse,
constructing data pipelines and building statistical reports in the form of dashboards
or ad hoc analyses for the various business departments in the company to support
them in their work. In close cooperation with the respective stakeholders, I discussed
the business requirements and tailored the database design accordingly to ensure
efficient analyses.
In addition to these classical data analyses, my field of activity also included the
development of algorithms for operational purposes and the programming of
simulation and prediction models. Using machine learning and optimization
techniques, I developed models for the prediction of demand and downtime and
based on these models I wrote algorithms that control maintenance operations and
CV
Florian Hein
the relocation of vehicles from coldspots to hotspots. The aim was to achieve the
highest possible fleet availability and utilization.
Applied technologies and qualifications:
Google Cloud Platform, BigQuery, Google
Data Studio, Apache Airflow, Python, Dash, Data Warehousing, Evaluation of geodata,
Data Engineering, Data Analysis, Data Science, Machine Learning, Optimization
GWQ SERVICEPLUS AG, DÜSSELDORF – 11/2018 BIS 2/2019
GWQ uses statistical methods to evaluate the data of insurants of health insurance
companies. The aim is to develop predictive models that identify previously
undiscovered diseases amongst insured persons or determine whether persons
belong to risk groups that could be affected by certain diseases in the future. The aim
is to improve medical care for the insured while at the same time optimizing costs for
the health insurance companies.
Within the scope of this project I have supported GWQ in various projects. I consulted
on the possibilities of using Machine Learning and was involved in the implementation
of these projects myself. The data was obtained from a data warehouse and prepared
for the application of data science methods using SQL and R.
Applied technologies and qualifications:
MS SQL Server, Machine Learning Services,
R, Data Engineering, Data Science
GWQ SERVICEPLUS AG, DÜSSELDORF – 12/2018 BIS 12/2018
I gave a training course of several days at the customer's site on the subject of R and
Machine Learning Services on the MS SQL Server. The main focus was to show the
employees the possibilities for the use of statistical methods and machine learning
procedures on the SQL Server.
Applied technologies and qualifications:
MS SQL Server, Machine Learning Services,
R, Data Science
GIZ, BONN UND ESCHBORN – 11/2018 BIS 2/2019
As part of a digitalization project at the customer, a study was carried out to document
the existing data use and interconnectivity in the company and to reveal potential for
creating added value from the existing data through the use of modern BI and data
science methods. In addition, problems in data governance were to be identified and
recommendations for measures to improve data quality were to be made.
I conducted interviews and workshops at the client's site and then prepared the report.
In this study, the customer was provided with detailed solutions on how to optimize
data governance and enable interconnected data use across departments and
company sites through a cloud infrastructure with data Warehouse and Data Lake. In
addition, concepts for the use of BI tools and machine learning were explained, which
can solve problems that arose from the interview appointments.
Applied technologies and qualifications:
Data Warehousing, Data Science, Consulting
TERRANET SOFTWARE GMBH, BERLIN – 4/2018 BIS 7/2018
The customer offers a data warehouse solution with its own software for health
insurance companies. In order to meet the requirements of health insurance
companies with a large number of insured persons and correspondingly large
amounts of data, the performance of the ETL pipelines for the data warehouse had to
be optimized. For this purpose, several stored procedures had to be reworked in order
to improve the data processing durations.
Applied technologies and qualifications:
Data Warehousing, Data Vault, MS SQL
Server
DEUTSCHE APOTHEKER- UND ÄRZTEBANK, DÜSSELDORF – 3/2018 BIS 9/2018
The customer needed a system that would allow them to easily retrieve and read
important press releases. To this end, a solution was developed in which a web crawler
retrieves news reports from various sources, cleans them up and makes them available
in a dashboard in a clear form for the user. In order to give the user the possibility to
filter the messages according to topic or importance of the message, an artificial
intelligence was integrated, which classifies all articles that have been picked up
before they are made available in the dashboard.
My task in this project was to implement this artificial intelligence. During the
implementation Natural Language Processing and an Ensemble method were used to
solve the classification problem.
Applied technologies and qualifications:
Apache Spark, Tensorflow, Machine
Learning, Natural Language Processing
STADTREINIGUNG HAMBURG – 3/2018 BIS 5/2018
The data warehouse of the Hamburg city cleaning service was currently undergoing
reconstruction. Step by step, the database schema was to be unified and expanded.
For this purpose, ETL pipelines had to be reworked or newly created, the connection to
the OLAP Cube had to be made and reports had to be generated in Excel.
I have been supporting this project for about 3 months and have developed new
connections for individual departments. I have also carried out the necessary
connections in the Cube as well as the generation of reports.
Applied technologies and qualifications:
MS SQL Server, SSIS, SSAS, MS Excel
CONTIPARK PARKGARAGEN GMBH, DÜSSELDORF – 11/2017 BIS 12/2017
In this project, a reporting system was developed as part of a proof of concept to
monitor the utilization of parking facilities. Raw data on entrances and exits were
imported and processed on an SQL server. To evaluate the data, a dashboard was then
set up in Power BI, which can be used to call up key figures and filter the data
according to various criteria. I worked on this project completely on my own
responsibility and completed it successfully.
Applied technologies and qualifications:
MS SQL Server, SSIS, Power BI, Data Analysis
FASHIONETTE GMBH, DÜSSELDORF – 7/2017 BIS 12/2017
The customer is an online retailer that needed to build a data warehouse from scratch
as part of the project. This was primarily designed for purchase controlling and should
make it possible to determine the need for ordering goods. For this purpose a DWH
was created on a MS SQL Server and a Tabular Cube was set up with Analysis Services.
The cube was used to evaluate sales numbers from the past and a calculation logic was
used to compute forecasts for future requirements.
I myself was the team leader of this project and was responsible for the design of the
DWH and the setup of the ETL pipelines. I also designed and implemented the
calculation logic for the Cube.
Applied technologies and qualifications:
MS SQL Server, SSIS, SSAS, Data
Warehousing, Predictive Analysis
Professional Experiences
- Freelance data scientist and BI developer - 08/2019 till today
- adesso AG, Berlin, Consultant for Data Science & BI - 02/2018 bis 02/2019
- ixto GmbH, Berlin, Consultant for Data Science & BI - 07/2017 bis 01/2018
University Education
- University Rostock – Mathematics Master 2014 bis 2017
- University Rostock – Mathematics Bachelor 2009 bis 2014
Skills
- Programming: Python, R, Ruby, Apache Spark, Matlab, SQL, Git, HTML, CSS
- Work with machine learning frameworks e.g. Scikit-Learn, Tensorflow and Keras.
- Evaluation of geodata e.g. with h3-Framework from Uber
- Data Science: Use of various unsupervised and supervised learning methods e.g.
deep learning, support vector machines, time series analyses, association analyses
- Data Engineering / ETL: Apache Airflow, SSIS
- Business Intelligence: Google BigQuery, MS SQL Server, MySQL, PostgreSQL, Power
BI, Looker, Dash
Profil
Ich bin Mathematiker und habe mich in meinem Studium auf die Bereiche
Wahrscheinlichkeitstheorie und Statistik spezialisiert. Besonders habe ich mich mit den
Grundlagen für Machine Learning und statistischen Simulationsmodellen auseinander
gesetzt. In meiner beruflichen Laufbahn habe ich diese Spezialgebiete weiter vertieft.
In meiner Tätigkeit als IT Consultant und später als freiberuflicher Data Scientist habe
ich in diversen Projekten Erfahrungen im Bereich Business Intelligence und Data
Science gesammelt. Dabei habe ich in unterschiedlichsten fachlichen Kontexten Data
Warehouse Entwicklung, statistische Auswertung und den Aufbau von Simulations-
und Vorhersagemodellen betreut. Der folgende Abschnitt gibt einen Überblick zu
meinen bisherigen Projekten und den Tätigkeiten, die ich dort übernommen habe. Im
letzten Abschnitt findet sich eine Auflistung beruflichen Laufbahn und meiner
fachlichen Kenntnisse.
Projekterfahrungen
VOLKSWAGEN / UMI – 8/2019 BIS 3/2020
Das Unternehmen Urban Mobility International (UMI) ist eine hundertprozentige
Tochterfirma von Volkswagen und betreibt den rein elektrischen Car Sharing Service
WeShare. Die Firma nahm den Betrieb im Sommer 2019 in Berlin auf und weitet den
Dienst nun auf immer mehr Städte in ganz Europa aus. Durch den ausschließlichen
Einsatz von Elektrofahrzeugen und die dadurch erhöhten Wartungszeiten entstehen
zusätzliche Herausforderungen beim Betrieb der Fahrzeugflotte. Diese spiegelten sich
auch in den fachlichen Anforderungen in der Data Abteilung wider.
Als Teil des Data Teams gehörte es zu meinen Aufgaben das Data Warehouse Design
zu entwerfen, Datenpipelines zu konstruieren und für die verschiedenen
Fachabteilungen im Unternehmen statistische Auswertungen in Form von Dashboards
oder Ad Hoc Analysen zu bauen, um diese in ihrer Arbeit zu unterstützen. Dabei habe
ich in enger Zusammenarbeit mit den jeweiligen Stakeholdern die fachlichen
Anforderungen besprochen und das Datenbankdesign entsprechend zugeschnitten,
um effiziente Auswertungen zu gewährleisten.
Neben diesen klassischen Datenauswertungen gehörte zu meinem Aufgabenfeld auch
die Entwicklung von Algorithmen für operative Zwecke und die Programmierung von
Simulations- und Vorhersagemodellen. So wurden unter Einsatz von Machine Learning
Lebenslauf
Florian Hein
und Optimierungsverfahren Modelle für die Vorhersage von Nachfrage und
Ausfallzeiten entwickelt und darauf aufbauend Algorithmen geschrieben, die
Wartungsoperationen und die Relokalisierungen der Fahrzeuge von Coldspots zu
Hotspots steuern. So sollte eine möglichst hohe Flottenverfügbarkeit und Auslastung
erzielt werden.
Eingesetzte Technologien und Qualifikationen:
Google Cloud Platform, BigQuery,
Google Data Studio, Apache Airflow, Python, Dash, Data Warehousing, Auswertung
von Geo Daten, Data Engineering, Data Analysis, Data Science, Machine Learning,
Optimierung
GWQ SERVICEPLUS AG, DÜSSELDORF – 11/2018 BIS 2/2019
Bei der GWQ werden Versichertendaten von Krankenkassen mit Hilfe statistischer
Methoden ausgewertet. Dadurch sollen Vorhersagemodelle entwickelt werden, die bei
Versicherten bisher unentdeckte Krankheiten erkennen oder feststellen, ob Personen
Risikogruppen angehören, die zukünftig von bestimmten Krankheiten betroffen sein
könnten. Das Ziel dabei ist eine bessere medizinische Betreuung der versicherten bei
gleichzeitiger Kostenoptimierung für die Krankenkassen.
Ich habe im Rahmen dieses Projekts die GWQ in verschiedenen Projekten unterstützt.
Dabei habe ich über Möglichkeiten zum Einsatz von Machine Learning beraten und
war selbst an der Umsetzung dieser Projekte beteiligt. Die Daten wurden hier aus
einem Data Warehouse bezogen und mit Hilfe von SQL und R für die Anwendung von
Data Science Methoden aufbereitet.
Eingesetzte Technologien und Qualifikationen:
MS SQL Server, Machine Learning
Services, R, Data Engineering, Data Science
GWQ SERVICEPLUS AG, DÜSSELDORF – 12/2018 BIS 12/2018
Ich habe bei dem Kunden eine mehrtägige Schulung zum Thema R und Machine
Learning Services auf dem MS SQL Server durchgeführt. Der Schwerpunkt lag darauf,
den Mitarbeitern die Möglichkeiten für den Einsatz statistischer Methoden und
Machine Learning Verfahren auf dem SQL Server näher zu bringen.
Eingesetzte Technologien und Qualifikationen:
MS SQL Server, Machine Learning
Services, R, Data Science
GIZ, BONN UND ESCHBORN – 11/2018 BIS 2/2019
Im Rahmen eines Digitalisierungsprojekts beim Kunden, wurde eine Studie
durchgeführt, um die bestehende Datennutzung und Vernetzung im Unternehmen zu
dokumentieren und Potentiale aufzudecken, wie durch den Einsatz moderner BI und
Data Science Methoden Mehrwerte aus den vorhandenen Daten geschaffen werden
können. Außerdem sollten Probleme bei der Data Governance identifiziert werden und
Maßnahmen zur Verbesserung der Datenqualität vorgeschlagen werden.
Ich habe selbst beim Kunden Interviews und Workshops durchgeführt und
anschließend die Studie erstellt. In dieser Studie wurden dem Kunden ausführliche
Lösungsansätze geliefert, wie er durch eine Cloud-Infrastruktur mit data Warehouse
und Data Lake die Data Governance optimieren und die vernetzte Datennutzung über
Abteilungen und Unternehmensstandorte hinweg ermöglichen kann. Außerdem
wurden Konzepte für den Einsatz von BI Tools und maschinellem Lernen erläutert,
durch die sich Problemstellungen lösen lassen, die sich aus den Interview Terminen
ergeben hatten.
Eingesetzte Technologien und Qualifikationen:
Data Warehousing, Data Science,
Beratung
TERRANET SOFTWARE GMBH, BERLIN – 4/2018 BIS 7/2018
Der Kunde bietet eine Data Warehouse Lösung mit einer eigenen Software für
Krankenkassen an. Um den Anforderungen bei Krankenkassen, mit sehr vielen
Versicherten und dementsprechend großen Mengen an Daten, gerecht zu werden,
musste die Performance der ETL Ladestrecken für das Data Warehouse optimiert
werden. Hierfür mussten etliche Stored Procedures umgearbeitet werden, um die
Abläufe bei der Datenverarbeitung zu verbessern.
Eingesetzte Technologien und Qualifikationen:
Data Warehousing, Data Vault, MS SQL
Server
DEUTSCHE APOTHEKER- UND ÄRZTEBANK, DÜSSELDORF – 3/2018 BIS 9/2018
Der Kunde benötigte ein System, über das er wichtige Pressemeldungen in einfacher
Art und Weise abrufen und lesen kann. Zu diesem Zweck wurde eine Lösung
entwickelt, bei der ein Webcrawler Nachrichtenmeldungen aus verschiedenen Quellen
abgreift, diese bereinigt und in einem Dashboard in übersichtlicher Form für den
Nutzer bereitstellt. Um dem Nutzer die Möglichkeit zu geben, die Meldungen nach
Thema oder Wichtigkeit der Meldung zu filtern, wurde eine künstliche Intelligenz
integriert, die alle abgegriffenen Artikel klassifiziert, bevor sie im Dashboard
bereitgestellt werden.
Meine Aufgabe in diesem Projekt bestand in der Implementierung der künstlichen
Intelligenz. Bei der Umsetzung wurde Natural Language Processing und eine
Ensemble Methode für die Lösung des Klassifizierungsproblems eingesetzt.
Eingesetzte Technologien und Qualifikationen:
Apache Spark, Tensorflow, Machine
Learning
STADTREINIGUNG HAMBURG – 3/2018 BIS 5/2018
Bei der Stadtreinigung in Hamburg befand sich zur angegebenen Zeit gerade das
Data Warehouse im Umbau. Schritt für Schritt sollte das Datenbankschema
vereinheitlicht und erweitert werden. Hierfür mussten ETL-Strecken umgebaut oder
neu erstellt werden, die Anbindung in den OLAP Cube vorgenommen werden und
Berichte in Excel generiert werden.
Ich habe bei diesem Projekt etwa 3 Monate unterstützend mitgearbeitet und habe im
Rahmen dieser Tätigkeit Anbindungen für einzelne Fachbereiche neu entwickelt und
sowohl die nötigen Anbindungen im Cube als auch die Erstellung der Berichte
vorgenommen.
Eingesetzte Technologien und Qualifikationen:
MS SQL Server, SSIS, SSAS, MS Excel
CONTIPARK PARKGARAGEN GMBH, DÜSSELDORF – 11/2017 BIS 12/2017
Bei diesem Projekt wurde im Rahmen eines Proof of Concept ein Reporting System
entwickelt, über das sich die Auslastung von Parkhäusern überwachen lässt. Rohdaten
über Ein- und Ausfahrten wurden auf einen SQL Server importiert und aufbereitet. Zur
Auswertung der Daten wurde dann ein Dashboard in Power BI aufgesetzt, über das
sich Kennzahlen abrufen lassen und die Daten nach diversen Kriterien gefiltert werden
können. Dieses Projekt habe ich komplett eigenverantwortlich bearbeitet und
erfolgreich abgeschlossen.
Eingesetzte Technologien und Qualifikationen:
MS SQL Server, SSIS, Power BI, Data
Analysis
FASHIONETTE GMBH, DÜSSELDORF – 7/2017 BIS 12/2017
Bei dem Kunden handelt es sich um einen Onlinehandel, für den im Rahmen des
Projekts ein Data Warehouse von Grund auf aufgebaut werden sollte. Dieses wurde
vorwiegend für das Einkaufscontrolling konzipiert und sollte es ermöglichen den
Bedarf für Warenbestellungen zu ermitteln. Zu diesem Zweck wurde ein DWH auf
einem MS SQL Server erstellt und mit Analysis Services ein Tabular Cube aufgesetzt.
Über den Cube wurden Verkaufszahlen aus der Vergangenheit ausgewertet und über
eine Berechnungslogik Prognosen für die zukünftigen Bedarfe errechnet.
Ich selbst hatte bei diesem Projekt die Teamleitung und habe das Design des DWH
und den Aufbau der ETL Strecken verantwortet. Außerdem habe ich die
Berechnungslogik für den Cube konzipiert und umgesetzt.
Eingesetzte Technologien und Qualifikationen:
MS SQL Server, SSIS, SSAS, Data
Warehousing, Predictive Analysis
Berufserfahrungen
- Freiberuflicher Data Scientist und BI Entwickler - 08/2019 bis heute
- adesso AG, Berlin, Consultant für Data Science u. BI - 02/2018 bis 02/2019
- ixto GmbH, Berlin, Consultant für Data Science u. BI - 07/2017 bis 01/2018
Hochschulbildung
- Universität Rostock – Mathematik Masterstudium 2014 bis 2017
- Universität Rostock – Mathematik Bachelorstudium 2009 bis 2014
Kenntnisse
- Programmierung: Python, R, Ruby, Apache Spark, Matlab, SQL, Git, HTML, CSS
- Arbeit mit Machine Learning Frameworks z.B. Scikit-Learn, Tensorflow und Keras.
- Auswertung Geodaten z.B. mit h3-Framework von Uber
- Data Science: Einsatz diverser Unsupervised und Supervised Learning Verfahren z.B.
Deep Learning, Support Vector Machines, Zeitreihenanalysen, Assoziationsanalysen
- Data Engineering / ETL: Apache Airflow, SSIS
- Business Intelligence: Google BigQuery, MS SQL Server, MySQL, PostgreSQL, Power
BI, Looker, Dash