DataLab

Sie befinden sich hier: :/DataLab
  • Durchschnittlicher Fahrpreis mit Uber ab HU Berlin Campus Adlershof

Uber Pricing Heatmap

Uber – der durchaus umstrittene Fahrdienst – hat eine Developer Schnittstelle geschaffen, womit man auf verschiedene Parameter des Softwaresystems zugreifen kann.

Wir haben den geschätzten Fahrpreis für viele hundert Ziele in Berlin abgefragt, als ob wir vormittags am HU Campus Berlin Adlershof ein Uber ordern wollen. Die aggregierten und interpolierten Daten werden dann georeferenziert und über OpenStreetmap gelegt, sodass eine Heatmap heraus kommt, welche die durchschnittliche Fahrpreise (ohne Surge Pricing) mit Uber übersichtlich visualisiert.
Was kostet eine Uber Fahrt ab HU Campus Adlershof
In ein blaues Gebiet durchschnittliche 2€, in ein grünes durchschnittlich 4€ usw… bishin zu 16€ oder mehr in ein rotes Gebiet.

Tools used:

Python (requests, json, Scypi, Matplotlib)
QGis (Georeferencer)
TileMill
OSM in Postgres

By |04/2015|Categories: DataLab|Tags: , , , , |0 Comments
  • 'Ostansicht' von Stefan Eissing unter CC-BY2.0 Lizenz von flickr.com

Vorhersage der Parkhausbelegung mit Offenen Daten

Wir engagieren uns seit geraumer Zeit in der Open Knowledge Foundation, welche das Ziel verfolgt, ohnehin schon öffentliche Daten auch noch standardisiert und maschinenlesbar verfügbar zu machen, damit Mehrwert daraus generiert werden kann.

Ein schönes Beispiel für den Nutzen von Offenen Daten (Open Data) möchten wir am Beispiel der freien Parkplätze in Dresden zeigen. Die Stadt Dresden hat ein intelligentes Verkehrsleitsystem und -konzept (VAMOS), welches auch die freien Parkplätze in den jeweiligen Parkhäusern und -plätzen erfasst und bereitstellt.

Leider stehen diese Daten nicht offen – heißt: über eine Schnittstelle für jedermann – zur Verfügung. Die Open Data Aktivisten vom OKLab Dresden haben deshalb einen Scraper geschrieben, der die Zahlen von der Webseite holt und in eine Datenbank speichert sowie eine maschinenlesbare Schnittstelle zur Verfügung stellt. Erste Anwendungen auf Grund der offenen Daten sind bereits entstanden:

ParkenDD – eine Smartphone App für Android (von J. Kliemann) und iOS (von K. Költzsch)
Karte mit freien Parkplätzen Dresden

Da die Daten nun fast für ein gesamtes Jahr vorhanden sind (03/2014 – 03/2015) ist der Zeitpunkt gekommen, sich diese einmal anzusehen.

Zum einen sind statistische Aussagen interessant, zum anderen ist das Ziel ein Modell aufzustellen, welches die Belegung von innerstädtischen Parkhäusern vorhersagen kann. Wer samstags 11Uhr mit Auto zum Shopping nach Dresden kommt, der wird wissen, dass sich fast überall lange Schlangen vor den Parkhäusern bilden. Es ist für Touristen (auch aus Tschechien) also durchaus interessant, schon vorher zu wissen, wie in 1h die Belegung des angesteuerten Parkhauses ist. Dies ermöglicht intelligente Verkehrssteuerung. Man könnte sagen: Smart City!
Datenbasis: Open Data
Leider nicht von der Stadt Dresden direkt bereitgestellt, aber wenigstens von den Open Data Aktivisten aus Dresden. Ein aktueller Auszug aus der Datenbank kann hier heruntergeladen werden. Dieser bildet die Basis der nachfolgenden Visualisierungen.
Zeitreihenanalyse der Belegung
Die einfachste und logischste Analyse ist zuerst einmal die Zeitreihenanalyse. […]

By |03/2015|Categories: DataLab|Tags: , , , |0 Comments
  • weniger ist besser

Wie man große Dateien auch auf einem kleinen Notebook bearbeitet

Wer sich mit Data Analytics beschäftigt, hat hin und wieder mit sehr großen Dateien zu kämpfen. Diese entstehen schlichtweg heutzutage in vielen Wirtschaftszweigen. Ob Industrie 4.0 oder M2M Kommunikation, überall werden Zahlenkolonnen gespeichert und dann auch hoffentlich irgendwann ausgewertet.

Dabei überschlagen sich die Consultants im Jahrestakt mit neuen Buzzworts zum Thema. Vor einigen Jahren hieß es  noch ‚Cloud‘, aktuell wird über ‚Big Data‘ geschrieben und bald kann man von ‚Smart Data‘ lesen.

Dabei gilt:

Vielleicht liegt es ja daran, dass viele PowerPoint Profis nur Excel auf dem Laptop installiert haben und das ein oder andere mal die nachfolgende Meldung gelesen haben:

Die Reaktion von Excel, wenn man versucht eine 1GB große Daten-Datei in eine Arbeitsmappe zu laden. Ist aber noch kein Big Data Problem. Wer selbst probieren möchte:

Excel stößt mit dieser Datei schon an seine Grenzen. Enthalten sind beispielhafte Daten, wie sie z.B. von unserem CarPC gesendet werden.
UUID, Latitude, Longitude, Value
Und von diesen Datenzeilen eben sehr viele. Versuchen wir nun diese Datei zu öffnen, um damit Berechnungen auszuführen, zu filtern oder Diagramme zu erstellen.
Effizientes Einlesen von großen CSV Dateien mit Python
Mit Python hat man mehrere Möglichkeiten eine Textdatei einzulesen. Wir konzentrieren uns auf 3 typische Module:

das Python CSV Modul, welches der Standard ist
Python Pandas, welches alles vereinfacht
Python Blaze

Schauen wir mal. Alle nachfolgenden Zeitangaben sind natürlich vom System abhängig. Die Zeiten sind auf einem MacBook Pro, 2.5GHz Intel Core i5, 8GB 1600MHz DDR3-RAM, SSD Festplatte mit IPython in der Anaconda Distribution und nur 1x ermittelt.

Einlesen einer 1GB Datei mit Python CSV Modul

Das Lesen der 1GB großen Datei dauert knapp 35s.
Einlesen einer 1GB Datei mit Python Pandas

Das Lesen der 1GB großen Datei dauert knapp 25s. Das ist schnell! Der Entwickler von Pandas, Wes McKinney schreibt
pandas.read_csv from pandas 0.5.0 onward […]

By |01/2015|Categories: DataLab|Tags: , , , , , , |0 Comments
  • Kamm'scher Kreis stellt Längs- über Querbeschleunigung dar. Farben visualisieren die relative Häufigkeit der Parameter.

Zwischenauswertung: Naturalistische Fahrverhaltensbeobachtung und Nutzung des KFZ im städtischen Umfeld

Unser Low Budget Car PC befindet sich nun seit mehreren Monaten im realen Praxiseinsatz und loggt unermütlich Kilometer um Kilometer mit. Dabei ist vor allem die „Beobachtung“ des natürlichen Fahrverhaltens interessant. Nicht nur Wissenschaft und Forschung interessieren sich für das Fahr- und Nutzungsverhalten, auch maßgeschneiderte Versicherungstarife oder die optimale Planung der Flottenauslastung (Business Intelligence) sind ein interessanter Anwendungsfall.

Im Folgenden soll beispielhaft das natürliche Fahr- und Nutzungsverhalten eines PKW in einem Zeitraum von 9 Wochen ausgewertet werden.
[…]

  • Entstehung-OPNV-Fahrzeit-Heatmaps-20

[Tutorial] Entstehung der ÖPNV Fahrzeit Heatmaps 2.0 mit PostgresApp, TileMill und QGIS

Wie entsteht eine ÖPNV Fahrzeit Heatmap Karte?

[…]

  • unter CC BY-ND 2.0 Lizenz von  lil'_wiz auf flickr.com

GNTM Finale 2014 – Stimmungsanalyse auf Twitter

Wie sieht es aus, wenn eine Maschine den Twitter Stream zu einem Thema mit ließt und Informationen aus diesem generiert? Am Beispiel des „Germany’s Next Topmodel Finale 2014“ möchten wir das mal im Schnelldurchlauf präsentieren.

Die Technik ist die Gleiche, wie am Beispiel des Tatort vorgestellt. Es erfolgt ein Mitschreiben des gesamten Twitter Traffic zu den Hashtags #GNTM, #GNTMFinale und #GNTM2014. Anschließend wird mit dem Natural Language Toolkit eine Analyse der Inhalte der Tweets vorgenommen. Dabei gilt vor allem eines:
Umso mehr Tweets, umso besser!
[…]

By |05/2014|Categories: DataLab|Tags: , , , , |0 Comments
  • Tatort-Twitter-Logo

German #Tatort on Twitter: Natural Language Processing and Sentiment Analysis with Python Pandas and NLTK

[…]

By |05/2014|Categories: DataLab|Tags: , , , , , , , |1 Comment