Was ist Data Science?
Data Science wird seit einiger Zeit als die Königsdisziplin bei der Erkennung von wertvollen Informationen in größeren Datenmengen gehandelt. Es verspricht, aus Daten beliebiger Struktur – also nicht nur numerischen Werten wie beispielsweise Messwerten und Kennzahlen, die oft als „strukturiert“ bezeichnet werden, sondern auch Texten, Bildern, Videos und sogar Geräuschen („unstrukturierte Daten“) – versteckte, wertvolle Informationen zu extrahieren.
- Versteckt, da sich diese Informationen nur sehr schwer/langwierig bzw. aufgrund der beschränkten Fähigkeit des menschlichen Gehirns nicht durch bloßes Betrachten zeigen.
- Wertvoll, da sich möglicherweise Informationen verstecken, deren Kenntnis aber auch einen Mehrwert stiften bzw. sich daraus ein Handeln ableiten ließe, um einen gewünschten Effekt zu erreichen.
Erfahren Sie alles zu den Vorteilen bei der Nutzung, aus welchen unterschiedlichen Disziplinen sich Data Science zusammen setzt und welche Faktoren dabei eine Rolle spielen.
Ihre Vorteile durch die Nutzung von Data Science
Disziplinen von Data Science
Hier lernen Sie die unterschiedlichen Disziplinen kennen, nach denen die notwendigen Daten aus den Vorsystemen extrahiert und für den analytischen Anwendungsfall vorbereitet wurden:

Künstliche Intelligenz
Der Begriff „Künstliche Intelligenz“ (KI) bzw. „Artificial Intelligence“ (AI) wird heute gern als Überbegriff für Systeme genutzt, die das menschliche Denken nachbilden, bzw. simulieren. Dabei spielen Technologien, wie maschinelles Lernen (ML) oder Deep Learning mit speziellen Algorithmen eine besondere Rolle.
Im Zusammenhang von Data Science wird KI oft genannt, wenn für bestimmte Anwendungsfälle Systeme für die Entscheidungsunterstützung entwickelt werden. Wie auf dem linken Schaubild ersichtlich, erstreckt sich Data Science nicht ausschließlich auf die Erstellung der KI, sondern vielmehr auf die Kombination aus KI, Informatik und Fachwissen. Informatik umfasst dabei u.a. die Beschaffung der Daten, und diese mit dem notwendigen Fachwissen („Domain Knowledge“) in eines für die KI notwendiges Format zu bringen.
Machine Learning
Bei Machine Learning werden „Erfahrungen“, d.h. bereits bekannte Ergebnisse, strukturiert aufbereitet und ein System lernt die Zusammenhänge zwischen Eingangs- und Ausgangsgrößen. Anhand eines Testdatensets mit ebenfalls bekannten Ergebnissen wird das Lernergebnis (= das erkannte mathematische Modell) überprüft und ggfls. nachgeschärft. Anschließend kann das Modell auf unbekannte Daten angewendet werden und ein Ergebnis mit einer gewissen Güte vorhersagen.
Deep Learning
Deep Learning ist eine Unterdisziplin des Machine Learnings, in der neuronale Netze zum Einsatz kommen. Dabei werden meist große Datenmengen verarbeitet, ohne dass der Mensch beim eigentlichen Lernen noch eingreift (vgl. auch Supervised vs. Unsupervised Learning). Neurale Netze ahmen die Funktionsweise des menschlichen Gehirns nach: Sie treffen Entscheidungen, hinterfragen diese und lernen ggfls. erneut. Große neuronale Netze benötigen enorme Rechenleistung, die gern durch GPUs bereitgestellt werden, weil diese intern in der Lage sind Matrizenberechnungen sehr schnell durchzuführen. Deep Learning wird oft zur automatischen Bild- oder Spracherkennung eingesetzt.
Operationalisierung von Data Science (MLOps)
Daten und Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) können fast jeden Geschäftsprozesses basierend auf Fakten unterstützen. Viele Unternehmen befinden sich mitten in einer Phase der fachlichen Beurteilung der Algorithmen und technischer Erprobung der entsprechenden Technologien. MLOps beschreibt die Integration in den Geschäftsprozess, um den vollen Mehrwert jedes Algorithmus zu nutzen.
Mehr zu MLOpsFaktoren, die bei Data Science eine Rolle spielen
Vorrat an Daten
Die zur Verfügung stehende Datenmenge ist enorm gewachsen. In der Produktion senden Sensoren tausende Messwerte pro Sekunde, in der Logistik lassen sich Güter per GPS verfolgen, beim Surfen im Netz hinterlassen potentielle Käufer bewusst oder unbewusst Spuren, die auf ihr Einkaufsverhalten schließen lassen.
Verfügbarkeit leistungsfähiger Rechenkapazität
Nie war es einfacher und günstiger, den Datenvorrat mit mathematischen Methoden zu verarbeiten. Durch Leistung nach Bedarf (u. a. in der Cloud) lassen sich Kapazitäten auch kurzfristig steigern, sodass in Summe viele Anwendungsfälle schneller wirtschaftlich werden. Dazu kommen neue, parallel arbeitende Rechnerarchitekturen (u.a. GPUs), welche durch eine native Verarbeitung mathematischer Modelle ungeahnte Kombinationen und Muster erkennen können.
Neue mathematische Methoden
Durch neue Versionen bekannter Methoden (siehe parallele Verarbeitung und GPU), neue Methoden, die durch die vorherrschende „Sharing-Economy“ schnell weltweit geteilt werden, oder durch Methoden der Künstlichen Intelligenz oder des Machine Learning, lassen sich heute Lösungen sehr viel einfacher modellieren und lösen.
Qualität und Nachvollziehbarkeit der Daten
Und trotz bzw. wegen der überragenden Möglichkeiten, gilt auch für Data Science, dass die Vorbereitung der Daten aus unterschiedlichen Quellen zeitaufwändig und fehleranfällig ist. Gleichzeitig steigen die Anforderungen an Qualität und Nachvollziehbarkeit der Daten, um Erkenntnisse zu untermauern, bzw. auch nachträglich begründen zu können.
Unsere Leistungen zu Data Science:
Aus der Kombination von Anforderungen und Herausforderungen ergibt sich eine Entscheidungsmatrix für den Einsatz von Data Science, KI oder ML im Unternehmen. Wir finden gemeinsam den richtigen Weg zur optimalen Nutzung der Informationen.
Für jedes Projekt den richtigen Hersteller
Unsere Experten setzen bei der Umsetzung von Data Science Projekten auf unterschiedliche OpenSource Werkzeuge wie beispielsweise R, Python, Jupyter, aber auch auf kommerzielle Werkzeuge und Lösungen aus dem Hause IBM und Microsoft.
IBM
IBM bietet seinen Kunden unter der Brand „Watson“ ein umfangreiches Portfolio an Lösungen und Services. IBM unterscheidet in Lösungen, die die Entwicklung und den Betrieb von KI Lösungen umfassend unterstützt, Vordefinierte KI-Anwendungen für die Analyse von großen Datenmengen , KI-APIs zur Einbettung in Anwendungen und fertige, KI-unterstützte Branchenlösungen. Mit dem „Cloud Pak for Data“ stellt IBM eine technische Plattform für den Betrieb der o.g. Lösungen bereit, ergänzt um Datenintegration, Data Governance, Datenbanken und Analysewerkzeugen.
Microsoft
Microsoft hat vor allem in seiner Azure Plattform in den letzten Jahren massiv in AI investiert und bietet ein robustes, umfangreiches Framework für die Entwicklung von AI-Lösungen in vielen Bereichen. Fertige Dienste, spezielle Infrastruktur und Tools stellen umfangreiche Funktionen bereit und erleichtern die Bereitstellung von AI-Anwendungen massiv.
Unsere Referenzen:
Sprechen Sie uns an!
Bleiben Sie auf dem Laufenden!
Gerne informieren wir Sie über neue Trends, Events und News zu dem von Ihnen gewünschten Themenbereich!