Lesedauer: 5 Minuten
Hochschule Schmalkalden (HSM)
Daten, Archive und Analysen: Was ist Data Analytics?
Mit der Digitalisierung der industriellen Produktion und großen Teilen der sozialen Kommunikation eröffnen sich unserer Gegenwart völlig neue Wege und Reichweiten der Datenanalyse. So erlauben es die moderne Sensorik, die Steigerung der Rechenleistung sowie der Archivierungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den Daten zu gewinnen.

Mit dieser Entwicklung erlangt der Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um Werkzeuge, Technologien und Methoden, mit deren Hilfe Wissen, Muster und Verläufe aus Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.
Können elektrische Schafe halluzinieren?
Mit der Verbreitung KI-gestützter Technologien wurden Themen der Data Analytics bekannt: Infrage steht, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, wie der Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datensätze und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenbanken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.
Neben der Frage, warum diese Fehler überhaupt auftreten, ist offen, zu welchem Zeitpunkt sie entstehen. Die Programme sind selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleich wohl verlangt der Umgang mit der natürlichen Sprache und manchen Anwendungsfällen eine gewisse Kreativität. Zum Beispiel muss das Modell bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-Hip Hops zu reformulieren, selbst „kreativ“ werden. Die Anstrengungen, die Zahl der Halluzinationen zu minimieren, verdeutlicht die Relevanz der Datensatzaufbereitung, -verwertung und -reinigung. An diesen Aufgaben und offenen Fragen, wie komplexe Technologien mit einem Gros an Datensätzen interagieren, setzt Data Analytics an.
Was ist Data Analytics?
Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen Informatik, Mathematik und Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen, die wir hier nur aufzählen: Es gibt deskriptive, diagnostische, prädiktive und präskriptive Varianten. Die Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an das Datenmaterial.
Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der HSM inne und nutzte die Gelegenheit seiner Antrittsvorlesung, ein Licht auf Facetten seiner Forschung und Lehre zu werfen. Bereits in seiner Dissertation ging er der Frage nach, wie sich moderne Hardware zur Beschleunigung von Datenbankanfragen optimal nutzen ließe: Wie müssen Datenverwaltungen strukturiert und organisiert sein, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten? Ein anderes Projekt widmete sich der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie Druckluftkompressoren genutzt werden können. Ziel war es, Wartungsarbeiten an Verschleißteilen nicht nach fixen Intervallen oder in Folge von Werkzeugaus fällen durchzuführen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen.
Aktuell befasst sich Professor Pohl mit dem Stream Processing. Die Analyse von Datenströmen muss einen permanenten Durchlauf gewährleisten, also die Ko- und Interaktion verschiedener Komponenten ohne Stausituationen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten adäquat nutzen. Ziel ist die Entwicklung und Erprobung von Stream Processing Engines. In einem konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. So bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachten den Parametern Strate gien der Optimierung der Zielhäfen zu entwickeln.

Foto: Constantin Pohl, Professor für „Data Analytics“ an der Fakultät für Informatik der HSM
Neue Köpfe
Seit dem Wintersemester hat Katharina Sachse die Professur für Wirtschaftspsychologie an der HSM inne. Sie promovierte an der TU Berlin zum Thema „Risikowahrnehmung und -verhalten privater Kapitalanleger“ und wirkte in verschiedenen Forschungsprojekten zur Kommunikation von Gesundheitsrisiken mit. Im Anschluss war sie als Arbeitspsychologin und Organisationsberaterin tätig. Zudem lehrte sie an verschiedenen Hochschulen, bevor sie 2016 eine Professur für Wirtschaftspsychologie an der FOM Hochschule in Berlin antrat. In ihrer Forschung beschäftigt sie sich mit Themen wie Commitment, Führung und Gesundheit in der modernen Arbeitswelt.
Aktuelle Forschungsvorhaben
BioMat_PUR
Entwicklung von Ursache-Wirkungs-Modellen zur Beschreibung der Biokompatibilität und Materialeigenschaften von thermoplastischen Polyurethanen unter Berücksichtigung der Verarbeitung
Prof. Roth & Prof. Seul
(Fakultät Maschinenbau)

Stellenangebote
Professur für Programmierung und Verteilte Systeme
Transferscout / Transfermanager (m/w/d) für den Bereich Wissens- und Technologietransfer
Ausbildung zum Feinwerkmechaniker (m/w/d) Schwerpunkt Werkzeugbau
Veranstaltungen
20.05.2025 – 21.05.2025 | Campus
Karrieremesse Schmalkalden
14.06.2025 | 10:00 Uhr – 14:00 Uhr | Campus
Hochschulinformationstag
Throwback
Kick-off OptiPro
Das Ziel des Kooperationsprojektes zwischen der GFE-Präzisionstechnik Schmalkalden GmbH und der HSM ist die hochpräzise Beschriftung und Bearbeitung von Bauteilen mit kostengünstigen Robotersystemen. Durch den Einsatz optischer Messtechnologien soll das System Positionierungsfehler erkennen und diese aktiv durch das Bearbeitungssystem und das Robotersystem korrigieren.
Der Kick-off, der Ende Januar stattfand, diente den Projektpartnern, vor Ort die Problemstellung und den Ablaufplan zu konkretisieren. Da die Forschung sowohl in den Laboren der HSM als auch in den Werkshallen der GFE GmbH stattfinden wird, musste zudem die technische Organisation koordiniert werden. Seitens der HSM ist Venkata Prashanth Uppalapati, Absolvent des Mechatronics & Robotics Masterstudiengangs, mit dem Projekt betraut.
Fotos: HSM


Hochschule Schmalkalden
Blechhammer
98574 Schmalkalden
Webseite: www.hs-schmalkalden.de