Technologien für Big Data
Elf Projekte untersuchten und entwickelten Technologien, die für die Nutzung aktueller und zukünftiger Big Data benötigt werden.
Die Forschungsprojekte befassten sich mit Infrastrukturaspekten wie Datenzugriff, -bereinigung, -indexierung und -vorverarbeitung sowie mit Analyseverfahren wie Abfrageverarbeitung, Data Mining und maschinellem Lernen, um die Wissensgewinnung aus Daten zu erleichtern. Diese Fortschritte sind in der Lage, die Funktionalität und die Leistung von Big-Data-Anwendungen zu erhöhen, z. B. durch die Verbesserung des Datenschutzes oder die Verringerung der für das Modelltraining beim maschinellen Lernen benötigten Rechen- und Datenressourcen.
Alle Projekte aus dem Modul «Technologien»
- Datenstromanalytik: Tools zur schnellen und datenschutzgerechten Verarbeitung
- Modelle maschinellen Lernens: Robustheit und Verallgemeinerung
- Rechenzentren: effiziente Leistungsüberwachung
- Wenig strukturierte Daten: neue Techniken für die Datenintegration
- Sprachmodelle: neue Methoden für dialogfähige Agenten
- Coresets: Big Data mit weniger Daten
- Scala-Programmiersprache: Big-Data-Analytik ermöglichen
- In-Network-Computing: Lösungen für Graph Analytics
- Datenströme: Überwachung in Echtzeit
- Schnelle Vorhersagealgorithmen
- Graph Analytics und Mining