"Big Data": Rohstoff der Informationsgesellschaft "Big Data": Rohstoff der Informationsgesellschaft - Computerwelt

Computerwelt: Aktuelle IT-News Österreich


03.08.2012 Rudolf Felser/apa

"Big Data": Rohstoff der Informationsgesellschaft

Soziale Netzwerke, Internet-Suche, Verkehrsinfos in Echtzeit: In der Informationsgesellschaft fallen immer mehr Daten an. Die Analyse dieser "Big Data" birgt Risiken für den Schutz der Privatsphäre, kann nach Auffassung von Forschern aber auch das Alltagsleben einfacher machen. Eine Konferenz in Hildesheim befasste sich jetzt mit Datenströmen von ständig neu erfassten Messwerten.

© APA

"Hier sind am Horizont Möglichkeiten für intelligente Anwendungen zu erkennen, deren Potenzial kaum absehbar ist", sagte der Informatiker Lars Schmidt-Thieme zum Abschluss der Konferenz "Data Analysis, Machine Learning and Knowledge Discovery" am Freitag in Hildesheim. So könnte etwa die Echtzeit-Auswertung von Sensordaten im Auto die Unfallrisiken im Verkehr deutlich verringern. Bereits in zehn Jahren könnte das vollautomatische Autofahren denkbar sein.

"Jede Lenkbewegung und Pedalbewegung, jeder Schaltvorgang und die präzise Erfassung des Benzinverbrauchs - das sind alles interessante Dinge, die man miteinander verknüpfen kann und mit deren Hilfe man das Fahrverhalten optimieren kann", erklärte der Professor der Uni Hildesheim, der als Experte für Wirtschaftsinformatik und maschinelles Lernen die dreitägige Konferenz der Deutschen Gesellschaft für Klassifikation (GfKl) geleitet hat. Allein bei Anwendungen im Verkehrswesen könne man heute noch kaum überblicken, was durch eine automatische Steuerung von Fahrzeugen einmal möglich sein werde.

Die Aufbereitung von Echtzeitdaten der aktuellen Verkehrsentwicklung steht auch im Zentrum eines von der EU geförderten Forschungsprojekts an der Universität Hildesheim: Die an "Reduction" beteiligten Wissenschaftler aus fünf Ländern wollen bis 2014 ein Navigationssystem entwickeln, das Autofahrer so an ihr Ziel führt, dass dabei möglichst wenig CO2-Emissionen entstehen.

Als weiteres Beispiel für die praktische Nutzung der Analyse von Datenströmen nannte Schmidt-Thieme die Möglichkeit einer personalisierten Therapie in der Medizin. So lasse sich eine Medikation mit Hilfe von kontinuierlich erfassten Sensordaten ungleich präziser steuern als bisher. Die Analyse von Datenströmen ermögliche eine erhebliche Effizienzsteigerung und senke damit auch die Kosten.

Die Auswertung von Datenströmen war einer der Schwerpunkte der Konferenz, an der 180 Informatiker, Statistiker, Betriebswirte, Bioinformatiker und andere Wissenschaftler aus 23 verschiedenen Ländern teilnahmen. Das Thema "Big Data", also der intelligente Umgang mit großen Datenmengen, werde oft nur im Zusammenhang mit kritischen Fragen wie der Gefährdung der Privatsphäre gesehen, sagte Schmidt-Thieme im Gespräch mit der Nachrichtenagentur dpa. Jede Technologie könne aber zum Guten wie zum Schlechten eingesetzt werden.

So war Anfang Juni die Empörung groß, als ein Forschungsprojekt des Hasso-Plattner-Instituts mit der Wirtschaftsauskunftei Schufa bekannt wurde, bei dem es um die Nutzung von Facebook-Daten für die Bewertung der Bonität von Kreditkunden ging. Die Pläne wurden schnell gestoppt. "Das Forschungsprojekt hat eine Debatte über den Umgang mit frei verfügbaren Daten angestoßen, die die Schufa erst mit Vorlage der Forschungsergebnisse erwartet hätte", erklärte das Unternehmen damals.

Die gesellschaftliche Debatte darüber, wie wir mit den Datenmengen umgehen, sei sehr wichtig, betonte Schmidt-Thieme. "Wir müssen jedes System auch dahingehend prüfen, inwieweit es missbraucht werden kann." Gegenmodell ist das "Privacy-Preserving Data Mining": Hier kommt es darauf an, die Analyse so anzulegen, dass keine Rückschlüsse auf personenbezogene Daten möglich sind.

Nicht die Schwächung, sondern die Stärkung von Grundrechten und Demokratie erhoffen sich die Aktivisten der Open-Data-Bewegung, welche die Bereitstellung von Datenbeständen aus der öffentlichen Verwaltung anstrebt. "Wenn man Daten in verschiedenen Kontexten miteinander verknüpft, erkennt man Zusammenhänge, die man vorher nicht hatte", erklärt Christian Horchert vom Open Data Network. "So kann man auch die Wirkungszusammenhänge von politischen Entscheidungen besser nachvollziehen." (apa/dpa)

Diesen Artikel

Bewertung:

Übermittlung Ihrer Stimme...
Noch nicht bewertet. Seien Sie der Erste, der diesen Artikel bewertet!
Klicken Sie auf den Bewertungsbalken, um diesen Artikel zu bewerten.
  Sponsored Links:

IT-News täglich per Newsletter

E-Mail:
Weitere CW-Newsletter

CW Premium Zugang

Whitepaper und Printausgabe lesen.  

kostenlos registrieren

Aktuelle Praxisreports

(c) FotoliaHunderte Berichte über IKT Projekte aus Österreich. Suchen Sie nach Unternehmen oder Lösungen.

Zum Thema

  • Editel Austria GmbH

    Editel Austria GmbH Supply Chain Management, E-Procurement und Supply Chain Management, Datenkonvertierung, Überwachungssysteme, Trust Center/Zertifizierungssoftware, Digitale Signatur, Datensicherung,... mehr
  • eyepin GmbH

    eyepin GmbH Application Service Providing, Auftragsentwicklung für Software, Individual-Softwareentwicklung, Programmierung, Übernahme von Softwareprojekten mehr
  • HATAHET productivity solutions GmbH

    HATAHET productivity solutions GmbH Individual-Softwareentwicklung, Migrations-Management, Programmierung, System- und Netzwerk-Tuning, Systemintegration und Systemmanagement, Übernahme von Softwareprojekten, User Helpdesk-Systeme und Hotlines,... mehr
  • T-Systems Austria GesmbH

    T-Systems Austria GesmbH WLAN-Systeme, VPN, Voice Mail Dienste, Videokonferenz-Systeme, Unified Messaging Dienste, Netzwerk-Systeme (LAN, MAN, WAN), Netzwerk-Management,... mehr

Hosted by:    Security Monitoring by: