Forschungs- & Entwicklungsinformationsdienst der Gemeinschaft - CORDIS

Menschliches Gehirn als Vorlage für die Verarbeitung großer Datenmengen

Die Fähigkeit des menschlichen Gehirns, zur Lösung eines Problems nur relevante Daten herauszufiltern, inspirierte EU-finanzierte Forscher, neue Technologien für die Verarbeitung großer Datenmengen zu entwickeln. Der Durchbruch könnte medizinische Diagnosen vereinfachen, Sicherheitsmaßnahmen effektiver machen und Klimamodelle präzisieren.
Menschliches Gehirn als Vorlage für die Verarbeitung großer Datenmengen
Fortschritte in der IKT haben Ökonomie und Gesellschaft enorm verändert. Inzwischen kann man Menschen aus aller Welt in Sekundenschnelle zusammenbringen, Katastrophenschutz extern koordinieren, neue medizinische Diagnosen und Therapien vereinfachen sowie Wetterprognosen und Klimamodelle zuverlässiger machen. All dies – und vieles mehr – ist nur durch nachhaltige Verbesserung der Rechenleistung möglich, und Standardprozessoren können mit dem exponentiell wachsenden Datenvolumen kaum noch Schritt halten. Eine der künftig wichtigsten Aufgaben ist daher die Entwicklung neuer, schneller, kompakter und kostengünstiger Prozessoren.

Technologien mit Köpfchen

"Damit sich die Kluft zwischen wachsenden Datenmengen und niedriger Rechenleistung nicht noch verbreitert, sind neue Prozess- und Rechenmethoden sowie Speichersysteme gefragt", wie FTK-Projektkoordinatorin Prof. Chiara Roda von der Universität Pisa, Italien, erklärt. "Hierfür entwickelten wir Bildverarbeitungstechnologien mit einer Architektur, die der des Gehirns ähnelt. Dies testeten wir dann mit dem Large Hadron Collider (dem weltweit größten und leistungsstärksten Teilchenbeschleuniger) am CERN bei Genf, um ein spezifisches Problem mit Big Data zu lösen."

Einige der interessantesten subatomaren Prozesse, die bei Teilchenkollisionen im Large Hadron Collider (LHC) stattfinden, sind sehr selten und werden von extrem großen Mengen an irrelevanten Ereignissen überdeckt. So müssen aus diesem "Hintergrundrauschen" die interessierenden Ereignisse in Echtzeit ausselektiert werden, um das experimentelle Potenzial voll ausschöpfen zu können.

Das Projektteam entwickelte "Beschleuniger" für Algorithmen, die normalerweise viel Verarbeitungszeit und Ressourcen verbrauchen. "Unsere Technologie filtert wichtige Informationen zur Weiterverarbeitung von Bildern heraus, die zu komplex sind, um von Standardcomputern direkt verarbeitet werden zu können", erklärt Prof. Roda. "Dies ist die Art und Weise, wie ein Gehirn Bilder verarbeitet: für Prozesse auf höherer Ebene und die Langzeitspeicherung werden nur solche Daten ausgewählt, die bestimmten Sätzen gespeicherter Muster entsprechen. Unsere Technologie ahmt diese niedrigeren Gehirnfunktionen nach."

Enormes Potenzial bei der Verarbeitung von Big Data

Dieses Potenzial eröffnet viele weitere Anwendungsmöglichkeiten – in der Astrophysik und Meteorologie bis hin zu Roboterautomatisierung und Sicherheitsanwendungen. "Die Kommunikation mit interessierten Endnutzern in der Hochenergiephysik war hervorragend", sagt Prof. Roda. "So nutzten die Forscher vom Experiment ATLAS, die am CERN zu den Geheimnissen des Universums forschen, unsere Technologie zur Online-Verarbeitung riesiger Datenmengen, was zuerst mit herkömmlichen CPUs (zentralen Verarbeitungseinheiten) angedacht war. Außerhalb der Hochenergiephysik hatten wir uns die Beschleunigung und Automatisierung der Datenverarbeitung für die medizinische Diagnostik zum Ziel gesetzt."

So ist das FTK-Projektkonsortium auch im Gespräch mit Unternehmen, die die Technologie für intelligente Kameras und medizinische Bildgebung nutzen wollen. Ein Nachwuchsforscher, der mit einem Marie-Curie-Stipendium in Pisa zu "Magnetresonanz-Fingerprinting" (MRF) forscht, untersucht derzeit, inwieweit sich mit der Technologie Algorithmen für den Mustervergleich beschleunigen lassen.

"Mit verbesserter Rechenleistung und –effizienz wird die Technologie vielen Bereichen der Gesellschaft zugutekommen", sagt Prof. Roda. "Sie spart auch Energie und Platz und ist kostengünstiger als große CPU-Farmen. Meiner Meinung nach kann das kommende Problem der Datenfluten durch intelligenten, kombinierten Einsatz von Technologien gelöst werden, ohne dass riesige Mengen an Ressourcen benötigt werden. "

Fachgebiete

Life Sciences

Schlüsselwörter

Large Hadron Collider, FTK, Daten, Gehirn, IKT, Klimamodelle
Folgen Sie uns auf: RSS Facebook Twitter YouTube Verwaltet vom Amt für Veröffentlichungen der EU Nach oben