Konferenz

ISC 2016: High Performance Computing für Zukunftstechnologien

In Frankfurt am Main dreht sich vom 19. bis 23. Juni 2016 alles um Leistung – Rechenleistung. Denn für fünf Tage öffnet die Konferenz ISC ihre Pforten erneut. Im 31. Jahr ihres Bestehens erwarten die Veranstalter etwa 3.000 Teilnehmer sowie rund 160 Aussteller aus der ganzen Welt. Interessant ist die ISC 2016 nicht nur für die traditionelle High Performance Computing (HPC) Szene, sondern auch für andere Branchen, da viele Zukunftstechnologien immer stärker auf HPC-Technologien angewiesen sind oder sogar mit ihnen verschmelzen.

Die Konferenz ISC 2016 bringt unterschiedliche Branchen und Technologien zusammen. Foto: Stefan Graf

Ging es in früheren Jahren primär um das Präsentieren von Hochleistungscomputern und deren Leistungsfähigkeit, stehen inzwischen viele neue Themenbereiche wie maschinelles Lernen, das Internet der Dinge (IoT) und Robotik auf dem diesjährigen Konferenzprogramm. Ob dies ein Anzeichen dafür ist, dass HPC eine natürliche Evolution in Richtung neuer Anwendungen durchlebt oder ob sich vielmehr eine Revolution ankündigt, wird auf der Konferenz im Juni ein vieldiskutiertes Thema sein.

Die HPC-Experten und Mitgliedern des ISC Programm-Teams Prof. Dr. Gerhard Wellein und Prof. Dr. Georg Hager haben ihre jahrelange Forschungserfahrung im Bereich Parallel Computing als Autoren des Buches “Introduction to High Performance Computing for Scientists and Engineers” einfließen lassen. Ihnen zufolge werden Anwender aus Bereichen, die traditionell nicht zu HPC gehören, künftig auch Technologien aus dem Gebiet High Performance Computing nutzen. Ob dies eine Evolution oder völlige Umwälzung der Branche bedeute, sei noch nicht gänzlich geklärt. Beide Forscher glauben, dass die diesjährige Konferenz erste Indikationen liefern wird.

Anzeige

Prof. Dr. Satoshi Matsuoka vom Tokyo Institute of Technology ist Japans prominentester HPC-Experte und Program Chair der ISC 2016. Vor drei Jahren wurde unter seiner Leitung der weltweit zweitschnellste und energieeffizienteste Supercomputer Tsubame 2.5 entwickelt. Matsuoka glaubt, dass die Evolution und Revolution gleichzeitig stattfinden wird. Er sieht Anzeichen dafür, dass sich HPC in Bereiche wie Big Data und Machine Learning sowie Softwarestacks und Anwendungen ausbreiten wird.

Foto: Stefan Graf

Nach der Ära des Moore’schen Gesetzes
Die Einführung nationaler und internationaler Exascale-Programme geht einher mit dem vielfach prognostizierten Ende des Moore’schen Gesetzes, wonach sich die Komplexität integrierter Schaltkreise und damit die Rechenleistung alle 18 Monate verdoppeln. Aus diesem Grund ist die HPC-Forschung verstärkt auf der Suche nach revolutionären Methoden, um stetig wachsende Performance zu ermöglichen.

Zu den Erfolg versprechenden Ansätzen gehören „Deep Learning“, eine Unterdisziplin des maschinellen Lernens, und Quantencomputing, welches einen regelrechten Paradigmenwechsel darstellt. In der ISC-Reihe „Distinguished Speakers“ wird Dr. Rupak Biswas, stellvertretender Direktor für Exploration Technology am Nasa Ames Research Center in Kalifornien, über die Herausforderungen und Chancen sprechen, die Nasas vor zwei Jahren erworbener Quantencomputer mit sich bringt.

Ein neuer Supercomputer
Gerüchteweise haben Nasa und Google gemeinsam 15 Millionen USD in diesen Rechner investiert, auf dem bestimmte Anwendungen angeblich 3.600-mal schneller als auf herkömmlichen Computern laufen. Google will mithilfe der Nasa-Maschine herausfinden, wie Quantumcomputing maschinelles Lernen und künstliche Intelligenz, einschließlich Anwendungen wie Spracherkennung, voranbringen könnte.

Foto: Stefan Graf

Beim maschinellen Lernen werden enorme Rechenleistungen auf große Datenmengen angewendet, um komplexe Analysen für Unternehmen, Forschungseinrichtungen und Konsumenten auf dem Niveau menschlicher Intelligenz zu liefern.

Doch wie signifikant sind die entstehenden Anwendungen aus dem maschinellen Lernen wirklich für die HPC-Gemeinschaft? Die Antwort soll der ISC 2016 Keynote-Vortrag von Baidus Forschungschef Dr. Andrew Ng am Montag, 20. Juni 2016, liefern. Unter dem Titel “How HPC is Supercharging Machine Learning” wird er erläutern, wie HPC Fortschritte im Bereich maschinelles Lernen ermöglicht. 

Künstliche Intelligenz verändert die Technologie-Welt
Ng prophezeit in seinem Vortrag, dass künstliche Intelligenz die gesamte Technologie-Welt verändern wird. Der Schlüssel liegt in der Fähigkeit, Algorithmen zu erlernen, um in immer größeren Datenmengen Muster zu erkennen. Davon profitieren heute bereits zahlreiche Technologien – von der Suchmaschine bis zu fahrerlosen Autos. Dieser unstillbare Hunger nach Datenverarbeitung hat laut Ng dazu geführt, dass es die Pioniere des Machine Learnings von CPU-Computing über die Cloud und GPU-Computing hin zu HPC treibt.

Foto: Stefan Graf

Matsuoka weist darauf hin, dass maschinelles Lernen in vielen Bereichen unserer Gesellschaft Anwendung findet und sich nicht nur auf wenige High-End-Applikationen beschränkt. Die rechenintensiven Algorithmen, die man im Deep Learning verwendet, werden den Bedarf an HPC drastisch steigern. Und auch die Art und Weise der Hard- und Softwareentwicklung wird sich grundsätzlich verändern.Nicht zuletzt lassen sich mit Hilfe des maschinellen Lernens Naturphänomene beschreiben und stellt somit eine Alternative zu klassischen Simulationen dar.

Ng teilt Matsuokas Einschätzung: „Bei Baidu entwickeln wir mit Hilfe von HPC eine neue Generation von Deep-Learning-Systemen. Wir glauben, dass die Kombination von HPC und großen Datenmengen Deep Learning auf eine neue Stufe heben wird.“

ISC Program Consultant, Dr. Horst Gietl, betont: „Wir adressieren dieses Thema, um unseren Teilnehmern zu zeigen, wie Deep Learning und HPC zusammenwachsen.“

Industrie 4.0 für ein internationales Publikum
Auch in diesem Jahr findet wieder der so genannte Industry Track am 22. und 23. Juni als fester Bestandteil des Konferenzprogramms statt. Im Zentrum des Konferenzstrangs steht Industrie 4.0, das zunächst als ein sehr deutsches Thema erscheinen mag. Gietl zufolge jedoch „ist die grundlegende Idee hinter Industrie 4.0 die digitale Revolution und die Nutzung von Elektronik und IT zur weiteren Automatisierung von Produktionsprozessen. Dies wird die Industrie weltweit beeinflussen und ist keineswegs auf Deutschland beschränkt.“

Wiederum beeinflussen HPC-Technologies und -Anwendungen andere Technologien und treiben diese voran, wie beispielsweise cyber-physische Systeme, das Internet der Dinge und das Internet of Services. Das Thema Industrie 4.0 wird mit einer Präsentation über die virtuelle Fabrik und Sessions, jeweils zu Applikationen und zu Tools der digitalen Fabrik angeschnitten.

Abgerundet wird dieser Konferenzstrang durch traditionelle HPC-Anwendungen im industriellen Umfeld. Erfahrungen mit kommerziellem HPC und die Nutzung von Cloud Computing in der Industrie werden in jeweils gesonderten Sessions angesprochen. -sg-

Prometeus, Waibstadt-Daisbach, Tel. 0621/180686-0, www.isc-group.com

Anzeige

Das könnte Sie auch interessieren

Anzeige

Hardware

ISC-Kongress: Rechnen auf höchstem Niveau

Zu seinem 30. Jahrestag präsentiert sich der Kongress ISC High Performance 2015 als die bislang größte Veranstaltung in seiner Geschichte. Hier dreht sich vom 12. bis 16. Juli 2015 in Frankfurt/Main alles um Leistung – Rechenleistung.

mehr...

Embedded Vision

Basler kauft Silicon Software

Basler übernimmt mit Silicon Software einen Hersteller von Bildeinzugskarten und Software für die grafische Programmierung von Vision-Prozessoren. Damit ergänzt der Industriekamerahersteller sein Produktportfolio in Richtung des Computer Vision...

mehr...
Anzeige

Trumpf

Umsatz steigt auf 3,6 Milliarden Euro

Die Trumpf Gruppe verbucht zum Abschluss des Geschäftsjahrs 2017/18 am 30. Juni 2018 eine deutliche Steigerung von rund 15 Prozent beim Umsatz. Der Wert beläuft sich nach vorläufigen Berechnungen auf 3,6 Mrd. Euro.

mehr...