MCU, MPU, PLD -

Was kommt nach dem Cloud-Computing? Closer to the Edge

Alok Sanghavi, Senior Product Marketing Manager bei Achronix Semiconductor, umreißt im Interview die Grenzen der heu­tigen Datenverarbeitung in der Cloud. Die Zukunft sieht er in Cloudlets am Rande des Netzwerks. Machine-Learning-Methoden und programmierbare Hardware wie eFPGAs werden dabei eine wichtige Rolle spielen.

eli: Herr Sanghavi, der Cloud-Computing-Markt ist in der letzten Dekade rasant gewachsen. Welche Entwicklung steht ihm in den nächsten fünf Jahren bevor?

Sanghavi: Wir haben einerseits ein enormes Wachstum auf dem Gebiet der zentralen Datenverarbeitung erlebt, während das Processing in die Cloud ausgelagert wurde. So konnten die Vorteile kostengünstiger Rechenzentren genutzt werden. Die Entwicklung begann mit dem Mainframe, ging dann aber in Richtung Umgebungsintelligenz, sprich AMI, und zum Internet der Dinge.

eli: Das steht wohl auch im Zusammenhang mit den immensen Datenmengen, die zu handhaben sind.

Sanghavi: Ja, allerdings erfordert das für die nächste Welle von Anwendungen benötigte Datenvolumen einen erneuten Richtungswechsel. Laut Gartner werden zurzeit nur zehn Prozent der von Unternehmen generierten Daten außerhalb zentraler Rechenzentren erstellt und verarbeitet. Bis 2022 wird der Anteil voraussichtlich auf bis zu 50 % ansteigen. Dieser Wandel wird durch den Übergang zu hyper-verbundenen cyberphysischen Systemen, die mit der Einführung von 5G-Netzwerken und einer neuen Generation anwendungsorientierter Hardware erst möglich werden, vorangetrieben.

eli: Haben Sie Beispiele für Industriezweige, die angesichts dieser Entwicklung eine Vorreiterrolle übernehmen?

Sanghavi: Die Automobilindustrie ist ein gutes Beispiel für die bevorstehenden Veränderungen. Die Fahrzeughersteller haben erkannt, dass die Pflege der Daten in zentralen Servern an ihre Grenzen stößt. Daher werden beispielsweise Daten von Fahrerassistenzsystemen direkt im Fahrzeug verarbeitet. Nur ein kleiner Bruchteil dieser Daten wird in die Rechenzentren der Automobilhersteller übertragen, um beispielsweise die Datenbank für Predictive-Maintenance zu aktualisieren oder um die Leistungsfähigkeit der ADAS-Software statistisch auszuwerten.

eli: Könnten die dezentral erzeugten Daten auch anderweitig genutzt werden?

Sanghavi: Ein mit ADAS ausgerüstetes Auto produziert Gigabytes an Daten, die einmalig im ADAS verarbeitet und anschließend wieder gelöscht werden, da sie zu umfangreich sind, um sie an einen zentralen Cloud-Server zu übertragen. Dabei enthalten diese Daten aufschlussreiche Informationen für viele andere Systeme im Umkreis eines Fahrzeugs. So lassen sich über das für Car2X – das ist die Kommunikation von Fahrzeugen mit ihrer Umgebung – entwickelte IEEE-802.11p-Protokoll in schnellen und kostengünstigen Funknetzwerken anhand der erfassten Daten fundierte Entscheidungen treffen.

eli: Gibt es Grenzen für das aktuelle Cloud-Computing-Modell?

Sanghavi: Die zunehmende Autonomie von Produkten erfordert Echtzeitverhalten mit immer kürzeren Latenzzeiten. Wenn Fahrzeuge mit hoher Geschwindigkeit fahren, geht es um Millisekunden. Heutige drahtlose Netzwerke können Umlaufzeiten in Größenordnungen von Hunderten von Millisekunden realisieren. Der 5G-Standard wurde entwickelt, um innerhalb einer Millisekunde zu antworten. Diese Geschwindigkeit wird aber durch die Notwendigkeit der Interaktion mit der Cloud überflüssig, weil das Cloud-zentrierte Verarbeitungsmodell physikalischen Gesetzen unterliegt. Konkret heißt das: die Übertragung von Daten durch Photonen über Glasfaserkabel ist auf 70 % der Lichtgeschwindigkeit im Vakuum beschränkt. Pro 1 000 km Entfernung ergibt sich daher eine Umlaufverzögerung von 10 ms im System.

eli: Sie sagen, dass das Cloud-Computing-Modell seine beherrschende Stellung ver­lieren wird. Was kommt danach?

Sanghavi: Um Reaktionszeiten von Millisekunden zu gewährleisten, muss sich die Computing-Ressource nahe einem Übergabepunkt befinden, beispielsweise in einem Cloudlet am Rande des Netzwerks. Mit solchen Cloudlets und anderen Edge-Computern kann man Services bereitstellen, die sich nur durch Cloud-basiertes High-Performance-Computing realisieren lassen. Mikrodatenzentren können mit ihrer Rechenleistung die Daten selbst verarbeiten, filtern sowie komprimieren und sie dann nachts über eine langsame Verbindung, wie einen Satelliten-Uplink, an einen Cloud-Server schicken.

eli: Was passiert in diesen Cloudlets?

Sanghavi: Zu den Aufgaben, die Cloudlets übernehmen, wird eine umfangreiche Datenanalytik gehören, die häufig auf Machine Learning, kurz ML, basiert. Das Training dieser ML-Algorithmen findet zunächst in der Kern-Cloud statt, sie ausreichend Rechenleistung besitzt. Es ist aber wahrscheinlich, dass diese Algorithmen in der Edge eingesetzt werden, nämlich dort, wo die Daten auch generiert werden. Edge-Computing wird mit der Einführung von 5G einhergehen, wobei die Architektur für eine effiziente Bereitstellung von 5G-Diensten ebenfalls auf einem Cloudlet-Ansatz beruht.

eli: Wo sehen Sie denn die künftigen Einsatzgebiete für das Edge-Computing?

Sanghavi: Ein gutes Beispiel für die Notwendigkeit von Edge-Computing sind intelligente Transportsysteme. In den kommenden zehn Jahren wird es Geräte und Maschinen geben, die sich autonom in Werkshallen oder in Wohngebieten bewegen. Drohnen werden beispielsweise landwirtschaftlich genutzte Flächen überwachen oder Pakete an Kunden ausliefern. Der Energiebedarf dieser intelligenten Geräte ist dabei die größte Hürde für ihren reibungslosen Einsatz.

eli: Edge-Computing vorausgesetzt: Ist Hardware, die eigentlich die Cloud unterstüzt, dann noch nutzbar?

Sanghavi: Um die vielfältigen und reaktionsschnellen Anwendungen auch zu unterstützen, kann ein Cloudlet nicht einfach eine abgespeckte Version eines Cloud-Servers sein. Zwar ist hohe Performance die Voraussetzung, jedoch kompakter, zuverlässiger und energieeffizient. Dabei werden auch Technologien zur Hardwarebeschleunigung eine Schlüsselrolle spielen, um die Effizienz von Edge-Computing zu verbessern.

eli: Kann man dazu Multicore-Prozessoren verwenden?

Sanghavi: Für Echtzeit-ML sind Multicore-Prozessoren zu langsam und haben einen zu großen Energiehungerh. Sie lassen sich stattdessen für die universelle Grafikprozessor- oder die Bildverarbeitungseinheit verwenden. Die Stärken von GPUs und VPUs liegen bei der Fließkomma- und Matrixarithmetik. Deshalb sind sie für die schnellen Anwendungen in Edge-Computern kaum nutzbar.

eli: Wenn sich aber Hardwarelösungen für die Cloud nicht für das Edge-Computing eignen, was ist dann Ihrer Meinung nach die Lösung?

Sanghavi: Konzepte, die anstelle von Prozessoren programmierbare Hardware nutzen, erlauben es, den Datentransfer zwischen virtuellen neuronalen Netzen zu optimieren. Beispielsweise können mithilfe der eFPGA-Technologie häufig verwendete Funktionen, die sonst nur auf Standalone-ASICs zur Verfügung stehen, in eigener Hardware implementiert werden. So erreicht man mehr Leistung und Kompaktheit.

eli: Was bedeutet dies für das Machine Learning?

Sanghavi: Für ML-Anwendungen können diese Funktionen dedizierte Prozessor-Arrays für Faltungsmatrizen oder Max-Pooling-Berechnungen sein. Mit der Kombination von programmierbarer und kundenspezifischer Logik auf dem gleichen IC können große Energieeinsparungen erzielt werden, da keine Daten vom Chip übertragen werden müssen.

Danke für das Gespräch.

Informationen zu Speedcore-eFPGAs

Achronix Semiconductor Corp. ,
2903 Bunker Hill Lane, Suite 200,
USA-Santa Clara, CA 95054,
Tel. +1 408 889-4100,
www.achronix.com
Achronix Semiconductor. Das amerikanische Fabless-Halbleiterunternehmen hat seinen Sitz in Santa Clara, Kalifornien/USA, und verkauft Highend-FPGA-Produkte, Embedded FPGAs (eFPGAs), System-Level-Produkte und unterstützende Designtools. Achronix wurde 2004 in Ithaca, New York, gegründet und nutzt Technologien, die von der Cornell University lizenziert wurden. Das Unternehmen sieht sich seit dem Umzug seiner Zentrale in das Silicon Valley im Jahr 2006 als einen stetigernTechnologieinnovator auf dem FPGA-Markt.
Wie bleiben Cloudlets sicher? Nach Ansicht von Alok Sanghavi gibt es noch einen weiteren entscheidenden Vorteil für die eFPGA-Technologie in der Cloudlet/Edge-Computing-Umgebung: Software-Container und Virtualisierung unterstützen den sicheren Betrieb der Core-Cloud, da diese Systeme die Vorteile einer guten physikalischen Sicherheit nutzen. Sowohl Sicherheit als auch programmierbare Logik sind im Chip integriert, wodurch es für einen Angreifer mit physischem Zugang zum System sehr schwierig, wenn nicht sogar unmöglich ist, die Kommunikation abzuhören. Das Embedded-FPGA-Konzept bietet eine stabile Sicherheitsarchitektur, die den Anforderungen des Edge-Computing gerecht wird.
Weitere Downloads zu diesem Artikel
Firmeninformationen
Weitere Beiträge zum Thema MCU, MPU, PLD
Alle Artikel des Ressorts
Weitere Beiträge zum Thema Embedded
Alle Artikel des Ressorts
© elektronikinformationen.de 2018 - Alle Rechte vorbehalten