Künstliche Intelligenz

Andrea Gillhuber,

Die KI-Trends 2019

Künstliche Intelligenz gewinnt mehr und mehr an Bedeutung. Ein Grund, sechs Trends zusammenzufassen, die im nächsten Jahr die Entwicklung und Anwendung von KI maßgeblich bestimmen werden und sowohl für Ingenieure als auch Wissenschaftler wichtig sind – von Spezialisierung über Interoperabilität bis hin zur stärkeren Zusammenarbeit. Von Dr. Frank Graeber

Künstliche Intelligenz gewinnt an Bedeutung. © shutterstock – GarryKillian

Trends wie künstliche Intelligenz, Deep Learning, Datenanalyse, IoT und andere Konzepte sind längst nicht mehr neu. Doch heute greifen sie immer mehr ineinander und machen so technische Fortschritte möglich, die noch vor ein paar Jahren nach Zukunftsmusik klangen. Hier ist besonders die künstliche Intelligenz (KI) zu nennen. Mit der zunehmenden Verbreitung von KI in allen Branchen wächst jedoch auch die Notwendigkeit, sie verfügbar, zugänglich und anwendbar für Ingenieure und Wissenschaftler unterschiedlicher Fachrichtungen zu machen.

Die Komplexität immer größerer Datensätze, Cloud Computing, die Implementierung in Embedded-Anwendungen und größere Entwicklungsteams stellen Entwickler vor neue Herausforderungen. Um diesen zu begegnen, werden Lösungsanbieter an Wegen für mehr Zusammenarbeit und Interoperabilität arbeiten. So werden produktivere Workflows entstehen und die Abhängigkeit von IT-Abteilungen wird abnehmen.

1. Künstliche Intelligenz – nicht nur für Datenwissenschaftler

Ingenieure und Wissenschaftler, nicht nur Datenwissenschaftler, werden die Einführung von Deep Learning vorantreiben. Nicht nur die Offenheit für neue Techniken, sondern auch wirtschaftliche Vorteile, die künstliche Intelligenz und Automatisierungstools versprechen, werden den zunehmenden Einsatz von KI durch Ingenieure und Wissenschaftler vorantreiben.

Anzeige

Neue Workflow-Tools vereinfachen und automatisieren die Daten-Synthese, das Labeling, die Vorverarbeitung und Bereitstellung von Daten. Diese Tools erweitern auch die Bandbreite der Anwendungen von Bild- und Computer-Vision bis hin zu Zeitreihen-Daten wie Audio, Signalverarbeitung und IoT, So wird KI abseits der Datenwissenschaft zum Beispiel in unbemannten Luftfahrzeugen (UAV) eingesetzt werden, um mithilfe von KI Objekte in Satellitenbildern zu erkennen oder bei Krebsvorsorgeuntersuchungen zur Früherkennung von Krankheiten.

2. Industrielle Anwendungen erfordern Spezialisierung

Industrielle Anwendungsmöglichkeiten werden zu einem wichtigen Einsatzfeld für KI, erfordern aber auch eine größere Spezialisierung. Damit IoT- und KI-getriebene Anwendungen wie Smart Cities, Predictive Maintenance und Industry 4.0 von visionären Konzepten zur Realität werden, müssen einige Kriterien erfüllt sein. Sicherheitskritische Anwendungen verlangen beispielsweise nach einer höheren Verlässlichkeit und Verifizierbarkeit. Wohingegen fortschrittliche mechatronische Systeme Designansätze benötigen, die mechanische, elektrische und andere Komponenten integrieren.

Eine weitere Herausforderung ist, dass diese spezialisierten Anwendungen wie zum Beispiel Systeme zur Erkennung von Überhitzung bei Flugzeugtriebwerken oft von dezentralen Entwicklungs- und Serviceteams entwickelt und verwaltet werden. Sie sind somit nicht unter der IT zentralisiert.

3. Interoperabilität

Für den Aufbau einer umfassenden KI-Lösung ist die Zusammenarbeit von verschiedenen Systemen, Programmen oder Plattformen essentiell. Die Realität ist, dass es kein einzelnes Framework gibt, das die besten Lösungen für alle Anwendungsbereiche der KI bieten kann. Derzeit konzentriert sich jedes Deep Learning Framework auf einige wenige Anwendungen und Produktionsplattformen, während effektive Lösungen Teile aus mehreren verschiedenen Workflows zusammenführen müssen.

Dies erzeugt Reibung und reduziert die Produktivität. Diesem Problem nehmen sich Unternehmen wie ONNX.ai an. Sie bieten eine Umgebung, in der Entwickler das beste Werkzeug frei wählen, ihre Modelle einfacher teilen und ihre Lösungen auf einer breiten Palette von Produktionsplattformen einsetzen können.

4. Cloud Computing

Gerade Public Clouds werden zunehmend als Host-Plattform für KI genutzt. Sie werden sich weiterentwickeln, um die Komplexität zu reduzieren und werden die Abhängigkeit von IT-Abteilungen verringern.

Leistungsstarke GPU-Instanzen (Graphics Processing Unit), flexible Speicheroptionen und produktionsreife Containertechnologien sind nur drei Gründe, warum KI-Anwendungen zunehmend Cloud-basiert sind. Für Ingenieure und Wissenschaftler erleichtert die Cloud-basierte Entwicklung die Zusammenarbeit und ermöglicht die bedarfsgerechte Nutzung von Computerressourcen, anstatt teure Hardware mit begrenzter Lebensdauer zu kaufen. Cloud-, Hard- und Softwareanbieter erkennen jedoch, dass diese Technologieplattformen für Ingenieure und Wissenschaftler oft schwierig einzurichten und in ihren Entwicklungsabläufen zu nutzen ist.

5. Edge Computing

Edge Computing wird Künstliche-Intelligenz-Anwendungen in Szenarien ermöglichen, in denen die Verarbeitung lokal erfolgen muss. Edge Computing für leistungsstarke, immer komplexere KI-Lösungen in Echtzeit wird durch die Fortschritte bei Sensoren und energiesparenden Computer-architekturen möglich gemacht. Gerade für die Sicherheit in autonomen Fahrzeugen, die ihre Umgebung verstehen und davon ausgehend Verkehrssituationen in Echtzeit bewerten müssen, wird Edge Computing von entscheidender Bedeutung sein.

6. Stärkere Zusammenarbeit

Der zunehmende Einsatz von Machine und Deep Learning in komplexen Systemen wird viel mehr Mitarbeiter und eine stärkere Zusammenarbeit erfordern. Datenerhebung, -synthese und -kennzeichnung erhöhen den Umfang und die Komplexität von Deep-Learning-Projekten und erfordern größere, dezentralisierte Teams.

System- und Embedded-Ingenieure benötigen Flexibilität bei der Bereitstellung von Inferenzmodellen in Rechenzentren, Cloud-Plattformen und Embedded-Architekturen wie FPGAs (Field Programmable Gate Array), ASICs (Application-Specific Integrated Circuit) und Mikrocontrollern. Zusätzlich müssen sie über Fachwissen in den Bereichen Optimierung, Energiemanagement und Wiederverwendung von Komponenten verfügen. Ingenieure, die Inferenzmodelle entwickeln, müssen diese Informationen zusammenführen. Sie benötigen Werkzeuge, um die ständig wachsende Menge an Trainingsdaten zu bewerten und zu verwalten sowie für das Lifecycle-Management der Inferenzmodelle, die sie an Systemingenieure weitergeben.

Der Autor: Dr. Frank Graeber, Manager Application Engineering bei Mathworks

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige

Digital-Gipfel in Dortmund

Festo unterstützt GAIA-X

Beim Digital-Gipfel am 28. und 29. Oktober stellte das Bundeswirtschaftsministerium das Projekt GAIA-X zum Aufbau einer vernetzten, offenen Dateninfrastruktur als „Wiege eines offenen, digitalen KI-Ökosystems“ vor. Festo unterstützt den Aufbau einer...

mehr...
Anzeige

Digitale Transformation

Mehr Nutzenargumentation, bitte

Wer den Debatten um die Industrie 4.0 und das Internet of Things folgt, der könnte den Eindruck gewinnen, dass der Erfolg dieser Initiativen rein von der eingesetzten Technologie abhängig wäre. Ein gefährlicher Trugschluss, der den Blick auf das...

mehr...
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite